Vous êtes sur la page 1sur 3

Convolution de variables aléatoires discrètes et applications

Introduction.

La technique de convolution permet dans certaines situations de donner une expression de la loi
de probabilité de la somme de variables aléatoires. Le cas échéant, elle permet de donner un
algorithme qui permet de calculer des probabilités de la somme de variables aléatoires en
utilisant les lois de probabilités de chacune variable.

Définition.

X et Y sont deux variables aléatoires discrètes à valeurs entières de lois de probabilités f et g et


    . Pour tout entier z, on a :
 
 
      
   /  
  

 

Si de plus les variables X et Y sont indépendantes, On a :

 
 ∑
  
   
 ∑ 
 

C’est cette dernière expression qui s’appelle le produit de convolution de f et g et on écrit



  

 
 



Le produit de convolution est commutatif et associatif.

Ce résultat se généralise à la somme de n variables aléatoires indépendantes  ,  … . . ,  . Si


 ,  , … . ,  sont les lois de probabilités de  ,  … . . ,  , alors la loi de probabilité de
  ∑  est     … .  . Cependant pour les applications, on écrit

  ∑
       et on procède par induction.

Exemples d’utilisation.

1. Somme de lois binomiales.

Si X et Y deux variables aléatoires indépendantes où  ~ ! , "


et  ~ !#, "
, alors la
variable    ~ !  #, "
.

On veut montrer que

# '
    $
 % & " 1  "
)*'
$

1
'

    $
   
$
 +
$  +

,
'
#
    $
 % & " 1  "
 % & "' 1  "
*'

+ $+
,

Remarque. si k dépasse n, L’événement (X = i) pour est vide pour tous les i dépassant n. Ceci
n’ajoute rien à la somme ci-dessus car -.  0 pour i >n. La même remarque s’applique si
$  + 0 #.
'
#
    $
 % & % & "' 1  "
)*'
+ $+
,
'
' )*'
#
    $
 " 1  "
% &% &
+ $+
,
Il reste à montrer que La formule de Vandermonde
'
# #
% &% &% &
+ $+ $
,

Cette formule a une explication simple. Supposons qu’on a un ensemble E à n+m éléments, le
nombre de parties ayant k éléments est le nombre de combinaisons -)*
'
..

D’autre part, on divise cet ensemble en deux parties disjointes de n et m éléments


respectivement. Une partie de E ayant k éléments est formée de i éléments parmi n et k-i
éléments parmi m pour i allant de 0 à k. Comme il y a -. parties à i éléments parmi n et -'
*
.
parties à k-i éléments parmi m. Par le principe de multiplication, il y a donc -.-'
*
. parties à k
éléments pour chaque choix de i et par conséquent le nombre de parties à k éléments parmi
n+m est ∑',-.-'
*
..

Par induction, ce résultat se généralise à la somme de n variables binomiales indépendantes de


même probabilité de succès.

2. Somme de lois géométriques.

Si X et Y deux variables aléatoires géométriques indépendantes ayant la même probabilité de


succès p, alors la variable    suit une loi binomiale négative 1!2, "
.

La loi binomiale négative donne la probabilité du nombre d’essais jusqu’à l’obtention de 2


succès notée 1!2, "
et sa loi de probabilité est $
 -'

." 1  "
' pour $ 3 2.

Pour $ 3 2, on a :

2
' '
    $
   
$
 +
$  +
 " 1  "
 "1  "
'
 

'
    $
   
$
 " 1  "
'


'
    $
 " 1  "
' 1  $  1
" 1  "
'


$1 
    $
 $  1
" 1  "
'  % & " 1  "
'
1
Par induction, ce résultat se généralise à la somme de n variables géométriques indépendantes
' 
de même probabilité de succès p. La loi de   ∑  est   $
 4 5" 1  "
'

pour $ 3 . On obtient la densité de la loi binomiale négative qui donne la probabilité du


nombre d’essais jusqu’à l’obtention de n succès notée 1! , "
.

3. Somme de lois de Poisson.

Si X suit une loi de Poisson de paramètre 6 , Y suit une loi de Poisson de paramètre 6 et X et Y
indépendantes alors X+Y suit une loi de Poisson de paramètre 6  6.

Preuve : Soit $ 3 0. Montrons que


6  6
'  78 )79

    $

$!
'

    $
   
$
 +
$  +

,
'
6  78 6'
 
79
    $

+! $  +
!
,
'
78 )7

6 6'
 $!
    $
 
+! $  +
! $!
,
'
 78 )7
$
    $
 6 6'
 % &
$! +
,

Or
'
$
6 6'
 % &  6  6
'
+
,

6  6
'  78 )7

    $

$!
Ce résultat se généralise à la somme de n lois de poisson indépendantes.

Vous aimerez peut-être aussi