Académique Documents
Professionnel Documents
Culture Documents
Nous rappelons dans cette première partie de ce TP quelques notions de base dans l’étude et
l’analyse des variables aléatoires notamment celles qui sont les plus utilisées. Parmi les lois de
probabilités discrètes les plus utilisées nous avons la loi binomiale et la loi de Poisson
I. La loi uniforme
Une loi de probabilité discrète uniforme régissant une variable aléatoire X indique que tous les
éléments de cette variable aléatoire X, dont le nombre n est fini à savoir X={x a, xa+1, xa+2, …xb-1, ,xb},
possèdent une probabilité de réalisation identique ou équiprobable
{
1
pour a≤i≤b
P( X= xi )= n
0 ailleurs
La loi uniforme est la première loi que l’on simule. Diverses méthodes permettent ensuite de simuler à
partir de la loi uniforme, un grand nombre de lois, plus ou moins quelconques. Matlab permet de
simuler une loi uniforme en utilisant l’instruction : rand. Elle crée un nombre selon la loi uniforme
entre 0 et 1. Nous pouvons aussi utiliser l’intruction unifrnd(a,b) qui génère un nombre aléatoire à
partir de la distribution uniforme continue avec les limites inférieures a et supérieures b.
Remarque : Par contre l’instruction randn crée un nombre aléatoire selon la loi normale
clearall
a=2;
b=7;
nb=1000;
R = unifrnd(a,b,nb,1);
%figure;
%hist(R)
x = a:0.1:b;
p1=unifpdf(x,a,b);
holdon
figure;
stem(x,p1,'filled');
title('Probabilités de chaque évènement');
xlabel('Nombre d evenement');
ylabel('Probabilité');
Probabilités de chaque évènement
0.2
0.18
0.16
0.14
0.12
Probabilité
0.1
0.08
0.06
0.04
0.02
0
2 2.5 3 3.5 4 4.5 5 5.5 6 6.5 7
Nombre d evenement
Une épreuve de Bernoulli de probabilité p est une expérience aléatoire comportant deux
issues, le succès (avec une probabilité p) ou l'échec (avec une probabilité 1-p=q).
n!
p( X =k)=C kn p k qn−k avec Ckn=
k!(n−k )!
E(X) = np
Variance d’une loi binomiale
V(X) = np(1-p)
Exemple :
Une famille qui a sept (07) enfant, en supposant que la naissance de chaque enfant garçon ou
fille a la même probabilité p=0,5. Nous souhaitons donc trouver la densité de probabilité
correspondant à toutes les possibilités d’avoir 0, 1, 2, …., 7 garçons
Nous avons donc n=7, p=0.5 et nous devons déterminer B(7, 0,5) = ?
n=7;
p=0.5;
g = 0:7;
B=binopdf(g,7,0.5);
stem(g,B,'filled');
title('Nombre de garçons dans une famille de 7 enfants');
xlabel('Nombre de garçons');
ylabel('Probabilité');
Nombre de garçons dans une famille de 7 enfants
0.35
0.3
0.25
0.2
Probabilité
0.15
0.1
0.05
0
0 1 2 3 4 5 6 7
Nombre de garçons
Même exemple
n=7;
p=0.5;
g = 0:7;
figure;
B=binopdf(g,7,0.5);
stem(g,B,'filled');
title('Nombre de garçons dans une famille de 7 enfants');
xlabel('Nombre de garçons');
ylabel('Probabilité');
figure;
F=binocdf(g,n,p);
stairs(g,F);
title('Nombre de garçons dans une famille de 7 enfants');
xlabel('Nombre de garçons');
ylabel('Probabilité cumulée');
0.9
0.8
0.7
Probabilité cumulée
0.6
0.5
0.4
0.3
0.2
0.1
0
0 1 2 3 4 5 6 7
Nombre de garçons
Exemple précédent
[E,V] = binostat(7,0.5)
E = 3.5000 V = 1.7500
Nous pouvons verifier ces résultats avec les formules de l’espérance et de la variance d’une
variable aléatoire binomial données ci-dessus.
λk −λ
P( X=k)=e
k!
Quant à son espérance mathématique et sa variance ells sont données respectivement par :
E(X) = V(X) =
0.9
0.8
0.7
temps en secondes
0.6
0.5
0.4
0.3
0.2
0.1
0
0 50 100 150 200 250 300
Probabilité de passage d’une voiture
rand (300,1) crée un vecteur colonne de 300 nombres aléatoires entre 0 et 1, un pour chaque
seconde de l'intervalle.
L'opération booléenne <1 renvoie 1 pour chaque valeur inférieure à 1 et 0 pour le reste.
vv = 27
Pour voir à quoi ressemblent généralement les réalisations du processus de Poisson à travers
cet exemple il suffit de répéter les quatre dernières commandes suivantes :
vv = rand(300,1)<0.1;
t=1:300;
plot(t,vv,'o');
sum(vv)
0.07
0.06
0.05
Probabilité
0.04
0.03
0.02
0.01
0
0 10 20 30 40 50 60 70 80 90 100
Nombre de voitures
x = 0:100;
y = poisspdf(x,30);
figure;
stem(x,y,'filled');
title('Probabilité de passage d’un nombre de voitures en 5mn');
xlabel('Nombre de voitures');
ylabel('Probabilité');
Y= poisscdf(x,30);
figure;
stairs(x,Y);
title('Probabilité de passage d’un nombre de voitures en 5mn');
xlabel('Nombre de voitures');
ylabel('Probabilité cumulée');
Probabilité de passage d’un nombre de voitures en 5mn
1
0.9
0.8
0.7
Probabilité cumulée
0.6
0.5
0.4
0.3
0.2
0.1
0
0 10 20 30 40 50 60 70 80 90 100
Nombre de voitures
[E,V] = poisstat(30)
E= 30 V = 30
Uniforme :rand, unifrnd(a,b)
Binomial : binopdf, binocdf, binostat
Poisson : poisspdf, poisscdf, poisstat
A. THEORIE DE L’INFORMATION
I [ m k ]=−log 2 P ( mk )
Nous avons également besoin de calculer l’entropie de cet alphabet H(X) comme étant sa
quantité moyenne d’information :
H ( M ) =E [ I (mk ) ]−∑ P ( mk ) ×log 2 ( P ( m k ) )
k
S’il s’agit maintenant de deux alphabets discrets X et Y, comme par exemple les données
source envoyées par émetteur et les données reçues au niveau du récepteur, nous pouvons
alors calculer :
Clear all
a=2;
b=7;
nb=1000;
R = unifrnd(a,b,nb,1);
figure;
hist(R)
x = a:0.1:b;
p1=unifpdf(x,a,b);
holdon
figure;
stem(x,p1,'filled');
title('Probabilités de chaque évènement');
xlabel('Nombre d evenement');
ylabel('Probabilité');
e = - sum( p1 .* log2( max(p1,1e-20) ) );
disp(strcat(['Entropy=' num2str(e)]) );