Vous êtes sur la page 1sur 12

2011

TP n2: TELECOM

-CHARAF MOHAMED EL MEHDI


-LAGRAWI HAMZA
MASTER RESEAUX &
TELECOMMUNICATIONS
2011/2012

TP n2: TELECOM
Pr. M BOUSMAH
Pr. Mme LABOUIDYA
Pr. M SABRI

Binme:

LAGRAWI HAMZA

CHARAF Mohamed
EL Mehdi

1. La commande permettant la saisie de cette matrice :


Pxy=[1/15 3/15 1/15;8/27 7/27 1/27;1/27 4/135 1/135]
2. La commande permettant de vrifier que :

sum(sum(Pxy))
3. Le programme permettant de vrifier que :
s=0;
for i=1:3
for j=1:3
s=s+Pxy(i,j);
end
end
disp(s)

4. La commande permettant de calculer les probabilits P(xi):


Px1=sum(Pxy(1,:)),Px2=sum(Pxy(2,:)),Px3=sum(Pxy(3,:))

sum(Pxy(1,:)) = 0.3333
sum(Pxy(2,:))= 0.5926
sum(pxy(3, :))= 0.0741

5. Le programme permettant de calculer les probabilits P(xi):


for i=1:3
s=0;
for j=1:3
s=s+Pxy(i,j);
end
Px(i)=s;
end
disp(Px)

6. La commande permettant de calculer les probabilits P(yj):


Py1=sum(Pxy(:,1)),Py2=sum(Pxy(:,2)),Py3=sum(Pxy(:,3))

sum(Pxy( :,1)) = 0.4000


sum(Pxy( :,2))= 0.4889
sum(pxy( :, 3))= 0.1111
7. Le programme permettant de calculer les probabilits P(yj):
for j=1:3
s=0;
for i=1:3
s=s+Pxy(i,j);
end
Py(j)=s;
end
disp(Py)

8. la commande permettant de calculer l'entropie conjointe H(X,Y) :


Hxy=-sum(sum(Pxy.*log2(Pxy))) =2.5652
9. le programme permettant de calculer l'entropie conjointe H(X,Y) :

Hxy=0;
for i=1:3
for j=1:3
Hxy=-Pxy(i,j).*log2(Pxy(i,j))+Hxy;
end
end

disp(Hxy)

10. la commande permettant de calculer l'entropie H(X) :


Hx=-sum(Px.*log2(Px))
11. la commande permettant de calculer l'entropie H(Y) :
Hy=-sum(Py.*log2(Py))
12. Les deux sources sont-elles indpendantes ? Justifier votre rponse
Non les deux sources ne sont pas indpendantes car : H(Y,X ) H(X). H(Y)
13. la commande permettant de calculer l'entropie H(Y/X ) :
Hylx=hxy-Hx
14. la commande permettant de calculer l'entropie H(X/Y) :
Hxly=hxy-Hy
15. la commande permettant de calculer la quantit d'information mutuelle I(X, Y) :
Ixy=Hx+Hy-hxy
16. Conclusion :

Ixy est petit cela influence sur le canal

TP12
On considre une source binaire avec deux symboles "0" et "1" de probabilits respectives p et 1-p et une
entropie H(S) :

1. le programme permettant de reprsenter lentropie H(S) en fonction de p:


P=0:1/100:1;
H=-P.*log2(P)-(1-P).*log2(1-P);
plot(P,H), grid on
xlabel('P'),ylabel('H')

2. Reprsentation de rsultat :

3. Conclusion :
Lentropie est maximale pour P=0,5 et vaut zro pour P=0 et P=1

TP13
On considre la chane de transmission suivante:

La capacit C du canal est atteinte lorsque les deux symboles de la source d'entre sont quiprobables
(voir cours) avec:

1. le programme permettant de reprsenter C en fonction de p:

P=0:1/100:1;
C=1+P.*log2(P)+(1-P).*log2(1-P);
plot(P,C),grid on
xlabel('P'),ylabel('C')

2. Reprsentation de rsultat :

3. Conclusion :
Lorsque la probabilit d'erreur est de 50%, la capacit du canal est nulle, lorsqu'elle est gale 0% ou
100% la capacit du canal est maximale (une erreur de 100% correspond une simple inversion des bits
"0" et "1" par le canal)
TP14
Une source X gnre des symboles partir dun alphabet 8 lettres {A, B, C, D, E, F, G, H} avec
des probabilits :
P(A)=0.15, P(B)=0.15, P(C)=0.06, P(D)=0.1, P(E)=0.4, P(F)=0.1, P(G)=0.02, P(H)=0.02
1. la commande permettant de calculer lentropie de la source

Hx= -sum((Px).*log2(Px)

2. Code Huffman
a. Gnrez le code Huffman pour cette source en utilisant le programme
huffman.m ci-joint.

symbole

code

010

001

00010

011

0000

000110

000111

b. Reprsenter larbre de ce codage

c. Gnrez manuellement le code Huffman pour cette source

d. Dduire son efficacit et sa redondance

Efficacit = 0.97777
Redondance = 0.022231
e. Conclusions
Le codage de Huffman est un algorithme de compression de donnes sans perte.

3. Code Shannon-Fano

Code Shannon-Fano
a) Gnrez manuellement le code Shannon-Fano pour cette source

symbole
code

A
100

B
01

C
1110

D
101

c. Calculez son efficacit et sa redondance

E
00

F
110

G
11110

H
11111

d. Reprsenter larbre de ce codage