Vous êtes sur la page 1sur 12

2011

TP n°2: TELECOM

-CHARAF MOHAMED EL MEHDI


-LAGRAWI HAMZA
MASTER RESEAUX &
TELECOMMUNICATIONS
2011/2012
TP n°2: TELECOM

Pr. M BOUSMAH

Pr. Mme LABOUIDYA

Pr. M SABRI

Binôme :

LAGRAWI HAMZA CHARAF Mohamed


EL Mehdi
1. La commande permettant la saisie de cette matrice :

Pxy=[1/15 3/15 1/15;8/27 7/27 1/27;1/27 4/135 1/135]

2. La commande permettant de vérifier que :

sum(sum(Pxy))

3. Le programme permettant de vérifier que :

s=0;
for i=1:3
for j=1:3
s=s+Pxy(i,j);
end
end
disp(s)

4. La commande permettant de calculer les probabilités P(xi):

Px1=sum(Pxy(1,:)),Px2=sum(Pxy(2,:)),Px3=sum(Pxy(3,:))

• sum(Pxy(1,:)) = 0.3333

• sum(Pxy(2,:))= 0.5926

• sum(pxy(3, :))= 0.0741


5. Le programme permettant de calculer les probabilités P(xi):

for i=1:3
s=0;
for j=1:3
s=s+Pxy(i,j);
end
Px(i)=s;
end
disp(Px)

6. La commande permettant de calculer les probabilités P(yj):

Py1=sum(Pxy(:,1)),Py2=sum(Pxy(:,2)),Py3=sum(Pxy(:,3))

• sum(Pxy( :,1)) = 0.4000

• sum(Pxy( :,2))= 0.4889

• sum(pxy( :, 3))= 0.1111

7. Le programme permettant de calculer les probabilités P(yj):

for j=1:3
s=0;
for i=1:3
s=s+Pxy(i,j);
end
Py(j)=s;
end
disp(Py)

8. la commande permettant de calculer l'entropie conjointe H(X,Y) :

Hxy=-sum(sum(Pxy.*log2(Pxy))) =2.5652

9. le programme permettant de calculer l'entropie conjointe H(X,Y) :

Hxy=0;
for i=1:3
for j=1:3
Hxy=-Pxy(i,j).*log2(Pxy(i,j))+Hxy;
end
end
disp(Hxy)

10. la commande permettant de calculer l'entropie H(X) :

Hx=-sum(Px.*log2(Px))

11. la commande permettant de calculer l'entropie H(Y) :

Hy=-sum(Py.*log2(Py))

12. Les deux sources sont-elles indépendantes ? Justifier votre réponse

Non les deux sources ne sont pas indépendantes car : H(Y,X ) ˂ H(X). H(Y)

13. la commande permettant de calculer l'entropie H(Y/X ) :

Hylx=hxy-Hx

14. la commande permettant de calculer l'entropie H(X/Y) :

Hxly=hxy-Hy

15. la commande permettant de calculer la quantité d'information mutuelle I(X, Y) :

Ixy=Hx+Hy-hxy

16. Conclusion :

Ixy est petit cela influence sur le canal

TP12
On considère une source binaire avec deux symboles "0" et "1" de probabilités respectives p et 1-p et une
entropie H(S) :
1. le programme permettant de représenter l’entropie H(S) en fonction de p:

P=0:1/100:1;
H=-P.*log2(P)-(1-P).*log2(1-P);
plot(P,H), grid on
xlabel('P'),ylabel('H')

2. Représentation de résultat :

3. Conclusion :

L’entropie est maximale pour P=0,5 et vaut zéro pour P=0 et P=1
TP13
On considère la chaîne de transmission suivante:

La capacité C du canal est atteinte lorsque les deux symboles de la source d'entrée sont équiprobables
(voir cours) avec:

1. le programme permettant de représenter C en fonction de p:

P=0:1/100:1;
C=1+P.*log2(P)+(1-P).*log2(1-P);
plot(P,C),grid on
xlabel('P'),ylabel('C')
2. Représentation de résultat :

3. Conclusion :

Lorsque la probabilité d'erreur est de 50%, la capacité du canal est nulle, lorsqu'elle est égale à 0% ou
100% la capacité du canal est maximale (une erreur de 100% correspond à une simple inversion des bits
"0" et "1" par le canal)

TP14

Une source X génère des symboles à partir d’un alphabet à 8 lettres {A, B, C, D, E, F, G, H} avec
des probabilités :

P(A)=0.15, P(B)=0.15, P(C)=0.06, P(D)=0.1, P(E)=0.4, P(F)=0.1, P(G)=0.02, P(H)=0.02

1. la commande permettant de calculer l’entropie de la source

Hx= -sum((Px).*log2(Px)
2. Code Huffman

a. Générez le code Huffman pour cette source en utilisant le programme


huffman.m ci-joint.

symbole A B C D E F G H
code 010 001 00010 011 1 0000 000110 000111

b. Représenter l’arbre de ce codage

c. Générez manuellement le code Huffman pour cette source


d. Déduire son efficacité et sa redondance

Efficacité = 0.97777
Redondance = 0.022231

e. Conclusions

Le codage de Huffman est un algorithme de compression de données sans perte.

3. Code Shannon-Fano
3 Code Shannon-Fano

a) Générez manuellement le code Shannon-Fano pour cette source

symbole A B C D E F G H
code 100 01 1110 101 00 110 11110 11111

c. Calculez son efficacité et sa redondance


d. Représenter l’arbre de ce codage