Vous êtes sur la page 1sur 75

CAPITULO I

INTRODUCCION
CONTENIDO
INTRODUCCION
ELEMENTOS DE UN SISTEMA DE COMUNICACIONES
ANALOGICO
ELEMENTOS DE UN SISTEMA DE COMUNICACIONES DIGITAL
INTRODUCCION
El hombre siempre ha sentido la necesidad de intercambiar
informacin, y aunque al principio logr con seales visuales
(espejos, humo,etc.), su expansin sobre la tierra obligo a
perfeccionar los medios de comunicacin.
Hoy en da el mtodo ms rpido, eficiente y de mayor cobertura
es la transmisin y recepcin de mensajes en forma
electrnica.
INTRODUCCION
Los primeros pasos se dan alrededor de 1838 con la telegrafa
alambrada o telgrafo de Morse; unas dcadas despus (1879)
aparece el telfono y solo a comienzos del siglo XX aparece la
radio. Luego surgen el radar y la televisin.
ELEMENTOSAdapta
DEelUN SISTEMA
mensaje ya
DE
Es el lazo entre
COMUNICACIONES
Tiene como
funcin rescatar
convertido en seales el transmisor y la seal del
elctricas al medio
El transductor es elde el receptor. Ej: medio de
Un sistema de comunicacin es aquel que logra transmitir
transmisin,
encargadoimplica
de un fibra optica, air, transmisin,
proceso
convertirdecualquiera
modulacin etc. Convertir las
informacin de un punto a otro.
de los mensajes en
demodular.
seales elctricas
una seal elctrica en un mensaje
equivalente (voltaje o adecuado. Ej. Un
corriente).Ej. altavoz, una
microfono,etc. pantalla,etc.
ELEMENTOS DESe har
UNnfasis
SISTEMA
en el
DE COMUNICACIONES
principio de operacin
de los codificadores de
En esta presentacin se tratarn sistemas de comunicaciones
entropia. Ej. Shannon-
Fano y Huffman
digitales constituidos por los siguientes componentes:
Cubrir diversas
tcnicas para
deteccin y
correccin de
Modulaciones
errores.Ej:
digitales:
ASK (modulacin por
desplazamiento de amplitud)
PSK (modulacin por
desplazamiento de fase), etc.
CAPITULO
II
TEORIA DE LA INFORMACION Y
CODIFICACION DE FUENTE
CONTENIDO
ELEMENTOS DE UN SISTEMA DE COMUNICACIONES
TEORIA DE LA INFORMACION
FUENTE DE INFORMACION DE MEMORIA NULA
CANTIDAD DE INFOMACION EN UN MENSAJE
ENTROPIA
TASA DE INFORMACION
TEOREMA DE SHANNON
CAPACIDAD DEL CANAL
LIMITE DE CAPACIDAD DE UN CANAL
CODIFICACION DE FUENTE
CODIGOS COMPACTOS
CONTENIDO
CODIGOS INSTANTANEOS
CODIGOS DE LONGITUD VARIABLE
CODIFICACION DE SHANNON-FANO
CODIGO HUFFMAN
CODIGOA COMPACTOS PARA MENSAJES M-arios
COMUNICACIONES LIBRE DE ERRORES SOBRE CANALES RUIDOS
ELEMENTOS DE UN SISTEMA DE COMUNICACIONES
El codificador de fuente
tambin se puede
Los smbolos encargar de codificar Por su parte, el
son generados eficientemente los datos
codificador de canal
por una fuente binarios introducir bits
redundantes de una
manera controlada
Seal

Codificador Codificador Modulador


Fuente
de fuente de canal digital

Mensaje
Canal Perturbacion

Decodificador Decodificador Demodulador


Salida
de fuente de canal digital
La Modulacin engloba el conjunto de tcnicas que se utilizan
para transportar informacin sobre una onda portadora, dichas
tcnicas permiten un mejor aprovechamiento del canal de
comunicacin y posibilita transmitir informacin de forma
simultanea, adems de mejorar la resistencia contra el ruido y
las posibles interferencias.
PAM
TEORIA DE LA INFORMACION
La teora de informacin puede ser vista como una
rama de la teora de probabilidad aplicada y dentro
del rea de comunicaciones tiene dos objetivos:
a) El desarrollo de los lmites tericos de
desempeo que se pueden alcanzar en cuanto
a la transmisin de una fuente, a travs de un
canal determinado utilizando cierto tipo de
codificacin.
b) El desarrollo de nuevos esquemas de
codificacin que logren un desempeo
razonablemente comparado con el lmite
terico.
Una transmisin digital ideal es aquella en donde no ocurren
errores. Sin embargo en el sistema existe ruido que aumenta la
probabilidad de error. Una forma de reducir la probabilidad de
error sera aumentar la energa por bit Eb; para esto, o se
aumenta la potencia de transmisin S, o se reduce la velocidad
de transmisin Rb.
Eb=S/Rb
Shannon estableci que:
1) Mientras la tasa de transmisin se mantenga dentro de
ciertos lmites, se podr transmitir sin errores. No es necesario
que Rb (velocidad de transmisin) sea nula para lograrlo.

2) Para esto hay que transmitir por debajo de lo que se


conoce como capacidad del canal por segundo (C).

Shannon utiliz dos medidas:

a) La entropa de la fuente como medida de la cantidad de


informacin de la misma o autoinformacin.

b) Una medida de informacin mutua o sea la informacin


que un proceso tiene sobre otro.
FUENTE DE INFORMACION DE MEMORIA NULA

S = {s1, s2, ,sq}


P(s1), P(s2), , P(sq)
Fuente de informacin de Markov
Un determinado smbolo si depende de un nmero
finito m de smbolos precedentes. Tal fuente es
llamada fuente de Markov de orden m y viene
definida por su alfabeto, S, y el conjunto de
probabilidades condicionales.

P(si/si1, si2, , sim) para i= 1, 2, , q

En una fuente de Markov de orden m, la


probabilidad de un smbolo cualquiera viene
determinada por los m smbolos que lo preceden.
Ejemplo 1
Consideremos una fuente de Markov de segundo orden con un alfabeto
binario S= { 0, 1 }. Supongamos que las probabilidades condicionales son:

P(0/00) = P(1/11) = 0.8


P(1/00) = P(0/11) = 0.2
P(0/01) = P(0/10) = P(1/01) = P(1/10) = 0.5

Por ser q igual a 2 y haber supuesto la fuente de Markov de segundo


orden, tendremos cuatro estados diferentes 00, 01, 10, 11..
CANTIDAD DE INFOMACION EN UN MENSAJE
Cuando a uno le transmiten una noticia, mientras menos probable sea
ms informacin lleva con sigo. Por ejemplo:
Petrolero gane partidos en su cancha
Wilsterman es campen del mundo.
P=Probabilidad de un evento
I=Informacin
I es funcin de log 1/P
Desde el punto de vista prctico una empresa le cobra a uno por el
tiempo en que se tarda en transmitir un mensaje, la informacin en
un mensaje depende entonces del mnimo tiempo para
transmitirlo, esto implica que los mensajes menos probables se
tomarn ms tiempo en transmitirse. Si tomamos como ejemplo la
transmisin de letras de nuestro alfabeto, debisemos asignar
menos bits a la letra a (ocurre frecuentemente) que a la letra x
(ocurre raras veces).

El tiempo para transmitir un mensaje es proporcional a log (1/P).


ENTROPIA
Llamaremos entropa H a la cantidad de informacin
promedio por mensaje. Consideremos una fuente de
informacin de n smbolos, sin memoria, es decir donde
cada mensaje mi con probabilidad de ocurrencia Pi no
tiene ninguna relacin con los mensajes anteriormente
enviados.
La informacin contenida en cada mensaje mi ser

I= log2(1/Pi) bits

Entropa de una fuente es una medida de las probabilidades


de los mensajes.
La entropa es una medida de la incertidumbre promedio (por
mensaje) y tambin representa el nmero de bits requeridos
en promedio para codificar un mensaje de esa fuente.
mi es aleatoria.
Ejercicio
Una fuente produce 5 smbolos con probabilidades 1/2, 1/4,
1/8, 1/16 y 1/16. Calcular H.
H = (1/2) log2 2 + (1/4) log2 4 + (1/8) log2 8 + (1/16) log2 16 +
(1/16) log2 16
H = 1,875 bits
TASA DE INFORMACION
Si una fuente genera k mensajes por segundo y tiene
una entropa H, entonces la tasa de informacin R, en
bits por segundo, si es logaritmo en base 2, ser:
R=kH
Ejemplo: Una seal analgica, de ancho de banda B, es
muestreada a frecuencia de Nyquist (2B) y
cuantificada con 4 niveles (M=4) independientes.
Suponga que los 4 niveles ocurren con las siguientes
probabilidades:
P(N1)=P(N2)=1/8
P(N3)=P(N4)=3/8.
Determine la tasa de informacin de esta fuente.
Solucin:
H=p(N1)log(1/p(N1))+
p(N2)log(1/p(N2))+p(N3)log(1/p(N3))+p(N4)log(1/p(N4))=1.8
bits
Entonces la tasa de informacin ser

R=2B*H=3.6 B bits/seg
Ejemplo: Supongamos una fuente que emite 4 posibles mensajes:

m1, P(m1) =0.5; m2, P(m2) =0.3; m3, P(m3) =0.15; m4, P(m4) =0.05.
Entonces:

I(m1) =log 2(1/P(m1)) =3.32 log 10(1/P(m1)) =0.99

I(m2) =log 2(1/P(m2)) =3.32 log 10(1/P(m2)) =1.73

I(m3) =log 2(1/P(m3)) =3.32 log 10(1/P(m3)) =2.73

I(m4) =log 2(1/P(m4)) =3.32 log 10(1/P(m4)) =4.31

Si llegasen estos 4 mensajes uno tras otro (m1m2m3m4),


asumiendo independencia, la informacin total de este nuevo
mensaje sera igual a 9.76 bits. Si todos fuesen equiprobables
P(m1)= P(m2)= P(m3)= P(m4)=1/4
TEOREMA DE SHANNON
Para una fuente de M mensajes igualmente probables
los cuales se transmiten a una tasa R, si se envan por
un canal con una capacidad de canal igual a C,
entonces si R es menor que C siempre ser posible
transmitir sin errores.
Si una fuente consta de n mensajes discretos y estos
son enviados por un canal no ruidoso, cada mensaje
podr identificarse en el receptor. La mxima
entropa de la fuente ser

C=(1/T)log2n
Ejemplo
Una imagen tiene 300000 pixeles y cada uno puede
tener 10 niveles de grises. Determine la informacin
de cada posible imagen.
Solucin:
I = log2(10300000) = 300000log2(10) = 3,32x300000
I=996000 bits
Si se transmiten 30 cuadros por segundo, determine la
tasa de informacin
R=(30)(996000)
R= 29,9 Mbps
Ejemplo
Determine la informacin que llevan 1000
palabras que pertenecen a un vocabulario de
100000palabras.
Solucin:
I= 1000log2(100000)=
I= 3,32x1000xlog10(100000)
I=16600 bits
CAPACIDAD DEL CANAL
Tiene que ver con aspectos fsicos como el medio de
transmisin, el tipo de seal, el tipo de receptor, ya
que todos ellos afectan la transmisin de la
informacin.

Cs: es la mxima cantidad de informacin por muestra


La tasa de transmisin debe ser 2B muestras por
segundo (Nyquist) por lo tanto la capacidad del canal
ser
1 log
Cs =
2 [ S+N
N ]
Ejemplo
Qu velocidad se puede alcanzar en un canal
telefnico de 3,4KHz de ancho de banda si la
relacin seal a ruido es de 30 dB?
Solucin:
C= 3400 log2 (1001)
C= 3400(3,32)log(1001)
C= 33864 bps
Ejemplo :
Una imagen tiene 300000 pixeles y cada uno puede tener 10 niveles de
grises. Si se transmiten 30 imgenes por segundo cuando la relacin
seal a ruido es 30 dB.
Determine el mnimo ancho de banda requerido para transmitir la seal
de video.
Solucin:
I = log2(10300000) = 300000log2(10) = 3,32x 300000 = 996000 bits

Si se transmiten 30 cuadros por segundo, determine la tasa de


informacin

R=(30)(996000)= 29,9 Mbps=C

Para S/N= 30 dB, es decir S/N=1000, entonces

B=C/log2(1001)= 29,9 x106/3,32(log(1001))= 3 MHz


LIMITE DE CAPACIDAD DE UN CANAL
Las dos limitaciones ms importantes en el
funcionamiento de un sistema de
comunicaciones son:
1. Ruido
2. Ancho de banda
El teorema de Shannon indica que un canal sin
ruido tiene una capacidad infinita.
Cuando el ruido est presente la capacidad del
canal no se aproxima a infinito.
La capacidad de un canal llege a un lmite superior
finito con el aumento del ancho de banda.
Ejemplo:
Para un canal normal de comunicaciones en
banda de voz,con una relacin de potencias
de seal a ruido de 1000 (30 dB) y un ancho
de banda de 2.7 kHz, calcular la capacidad de
informacin.
Solucin:
I=2700 log 2(1+1000)
I=26.9kbps
CODIFICACION DE FUENTE
El objetivo es minimizar la tasa promedio de bits requerida para
representar la fuente de informacin, reduciendo su
redundancia.
H= log2(1/P) =log2n
CODIGOS COMPACTOS
La longitud de una palabra cdigo es igual al nmero de dgitos
de esa palabra cdigo.
Para una longitud promedio de H, tenemos que codificar una
secuencia de N mensajes (cuando N tiende a infinito); pero las
secuencias largas no son convenientes, son difciles de generar
y consumen mucho tiempo de transmisin.
CODIGOS INSTANTANEOS
Se dice que un cdigo es unvocamente
decodificable si dos secuencias cualesquiera de
smbolos de la fuente, de la misma o distinta
longitud, dan lugar a secuencias de smbolos
cdigos distintas.
Un cdigo unvovamente decodificable se
denomina instantaneo cuando es posible
decodificar las palabras de una secuencia sin
precisar el conociemiento de los smbolos que las
suceden
Ejemplo:

Cdigo A: es univovamente decodificable


porque comple con las siguiente condocin:
Tienen la misma longitud y adems es
evidentemente no singular.
Cdigo B: es univovamente decodificable.
No es singular, y adems contituye lo que se llama
cdigo coma
CODIGOS DE LONGITUD VARIABLE
Una forma intuitiva sera usar cdigos de
longitud variable donde se asignen cdigos
cortos a smbolos mas probables y cdigos
largos a los menos frecuentes.
Los codificadores que usan este principio se les
conoce como codificadores de entropa.
Ejemplo:
m1; P(m1)=0.5; m2; P(m2)=0.3; m3; P(m3)=0.15; m4;
P(m4)=0.05
m1------0
m2------10
m3------110
m4------1110
Si ahora calculamos el nmero promedio de bits en una
transmisin, este sera:
L=1x0.5+2x0.3+3x0.15+4x0.05= 1.75
H=1.64
CODIFICACION DE SHANNON-FANO
Se refiere a la probabilidad de aparicin de cada smbolo en un
mensaje.
Bsicamente se utiliza para la compresin de datos.
Ejemplo:

Si se enva el mensaje m1 m5 m6 m2 se codifica como:0011011101.


CODIGO HUFFMAN
El codigo huffman es ptima ya que la longitud promedio del
cdigo L es mnima para un modelo con probabilidades
especfica.
Es un compacto, y ptimo que tiende al ideal.
Ejemplo:
L = 0.3(2) + 0.25(2) + 0.15(3) + 0.12(3) + 0.1(3) + 0.08(3) = 2.45 bits.

H= 2.42
Recuerde que la entropa da la mnima cantidad posible de bits por
mensaje, para un mensaje muylargo N tiende a infinito.

=H/L=98%
Otro ejemplo Hufman
Otro Ejercicio

Vous aimerez peut-être aussi