Vous êtes sur la page 1sur 213

Importancia de las redes.

Las redes de datos cumplen una función importante al facilitar la comunicación


dentro de una red humana global. Hace un tiempo atrás cuando no se disponía del
suficiente desarrollo tecnológico las comunicaciones estaban limitadas a conversaciones
cara a cara, de manera tal que el tráfico de información se trataba de un asunto
estrictamente presencial. Desde la imprenta a la televisión, cada nuevo adelanto
tecnológico se ha desarrollado en función de mejorar y fortalecer dicha comunicación a tal
punto de consolidar un impacto profundo en nuestra manera de realizar actividades en el
presente. Por lo tanto, basados en que la necesidad de interactuar es casi tan importante
para nosotros como el aire, el agua o los alimentos, comprenderemos cuan esencial son
las comunicaciones para potenciar nuestra red humana hoy en día.

En la actualidad las redes de datos admiten la forma en que vivimos, en la manera


en que nos comunicamos, en el aprendizaje, en el trabajo y hasta en la manera de
entretenernos. El modo en que se producen las interacciones sociales, comerciales,
políticas y personales cambia en forma continua para estar al día con la evolución de esta
red global. Y además proporcionan la plataforma para los servicios que nos permiten
conectarnos, en forma local y global, con nuestra familia y amigos, así como también con
nuestro trabajo e intereses. Esta plataforma actualmente respalda el uso de textos,
gráficos, videos y voz.

¿Que es una red?

Una red en términos generales consiste, en un grupo de dispositivos conectados


entre ellos que utilizan un sistema de comunicaciones conectados por cables, señales,
ondas o cualquier otro método para el trasporte de datos, en el cual el objetivo
fundamental es que dichos dispositivos se comuniquen y puedan compartir recursos e
información.

Internet es el ejemplo más representativo de lo que significa una red, se le conoce


como la red de redes y está compuesta por miles de computadoras y dispositivos
conectados entre sí.
Un breve repaso sobre la historia del internet nos ayudara a adquirir un poco de
perspectiva para entender un poco de donde nace la red de redes.

¿Como nacio Internet?


(De ARPANET a Tim Berners-Lee. Línea de tiempo de la Red.)

En los siglos XVIII y XIX cuando los científicos trabajaban por el placer de inventar,
para explicar fenómenos naturales, hacer dinero o sencillamente hacer contribuciones a
la humanidad nacieron muchísimos e importantes invenciones y avances, en materia de
tecnología para las comunicaciones, la radio y el teléfono son ejemplo de ello. Pero para
los siglos siguientes, léase XX y XXI la mayor parte de los avances científicos y tecnológicos
han sido fruto de investigaciones militares. Internet también lo es. La red de redes nació
como un experimento militar a finales de los años setenta. El mundo estaba dividido en
dos bloques y la guerra fría representaba una amenaza para la paz, Las Fuerzas Armadas
Estadounidenses estaban preocupadas por descentralizar sus comunicaciones ya que si
algo le ocurría al centro de datos terminaría por perderse toda la información contenida
en el mismo. El DARPA (Agencia de Proyectos de Investigación para la Defensa) comenzó a
imaginar una gran red que permitiera descentralizar las comunicaciones. La idea fue
distribuir la información entre varias computadoras llamados nodos.

El primer problema que enfrentaron fue la forma en que enviarían la información.


En sus inicios, las computadoras almacenaban los datos de forma manual, con tarjetas
perforadas y, más tarde, soportes magnéticos. Unos años después, investigadores del
Instituto Tecnológico de Massachusetts, habían comenzado a indagar sobre un
revolucionario método para mandar información basado en la conmutación de paquetes.
Se desmenuzaban los datos en partes y se les asignaba un número de secuencia. La
información se mandaba en esos paquetes, sin importar que se desordenaran, porque al
recibirla se podía componer de nuevo el orden con la ayuda del número de secuencia.

A estos métodos de comunicaciones se les llamó protocolos y a éste en concreto


NCP (Network Control Protocol – Protocolo de Control de Redes). Poco después, ante el
crecimiento desmesurado de la Red, hubo que inventar otros. Los tres que se siguen
usando hoy en día son el DNS (Domain Name System), el TCP (Protocolo de Control de
Transmisión) y el IP (Protocolo de Internet). Estos dos últimos siempre van de la mano:
TCP/ IP.
Con cuarenta nodos interconectados, en 1972 nacía ARPANET. Los militares
estadounidenses dormían tranquilos sabiendo que sus “Top Secret” estaban más seguros.
Pero aún había algo que les inquietaba. A principios de los 80, en el Reino Unido, una red
similar se estaba poniendo a disposición de universidades y científicos, se llamó JA.NET.
Los norteamericanos no querían ser los últimos en ofrecer al mundo académico una red
de datos. Para lograr esto, la única opción era compartir su “tesoro”. ARPANET se abre en
1983, abandona a los militares y comienza el intercambio de datos a través de la red de
forma masiva con el acceso de universidades y centros de investigación. Por este motivo,
el año 1983 se celebra como el inicio de Internet.

En aquel año, Internet no era una Red como la que conocemos ahora, con páginas y
otros servicios. Los sitios Web no existían. Estos nodos eran usados para el intercambio de
datos a través de Protocolos de Transferencia de Archivos (FTP), un incipiente “e-mail” y
un básico chat (IRC) desarrollado en 1988 y que no tiene nada que ver con los programas
que usamos hoy para “chatear”.

Los datos seguían fluyendo a través de Internet, pero era necesario acercarlo al
público en general. Hasta ahora, sólo estudiantes, profesores e investigadores podían leer
los enredados criptogramas que aparecían en aquellas pantallas. Había que hacer la red
más amigable.

Fue la hora de Gopher. Era un entorno gráfico que, sin ser propiamente un
navegador Web como los que conocemos hoy, organizó en 1991 la información en
carpetas y archivos haciéndolos más accesibles. Pero la solución definitiva se dio la mente
del inglés Tim Berners-Lee. El 6 de agosto de 1991, este joven científico del CERN
(Laboratorio Europeo de Física de Partículas) dio a conocer la Worl Wide Web (Gran
Telaraña o Red Global Mundial) o www como la conocemos cariñosamente.

Las primeras páginas que anunciaban el proyecto eran sólo texto con enlaces y
posteriormente, navegadores-editores muy básicos. Dos años después, el CERN hacía un
anuncio sorprendente: la Web no quedaría en manos de nadie, sería universal, una
herramienta para el futuro de la humanidad. Y no se equivocaron. Ese mismo año 1993 se
presentó Mosaic, el navegador con el que se popularizó la Web. En el mundo ya había dos
millones de servidores y 600 páginas Web. La Web agarró terreno y hasta hoy no hay
quien la detenga.
Año 95
Se populariza el uso de sitios Web, sobre todo a nivel
comercial. Para ese entonces, ya hay 6.5 millones de
servidores y más de 100,000 páginas. La Web llega a todas las
esferas, políticas y religiosas. Los gobiernos se hacen
presentes en la Red y hasta el Vaticano se pone “on-line” con
Figura 1
el mensaje navideño del Papa Juan Pablo II.

Año 96

Jack Smith y Sabeer Bhatia fundan Hotmail, un correo


electrónico al que se puede acceder desde la Web, lo que
populariza definitivamente el “email” que ahora está al
alcance de todas y todos y desde cualquier parte.
Figura 2
Posteriormente, sería adquirido por Microsoft.

Año 97
Más de un millón de páginas invaden la Web. Dos jóvenes,
en un garaje de California, inventan un logaritmo que
permite encontrar información en tal maraña de datos. Se
llaman Sergey Brin y Larry Page. Nace el buscador más
Figura 3 famoso de la Red.

Habría un antes y un después de Google. Esta es hoy una de las empresas más grandes y
económicamente poderosas del planeta.

Hasta el 2000
Durante los siguientes años, la Red crece y crece, se hace más fácil de usar, más
amigable y los usuarios ya no tienen que ser expertos para manejarla. Todas las
instituciones tienen su página Web, universidades, gobiernos, ONGs… ¡No estar en la Web
es no existir! También los medios de comunicación se hacen presentes. Comienzan a
leerse periódicos en línea y la prensa tradicional pretende ahora apropiarse de la
comunicación en la Red. Ante este dominio por parte de los grandes medios, aparecen las
primera Bitácoras o Blogs, diarios personales donde expresar opiniones. Miles de
aficionados y periodistas ciudadanos se animan a llenar la Red de blogs sobre política,
mascotas, cine o comida. Opinar en la Red deja de ser un privilegio.

Año 2001
Nace Wikipedia, la mayor y más popular obra de consulta
en Internet, una enciclopedia verdaderamente universal que se
ha ido construyendo con los aportes de miles y miles de
voluntarios y voluntarias a lo largo y ancho de la Web. Fundada
por Jimmy Wales y Larry Sanger, presenta ediciones en 265
idiomas. En total 13,7 millones de artículos escritos. Hoy día
Figura 4
enfrenta críticas por el sesgo y credibilidad de algunos artículos.

Año 2003
Tom Anderson crea MySpace.com, una página web
para relacionar amistades. En tu “perfil” puedes publicar
tus gustos musicales o tus fotografías. Nacen las Redes
Sociales. Un año después, en el 2004, Mark Zuckerberg
crea Facebook.com. Este sitio, pensado para estudiantes
de la Universidad de Harvard, deriva en una red social con
un éxito rotundo. Para el 2009 cuenta con 350 millones de
Figura 5
personas interconectadas entre sí y alcanza un valor de
150 millones de dólares. ¿Qué vende? Información. ¿Qué
produce? Información. Un valor en alza en la red. Así empezó lo que se denomina el
fenómeno de las redes sociales, no formar parte de una es como no existir.

En ese mismo año, acompañando al boom de las redes sociales, Tim O’Reilly habla
por primera vez de la Web 2.0. Trece años después de que Tim Berners-Lee diera a
conocer al mundo su invento, la Web evolucionaba y se hacía mayor de edad. Web 2.0 es
participación, construcción colectiva al estilo Wiki. Multimedia, audio y video gobiernan la
Web. Interactividad y redes sociales. Convergencia. Los cibernautas y las internautas,
sobre todo los más jóvenes, construyen la nueva Web.

Año 2005
Nuevamente en California, tres amigos, Chad Hurley, Steve Chen y Jawed Karim,
abren un sitio en la Red para compartir videos. Con el lema Transmite tú mismo
(Broadcast Yourself) llaman la atención de millones de personas de todo el planeta que
comienzan a mandar sus producciones caseras de video.
Veía la luz YouTube.com, el lugar más popular para el
intercambio de videos. Un año y medio después, Google lo
compra por 1.650 millones de dólares. ¡Qué negocio! Ese
mismo año, Google se anota otro tanto sacando la Web del
planeta. Presenta Google Maps, un sitio con fotos satelitales
de todo el globo terráqueo. Ahora puedes ver tu casa desde el Figura 6
espacio con una cercanía asombrosa.

Ya es difícil imaginarnos la vida sin Internet. En América Latina, hay más de 180
millones de conectados a la Red y el número aumenta cada día. Manejamos las cuentas
bancarias en la Web, compramos billetes aéreos, vendemos y subastamos nuestras
pertenencias, bajamos música, leemos los periódicos, conversamos por el chat con la
familia y amigos, hablamos por teléfono a través de Internet, se estudia en la Universidad
de forma virtual a través de E-learning, y cabe destacar que al igual que cuando al correo
lo transformaron en E-mail, el E-learning está tomando mucha forma hoy en día en la
manera en que aprendemos y nos formamos académicamente, casi nadie ya escribe
cartas a mano, todo el mundo abre su correo electrónico.

Aunque nació vestido de militar, el Internet se ha transformado en la mejor


herramienta ciudadana para democratizar las comunicaciones. Hoy la información está
universalizada y descentralizada, aunque todavía no para la mayoría de la población. La
brecha digital sigue siendo aún gigantesca. A continuación se muestra en la figura 7 un
ejemplo que ilustra el esquema general del funcionamiento de la red e Internet.

Figura 7
¿Que nos ofrece la red?
Aunque usamos Web e Internet como sinónimos, no hay que confundirlos, son
cosas diferentes. La www es solamente uno de los servicios que presta Internet, entre
muchos otros, que conoceremos a continuación.

WORLD WIDE WEB (WWW)


La gran telaraña mundial o World Wide Web se basa en el uso del hipertexto, que es
la posibilidad de enlazar unos datos con otros, creando vínculos dinámicos e interminables
cadenas de información.

Los sitios Web están escritos en un lenguaje especial. Aunque veamos letras, por
detrás de ellas hay un código. Una forma de lenguaje especial como el HTML que es
interpretado por programas llamados navegadores, como Firefox, Safari o Explorer. Con
ellos, visitamos las distintas páginas que forman un sitio Web.

CORREO ELECTRÓNICO
Los sellos postales han quedado obsoletos. Hoy, millones de correos electrónicos
invaden nuestra Bandeja de Entrada. El intercambio de información nunca fue tan fluido.
Los e-mails son vehículos eficientes y rápidos para comunicarnos. Hay aplicaciones en
Software Libre como Thunderbird, familia del navegador Firefox, desarrollados ambos por
la Fundación Mozilla. Otra es Outlook instalado en Windows. Para los que no tienen
correos con dominio propio hay múltiples plataformas Web que ofrecen correos libres.
Las más conocidas son Gmail, Yahoo y Hotmail.

CHAT O MENSAJERÍA INSTANTÁNEA


En algunas empresas lo han prohibido por la cantidad de horas que el personal lo
empleaba en conversaciones extra laborales. Pero el uso racional de los programas de
Chat o Mensajería facilita enormemente los esfuerzos de coordinación entre redes y
ahorra considerables costos en la factura del teléfono. Hay modalidades de Chat que
permiten el uso de una cámara Web (webcam) aumentando así la cercanía entre los que
hablan con una videoconferencia.

Hablamos de Chat o IRC, cuyas siglas significan Internet Relay Chat, para referirnos a
lo que cotidianamente llamamos Salas de Chat. Son sitios web donde entras y estableces
conversación con las personas que encuentras. Mientras que la Mensajería Instantánea se
refiere a programas como por ejemplo Google Talk o MSN donde agregas a las personas
con las que quieres comunicarte.
STREAMING
La Web pasó de ser un almacén de textos para convertirse en una gran biblioteca
multimedia con todo tipo de archivos en diferentes formatos. La aparición de la tecnología
streaming permitió escuchar audios y ver videos en tiempo real y sin necesidad de
descargarlos por completo, se observa mientras se va descargando. Este avance ha
permitido que muchas radios y televisoras transmitan su programación, además de la
señal tradicional, a través de Internet.

TELEFONÍA VoIP
Se trata de un grupo de recursos que hacen posible que la señal de voz viaje a través
de Internet empleando un protocolo IP (Protocolo de Internet) y han revolucionado las
comunicaciones vía teléfono pero, sobre todo, han reducido considerablemente los costos
por llamada. Se puede hablar gratuitamente de computadora a computadora, y de una
computadora a un teléfono fijo a precios muy bajos. Es la Voz sobre IP o telefonía en
Internet.

TRANSFERENCIA DE ARCHIVOS
P2P: Las redes P2P (peer to peer, entre iguales) se han convertido en la —gran
amenaza— para las grandes compañías discográficas y la industria del cine. Ante los
precios escandalosos, los amantes de la música y el video han tomado otras opciones. Con
esta tecnología se conectan entre sí computadoras de millones de usuarios y usuarias en
todo el mundo para compartir los discos y películas que tienen en sus archivos personales.

Una red peer-to-peer (P2P) o red de pares, es una red de computadoras en la que
todos o algunos aspectos de ésta funcionan sin clientes ni servidores fijos, sino una serie
de nodos que se comportan como iguales entre sí. Es decir, actúan simultáneamente
como clientes y servidores respecto a los demás nodos de la red.
(http://es.wikipedia.org/wiki/Peer-to-peer)

FTP: Este Protocolo de Transferencia de Archivos (File Transfer Protocol) facilita el


envío de archivos pesados de una computadora a otra. A través de un software, por
ejemplo Filezilla, libre y en español, podemos enviar y recibir los archivos. Enviar por
correo electrónico archivos pesados a múltiples receptores nos llevaría mucho tiempo.
Con el FTP colocamos el archivo en un lugar común (el servidor) y cada destinatario lo
descarga cuando quiere. También se utiliza para subir los archivos web al servidor remoto
cuando actualizamos nuestra página.
1.1.- Introducción al concepto genérico de redes
(EMISOR - RECEPTOR)

El termino Red de Computadoras es la definición otorgada al conjunto de


dispositivos electrónicos capaces de comunicarse entre ellos, ya sea a través de medios
guiados (cables conductores de cobre o fibra óptica) o no guiados (radiofrecuencia), con la
finalidad de compartir recursos, información o servicios dentro de una organización bajo
el propósito de incrementar la eficiencia y la productividad de las personas, potenciando
de esta manera la cooperación de una red humana.

Estas redes de computadoras cuentan con los elementos básicos de todo sistema
de comunicaciones para respaldar el envió inmediato de los millones de mensajes que se
intercambian entre las personas de todo el mundo, variando en tamaño y capacidades
pero en líneas generales todas las redes cuentan con cuatro (4) elementos clave que se
describen a continuación.

DISPOSITIVOS

MEDIOS

REGLAS

MENSAJES

(Figura 8)
1.1.1- DISPOSITIVOS.

Los dispositivos son todos aquellos elementos de la red que combinan


hardware y software para lograr la interconexión e intercambiar mensajes entre
sí.

Existen dos tipos de dispositivos:

 DISPOSITIVOS DE USUARIO FINAL: son todos aquellos elementos


emisores y receptores de datos, tales como computadoras, laptops,
teléfonos celulares, servidores, impresoras, teléfonos IP, entre otros. Es
decir, todos aquellos equipos y dispositivos que brindan servicios
directamente al usuario.

 DISPOSITIVOS DE RED: son todos aquellos equipos que permiten hacer


fluir el trafico y la comunicación de datos (información) entre los
dispositivos de usuario final, posibilitando su interconexión, tales como:
Routers, Switchs, Concentradores, Puntos de Acceso, Modems, entre
otros.

En la figura 8 se pueden observar dispositivos de usuario final y de red


como elementos que componen la red, cada uno de estos elementos tiene su
función específica en el proceso de comunicación. La manera en la que actúan
estos dispositivos se revelara más adelante en este manual.

1.1.2- MEDIOS.

Un medio de comunicación es aquel que sirve como transporte de datos


entre puntos generalmente distantes; existen varios tipos de medios, tales como:

 MEDIOS CONDUCTORES:
Son aquellos que pueden transmitir datos a través de pulsos eléctricos o
de luz.

 Medios conductores eléctricos:


Este medio de comunicación también se le conoce como medios de
cobre, ya que se refiere principalmente a la una forma de enviar
información a través de la variación de niveles de tensión o voltaje
sobre alambres de cobre.
 Medios conductores de luz:
Este medio de comunicación se le conoce como Fibra Óptica y a
diferencia de los medios de cobre que emplean el paso de
electrones a través de ellos para lograr la comunicación, la fibra
óptica emplea lo que se conoce como ondas o pulsos de luz para
lograr dicha comunicación. Dado que la fibra ha resultado ser una
solución mucho más efectiva para la comunicación a grandes
distancias ha logrado sustituir al medio de cobre en ese sentido.

CABLES SUBMARINOS Y FIBRA ÓPTICA

Las conexiones de Internet de un


continente a otro se realizan por
debajo del mar con cables
submarinos que recorren más de
diez mil kilómetros. Son de cobre
o, los más nuevos, de fibra óptica.
Se van acostando sobre el lecho
marino con barcos especiales.
(Figura 9)
La fibra óptica son cables especiales para la transmisión de datos. Están hechos de
vidrio u otros materiales plásticos trasparentes a través de los cuales se envía la
información digital como pulsos de luz.

Con estas conexiones se envían datos en grandes cantidades a grandes distancias sin
excesivas pérdidas. Además, al ser pulsos de luz, estos cables no se afectan por
interferencias electromagnéticas.

 MEDIOS RADIADOS (Radiofrecuencia):


Son aquellos que usan el espectro electromagnético (aire libre) para enviar
señales inalámbricas que han sido moduladas en una frecuencia de
portadora que generalmente contiene el mensaje (datos).

¿Qué es radiofrecuencia?, ¿Qué es el espectro electromagnético? Son términos de orden


inalámbrico y aunque responde a un estudio amplio y complejo, se darán a conocer
algunas definiciones como soporte a la importancia que posee esta tecnología sin cables.
ONDAS ELECTROMAGNETICAS: son una vibración entre campos eléctricos y campos
magnéticos que producen una forma de energía autoimpulsada, propagándose como
ondas sobre el aire libre para transmitir datos (información), posibilitando la
comunicación a través de distancias considerablemente lejanas. Aunque fue un trabajo de
muchos se conoce que fue el científico JAMES MAXWELL (1831-1879), quien demostró
matemáticamente que estas ondas de cualquier frecuencia y longitud de onda se
propagan en el vacio a la velocidad de la luz y a partir de ello, para 1888 fueron entonces
validadas experimentalmente por el físico Alemán HEINRICH HERTZ (1857-1894). Las
barreras físicas de la comunicación se rompieron ese día y se sentaron las bases de la
transmisión inalámbrica. Hoy en día los resultados de seguir experimentado con las ondas
electromagnéticas o hertzianas (Hz), como se llamaron en honor a su inventor, han dado
nacimiento a una gran cantidad de logros en el campo de la tecnología inalámbrica.

CLASIFICACIÓN DEL ESPECTRO ELECTROMAGNÉTICO

ESPECTRO ELECTROMAGNÉTICO

Se conoce así a la distribución energética del conjunto de


las ondas electromagnéticas y su clasificación en él. Todas
las ondas electromagnéticas de orden natural, como la luz
del sol, los colores del arco iris y las artificiales que son
generadas por transmisores construidos por el hombre
como por ejemplo: los de telefonía celular, radio y
televisión, etc, tienen lugar sobre dicho espectro.

Con la intensión de conocer de una forma básica y


representativa el espectro electromagnético, se presenta
esta torre que ejemplifica la clasificación de las ondas
electromagnéticas y los fenómenos, o tecnologías
asociados a cada nivel de la misma.

ESPECTRO AUDIBLE
Resulta importante destacar que además de las ondas
electromagnéticas y su clasificación, existen otro tipo de
ondas que no están comprendidas sobre el espectro
electromagnético, estas son las ¨ONDAS SONORAS¨ y
comprenden el rango de frecuencias de 20 Hz a 20.000 Hz
(20 Khz), también se le conoce a este rango de
frecuencias como ¨ESPECTRO AUDIBLE¨, dada las
capacidades y limitaciones de la sensibilidad del oído
humano a percibir ondas sonoras, dicho esto nótese
entonces que el espectro de las ondas electromagnéticas
es mucho mayor y casi infinito.
(Figura 10)
LAS RADIOFRECUENCIAS (RF).

Son un grupo de ondas comprendidas sobre el


rango de frecuencias que va desde los 30Hz hasta los 300
GHz que tienen identidad propia dentro del gran
espectro electromagnético y conforman el espectro
radioeléctrico.

La radiocomunicación es la comunicación que se da sin


cables usando ondas de radio que se propagan por el espacio
libre usando las bandas de RF, los usos más comunes de esta
tecnología son: las transmisiones de televisión, radio, radar,
telefonía móvil, redes inalámbricas, radioenlaces,
transmisiones satelitales, entre otros.

1.1.3- REGLAS.

Las reglas se refieren a los protocolos, los cuales se definen como un


conjunto de normas y convenciones que rigen de qué forma los dispositivos de una
red intercambian información. Los protocolos son una parte importante y esencial
del sistema ya que establecen y negocian la representación, señalización,
autenticación y detección de errores necesario para enviar y recibir información a
través de un canal de comunicaciones. Es decir; que si dos extremos de un sistema
de comunicaciones manejan protocolos diferentes no podrían comunicarse entre
ellos, aun cuando el estado físico y la conexión entre los dispositivos resulten
correctos se consideraría que “hablan” lenguajes diferentes. Por lo tanto la
necesidad de que todos “hablen el mismo idioma” hace necesario el uso de
protocolos estandarizados para poder entonces iniciar una comunicación en la que
dichos extremos puedan entenderse y negociar el intercambio de información
entre ellos. En tal sentido, el estudio y análisis de los protocolos se convierte en
una base fundamental para comprender el comportamiento de las redes.

Los protocolos definen detalladamente como el mensaje es transmitido y


entregado. Estas son algunas de las tareas principales que describen a los
protocolos de comunicación:
CRONOMETRAJE

PATRON DEL
MANSAJE TAMAÑO DEL
MENSAJE

PROTOCOLO

CODIFICACION ENCAPSULACION

(Figura 11)

1.1.3.1- CRONOMETRAJE:
Cronometraje se refiere a la evaluación del tiempo y es un factor que afecta que
tan preciso y comprensible es un mensaje, significa el tiempo que existe entre cada
mensaje enviado y recibido. Por ejemplo en una conversación entre dos individuos la
velocidad con la que pueden hablar determina su cronometraje en una conversación y el
tiempo que debe esperar el que escucha para poder hablar y entenderse mutuamente.

Dentro de este esquema existen 3 factores para la comprensión del mensaje:

 Acceso al medio.
 Control de flujo.
 Tiempo de respuesta.

ACCESO AL MEDIO: acceso al medio se refiere a determinar cuando alguien está


disponible para ocupar el medio y enviar (transmitir) un mensaje (datos). Por ejemplo:
(siguiendo con el ejemplo anteriormente mencionado) se trata de que una persona hable a
la vez, mientras que el otro solamente escucha y espera o prepara su turno para
expresarse, también puede interrumpir de manera brusca y expresarse pero, en fin de
cuentas para lograr el entendimiento solo uno tendrá que hablar a la vez, en caso
contrario se crea una confusión (colisión) en la cual la información se pierde y tendrán que
empezar otra vez. Esta medida permite asegurar que la comunicación sea satisfactoria, de
esta manera es necesario que una computadora cuente con un METODO DE CONTROL DE
ACCESO AL MEDIO para determinar quien ocupa el mismo al transmitir mensajes y así
evitar colisiones.

CONTROL DE FLUJO: el control de flujo se refiere a la velocidad con la que una


cantidad de información puede ser trasmitida y a la velocidad con la que puede ser
recibida e interpretada dicha información. Por ejemplo: si una persona habla muy rápido,
puede llegar a ser dificultoso para la otra persona escuchar y descifrar lo que se le está
diciendo. La persona que escucha probablemente tendrá que pedirle a quien habla que
repita el mensaje y que además hable de manera más pausada. En un sistema de
comunicaciones, el dispositivo emisor deberá transmitir sus datos al dispositivo receptor a
una velocidad en la cual esté sea capaz de recibir y procesar el contenido del mensaje,
para esto, ambos dispositivos deberán establecer una negociación de velocidad antes de
iniciar la transmisión de los datos.

TIEMPO DE RESPUESTA: se refiere a un tiempo limitado en el cual un dispositivo


emisor espera una respuesta, si este tiempo excede un límite se da por sobreentendido
que la comunicación culmino. Por ejemplo: si una persona pregunta y no recibe una
respuesta dentro de un tiempo considerablemente aceptable, la persona que pregunta
asume que existe una dificultad para quien le toca responder y se interrumpe la
conversación. En una red, los host cuentan con medidas que especifican la cantidad de
tiempo que pueden esperar por una respuesta y que acción tomar si se excede el mismo.

1.1.3.2.- TAMAÑO DEL MENSAJE:


El tamaño del mensaje es un factor que puede entenderse de la siguiente manera,
imaginemos que este manual de redes que está contemplado de manera segmentada en
un texto que separa los capítulos, módulos y temas de forma que permita organizar la
información por partes, no estuviese estructurado así, y en su lugar, se presentara en una
sola pieza corrida de texto sin parar hasta su última línea y punto final, en ese último caso
particular, sería muy difícil comprender el contenido del mismo y probablemente no
pueda llegar a ser efectiva la intensión de este manual. Entonces entiéndase que cuando
un host solicita transmitir información en la red, el mensaje a trasmitir necesita ser
segmentado en porciones más pequeñas para que el mismo pueda ser ensamblado del
lado del receptor y construir dicho mensaje. Las reglas que rigen el tamaño de las tramas
que recorren la red son muy estrictas y pueden incluso variar dependiendo del medio
usado para transmitir el mensaje.
1.1.3.3.- ENCAPSULACIÓN:
La encapsulación es el concepto principal del diseño de IP (Internet Protocol), y
significa en líneas generales poner una cosa dentro de la otra a través de un formato de
mensaje que tiene un orden específico. En el formato del mensaje existen varios campos
de longitud definida según el tipo de mensaje y el medio que se use para su entrega, se
debe identificar tanto al emisor como al receptor, determinar las direcciones de origen y
destino y además se utilizan campos para que se determine cuando empieza y cuando se
terminan de recibir los fragmentos “tramas” que componen al mensaje. Entonces a los
datos se le van adjuntando una cantidad de “cabeceras” que van realizando el
encapsulamiento como ya lo conoceremos más adelante en este manual.

El formato de encapsulación de una trama IP es similar al del siguiente ejemplo:

FORMATO DE UNA CARTA

Querida María.

Feliz cumpleaños, lamento no poder ido


a tu fiesta, te compre un regalo y pronto
lo veras, se que te gustara.

Atentamente:
Carlos.

Saludo Fin de la
Dirección Dirección (indicador Identificación trama.
Identificación
del del de inicio del DATOS (indicador
del emisor.
destinatario emisor del destinatario. de fin del
mensaje) mensaje)

DIRECCION DEL SOBRE ENCAPSULACION DE LA CARTA


Feliz cumpleaños,
Calle 1, zona Edificio el lamento no poder
residencia El turpial, ido a tu fiesta, te
Orinoco, casa Apartamento Querida María. compre un regalo y Carlos. ¡Suerte!
10, Valencia, 15, Maracay, pronto lo veras, se
Edo Carabobo. Estado Aragua. que te gustara.

FORMATO DE UNA TRAMA IP

(Figura 12)
La figura anterior trata de brindar una aproximación al formato de la trama IP,
fíjese, como cada parte de la carta toma una representación en un campo del formato de
trama IP, la encapsulación es parte de un protocolo por el que tienen que pasar todos los
datos que viajan a través de la plataforma internet, el proceso de encapsulación es
realizado agregando encabezados en el extremo emisor, una vez completado este proceso
la trama podrá ser transmitida a través del medio. Los datos adjuntos a los encabezados
(trama), pasan por el canal de comunicaciones para llegar a su destino, siendo en este
último el lugar donde se repite un proceso inverso llamado desencapsulacion una vez
comprobado y verificado que se trata del destino final o host destino de los datos.

1.1.3.4.- CODIFICACIÓN:
La codificación digital se refiere a la aplicación de un código binario especifico
sobre los datos para alterar la apariencia de los mismos, y los hace no solo
incomprensibles para aquellas personas que no están autorizadas para ver la información,
sino que además permiten que sobre el medio o canal de comunicaciones dichos datos
viajen en una forma o combinación de formas que representen la lógica binaria.

Por lo tanto la codificación es un proceso esencial para la transmisión, es la forma


en la que el mensaje se transforma en señal, y dependiendo del medio por el cual pasara
el mensaje codificado, esta señal en su aspecto binario podría ser del tipo: impulsos
eléctricos, ondas electromagnéticas u ondas de luz.

Fuente del mensaje Codificacion Transmisor (TX)

CANAL DE
COMUNICACIONES

Destino del mensaje Decodificacion Receptor (RX)

(Figura 13)
1.1.3.5.- PATRON DEL MENSAJE:
El patrón del mensaje es una forma de identificar la cantidad de host con los cuales
se quiere establecer la comunicación de datos, existen varios patrones para la entrega de
un mensaje que vamos a citar con el siguiente ejemplo:

Algunas veces las personas desean comunicar algo a un individuo en particular,


otras veces quieren que la información sea recibida por un grupo de individuos al mismo
tiempo y por último se puede prestar el caso de que a todas las personas en un mismo
espacio les queramos transmitir la información.

La comunicación establecida de manera individual entre dos personas se puede


definir como una comunicación de uno-a-uno, cuando se trata de que solo un grupo,
reciba la misma información de manera simultánea, se trata una comunicación de uno-a-
varios, por último, el caso cuando tenemos que realizar la comunicación de manera
simultánea, a todas las personas existentes pertenecientes a un mismo grupo, será una
comunicación de uno-a-todos. En fin, note que existe un patrón de entrega de la
información que dependiendo de los requerimientos particulares de quien transmita se
tendrá que establecer uno u otro patrón.

Los host dentro de una red usan un patrón similar para la comunicación de los
mensajes, como veremos a continuación:

 Un UNICAST se refiere a un mensaje que cumple con el patrón de uno-a-uno. Es


decir que existe solo un destino para la trasmisión del mensaje.
 Un MULTICAST se refiere a un mensaje que cumple con el patrón de uno-a-varios.
El multicasting es la entrega del mismo mensaje a varios host de la red de manera
simultánea.
 Un BROADCAST se refiere a un mensaje que cumple con el patrón de uno-a-todos.
El broadcasting es la entrega de un mismo mensaje a todos los host de la red de
manera simultánea.

Todas las comunicaciones, tanto entre humanos como entre computadoras, son
gobernadas por reglas preestablecidas o protocolos. Estos protocolos han determinado las
características tanto de la fuente de los datos, como en el canal de datos y el destino de
datos, basados en estos parámetros los protocolos definen detalladamente las
consideraciones en cuanto al formato del mensaje, tamaño del mensaje, cronometraje,
encapsulación, codificación y patrón del mensaje.
1.1.4- MENSAJE.
Un mensaje o paquete de datos, es una agrupación lógica de información
que incluye un encabezado que contiene información de control y (generalmente)
los datos del usuario. Existe un proceso para la elaboración, transmisión y flujo del
mensaje dentro de una red de datos hasta su destino, donde se busca la máxima
efectividad de entrega, a fin de cuentas el propósito de las redes ya sean grandes o
pequeñas es poder asegurar la entrega satisfactoria del mensaje o dicho de otra
manera, de los millones de mensajes que circulan a través de la red.

En la transmisión existen algunas variedades que daremos a conocer a continuación:

TIPOS DE TRANSMISION:

 Transmisión simplex.
 Transmisión half-duplex.
 Transmisión full-duplex.

 TRANSMISION SIMPLEX: este tipo de transmisión se refiere a la capacidad de


enviar los datos en una única dirección entre una estación emisora y la estación
receptora. Por ejemplo: la radio y la televisión.

 TRANSMISION HALF-DUPLEX: este tipo de transmisión se refiere a la capacidad


de enviar los datos en ambas direcciones pero en una sola dirección a la vez
entre una estación emisora y la estación receptora. Por ejemplo: las radios de
policías y bomberos.

 TRANSMISION FULL-DUPLEX: este tipo de transmisión se refiere a la capacidad


de enviar datos de manera simultánea y en ambas direcciones entre una
estación emisora y la estación receptora. Por ejemplo: las conversaciones
telefónicas.

Lo descrito anteriormente, a través de una análisis de contenido establece las


bases generales para lo que requiere el estudio de los próximos tópicos a
continuación en este manual, por lo tanto la familiarización con los términos y
las conclusiones a las que pueda llegar al respecto, compártala y discútala
con sus compañeros para reforzar de esta manera el propio aprendizaje.
1.2.- Tipos de redes (LAN - MAN - WAN).

Existe una clasificación para las redes, esta clasificación varía en tamaño y
capacidades dependiendo del tipo de red al que estemos refiriéndonos. Existen entonces
tres tipos principales de redes que se describen a continuación:

 RED LAN (Local Area Network).


 RED MAN (Metropolitan Area Network).
 RED WAN (Wide Area Network).

1.2.1- RED DE ÁREA LOCAL (LAN, Local Area Network):


Las LAN se encuentran diseñadas para:

 Operar dentro de un área geográfica limitada.


 Permitir el multiacceso a medios con alto ancho de banda.
 Controlar la red de forma privada con administración local.
 Proporcionar conectividad continua a los servicios locales.
 Conectar dispositivos físicamente adyacentes.

En otras palabras, las LAN son redes de datos de alta velocidad y bajo nivel de
errores, característica que la convierte en un sistema muy fiable que abarcan un área
geográfica relativamente pequeña de unos cuantos cientos de metros, como por ejemplo
una institución, una comunidad o un edificio, etc. Derivado de su pequeño tamaño, estas
redes alcanzan habitualmente la velocidad de transmisión máxima que soportan las
“estaciones” de la red (100Mbps/1000Mbps).

La velocidad de transmisión debe ser muy elevada para poder adaptarse a las
necesidades de los usuarios y del equipo, además en la actualidad la convergencia de
servicios que actualmente ofrecen las redes hace necesario contar con altas velocidades
para el flujo y la entrega de paquetes del tipo (voz, video y datos). Las LAN conectan
estaciones de trabajo, dispositivos periféricos, terminales y otros dispositivos que se
encuentran en un mismo edificio u otras áreas geográficas limitadas. Este tipo de red
permite a las organizaciones aplicar la tecnología informática para compartir localmente
archivos e impresoras, así como también crear políticas de acceso a estos recursos, ya que
pueden ser controladas de forma privada bajo la administración local de la red, lo que
ofrece mucha flexibilidad.
Algunas tecnologías comunes de LAN son:
 Ethernet.
 Token Ring.
 FDDI.
(Estas tecnologías se describirán más adelante en este manual).

Las redes LAN cuentan con los siguientes componentes principales:

 Computadores.
 Tarjetas interfaz de red (NIC).
 Dispositivos periféricos.
 Medios de red.
 Dispositivos de red.

Ejemplo de red LAN:

(Figura 14)
1.2.2- RED DE ÁREA METROPOLITANA (MAN, Metropolitan Area Network):
La MAN es una red de área metropolitana que cubre un área física más amplia que
la de una LAN, como por ejemplo: una ciudad o municipio. Una MAN generalmente consta
de una o más LAN dentro de un área geográfica común. Por ejemplo un banco con varias
sucursales puede utilizar una MAN. Así que se puede decir que una MAN es una versión
mayor que la LAN o una forma de extender la red LAN, por lo general se utiliza un
proveedor de servicios para conectar dos o más sitios LAN utilizando líneas privadas de
comunicación o servicios ópticos enviando ases de luz a través de áreas públicas, también
es posible la creación de una MAN utilizando tecnologías de puente inalámbrico enviando
ondas electromagnéticas sobre el espectro.

Actualmente esta clasificación ha caído en desuso gracias al internet y las nuevas


ventajas en materia de seguridad y menor costo, normalmente sólo distinguimos entre
redes LAN y WAN.

En la siguiente figura podremos observar un ejemplo de red MAN:

(Figura 15)
1.2.3- RED DE ÁREA EXTENSA (WAN, Wide Area Network):
Una WAN es una red de comunicación de datos que opera más allá del alcance
geográfico de una LAN.

Las WAN se diferencian de las LAN en varios aspectos. Mientras que una LAN
conecta computadoras, dispositivos periféricos y otros dispositivos de un solo edificio u de
otra área geográfica pequeña, una WAN permite la transmisión de datos a través de
distancias geográficas mayores. Además, la empresa debe suscribirse a un proveedor de
servicios WAN para poder utilizar los servicios de red de portadora WAN. Las LAN
normalmente son propiedad de la empresa o de la organización que las utiliza. Las WAN
utilizan instalaciones suministradas por un proveedor de servicios, o portadora, como una
empresa proveedora de servicios de telefonía o una empresa proveedora de servicios de
cable, para conectar los sitios de una organización entre sí con sitios de otras
organizaciones, con servicios externos y con usuarios remotos. En general, las WAN
transportan varios tipos de tráfico, tales como voz, datos y video.
Las tres características principales de las WAN son las siguientes:

 Las WAN generalmente conectan dispositivos que están separados por un área
geográfica más extensa que la que puede cubrir una LAN o una MAN.
 Las WAN utilizan los servicios de operadoras, como empresas proveedoras de
servicios de telefonía, empresas proveedoras de servicios de cable, sistemas
satelitales y proveedores de servicios de red.
 Las WAN usan conexiones seriales de diversos tipos para brindar acceso al ancho
de banda a través de áreas geográficas extensas.

¿Por qué son necesarias las WAN?


Las tecnologías LAN proporcionan velocidad y rentabilidad para la transmisión de
datos dentro de organizaciones, a través de áreas geográficas relativamente pequeñas. Sin
embargo, hay otras necesidades empresariales que requieren la comunicación entre sitios
remotos, incluidas las siguientes:

 Los empleados de las oficinas regionales o las sucursales de una organización


necesitan comunicarse y compartir datos con la sede central.
 Con frecuencia, las organizaciones desean compartir información con otras
organizaciones que se encuentran a grandes distancias. Por ejemplo, los
fabricantes de software comunican periódicamente información sobre productos y
promociones a los distribuidores que venden sus productos a los usuarios finales.
 Con frecuencia, los empleados que viajan por temas relacionados con la empresa
necesitan acceder a la información que se encuentra en las redes corporativas.
Además, los usuarios de computadoras domésticas necesitan enviar y recibir datos
que recorren distancias cada vez mayores. Aquí se ofrecen algunos ejemplos:

 Ahora es común en muchos hogares que los consumidores se comuniquen con


bancos, tiendas y una variedad de proveedores de bienes y servicios a través de
las computadoras.
 Los estudiantes buscan información para las clases mediante índices de
bibliotecas y publicaciones ubicadas en otras partes del país y del mundo.

Como, obviamente, no es posible conectar computadoras a nivel nacional o


mundial de la misma manera en la que las computadoras de una LAN se conectan con
cables, han evolucionado diferentes tecnologías para cubrir esta necesidad. Internet se
está utilizando cada vez más como una alternativa económica al uso de una WAN
empresarial para algunas aplicaciones. Hay nuevas tecnologías disponibles para las
empresas que proporcionan seguridad y privacidad para las comunicaciones y las
transacciones a través de Internet. El uso de redes WAN solas o en combinación con
Internet permite a las organizaciones y a los particulares satisfacer sus necesidades de
comunicaciones de área extensa.

En líneas generales las WAN están diseñadas para realizar lo siguiente:

 Operar entre áreas geográficas extensas y distantes, incluso a nivel


mundial.
 Posibilitar capacidades de comunicación en tiempo real entre usuarios.
 Brindar recursos remotos de tiempo completo, conectados a los
servicios locales
 Brindar servicios de correo electrónico, World Wide Web, transferencia
de archivos y comercio electrónico.

Algunas de las tecnologías comunes de WAN son:

 Módems
 Red digital de servicios integrados (RDSI)
 Línea de suscripción digital (DSL - Digital Subscriber Line)
 Frame Relay, ATM y X.25
 Series de portadoras para EE.UU. (T) y Europa (E): T1, E1, T3, E3
 Red óptica síncrona (SONET )
 Metro-Ethernet.
Ejemplo de red WAN.

(Figura 16)

Los principales enlaces WAN:

(Figura 17)
1.3.-
- Componentes de una red.
Existen muchos componentes que pueden ser parte de una red, por ejemplo:
computadoras personales, servidores, dispositivos de red y el cableado. Estos
componentes pueden ser agrupados en cuatro grupos principales:

COMPONENTES DISPOSITIVOS
HOST DE UNA RED DE RED

EQUIPOS MEDIOS DE
PERIFERICOS RED
Figura 18

1.3.1- HOST: a los computadores o dispositivos de usuario final, también se les


conoce con el nombre de host, estos dispositivos son los que permiten a los usuarios
crear, obtener y compartir la información, se consideran que son tanto el origen de los
datos como el destino de los mismos. Los host pueden existir en ausencia de una red, pero
sin la red las capacidades de los ellos se ven sumamente reducidas. Los host que están
físicamente conectados a una red, lo hacen mediante una tarjeta interfaz de red (NIC,
Network Interface Card), utilizan esta conexión para realizar todas las tareas de envió y
recepción de datos en la red tales como: correo electrónico, impresión de documentos,
acceso a servidores y bases de datos, etc. Una NIC es una placa de circuito impreso que se
coloca en la ranura de un bus de la motherboard de un computador (Ver figura 19).
También se le conoce con el nombre de adaptador de red. Cada NIC posee un código
único denominado dirección de control de acceso al medio (MAC), este código o dirección
física como también se le conoce, se utiliza para controlar la comunicación de datos para
todos los host de la red, las NIC controlan entonces el acceso del host al medio.
Hablaremos mas sobre la dirección MAC más adelante en este manual.
TARJETA INTERFAZ DE RED O ADAPTADOR DE RED (NIC).

(Fig.: 19)

1.3.2- EQUIPOS PERIFÉRICOS: son aquellos que no están directamente conectados


a la red, estos en su lugar se encuentran directamente conectados al host, es decir que los
periféricos prestan sus servicios únicamente al host al que se encuentran directamente
conectados y no al resto de la red. Estos dispositivos pueden ser: impresoras, MP3,
cámaras, escáneres, entre otros.

(Fig.: 20)

1.3.3- MEDIOS DE RED: los medios de red proveen la conexión entre los host y los
dispositivos de red, así como también entre dispositivos de red. Los medios de red pueden
ser conductores de cobre, fibra óptica o tecnologías inalámbricas.

(Fig.: 21)
1.3.4- DISPOSITIVOS DE RED: los dispositivos
de red son aquellos que hacen posible la
comunicación entre los host de la red. Son también
los que manejan el flujo y el control del tráfico de la
red, como por ejemplo:
 Hubs.
 Switches.
 Routers. (Fig.:22)
 Entre otros.

1.4.- Topologias de red.


(BUS – ANILLO – ESTRELLA - MALLA).

La topología de red define la estructura de una red. Una parte de la definición


topológica es la topología física, que es la disposición real de los cables o medios. La otra
parte es la topología lógica, que define la forma en que los hosts acceden a los medios
para enviar datos. Las topologías físicas más comúnmente usadas son las siguientes:

 TOPOLOGÍA DE BUS.
 TOPOLOGÍA DE ESTRELLA.
 TOPOLOGÍA DE ANILLO.
 TOPOLOGÍA DE MALLA.

1.4.1- TOPOLOGÍA DE BUS: Una topología de bus usa un solo cable backbone que debe
terminarse en ambos extremos. Todos los hosts se conectan directamente a este
backbone.

El término backbone es aquella parte de la red que actúa como ruta principal para
el flujo de tráfico de una red o entre redes.

Al momento de enviar datos en este tipo de topologías un sólo nodo puede


colocarlos en el medio en cualquier momento, siempre y cuando ningún otro dispositivo
este usando dicho medio. Todos los nodos ven todas las tramas que están en el medio,
pero sólo el nodo al cual la trama está direccionada procesa los contenidos de la trama.

Ya que solo un nodo debe transmitir a la vez esta topología responde a una
comunicación del tipo Half-Duplex.
Para representar la topología de bus véase la figura 23 en la cual las pequeñas
cajas representan los host de la red y la barra a la cual se conectan estas cajas representa
lo que es la backbone, allí podemos ver como todos los host de la red se comparten un
único medio para la compartición de datos entre sí.

Topología de bus
(Figura 23)

VENTAJAS
Simplicidad en el cableado.
Si un dispositivo se desconecta no afecta al resto de la red.
Con pocos dispositivos se obtiene una respuesta excelente.

DESVENTAJAS
En medios donde el tráfico de red o el número de estaciones es muy elevado resulta
desventajoso para la disponibilidad del mismo.
La seguridad de los datos trasmitidos se puede ver comprometida ya que la trama viaja a
través de todo el medio compartido.

1.4.2- TOPOLOGÍA DE ESTRELLA: La topología en estrella conecta todos los cables con un
punto central de concentración. Es un tipo de topología en la que un nodo central (centro
de la estrella) es quien recibe y retransmite hacia su destino las tramas dentro de la red,
es decir todas las líneas de comunicación convergen en un solo punto.

En la siguiente figura se presenta un ejemplo de una topología de estrella.


(Figura 24)

VENTAJAS
La detección y localización de averías es sencilla.

DESVENTAJAS
La avería del nodo central supone la inutilización de la red.
Se necesitan longitudes grandes de cableado, ya que dos estaciones cercanas entre sí,
pero distantes del nodo central, requieren cada una un cable que las una a éste.
No soporta cargas de tráfico elevadas por sobrecarga del nodo central.

1.4.3- TOPOLOGÍA DE ANILLO: La topología de anillo conecta un host con el siguiente y al


último host con el primero. Esto crea un anillo físico de cable. Las señales circulan en un
solo sentido por el círculo, regenerándose en cada nodo.

En una topología de anillo, cada nodo recibe una trama por turno. Si la trama no
está direccionada al nodo, el nodo pasa la trama al nodo siguiente. Esto permite que un
anillo utilice una técnica de control de acceso al medio llamada paso de tokens.
Los nodos en una topología de anillo retiran la trama del anillo, examinan la
dirección y la envían si no está dirigida para ese nodo. En un anillo, todos los nodos
alrededor del anillo entre el nodo de origen y de destino examinan la trama.

Dos buenos ejemplos de red en anillo serían las tecnologías Token-Ring y FDDI
(fibra óptica).

En la siguiente figura se presenta un ejemplo de la topología anillo.

(Figura 25)

VENTAJAS
La mayor ventaja de este sistema es su excelente transmisión inmune a las colisiones de
las tramas.

DESVENTAJAS
Como inconveniente podemos mencionar que en una topología física de anillo un fallo en
un dispositivo hace que toda la red deje de funcionar.
Nivel de seguridad bajo ya que la trama recorre todo el medio compartido hasta llegar a
su destino.
1.4.4- TOPOLOGÍA DE MALLA: en este tipo de topologías un nodo tiene más de una
conexión con la red, se implementan para proporcionar la mayor protección posible y
evitar la interrupción del servicio, esto representa una característica importante para el
diseño de una red y recibe el nombre de redundancia. La redundancia en las redes puede
interpretarse como la duplicación de dispositivos, servicios y conexiones que actúen en
lugar de que algún elemento llegara a presentar fallas, de esta manera se puede asegurar
la disponibilidad de la red y el flujo de datos aun cuando se hubiese presentado una falla
en la dicha red.

En la siguiente figura se muestra un ejemplo de la topología de malla.

(Figura 26)

VENTAJAS
Ofrece redundancia lo cual brinda disponibilidad a la red incluso en caso de fallas
Existen varias formas de alcanzar un mismo destino.
Se puede aislar e identificar fallos fácilmente.

DESVENTAJAS
Se necesitan equipos inteligentes que por lo general son más costosos.
Se necesitan longitudes mayores de cableado y puertos necesarios.
1.5.- Protocolos de red.
(Modelo TCP/IP Y Modelo OSI)

1.5.1- INTRODUCCIÓN A LOS PROTOCOLOS DE RED:


Los protocolos de red se definen como un conjunto de reglas y convenciones que
rigen las comunicaciones, incluso las que son cara a cara están enmarcadas por reglas
predeterminadas para lograr el entendimiento. En nuestras comunicaciones personales
cotidianas, las reglas que utilizamos para comunicarnos a través de un medio, como por
ejemplo el teléfono, no necesariamente son las mismas que los protocolos usados a través
de otros medios, como por ejemplo una carta escrita a mano, por lo tanto piense por un
momento en la cantidad de reglas y protocolos diferentes que rigen distintos métodos de
comunicación que existen actualmente en el mundo.

Para que pueda llegar a ser satisfactoria la entrega y recepción de información


entre dos host de una red, existen una gran cantidad de protocolos integrados que
soportan la forma de hacer posible la comunicación. Una suite de protocolos es el término
asociado a un grupo de protocolos interrelacionados que son necesarios para realizar la
función de comunicación. Esta suite de protocolos imparte un conjunto de
implementaciones tanto para el hardware como para el software que está cargado en
cada host y dispositivo en la red.

Las suites de protocolos de networking describen procesos tales como:

 El formato o estructura del mensaje.


 El método por el cual los dispositivos de networking comparten
información sobre rutas con otras redes.
 Cómo y cuando se pasan los mensajes de error y del sistema entre
dispositivos.
 El inicio y terminación de las sesiones de transferencia de datos.

Muchos protocolos son independientes de la tecnología, no describen como


cumplir una función en particular; es decir, describen solamente que funciones se
requieren de una regla de comunicación en particular pero no como realizarlas. Por lo
tanto es posible que la implementación de un protocolo en particular sea independiente
de la tecnología.
Lo anteriormente mencionado se puede entender con el siguiente ejemplo:
imaginemos un host el cual queremos conectar a la red para lograr el acceso a un servidor
web que se encuentra en algún lugar remoto en internet.

A pesar de que para cualquiera de nosotros resulta una tarea sencilla realizar esto,
existe un numero de protocolos, dispositivos y arquitecturas que forman un conjunto
complejo (trasparente al usuario) que hace posible la comunicación. Los distintos
protocolos trabajan en conjunto para asegurar que ambas partes reciban y entiendan los
mensajes, algunos de estos protocolos son:

HTTP: es el protocolo de transferencia de hipertexto, se trata de un protocolo


común que regula la forma en que interactúan un servidor web y un cliente web. Aquí es
donde empieza todo, es donde se hace la petición web para tener acceso al servidor
remoto que se encuentra en algún lugar en la red. HTTP no específica qué lenguaje de
programación se utiliza para crear el explorador, qué software de servidor Web se debe
utilizar para servir las páginas Web, sobre qué sistema operativo se ejecuta el software o
los requisitos necesarios para mostrar el explorador. Tampoco describe cómo detecta
errores el servidor, aunque sí describe qué hace el servidor si se produce un error y
ademas lo que sí está claro es que independientemente a todo esto se mantiene que
siempre y cuando en ambos extremos de la aplicación se respete el protocolo HTTP como
un estándar para comunicaciones web existirá el intercambio de datos.

TCP: es el protocolo de transporte que administra las conversaciones individuales


entre servidores Web y clientes Web. TCP divide los mensajes HTTP en pequeñas partes,
denominadas segmentos, para enviarlas al cliente de destino. También es responsable de
controlar el tamaño y los intervalos a los que se intercambian los mensajes entre el
servidor y el cliente.

IP: se trata del protocolo de internetwork más común para las comunicaciones a
través de internet. IP es responsable de tomar segmentos formateados de TCP, encapsular
paquetes, asignarles las direcciones correctas y seleccionar la mejor ruta hacia el host
destino.

PROTOCOLOS DE ACCESO A LA RED: Estos protocolos describen dos funciones


principales: administración de enlace de datos y transmisión física de datos. Los
protocolos de administración de enlace de datos toman los paquetes IP y los formatean
para transmitirlos por los medios (conductores eléctricos, ondas electromagnéticas o de
luz). Los estándares y protocolos de los medios físicos rigen de qué manera se envían las
señales por los medios y cómo las interpretan los clientes que las reciben. Los
transceptores de las tarjetas de interfaz de red implementan los estándares apropiados
para los medios que se utilizan, es decir la manera en la que interpretaran los “1” y “0”.

Lo descrito anteriormente significa que una computadora y otros dispositivos,


como teléfonos móviles o PDA, pueden acceder a una página Web almacenada en
cualquier tipo de servidor Web que utilice cualquier tipo de sistema operativo desde
cualquier lugar de Internet, esta versatilidad se obtiene gracias a los protocolos. En
resumen, muchos dispositivos pueden comunicarse con los mismos conjuntos de
protocolos, esto se debe a que los protocolos especifican la funcionalidad de la red, no a
la tecnología subyacente para admitir esta funcionalidad.

1.5.2- MODELOS DE PROTOCOLOS Y REFERENCIAS.

Existen dos tipos básicos de modelos de networking:


 Modelos de protocolo.
 Modelos de referencia.

Un modelo de protocolo proporciona un modelo que coincide fielmente con una


suite de protocolo en particular. El modelo TCP/IP se define como un modelo de
protocolo porque describe las funciones que se producen en cada capa de los
protocolos dentro del conjunto TCP/IP.

Un modelo de referencia proporciona una referencia común para mantener


consistencia en todos los tipos de protocolos y servicios de red. Un modelo de
referencia no está pensado para ser una especificación de implementación ni para
proporcionar un nivel de detalle suficiente para definir de forma precisa los servicios
de la arquitectura de red. El propósito principal de un modelo de referencia es asistir
en la comprensión más clara de las funciones y los procesos involucrados.

El modelo de interconexión de sistema abierto (OSI) es el modelo de referencia de


internetwork más ampliamente conocido. Se utiliza para el diseño de redes de datos,
especificaciones de funcionamiento y resolución de problemas.
1.5.3- MODELO TCP/IP:

El modelo TCP/IP (Transport Control Protocol / Internet Protocol) fue el primer


modelo de protocolo en capas para comunicaciones de internetwork, se desarrollo a
principios de la década de los setenta por el Departamento de Defensa (DoD) de los
Estados Unidos con la finalidad de asegurar las comunicaciones de datos aun en
circunstancias de ataque contra este país y permitir la conexión de redes a nivel mundial.
El modelo TCP/IP define cuatro categorías de funciones (capas) que deben tener lugar
para que las comunicaciones sean exitosas. Es común que al modelo de Internet se lo
conozca también como modelo TCP/IP.

•Representa datos para el usuario mas el


APLICACIÓN control de codificacion y de diálogo.

•Admite la comunicación entre distintos


TRANSPORTE distintos dispositivos de distintas redes.

•Determina la mejor ruta a través de la


INTERNET red.

ACCESO A LA •Controla los dispositivos del hardware y


los medios que forman la red.
RED
(Figura 27)

PROCESO DE COMUNICACIÓN:
El modelo TCP/IP describe la funcionalidad de los protocolos que forman la suite
de protocolos TCP/IP. Esos protocolos, que se implementan tanto en el host emisor como
en el receptor, interactúan para proporcionar la entrega de aplicaciones de extremo a
extremo a través de una red.

Un proceso completo de comunicación incluye estos pasos:

1) Creación de datos a nivel de la capa de aplicación del host origen.


2) Segmentación y encapsulación de datos cuando pasan capa a capa por los
protocolos en el host origen.

3) Generación de los datos sobre el medio en la capa de acceso a la red del host
origen.

4) Transporte de los datos a través de la internetwork, que consiste de los medios y


de cualquier dispositivo intermediario.

5) Recepción de los datos en la capa de acceso a la red del host destino.

6) Desencapsulación y rearmado de los datos cuando pasan capa a capa en el host


destino.

7) Traspaso de estos datos a la capa de aplicación del host destino.

MODELO
HOST ORIGEN HOST DESTINO
TCP/IP

INTERNET

(Figura 28)
UNIDAD DE DATO DEL PROTOCOLO Y ENCAPSULACION:
Mientras los datos de la aplicación fluyen capa a capa y se transmiten por los
medios de la red, varios protocolos le agregan información en cada nivel. Esto
comúnmente se conoce como proceso de encapsulación.

La forma que adopta una sección de datos en cualquier capa se denomina Unidad
de datos del protocolo (PDU). Durante la encapsulación, cada capa encapsula las PDU que
recibe de la capa inferior de acuerdo con el protocolo que se utiliza. En cada etapa del
proceso, una PDU tiene un nombre distinto para reflejar su nuevo aspecto, como veremos
a continuación:

 Datos: el término general para las PDU que se utilizan en la capa de aplicación.
 Segmento: PDU de la capa de transporte.
 Paquete: PDU de la capa de Internetwork.
 Trama: PDU de la capa de acceso a la red.
 Bits: una PDU que se utiliza cuando se transmiten físicamente datos a través de un
medio.

(Figura 29)
Para entender mejor lo anteriormente descrito, vamos a conocer a través de un
ejemplo el proceso de envió y recepción.

PROCESO DE ENVIÓ Y RECEPCIÓN:


Cuando se envía un mensaje en la red se ejecutan los protocolos de las capas del
modelo TCP/IP de arriba hacia abajo en el host origen. En el ejemplo del servidor web
utilizaremos el modelo TCP/IP para ilustrar el proceso de envió de una página web HTML a
un cliente.

El protocolo de la capa aplicación, HTTP, comienza el proceso entregando los datos


de la página Web con formato HTML a la capa de transporte. Allí, los datos de aplicación
se dividen en segmentos TCP. A cada segmento TCP se le otorga una etiqueta,
denominada encabezado, que contiene información sobre qué procesos que se ejecutan
en la computadora de destino deben recibir el mensaje. También contiene la información
para habilitar el proceso de destino para reensamblar nuevamente los datos a su formato
original.

La capa de transporte encapsula los datos HTML de la página Web dentro del
segmento y los envía a la capa Internet, donde se implementa el protocolo IP. Aquí, el
segmento TCP en su totalidad es encapsulado dentro de un paquete IP, que agrega otro
rótulo denominado encabezado IP. El encabezado IP contiene las direcciones IP de host de
origen y de destino, como también la información necesaria para entregar el paquete a su
correspondiente proceso de destino.

Luego el paquete IP se envía al protocolo Ethernet de la capa de acceso a la red,


donde se encapsula en un encabezado de trama y en un tráiler. Cada encabezado de
trama contiene una dirección física de origen y de destino. La dirección física identifica de
forma exclusiva los dispositivos en la red local. El tráiler contiene información de
verificación de errores. Finalmente, los bits se codifican en el medio Ethernet mediante el
adaptador de red (NIC).

Este proceso se invierte en el host receptor. Los datos son recibidos por la NIC de la
capa de inferior del modelo TCP/IP y se desencapsulan mientras suben al capa a capa
hacia la aplicación del usuario final.
ETHERNET IP TCP DATOS

Datos del
usuario

Segmento de TCP

Paquete IP

Trama Ethernet

(Fig.: 30)

1.5.4- MODELO OSI:

EL MODELO DE REFERENCIA DE INTERCONEXIÓN DE SISTEMAS ABIERTOS (OSI,


Open System Interconnection), es considerado una arquitectura de redes, ya que
especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de
referencia ya que es usado como una gran herramienta para la enseñanza de
comunicación de redes.

Con la intensión de adquirir un poco de perspectiva histórica vale la pena


mencionar que en sus inicios el desarrollo de las redes sucedió con desorden en muchos
sentidos, a principio de los años 1980 se produjo un enorme crecimiento en la cantidad y
el tamaño de las redes. A medida que las empresas y organizaciones tomaban conciencia
de las ventajas que ofrecían las tecnologías de networking, sucedió que las redes se
expandieron con una velocidad impresionante, así como también la introducción de
nuevas tecnologías de red de manera desordenada.

Hacia falta enfrentar esta situación y darle solución a la incompatibilidad de las


redes, fue entonces cuando la Organización Internacional de Normalización (ISO) se puso
a trabajar e investigar modelos de networking como el TCP/IP y similares, a fin de
encontrar un conjunto de reglas aplicables de forma general a todas las redes. En base a la
investigación de ISO se desarrollo un modelo estandarizado de red que ayuda a los
fabricantes a crear redes que sean compatibles con otras redes, así nació lo que
conocemos como modelo OSI.
El modelo de referencia de Interconexión de Sistemas Abiertos (OSI), lanzado para
1984 fue el modelo de red descriptivo creado por ISO. Proporciono a los fabricantes un
conjunto de estándares que aseguraron una mayor compatibilidad e interoperabilidad
entre los distintos tipos de tecnología de red producidos por las empresas a nivel mundial.
El objetivo del modelo OSI es permitir la comunicación entre sistemas distintos sin que sea
necesario cambiar la lógica del Hardware o Software subyacente.

VENTAJAS DEL MODELO OSI:


 Reduce la complejidad.
 Estandariza las interfaces.
 Facilita el diseño modular.
 Asegura la interoperabilidad de la tecnología.
 Acelera la evolución.
 Simplifica la enseñanza y el aprendizaje.

1.5.5- LAS CAPAS DEL MODELO OSI

El modelo de referencia OSI es un marco que se puede utilizar para comprender


cómo viaja la información a través de una red. El modelo de referencia OSI explica de qué
manera los paquetes de datos viajan a través de varias capas a otro dispositivo de una red,
aun cuando el remitente y el destinatario poseen diferentes tipos de medios de red.

En el modelo de referencia OSI se compone de siete capas numeradas, cada una de


las cuales posee una función de red específica como se describe a continuación:

APLICACION

PRESENTACION

SESION

TRANSPORTE

RED

ENLACE DE DATOS

FÍSICA

(Fig.: 31)
1.5.5.1- CAPA 7 (CAPA DE APLICACIÓN) <APDU>:

La mayoría de nosotros experimentamos Internet a través de World Wide Web,


servicios de e‐mail y programas para compartir archivos. Éstas y muchas otras aplicaciones
proporcionan la interfaz humana a la red subyacente, lo que nos permite enviar y recibir
información con relativa facilidad. Generalmente, las aplicaciones que utilizamos son
intuitivas es decir, podemos acceder a ellas y usarlas sin saber cómo funcionan. Sin
embargo, es importante para el estudio de las redes conocer cómo una aplicación puede
formatear, transmitir e interpretar mensajes que se envían y reciben a través de la red.

La capa de aplicación, capa siete, es la capa superior de los modelos OSI y TCP/IP.
Es la capa que proporciona la interfaz entre las aplicaciones que utilizamos para
comunicarnos y la red subyacente en la cual se transmiten los mensajes. Los protocolos
de capa de aplicación se utilizan para intercambiar los datos entre los programas que se
ejecutan en los host de origen y destino.

Aunque el grupo de protocolos TCP/IP se desarrolló antes de la definición del


modelo OSI, la funcionalidad de los protocolos de capa de aplicación de TCP/IP se adaptan
aproximadamente a la estructura de las tres capas superiores del modelo OSI:

APLICACIÓN

PRESENTACION
APLICACIÓN
SESION

MODELO TCP/IP MODELO OSI


(Fig.:32)

La mayoría de los protocolos de capa de aplicación de TCP/IP se desarrollaron


antes de la aparición de computadoras personales, interfaces del usuario gráficas y
objetos multimedia. Como resultado, estos protocolos implementan muy poco de la
funcionalidad que se especifica en las capas de Sesión y Presentación del modelo OSI.

1.5.5.1.1- CAPA DE PRESENTACIÓN.

La capa de Presentación tiene tres funciones primarias:

 Codificación y conversión de datos de la capa de aplicación para garantizar que


los datos del dispositivo de origen puedan ser interpretados por la aplicación
adecuada en el dispositivo de destino.
 Compresión de los datos de forma que puedan ser descomprimidos por el
dispositivo de destino.
 Encriptación de los datos para transmisión y descifre de los datos cuando se
reciben en el destino.

El objetivo principal de esta capa es encargarse de la representación de la


información, de manera que aunque distintos equipos puedan tener diferentes
representaciones internas de caracteres los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que el


cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la
sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes
formas de manejarlas. Esta capa también permite cifrar los datos y comprimirlos. En pocas
palabras es un traductor.

1.5.5.1.2- CAPA DE SESIÓN.

Como lo indica el nombre de la capa de Sesión, las funciones en esta capa crean y
mantienen diálogos entre las aplicaciones de origen y destino. La capa de sesión maneja el
intercambio de información para iniciar los diálogos y mantenerlos activos, y para reiniciar
sesiones que se interrumpieron o desactivaron durante un periodo de tiempo prolongado.
Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una
sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones
definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los
servicios de la capa de sesión son parcial o totalmente prescindibles.

UTILIZACIÓN DE LOS PROTOCOLOS DE LA CAPA DE APLICACIÓN:

Los protocolos de la capa de aplicación son utilizados tanto por los dispositivos de
origen como de destino durante una sesión de comunicación. Para que las
comunicaciones sean exitosas, deben coincidir los protocolos de capa de aplicación
implementados en el host de origen y destino.

La capa de aplicación es responsable del acceso directo a los procesos subyacentes


que administran y envían la comunicación a la red humana, sirviendo como origen y
destino de las comunicaciones en las redes de datos. Las aplicaciones, los protocolos y
servicios de la capa de aplicación permiten a los usuarios interactuar con la red de
datos de manera significativa y efectiva.
 Las aplicaciones son programas informáticos con los cuales el usuario interactúa e
inicia el proceso de transferencia de datos a pedido del usuario.

 Los servicios son programas básicos que proporcionan la conexión entre la capa de
Aplicación y las capas inferiores del modelo de networking.

 Los protocolos proporcionan una estructura de reglas y procesos acordados


previamente que asegura que los servicios que funcionan en un dispositivo en
particular puedan enviar y recibir datos desde una variedad de dispositivos de red
diferentes.

Los mensajes se intercambian entre los servicios de la capa de aplicación en cada


dispositivo final según las especificaciones del protocolo para establecer y utilizar estas
relaciones. Los protocolos como HTTP, por ejemplo, admiten el envío de páginas Web
a dispositivos finales. Los protocolos SMTP/POP admiten el envío y la recepción de
correos electrónicos. SMB permite a los usuarios compartir archivos. DNS resuelve los
nombres utilizados para referirse a los recursos de red en direcciones numéricas
utilizables por la red.

1.5.5.2- CAPA 4 (CAPA DE TRANSPORTE) <SEGMENTOS - DATAGRAMAS>:

La capa de transporte proporciona transporte desde el host origen hasta el host


destino. Esta capa forma una conexión lógica entre los puntos finales de la red, es la capa
responsable de la entrega de TODO el mensaje desde el host origen al destino,
asegurándose que el mismo llegue en su totalidad y en orden. La capa de Transporte es
responsable de la transferencia de extremo a extremo de los datos de aplicación,
independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama
Segmento o Datagrama, dependiendo de si corresponde a TCP o UDP. En estos protocolos
TCP y UDP; el primero es orientado a conexión y el otro sin conexión.

La capa de Transporte satisface las necesidades de las redes de datos mediante:

 Seguimiento de la comunicación individual entre aplicaciones de los host origen y


destino.
 Segmentación de datos y gestión de cada porción.
 Reensamblaje de segmentos en flujos de datos de aplicación.
 Identificación de las diferentes aplicaciones.
 SEGUIMIENTO DE LAS COMUNICACIONES INDIVIDUALES.
Cualquier host puede tener múltiples aplicaciones que se están
comunicando a través de la red. Cada una de estas aplicaciones se comunicará con
una o más aplicaciones en hosts remotos. Es responsabilidad de la capa de
transporte mantener los diversos streams (flujo de bits) de comunicación entre
estas aplicaciones.

 SEGMENTACIÓN DE DATOS.
Debido a que cada aplicación genera un stream de datos para enviar a una
aplicación remota, estos datos deben prepararse para ser enviados por los medios
en partes manejables. Los protocolos de la capa de transporte describen los
servicios que segmentan estos datos de la capa de aplicación. Esto incluye la
encapsulación necesaria en cada sección de datos. Cada sección de datos de
aplicación requiere que se agreguen encabezados en la capa de Transporte para
indicar la comunicación a la cual está asociada.

 REENSAMBLAJE DE SEGMENTOS.
En el host de recepción, cada sección de datos puede ser direccionada a la
aplicación adecuada. Además, estas secciones de datos individuales también
deben reconstruirse para generar un stream completo de datos que sea útil para la
capa de aplicación. Los protocolos de la capa de transporte describen cómo se
utiliza la información de encabezado de dicha capa para reensamblar las secciones
de datos en streams y enviarlas a la capa de aplicación.

 IDENTIFICACIÓN DE LAS COMUNICACIONES.


Para poder transferir los streams de datos a las aplicaciones adecuadas, la
capa de transporte debe identificar la aplicación de destino. Para lograr esto, la
capa de transporte asigna un identificador a la aplicación. Los protocolos TCP/IP
denominan a este identificador como número de puerto. A todos los procesos de
software que requieran acceder a la red se les asigna un número de puerto
exclusivo en ese host. Este número de puerto se utiliza en el encabezado de la capa
de Transporte para indicar con qué aplicación está asociada esa sección de datos.

La capa de Transporte es el enlace entre la capa de Aplicación y las capas


inferiores, que son responsables de la transmisión en la red. Esta capa acepta datos
de distintas conversaciones y los transfiere a las capas inferiores como secciones
manejables que puedan ser eventualmente multiplexadas a través del medio.
Las aplicaciones no necesitan conocer los detalles de operación de la red en
uso, es decir, las aplicaciones generan datos que se envían desde una capa de
aplicación a otra sin tener en cuenta el tipo de host destino, el tipo de medios
sobre los que los datos deben viajar, el paso tomado por los datos, la congestión
en un enlace o el tamaño de la red.

Por otro lado, las capas inferiores no tienen conocimiento de que existen
varias aplicaciones que envían datos en la red. Su responsabilidad es entregar los
datos al dispositivo adecuado. Luego la capa de Transporte ordena estas secciones
antes de entregarlas a la aplicación adecuada.

DATOS DE
APLICACION

TRANSPORTE

DATOS DE
RED

(Fig.: 33)

SEPARACION DE COMUNICACIONES MULTIPLES.

Considere una computadora conectada a una red que recibe y envía e‐mails,
mensajes instantáneos, explora sitios Web, realiza una llamada telefónica de VoIP y
todo esto de manera simultánea. Cada una de estas aplicaciones envía y recibe datos
en la red al mismo tiempo. Sin embargo, los datos de la llamada telefónica no se
direccionan al explorador Web y el texto de un mensaje instantáneo no aparece en el
e‐mail.

Además, los usuarios precisan que un e‐mail o una página Web sean recibidos y
presentados de manera completa para que la información sea considerada útil. Las
demoras leves se consideran aceptables para asegurar que se reciba y presente la
información completa.

Por el contrario, la pérdida ocasional de pequeñas partes de una conversación


telefónica puede considerarse aceptable. Se puede llegar a menospreciar la parte de
audio perdida del contexto de la conversación o se puede solicitar a la otra persona
que repita lo que dijo. Este es el caso en que el usuario y no la red, gestiona el reenvío
o reemplazo de información que falta, de lo contrario las demoras que se producirían
si se solicita a la red que gestione y vuelva a enviar los segmentos perdidos significaría
una latencia no deseada para una transmisión de tiempo real.

Correo Electrónico.
Paginas Web.
Video Streaming.
Telefonia IP.
Mensajería Instantánea

LA CAPA DE TRANSPORTE SEGMENTA LOS DATOS Y


ADMINISTRA LA SEPARACION DE DATOS PARA DIFERENTES
APLICACIONES.

(Fig.: 34)

MULTIPLEXACION DE LOS SEGMENTOS DE DATOS:

La división de los datos de cada aplicación en pequeñas partes permite que se


puedan entrelazar, para ser enviados sobre el mismo canal de comunicaciones y de
esta forma enviar el stream de distintas aplicaciones de manera simultánea.

La segmentación de los datos, que cumple con los protocolos de la capa de


transporte, proporciona los medios para enviar y recibir datos cuando se ejecutan
varias aplicaciones de manera concurrente en una computadora. Sin segmentación no
podría multiplexarse el envió de datos y sólo una aplicación podría ser ejecutada a la
vez.

Piense por ejemplo en una videoconferencia, sin los procesos de segmentación y


multiplexacion no podría recibir datos de otras aplicaciones hasta no finalizarla,
debido a que en una videoconferencia es un stream continuo de datos, mientras se
mantiene la sesión no se podrían recibir correos electrónicos, mensajes instantáneos
ni visualizar páginas Web mientras ve un vídeo al mismo tiempo.

Correo Electrónico.
Paginas Web.
Video Streaming.
Telefonia IP.
Mensajería Instantánea

La segmentación de datos
facilitan el transporte de datos por
parte de las capas inferiores.

La segmentación permite la
multiplexación de sesiones; las diferentes
aplicaciones pueden utilizar la red al
mismo tiempo.

RED

(Fig.: 35)

SOPORTE DE COMUNICACIÓN CONFIABLE.

Cabe recordar que la función principal de la capa de transporte es administrar los


datos de aplicación para las conversaciones entre hosts. Sin embargo, las diferentes
aplicaciones tienen diferentes requerimientos para sus datos y, por lo tanto, se han
desarrollado diferentes protocolos de Transporte para satisfacer estos requerimientos.

Un protocolo de la capa de transporte puede implementar un método para


asegurar la entrega confiable de los datos. En términos de redes, confiabilidad significa
asegurar que cada sección de datos que envía el origen llegue al destino. En la capa de
transporte, las tres operaciones básicas de confiabilidad son:

 Seguimiento de datos transmitidos.


 Acuse de recibo de los datos recibidos.
 Retransmisión de cualquier dato sin acuse de recibo.
Esto requiere que los procesos de la capa de transporte de origen mantengan el
seguimiento de todas las porciones de datos de cada conversación y retransmitan
cualquiera de los datos que no dieron acuse de recibo por el destino. La capa de
transporte del host de recepción también debe rastrear los datos a medida que se
reciben y reconocer la recepción de los datos.

Estos procesos de confiabilidad generan un uso adicional de los recursos de la red


debido al reconocimiento, rastreo y retransmisión. Para admitir estas operaciones de
confiabilidad se intercambian más datos de control entre los hosts emisores y
receptores. Esta información de control está contenida en el encabezado de la Capa 4.

Esto genera un equilibrio (“trade‐off”) entre el valor de confiabilidad y la carga que


representa para la red. Los desarrolladores de aplicaciones deben elegir qué tipo de
protocolo de transporte es adecuado en base a los requerimientos de sus aplicaciones.
En la capa de transporte, existen protocolos que especifican métodos para entrega
confiable, garantizada o de máximo esfuerzo. En el contexto de las redes, la entrega de
máximo esfuerzo se considera no confiable, ya que no existe acuse de recibo de que
los datos hayan llegado al destino.

DETERMINACIÓN DE LA NECESIDAD DE CONFIABILIDAD.

Las aplicaciones, como bases de datos, páginas Web y los e‐mails, requieren que
todos los datos enviados lleguen al destino en su condición original, de manera que los
mismos sean útiles. Todos los datos perdidos pueden corromper una comunicación y
dejarla incompleta o ilegible. Por lo tanto, estas aplicaciones se diseñan para utilizar
un protocolo de capa de transporte que implemente la confiabilidad, el uso de
recursos de red adicionales se considera necesario para estas aplicaciones.

Otras aplicaciones son más tolerantes en lo que se refiere a la pérdida de pequeñas


cantidades de datos. Por ejemplo, si uno o dos segmentos de un stream de vídeo no
llegan al destino, sólo generará una interrupción momentánea en el stream, esto
puede representar distorsión en la imagen pero quizás ni sea advertido por el usuario.
Imponer el uso de recursos adicionales para asegurar la confiabilidad para esta
aplicación puede reducir la utilidad de la misma, la imagen en un streaming vídeo se
degradaría en gran medida si el dispositivo de destino tuvo que dar cuenta de los
datos perdidos y demorar el stream mientras espera que lleguen. Es conveniente
proporcionar la mejor imagen posible al momento en que llegan los segmentos y
renunciar a la confiabilidad. Si por algún motivo se requiere confiabilidad, estas
aplicaciones pueden proveer verificación de errores y solicitudes de retransmisión.
TELEFONÍA IP
STREAMING DE VIDEO SMTP / POP (E-mail)
HTTP (Web)
-------------------------------------------- -------------------------------------

PROPIEDADES REQUERIDAS DEL PROPIEDADES REQUERIDAS DEL


PROTOCOLO: PROTOCOLO:

 Rápido.  Confiable.
 Menor carga.  Acuse de recibo de datos.
 Reenvió de datos Perdidos.
 No requiere acuses de recibo.
 Entrega de datos en orden en que
 No realiza reenvió de datos perdidos. fueron enviados.

CAPA DE TRANSPORTE

TCP

UDP

Los programadores de aplicaciones eligen el protocolo de la capa


de transporte apropiado, según la naturaleza de la aplicación.

(Figura 36)

TCP y UDP.

Los dos protocolos más comunes de la capa de Transporte son el Protocolo de


Control de Transmisión (TCP) y el Protocolo de Datagramas de Usuario (UDP). Los
datagramas UDP y los segmentos TCP tienen encabezados prefijados a los datos que
incluyen un número de puerto origen y un número de puerto destino. Estos números
de puertos permiten que los datos sean direccionados a la aplicación correcta que se
ejecuta en la computadora de destino. Ambos protocolos gestionan la comunicación
de múltiples aplicaciones. Las diferencias entre ellos son las funciones específicas que
cada uno implementa.

 Protocolo de datagramas de usuario (UDP)


UDP es un protocolo simple, sin conexión. Cuenta con la ventaja de proveer
la entrega de datos sin utilizar muchos recursos. Las porciones de
comunicación en UDP se llaman datagramas. Este protocolo de la capa de
Transporte envía estos datagramas como “mejor intento”.

Entre las aplicaciones que utilizan UDP se incluyen:


 Sistema de nombres de dominios (DNS).
 Streaming de vídeo.
 Voz sobre IP (VoIP).

 Protocolo de control de transmisión (TCP)


TCP es un protocolo orientado a la conexión, TCP incurre en el uso
adicional de recursos para agregar funciones. Las funciones adicionales
especificadas por TCP están en el mismo orden de entrega, son de entrega
confiable y de control de flujo. Cada segmento de TCP posee 20 bytes de carga en
el encabezado, que encapsulan los datos de la capa de aplicación, mientras que
cada segmento UDP sólo posee 8 bytes de carga.

Las aplicaciones que utilizan TCP son:


 Exploradores Web.
 E‐mail.
 Transferencia de archivos.

ENCABEZADO DEL SEGMENTO TCP


Puerto de origen (16) Puerto destino (16)

Numero de secuencia (32)


Numero de acuse de recibo (32)
20 Longitud de encabezado (6) Ventana (16)
Bytes
Checksum (16) Urgente (16)
Opciones ( 0 a 32, si las hay)
Datos de la capa de aplicación (tamaño variable)
ENCABEZADO DE DATAGRAMA UDP

Puerto origen (16) Puerto destino (16)

Longitud (16) Checksum (16)


8
Bytes Datos de la capa de aplicación
(el tamaño varia)

(Figura 37 y 38)

En el encabezado de cada segmento o datagrama hay un puerto de origen y


destino. El número de puerto de origen es el número para esta comunicación asociado
con la aplicación que origina la comunicación en el host local. El número de puerto de
destino es el número para esta comunicación asociado con la aplicación de destino en el
host remoto. Los números de puerto se asignan de varias maneras, en función de si el
mensaje es una solicitud o una respuesta. Mientras que los procesos en el servidor poseen
números de puertos estáticos asignados a ellos, los clientes eligen un número de puerto
de forma dinámica para cada conversación.

Existen distintos tipos de números de puerto:

 Puertos bien conocidos (Números del 0 al 1023): estos números se reservan


para servicios y aplicaciones. Por lo general, se utilizan para aplicaciones como
HTTP (servidor Web), POP3/SMTP (servidor de e‐mail) y Telnet. Al definir estos
puertos conocidos para las aplicaciones del servidor, las aplicaciones del cliente
pueden ser programadas para solicitar una conexión a un puerto específico y su
servicio asociado.

 Puertos Registrados (Números 1024 al 49151): estos números de puertos están


asignados a procesos o aplicaciones del usuario. Estos procesos son
principalmente aplicaciones individuales que el usuario elige instalar en lugar
de aplicaciones comunes que recibiría un puerto bien conocido. Cuando no se
utilizan para un recurso del servidor, estos puertos también pueden utilizarse si
un usuario los selecciona de manera dinámica como puerto de origen.

 Puertos dinámicos o privados (Números del 49 152 al 65 535): también


conocidos como puertos efímeros, suelen asignarse de manera dinámica a
aplicaciones de cliente cuando se inicia una conexión. No es muy común que
un cliente se conecte a un servicio utilizando un puerto dinámico o privado
(aunque algunos programas que comparten archivos punto a punto lo hacen).

NUMEROS DE PUERTO TCP

RANGO DE NÚMERO DE PUERTO. GRUPO DE PUERTO


0 – 1023 Puertos conocidos
1024 – 49151 Puertos registrados

Puertos TCP registrados: Puertos TCP conocidos:


1863 MSN Messenger 21 FTP
8008 HTTP alternativo 23 TELNET
8080 HTTP alternativo 25 SMTP
80 HTTP
110 POP3
194 IRC
443 HTTP Seguro (HTTPS)

NUMEROS DE PUERTO UDP

RANGO DE NÚMERO DE PUERTO. GRUPO DE PUERTO


0 – 1023 Puertos conocidos
1024 – 49151 Puertos registrados

Puertos UDP registrados: Puertos UDP conocidos:


Protocolo de 69 TFTP
1182 autenticación 520 RIP
RADIUS
CISCO SCCP
2000
(VoIP)
RTP (protocolo de
5004 Transporte de
(Figuras 39 y 40)
video y voz)
5060 SIP (VoIP)
BAJA SOBRECARGA Vs CONFIABILIDAD

La diferencia clave entre TCP y UDP es la confiabilidad. La confiabilidad de la


comunicación TCP se lleva a cabo mediante la utilización de sesiones orientadas a
conexión, antes de que un host que utiliza TCP envíe datos a otro host, la capa de
transporte inicia un proceso para crear una conexión con el destino. Esta conexión
permite el rastreo de una sesión o stream de comunicación entre los hosts. Este proceso
asegura que cada host tenga conocimiento de la comunicación y se prepare. Una
conversación TCP completa requiere el establecimiento de una sesión entre los hosts en
ambas direcciones.

Luego de establecida la sesión, el destino envía acuses de recibo al origen por los
segmentos que recibe. Estos acuses de recibo forman la base de la confiabilidad dentro de
la sesión TCP. Cuando el origen recibe un acuse de recibo, reconoce que los datos se han
entregado con éxito y puede dejar de rastrearlos. Si el origen no recibe el acuse de recibo
dentro de un tiempo predeterminado, retransmite esos datos al destino.

Parte de la carga adicional que genera el uso de TCP es el tráfico de red generado
por los acuses de recibo y las retransmisiones.

Por otro lado UDP es un protocolo simple que provee las funciones básicas de la
capa de transporte. Genera mucho menos sobrecarga que TCP, ya que no es orientado a
la conexión y no cuenta con los sofisticados mecanismos de retransmisión, secuenciación
y control del flujo.

Esto no significa que las aplicaciones que utilizan UDP no sean confiables. Sólo
quiere decir que las funciones anteriormente mencionadas no son contempladas por el
protocolo de la capa de Transporte y deben implementarse aparte, si fuera necesario.

Algunas aplicaciones como los juegos en línea o VoIP pueden tolerar algunas
pérdidas de datos. Si estas aplicaciones utilizaran TCP, experimentarían largas demoras, ya
que TCP detecta la pérdida de datos y los retransmite. Estas demoras serían más
perjudiciales para la aplicación que las pequeñas pérdidas de datos. Algunas aplicaciones,
como DNS, simplemente reintentan enviar la solicitud si no obtienen respuesta y, por lo
tanto, no necesitan TCP para garantizar la entrega del mensaje.

Por lo tanto la baja sobrecarga de UDP lo hace deseable para dichas aplicaciones.
CAPA DE TRANSPORTE

UDP TCP

(Fig.: 41)

1.5.5.3-
1.5.5.3- CAPA 3 (CAPA DE RED) <PAQUETES>:

La Capa de red o Capa 3 de OSI provee servicios para intercambiar secciones de


datos individuales a través de la red entre dispositivos finales identificados. Para realizar
este transporte de extremo a extremo la Capa 3 utiliza cuatro procesos básicos:

1) Direccionamiento. 2) Encapsulamiento.
3) Enrutamiento. 4) Desencapsulamiento.

1) DIRECCIONAMIENTO: Primero, la Capa de red debe proveer un mecanismo para


direccionar estos dispositivos finales. Si las secciones individuales de datos deben
dirigirse a un dispositivo final, este dispositivo debe tener una dirección única. En
una red Ipv4, cuando se agrega esta dirección a un dispositivo, al dispositivo se lo
denomina host.
2) ENCAPSULACIÓN: Segundo, la capa de Red debe proveer encapsulación. Los
dispositivos no deben ser identificados sólo con una dirección; los paquetes (las
PDU de la capa de Red) deben, además, contener estas direcciones. Durante el
proceso de encapsulación, la Capa 3 recibe la PDU de la Capa 4 y agrega un
encabezado o etiqueta de Capa 3 para crear la PDU de la Capa 3, es decir, el
paquete. Cuando se crea un paquete, el encabezado debe contener, entre otras
informaciónes, la dirección del host hacia el cual se lo está enviando. A esta
dirección se la conoce como dirección de destino. El encabezado de la Capa 3
también contiene la dirección del host de origen. A esta dirección se la llama
dirección de origen.

Después de que la Capa de red completa el proceso de encapsulación, el


paquete es enviado a la capa de enlace de datos que ha de prepararse para el
transporte a través de los medios.

3) ENRUTAMIENTO: Luego, la capa de red debe proveer los servicios para dirigir
estos paquetes a su host destino. Los host de origen y destino no siempre están
conectados a la misma red. En realidad, el paquete podría recorrer muchas redes
diferentes. A lo largo de la ruta, cada paquete debe ser guiado a través de la red
para que llegue a su destino final. Los dispositivos intermediarios que conectan las
redes son los routers. La función del router es seleccionar las rutas y dirigir
paquetes hacia su destino. A este proceso se lo conoce como enrutamiento.

Durante el enrutamiento a través de una internetwork, el paquete puede


recorrer muchos dispositivos intermediarios. A cada ruta que toma un paquete
para llegar al próximo dispositivo se la llama salto. A medida que el paquete es
enviado, su contenido (la PDU de la Capa de transporte y de aplicación) permanece
intacto hasta que llega al host destino.

4) DESENCAPSULAMIENTO: Finalmente, el paquete llega al host destino y es


procesado en la Capa 3. El host examina la dirección de destino para verificar que
el paquete fue direccionado a ese dispositivo. Si la dirección es correcta, el
paquete es desencapsulado por la capa de Red y la PDU de la Capa 4 contenida en
el paquete pasa hasta el servicio adecuado en la capa de Transporte.

A diferencia de la capa de Transporte (Capa 4 de OSI), que administra el


transporte de datos entre los procesos que se ejecutan en cada host destino, los
protocolos de capa 3 especifican la estructura y el procesamiento del paquete,
utilizados para llevar los datos desde un host a otro host. Operar ignorando los
datos de aplicación llevados en cada paquete permite a la capa de Red llevar
paquetes para múltiples tipos de comunicaciones entre hosts múltiples.

192.168.168.11 /24 192.168.160.5 /24

DIRECCIONAMIENTO

HOST ORIGEN HOST DESTINO

(Figura 42)

Los protocolos implementados en la capa de Red que llevan datos del usuario son:

 Protocolo Internet Versión 4 (Ipv4).


 Protocolo Internet Versión 6 (Ipv6).
 Intetercambio Novell de paquetes de internetwork (IPX).
 AppleTalk.
 Servicio de red sin conexión (CLNS/DECNet).
PROTOCOLO IPv4

La versión 4 de IP (Ipv4) es la versión de IP más ampliamente utilizada. Funciona


como protocolo de Capa 3 y se utiliza para llevar datos de usuario a través de Internet. El
Protocolo de Internet fue diseñado como un protocolo con bajo costo. Provee sólo las
funciones necesarias para enviar un paquete desde un origen a un destino a través de un
sistema interconectado de redes.

Cada dispositivo de una red debe ser definido en forma exclusiva. En la capa de red
es necesario identificar los paquetes de la transmisión con las direcciones de origen y de
destino de los dos sistemas finales. Con Ipv4, esto significa que cada paquete posee una
dirección de origen de 32 bits y una dirección de destino de 32 bits en el encabezado de
Capa 3. Estas direcciones se usan en la red de datos como patrones binarios.

Dentro de los dispositivos, la lógica digital es aplicada para su interpretación. Para


quienes formamos parte de la red humana, una serie de 32 bits es difícil de interpretar e
incluso más difícil de recordar. Por lo tanto, representamos direcciones Ipv4 utilizando el
formato decimal punteado.

EMPAQUETADO DE LA PDU DE LA CAPA DE TRANSPORTE: Ipv4 encapsula o


empaqueta el datagrama o segmento de la capa de Transporte para que la red
pueda entregarlo a su host de destino. La encapsulación de Ipv4 permanece en su
lugar desde el momento en que el paquete deja la capa de Red del host de origen
hasta que llega a la capa de Red del host de destino.

El proceso de encapsular datos por capas permite que los servicios en las
diferentes capas se desarrollen y escalen sin afectar otras capas. Esto significa que
los segmentos de la capa de Transporte pueden ser empaquetados fácilmente por
los protocolos de la capa de Red existentes, como Ipv4 e Ipv6 (considerado el
sucesor de IPv4 dada la escases de direcciones), o por cualquier protocolo nuevo
que pueda desarrollarse en el futuro.

Los routers pueden implementar estos protocolos de la capa de Red para


operar concurrentemente desde una red origen a otra destino. El enrutamiento
realizado por estos dispositivos intermediarios sólo considera el contenido del
encabezado de paquetes que encapsulan el segmento o datagrama, es decir, la
porción de la PDU de la Capa de transporte encapsulada, permanece sin cambios
durante los procesos de la capa de red. En la figura a continuación muestra un
ejemplo de la generación de paquetes IP.

DATOS DATOS DATOS DATOS DEL USUARIO

ENCABEZADO
La capa de transporte
DEL Encapsulacion de la agrega un encabezado
SEGMENTO O
DATOS
capa de transporte. convirtiendo los datos en
DATAGRAMA
segmentos o datagramas.
PDU de la
capa de
transporte

La capa de red agrega


ENCABEZADO
un encabezado para
ENCABEZADO DE LA CAPA Encapsulación de que puedan enrutarse
DE IP DE
DATOS
la capa de red. los paquetes a través de
TRANSPORTE
redes complejas y
llegen a su destino.
PDU de la
capa de Red

PAQUETE IP
(Figura 44)

Encabezado IP

El protocolo Ipv4 define muchos campos diferentes en el encabezado del paquete.


Estos campos contienen valores binarios que los servicios Ipv4 toman como referencia a
medida que envían paquetes a través de la red. El formato de paquete IP puede verse en
la figura a continuación:

(Figura 45)
Consideraremos para este manual los 6 campos claves de este formato:

 DIRECCIÓN IP DESTINO: El campo de Dirección IP destino contiene un valor


binario de 32 bits que representa la dirección de host de capa de red de
destino del paquete.

 DIRECCIÓN IP ORIGEN: El campo de Dirección IP origen contiene un valor


binario de 32 bits que representa la dirección de host de capa de red de origen
del paquete

 TIEMPO DE VIDA: El tiempo de vida (TTL) es un valor binario de 8 bits que


indica el tiempo remanente de “vida” del paquete. El valor TTL disminuye al
menos en uno cada vez que el paquete es procesado por un router (es decir, en
cada salto). Cuando el valor se vuelve cero, el router descarta o elimina el
paquete y es eliminado del flujo de datos de la red. Este mecanismo evita que
los paquetes que no pueden llegar a destino sean enviados indefinidamente
entre los routers en un routing loop. Si se permitiera que los loops de
enrutamiento continúen, la red se congestionaría con paquetes de datos que
nunca llegarían a destino. Disminuyendo el valor TTL en cada salto se asegura
que eventualmente se vuelva cero y que se descartará el paquete con el campo
TTL vencido.

 PROTOCOLO: Este valor binario de 8 bits indica el tipo de relleno de carga que
el paquete traslada. El campo de protocolo permite a la Capa de red pasar los
datos al protocolo apropiado de la capa superior.

Los valores de ejemplo son:


 ICMP.
 TCP.
 UDP.

 TIPO DE SERVICIO: El campo de tipo de servicio contiene un valor binario de 8


bits que se usa para determinar la prioridad de cada paquete. Este valor
permite aplicar un mecanismo de Calidad del Servicio (QoS) a paquetes de alta
prioridad, como aquellos que llevan datos de voz en telefonía. El router que
procesa los paquetes puede ser configurado para decidir qué paquete es
enviado primero basado en el valor del Tipo de servicio.
 DESPLAZAMIENTO DE FRAGMENTOS: Como se mencionó antes, un router
puede tener que fragmentar un paquete cuando lo envía desde un medio a
otro medio que tiene una MTU más pequeña. Cuando se produce una
fragmentación, el paquete Ipv4 utiliza el campo desplazamiento de fragmento
y el señalizador MF en el encabezado IP para reconstruir el paquete cuando
llega al host destino. El campo de desplazamiento del fragmento identifica el
orden en el cual ubicar el fragmento del paquete en la reconstrucción.

 Señalizador de Más fragmentos: El señalizador de Más fragmentos (MF) es


un único bit en el campo del señalizador usado con el Desplazamiento de
fragmentos para la fragmentación y reconstrucción de paquetes. Cuando
está configurado el señalizador Más fragmentos, significa que no es el
último fragmento de un paquete. Cuando un host receptor ve un paquete
que llega con MF = 1, analiza el Desplazamiento de fragmentos para ver
dónde ha de colocar este fragmento en el paquete reconstruido. Cuando
un host receptor recibe una trama con el MF = 0 y un valor diferente a cero
en el desplazamiento de fragmentos, coloca ese fragmento como la última
parte del paquete reconstruido. Un paquete no fragmentado tiene toda la
información de fragmentación cero (MF = 0, desplazamiento de fragmentos
= 0).
 Señalizador de No Fragmentar: El señalizador de No Fragmentar (DF) es un
solo bit en el campo del señalizador que indica que no se permite la
fragmentación del paquete. Si se establece el bit del señalizador No
Fragmentar, entonces la fragmentación de este paquete NO está permitida.
Si un router necesita fragmentar un paquete para permitir el paso hacia
abajo hasta la capa de Enlace de datos pero el bit DF se establece en 1,
entonces el router descartará este paquete.

DIRECCION IP

En la capa de red es necesario identificar los paquetes de la transmisión con las


direcciones de origen y destino de los dos sistemas finales. Con Ipv4, esto significa que
cada paquete posee una dirección de origen de 32 bits y una dirección de destino de 32
bits en el encabezado de Capa 3.

Estas direcciones se usan en la red de datos como patrones binarios. Dentro de los
dispositivos, la lógica digital es aplicada para la interpretación de los bits que estructuran
una dirección IPv4. Para quienes formamos parte de la red humana, una serie de 32 bits es
difícil de interpretar e incluso más difícil de recordar. Por lo tanto, representamos
direcciones Ipv4 utilizando el formato decimal punteado como veremos a continuación en
este manual.

Los patrones binarios que representan direcciones Ipv4 son expresados separando
cada byte del patrón binario llamado octeto con un punto. Se le llama octeto debido a que
cada número decimal representa un byte u 8 bits.

Por ejemplo: la dirección

10101100 . 00010000 . 00000100 . 00010100

Está dirección está en su formato binario de 32 bits de longitud y para poder hallar
el valor en decimales debemos utilizar el concepto de la lógica binaria, es fácil pasar de
una dirección IP representada en su formato punto binario al formato punto decimal, solo
hay que conocer la lógica binaria. Para el caso particular obtendríamos la siguiente
dirección IP:

172.16.4.20

Esta última representación es idéntica a la anterior en términos de magnitud, la


única diferencia es que la primera se presenta en un formato que comprende 10 símbolos
y no en un formato que comprende solo 2 símbolos como lo es el formato binario.

CONVERSIÓN DE BINARIO EN DECIMAL: Para comprender el funcionamiento de


un dispositivo en una red, es necesario considerar las direcciones y otros datos de
la manera en que lo hace un dispositivo: en notación binaria. Esto significa que es
necesario ser hábil en la conversión de binario a decimal y viceversa, ahora veamos
que cada byte (octeto) representa un decimal en el rango de 0 a 255.

Notación de posición: El aprendizaje de la notación de posición para


convertir de binario a decimal requiere una comprensión de los fundamentos
matemáticos de la potenciación. Notación de posición significa que un dígito
representa diferentes valores según la posición que ocupa. Más específicamente,
el valor que un dígito representa es el valor multiplicado por la potencia de la base,
donde la potencia estará en función de la posición que el dicho dígito ocupa. El
siguiente ejemplo nos ayudará a aclarar cómo funciona este sistema.

Utilizaremos para este ejemplo el octeto binario: 1 0 1 0 1 1 0 0

Para orientarnos en el ejemplo definiremos algunos términos clave:


BIT MÁS SIGNIFICATIVO Y MENOS SIGNIFICATIVO: el bit más significativo
(BMS) puede definirse como el bit de mayor peso en el conjunto, para el caso de
un octeto tenemos que el bit más significativo es el del extremo izquierdo del
conjunto. Mientras que el bit menos significativo (BLS) corresponde al extremo
derecho del conjunto.

10101100

BIT MÁS SIGNIFICATIVO BIT MENOS SIGNIFICATIVO


(BMS) (BLS)

Tomando en cuenta que estamos en presencia del sistema de numeración


binaria la base con la cual debemos trabajar es el 2. Las potencias por su parte
variaran dependiendo de la posición que tengan los bits, esta potencia se
incremente de derecha a izquierda. Para entender mejor esto veamos la figura a
continuación:

Exponente
según la 27 26 25 24 23 22 21 20
posición
Valor en
128 64 32 16 8 4 2 1
decimal
(BMS) (BLS)

Una vez hayamos ordenado cada bit


Multiplicación Valor del octeto. en su posición, procederemos a
1 x 128 128 realizar una multiplicación entre los
valores del octeto con los valores
0 x 64 0 asociados al posicionamiento de
1 x 32 32 estos bits. Es importante recordar
0 x 16 0 que el BMS es el bit del extremo
derecho.
1 x 8 8
1 x 4 4 Luego en la columna “valor del
octeto” sumaremos el resultado de
0 x 2 0 las multiplicaciones. Esto finalmente
0 x 1 0 nos dará el valor en decimal del
octeto.
Ahora vamos a repetir el ejercicio bajo los mismos fundamentos, pero esta vez con
una dirección IPv4 de 32 bits de longitud.

DIRECCIÓN BINARIA IPv4: 101011000001000000000100000010100

Paso 1: dividir los 32 bits en 4 octetos.

10101100 00010000 00001000 00010100

+ 172 + 16 + 4 + 20

DIRECCION IP DECIMAL: 1 7 2 . 1 6 . 4 . 2 0

CONVERSION DE DECIMAL A BINARIO: no sólo es necesario poder realizar una


conversión de binario en decimal, sino que también es necesario poder realiza una
conversión de decimal a binario. Con frecuencia es necesario examinar un octeto
individual de una dirección que se proporciona en notación decimal punteada. Tal
es el caso cuando los bits de red y los bits de host dividen un octeto.

Un octeto binario comprende en el conjunto de los números decimales un


rango comprendido entre 0 y 255. Por lo tanto nuestra representación está
limitada para un mínimo de “0” y un máximo de “255”.

Para comenzar el proceso de conversión, empezaremos determinando si el


número decimal es igual a o mayor que nuestro valor decimal más grande
representado por el bit más significativo, como ya sabemos el bit más significativo
dentro de un octeto viene siendo 128. Entonces se determina si el valor es igual o
mayor que 128, si resulta que el valor es menor que 128, se coloca un 0 en la
posición de 128 y se mueve a la posición de 64 repitiendo este proceso.

En cambio, si el valor en la posición de 128 bits es mayor o igual que 128, se


debe colocar un 1 en la posición 128 y se resta 128 del número que se está
convirtiendo. Luego se comparan los valores restantes de esta operación con el
siguiente valor más pequeño, 64. Se continúa con este proceso para todas las
posiciones de restantes hasta que se llegue a cero.

Para entender mejor esto veamos el siguiente ejemplo a continuación:

ENCUENTRE EL VALOR EN BINARIO DEL NÚMERO DECIMAL: 160

¿160 ≥128?
NO

Se coloca un 1 en la posición de 128.


SI 10000000

160 - 128= 32

¿ 32 ≥ 64 ? ¿32 ≥32?
NO NO

SI SI

Se coloca un 1 en la posición de 32 10100000

Llegamos al final de la conversión 32 - 32= 0

FIN (Fig.: 46)


Por lo tanto el número decimal 160 en binario es: 10100000

Ahora completemos el ejemplo para resolver una dirección IPv4:

Convertir de decimal a binario: 172.16.4.20

En el caso de que el numero que estemos calculando sea “menor que”, entonces
esa posición debe ser rellenada con “0”. Para el caso en que sea “mayor que” entonces se
coloca un “1” en esa posición y restamos, si la operación nos da un número mayor que
cero continuamos aplicando este patrón hasta llegar al cero. Veamos el ejemplo a
continuación

(Figura 47)

LA DIRECCIÓN IPv4 BINARIA ES: 10101100 . 00010000 . 00000100 . 00010100


TIPOS DE DIRECCIONES DE UNA RED IPv4 PARA DIFERENTES PROPÓSITOS: Dentro del
rango de direcciones de cada red Ipv4, existen tres tipos de direcciones:

 Dirección de red: la dirección en la que se hace referencia a la red.

 Dirección de broadcast: una dirección especial utilizada para enviar datos a todos
los hosts de la red.

 Direcciones host: las direcciones asignadas a los dispositivos finales de la red.

Aprenderá más sobre los tipos de direcciones más adelante en este manual, en
el Modulo III.

1.5.5.4- CAPA 2 (CAPA DE ENLACE DE DATOS) <TRAMAS>:

Para sostener nuestras comunicaciones, el modelo OSI divide las funciones de una
red de datos en capas.

Para resumir lo que ya sabemos:

 La capa de aplicación provee la interfaz al usuario.


 La capa de transporte es responsable de dividir y manejar las comunicaciones
entre los procesos que funcionan en los sistemas finales.
 Los protocolos de capa de red organizan nuestros datos de comunicación para que
puedan viajar a través de internetworks desde el host que los origina hasta el host
destino.

Para que los paquetes de capa de red sean transportados desde el host origen al
host destino deben recorrer diferentes redes físicas. Estas redes físicas pueden
componerse de diferentes tipos de medios físicos, tales como alambres de cobre,
microondas, fibras ópticas y enlaces satelitales. Los paquetes de la capa de red y
superiores no tienen una manera de acceder directamente a los diferentes medios, por lo
tanto la capa de enlace de datos (Capa 2) aísla las funciones de capas superiores de los
diferentes medios físicos, es decir que cuando un paquete necesita ser enviado a través de
la red, los procesos y protocolos superiores no necesitan saber cómo, ni tampoco a través
de qué medios será enviado el paquete a su destino.
Sin la capa de enlace de datos, un protocolo de capa de red, tal como IP, tendría
que tomar medidas para conectarse con todos los tipos de medios que pudieran existir a
lo largo de la ruta de envío. Más aún, IP debería adaptarse cada vez que se desarrolle una
nueva tecnología de red o medio. Este proceso dificultaría la innovación y desarrollo de
protocolos y medios de red. Éste es un motivo clave para usar un método en capas en la
interconexión de redes.

FUNCIONES DE LA CAPA 2: La capa 2 es responsable de transformar y ordenar un


flujo de bits continuo provenientes de la capa 1 en fragmentos binarios llamados
“tramas”, una trama es una agrupación lógica de información que se envía como una PDU
de la capa de enlace de datos a través de un medio de trasmisión, a menudo se refiere al
encabezado y a la información final, que se usan para la sincronización y el control de
errores, que son necesarios y transmitidos conjuntamente con los datos del usuario al
host destino.

Algunas de las funciones de la capa de enlace de datos son las siguientes:

 Tramado: divide el flujo de bits recibidos de la capa física en unidades de datos


manejables llamadas tramas.

 Direccionamiento físico: se refiere a la dirección MAC, una dirección MAC viene


representada por un conjunto de 12 dígitos hexadecimales asignados por el
fabricante, esta dirección es única en todo el mundo y es un estándar que se
requiere para cada puerto o dispositivo que se conecte a una LAN. También se le
conoce a la dirección MAC como dirección de hardware o dirección física ya que no
puede ser alterada por el usuario.

 Control de flujo: se refiere a una técnica mediante la cual el receptor le indica al


transmisor el permiso para enviar datos, esto con la intención de que los
receptores lentos no sean abrumados por los transmisores más rápidos.

 Control de errores: técnica para detectar o corregir errores en las transmisiones de


datos. Aunque se use a veces la corrección de errores, normalmente se prefiere se
prefiere la detección de errores ya que presenta una eficiencia mucho mayor.

 Control de acceso: cuando se conectan dos o más dispositivos a un mismo enlace,


los protocolos deben determinar en todo momento que dispositivo tiene el control
del enlace.
SUBCAPAS DE ENLACE DE DATOS: Para sostener una gran variedad de funciones
de red, la capa de enlace de datos a menudo se divide en dos subcapas:

CAPA DE ENLACE DE DATOS

LLC

MAC

(Figura 48)

Separar la Capa de enlace de datos en subcapas permite a un tipo de trama


definida por la capa superior acceder a diferentes tipos de medios definidos por la
capa inferior.

 La subcapa MAC (Media Access Control): es la más baja de estas dos, esta
subcapa inferior define los procesos de acceso a los medios realizados por el
hardware, siendo quien administra el acceso al medio compartido a través de
lo que se conoce como dirección MAC, una dirección MAC es una dirección
única en todo el mundo asignada por el fabricante, no puede ser alterada, esto
forma parte de un estandarización que se requiere para cada puerto o
dispositivo que se conecta a la LAN. Entre sus funciones específicas se
encuentra:

 Direccionamiento de la trama.
 Marca el comienzo y fin de la trama.

 La subcapa LLC (Logical Link Control): es la subcapa más alta de la capa 2 del
modelo OSI, ejecuta funciones de software de los niveles más altos. La LLC es
quien administra el control de errores, el control de flujo, recibe paquetes de
niveles superiores y los envía al nivel MAC. Su comportamiento es como la de
un intermediario entre una capa de hardware (capa 1) y otra de software
(capa 3). Entre sus funciones específicas se encuentra:

 Entrama el paquete de la capa de red.


 Identifica el protocolo de la capa de red.
FORMATO DE UNA TRAMA: Cuando los datos viajan por los medios, se convierten
en un stream de bits, o en 1 y 0. Si un nodo está recibiendo streams de bits largos ¿cómo
determina dónde comienza y termina la trama o qué bits representan una dirección?

El tramado rompe el stream en agrupaciones descifrables, con la información de


control insertada en el encabezado y tráiler como valores en campos diferentes. Este
formato brinda a las señales físicas una estructura que puede ser recibida por los nodos y
decodificada en paquetes en el destino.

FORMATO DE TRAMA

Patrón de bits especifico que Patrón de bits especifico que


denota el inicio de la trama denota el final de la trama

(Figura 49)

FUNCION DEL ENCABEZADO DE TRAMA: se encarga de proporcionar información


de control sobre las tramas en la red. Describamos a continuación algunos de los
campos del encabezado.

 Iniciar Trama: indica a los dispositivos de la red que está llegando una
trama a través del medio.
 Dirección: almacena las direcciones de capa 2 de origen y destino.
 Tipo/Longitud: se refiere a un campo opcional, utilizado por algunos
protocolos para establecer qué tipo de datos está ingresando o
posiblemente la longitud de la trama.
FUNCION DEL TRAÍLER DE LA TRAMA: Los protocolos de la capa de enlace de datos
agregan un tráiler en el extremo de cada trama. El tráiler se utiliza para determinar
si la trama llegó sin errores, este proceso se denomina detección de errores. La
detección de errores se logra colocando un resumen lógico o matemático de los
bits que comprenden la trama en el tráiler.

 Secuencia de verificación de trama: El campo secuencia de verificación de


trama (FCS) se utiliza para determinar si ocurrieron errores de transmisión y
recepción de la trama. La detección de errores se agrega a la capa de enlace
de datos porque es ahí donde se transfieren los datos a través de los
medios. Los medios son un entorno potencialmente inseguro para los
datos. Las señales en los medios pueden estar sujetas a interferencia,
distorsión o pérdida que podría cambiar sustancialmente los valores de los
bits que dichas señales representan. El mecanismo de detección de errores
provisto por el uso del campo FCS descubre la mayoría de los errores
causados en los medios.

Para asegurase de que el contenido de la trama recibida en el


destino combine con la trama que salió del nodo origen, un nodo de
transmisión crea un resumen lógico del contenido de la trama. A esto se lo
conoce como valor de comprobación de redundancia cíclica (CRC). Este
valor se coloca en el campo secuencia de verificación de la trama (FCS) para
representar el contenido de la trama.

Cuando la trama llega al nodo de destino, el nodo receptor calcula


su propio resumen lógico, o CRC, de la trama. El nodo receptor compara los
dos valores CRC. Si los dos valores son iguales, se considera que la trama
llegó como se transmitió. Si el valor CRC en el FCS difiere del CRC calculado
en el nodo receptor, la trama se descarta.

Existe siempre la pequeña posibilidad de que una trama con un


buen resultado de CRC esté realmente corrupta. Los errores en los bits se
pueden cancelar entre sí cuando se calcula el CRC. Los protocolos de capa
superior entonces deberían detectar y corregir esta pérdida de datos.

DIRECCIONAMIENTO FÍSICO: La capa de enlace de datos proporciona


direccionamiento que es utilizado para transportar la trama a través de los medios
locales compartidos. Las direcciones de dispositivo en esta capa se llaman
direcciones físicas. El direccionamiento de la capa de enlace de datos está
contenido en el encabezado de la trama y especifica el nodo de destino de la trama
en la red local. El encabezado de la trama también puede contener la dirección de
origen de la trama.

A diferencia de las direcciones lógicas de la Capa 3, que son jerárquicas, las


direcciones físicas no indican en qué red está ubicado el dispositivo. Si el
dispositivo es transportado a otra red o subred, aún funcionará con la misma
dirección física de la Capa 2.

Debido a que la trama sólo se utiliza para transportar datos entre nodos a
través del medio local, la dirección de la capa de enlace de datos sólo se utiliza
para entregas locales. Las direcciones en esta capa no tienen significado más allá
de la red local. Compare esto con la Capa 3, donde las direcciones en el
encabezado del paquete son transportadas desde el host de origen al host de
destino sin importar la cantidad de saltos de la red a lo largo de la ruta.

Si el paquete en la trama debe pasar a otro segmento de la red, el


dispositivo intermediario, un router, desencapsulará la trama original, creará una
nueva trama para el paquete y la enviará al nuevo segmento. La nueva trama usará
el direccionamiento de origen y de destino según sea necesario para transportar el
paquete a través del nuevo medio.

CONTROL DE ACCESO AL MEDIO PARA MEDIOS COMPARTIDOS.

Algunas topologías de red comparten un medio común con varios nodos. En


cualquier momento puede haber una cantidad de dispositivos que intentan enviar y
recibir datos utilizando los medios de red. Hay reglas que rigen cómo esos dispositivos
comparten los medios.

Hay dos métodos básicos de control de acceso al medio para medios compartidos:

 Controlado: Cada nodo tiene su propio tiempo para utilizar el medio.


 Basado en la contención: Todos los nodos compiten por el uso del medio.

ACCESO CONTROLADO PARA MEDIOS COMPARTIDOS:

Al utilizar el método de acceso controlado, los dispositivos de red toman turnos en


secuencia para acceder al medio. A este método se lo conoce como acceso programado o
determinístico. Si un dispositivo no necesita acceder al medio, la oportunidad de utilizar el
medio pasa al siguiente dispositivo en línea. Cuando un dispositivo coloca una trama en
los medios, ningún otro dispositivo puede hacerlo hasta que la trama haya llegado al
destino y haya sido procesada por el mismo.

Aunque el acceso controlado está bien ordenado y provee rendimiento predecible,


los métodos determinísticos pueden ser ineficientes porque un dispositivo tiene que
esperar su turno antes de poder utilizar el medio.

CARACTERÍSTICA EJEMPLO
 Solo transmite una estación a la vez.
 Los dispositivos que deben transmitir  Token Ring.
Acceso controlado deben esperar su turno.
 No hay colisiones.
 Algunas redes de acceso controlado  FDDI
utilizan el paso de Tokens.
Fig.: 50

ACCESO POR CONTENSIÓN PARA MEDIOS COMPARTIDOS:

Estos métodos por contención, también llamados no deterministas, permiten que


cualquier dispositivo intente acceder al medio siempre que haya datos para enviar. Para
evitar caos completo en los medios, estos métodos usan un proceso de Acceso múltiple
por detección de portadora (CSMA) para detectar primero si los medios están
transportando una señal. Si se detecta una señal portadora en el medio desde otro nodo,
quiere decir que otro dispositivo está transmitiendo. Cuando un dispositivo está
intentando transmitir y nota que el medio está ocupado, esperará e intentará después de
un período de tiempo corto. Si no se detecta una señal portadora, el dispositivo transmite
sus datos. Las redes Ethernet e inalámbricas utilizan control de acceso al medio por
contención.

Es posible que el proceso CSMA falle si dos dispositivos transmiten al mismo


tiempo. A esto se lo denomina colisión de datos. Si esto ocurre, los datos enviados por
ambos dispositivos se dañarán y deberán enviarse nuevamente.
Los métodos de control de acceso al medio por contención no tienen la sobrecarga de los
métodos de acceso controlado. No se requiere un mecanismo para analizar quién posee el
turno para acceder al medio. Sin embargo, los sistemas por contención no escalan bien
bajo un uso intensivo de los medios. A medida que el uso y el número de nodos
aumentan, la probabilidad de acceder a los medios con éxito sin una colisión disminuye.
CSMA es generalmente implementado junto con un método para resolver la
contención del medio. Los dos métodos comúnmente utilizados son:

 CSMA/Detección de colisión:

En CSMA/Detección de colisión (CSMA/CD), el dispositivo monitorea los medios


para detectar la presencia de una señal de datos. Si no hay una señal de datos, que
indica que el medio está libre, el dispositivo transmite los datos. Si luego se detectan
señales que muestran que otro dispositivo estaba transmitiendo al mismo tiempo,
todos los dispositivos dejan de enviar e intentan después. Las formas tradicionales de
Ethernet usan este método.

 CSMA/Prevención de colisiones:

En CSMA/Prevención de colisiones (CSMA/CA), el dispositivo examina los medios


para detectar la presencia de una señal de datos. Si el medio está libre, el dispositivo
envía una notificación a través del medio, sobre su intención de utilizarlo.
El dispositivo luego envía los datos. Este método es utilizado por las tecnologías de
redes inalámbricas 802.11.

CARACTERÍSTICA EJEMPLO
 Las estaciones pueden transmitir en
cualquier momento
 IEEE 802.3
 Existen colisiones.
Acceso por
contención.  Existen mecanismos para disolver
colisiones:
 CSMA/CD para redes Ethernet.  IEEE 802.11
 CMSA/CA para redes
inalámbricas 802.11
Fig.: 51

CONTROL DE ACCESO AL MEDIO PARA MEDIOS NO COMPARTIDOS

Los protocolos de control de acceso al medio para medios no compartidos


requieren poco o ningún control antes de colocar tramas en los medios. Estos protocolos
tienen reglas y procedimientos más simples para el control de acceso al medio. Tal es el
caso de las topologías punto a punto.
En las topologías punto a punto, los medios interconectan sólo dos nodos. En esta
configuración, los nodos no necesitan compartir los medios con otros hosts ni determinar
si una trama está destinada para ese nodo. Por lo tanto, los protocolos de capa de enlace
de datos hacen poco para controlar el acceso a medios no compartidos.

COMPARACIÓN ENTRE LA TOPOLOGÍA LÓGICA Y LA TOPOLOGÍA FÍSICA.

La topología de una red es la configuración o relación de los dispositivos de red y


las interconexiones entre ellos. Las topologías de red pueden verse en el nivel físico y el
nivel lógico.

La topología física es una configuración de nodos y las conexiones físicas entre


ellos. La representación de cómo se usan los medios para interconectar los dispositivos es
la topología física.

Una topología lógica es la forma en que una red transfiere tramas de un nodo al
siguiente. Esta configuración consiste en conexiones virtuales entre los nodos de una red
independiente de su distribución física. Los protocolos de capa de enlace de datos definen
estas rutas de señales lógicas. La capa de enlace de datos “ve” la topología lógica de una
red al controlar el acceso de datos a los medios. Es la topología lógica la que influye en el
tipo de trama de red y control de acceso a medios utilizados.

La topología física o cableada de una red probablemente no sea la misma que la


topología lógica. La topología lógica de una red está estrechamente relacionada con el
mecanismo utilizado para administrar el acceso a la red. Los métodos de acceso
proporcionan los procedimientos para administrar el acceso a la red para que todas las
estaciones tengan acceso. Cuando varias entidades comparten los mismos medios, deben
estar instalados algunos mecanismos para controlar el acceso. Los métodos de acceso son
aplicados a las redes para regular este acceso a los medios.

Las topologías lógica y física generalmente utilizadas en redes son:

 Punto a Punto.
 Multiacceso.
 Anillo.
TOPOLOGÍAS LOGICAS.

Punto a punto RED

Fig.: 52

Multiacceso

Fig.: 53

Anillo

Fig.: 54
TOPOLOGÍA PUNTO A PUNTO: Una topología punto a punto conecta dos nodos
directamente entre sí, como se muestra en la figura 52. En redes de datos con topologías
punto a punto, el protocolo de control de acceso al medio puede ser muy simple. Todas
las tramas en los medios sólo pueden viajar de un host a otro. El nodo en un extremo
coloca las tramas en los medios y el nodo en el otro extremo las saca de los medios del
circuito punto a punto.

En redes punto a punto, si los datos sólo pueden fluir en una dirección a la vez ,
está operando como un enlace Half-Duplex. Si los datos pueden fluir con éxito a través del
enlace desde cada nodo simultáneamente, es un enlace Full-Duplex.

Los nodos de los extremos que se comunican en una red punto a punto pueden
estar conectados físicamente a través de una cantidad de dispositivos intermedios.

Agregar conexiones físicas intermedias puede


no cambiar la topología logica.

Topología punto a
punto

(Figura 55)

Como se muestra en la figura, los nodos de origen y destino pueden estar


conectados indirectamente entre sí a través de una distancia geográfica. En algunos casos,
la conexión lógica entre nodos forma lo que se llama circuito virtual. Un circuito virtual es
una conexión lógica creada dentro de una red entre dos dispositivos de red. Los dos nodos
en cada extremo del circuito virtual intercambian las tramas entre sí.

El método de acceso al medio utilizado por el protocolo de enlace de datos se


determina por la topología lógica, no la topología física.
TOPOLOGÍA MULTIACCESO: Una topología lógica multiacceso permite a una cantidad de
nodos comunicarse utilizando los mismos medios compartidos. Los datos desde un sólo
nodo pueden colocarse en el medio en cualquier momento. Todos los nodos ven todas las
tramas que están en el medio, pero sólo el nodo al cual la trama está direccionada
procesa los contenidos de la trama.

Hacer que varios nodos compartan el acceso a un medio requiere un método de


control de acceso al medio de enlace de datos que regule la transmisión de datos y, por lo
tanto, reduzca las colisiones entre las diferentes señales.

Los métodos de control de acceso al medio utilizado por las topologías multiacceso
son generalmente CSMA/CD o CSMA/CA. Sin embargo, métodos de paso de token pueden
también utilizarse.

(Figura 56)

TOPOLOGÍA DE ANILLO: En una topología lógica de anillo, cada nodo recibe una trama por
turno. Si la trama no está direccionada al nodo, el nodo pasa la trama al nodo siguiente.
Esto permite que un anillo utilice una técnica de control de acceso al medio llamada paso
de tokens.
Los nodos en una topología lógica de anillo retiran la trama del anillo, examinan la
dirección y la envían si no está dirigida para ese nodo. En un anillo, todos los nodos
alrededor del anillo entre el nodo de origen y de destino examinan la trama.

Existen múltiples técnicas de control de acceso a los medios que podrían usarse
con un anillo lógico, dependiendo del nivel de control requerido. Por ejemplo: sólo una
trama a la vez es generalmente transportada por el medio. Si no se están transmitiendo
datos, se colocará una señal (conocida como token) en el medio y un nodo sólo puede
colocar una trama de datos en el medio cuando tiene el token. Recuerde que la capa de
enlace de datos “ve” una topología lógica de anillo. La topología del cableado físico real
puede ser otra topología.

En la figura, podemos ver como a través del token una trama es enviada a través
del medio desde el host E hasta llegar al Host B.

Host C

Host B Host D
Esta trama es
para mi.

Host A Host E
Esta trama NO es Quiero enviar
para mi una trama a “B”

Host H
Esta trama NO es
para mi Esta trama NO es
para mi
Host F

Host G

Esta trama NO
es para mi

(Figura 57)
1.5.5.5- CAPA 1 (CAPA FISICA) <BITS>:

La función de la capa física de OSI es la de codificar en señales los dígitos binarios


que representan las tramas de la capa de Enlace de datos, además de transmitir y recibir
estas señales a través de los medios físicos (alambres de cobre, fibra óptica o medio
inalámbrico) que conectan los dispositivos de la red.

El envío de tramas a través de medios de transmisión requiere los siguientes


elementos de la capa física:

 Medios físicos y conectores asociados.


 Una representación de los bits en los medios.
 Codificación de los datos.
 Sistema de circuitos del receptor y transmisor en los dispositivos de red.

En este momento del proceso de comunicación, la capa de transporte ha


segmentado los datos del usuario, la capa de red los ha colocado en paquetes y luego la
capa de enlace de datos los ha encapsulado como tramas. El objetivo de la capa física es
crear las señales ópticas, eléctricas o de microondas que representan a los bits en cada
trama. Otra función de la capa física es la de recuperar estas señales individuales desde
los medios, restaurarlas para sus representaciones de bit y enviar los bits hacia la capa de
enlace de datos como una trama completa.
HOST ORIGEN HOST DESTINO

APLICACIÓN

DATOS DATOS DATOS

ENCABEZADO
DE LA CAPA
DATOS
DE
TRANSPORTE

ENCABEZADO
ENCABEZADO DE LA CAPA
DE RED DE
DATOS
TRANSPORTE

ENCABEZADO
TRÁILER
ENCABEZADO ENCABEZADO DE LA CAPA
DE LA TRAMA DE RED DE
DATOS DE LA
TRAMA
TRANSPORTE

0100111001000100111110

(Fig.: 58)
CAPA FÍSICA

EXISTEN TRES TIPOS BÁSICOS DE MEDIOS DE RED EN LOS CUALES SE REPRESENTAN LOS DATOS:

Medios de cobre Medios de luz


(Cable coaxial - UTP). (Fibra Óptica).

Medios electromagnéticos.
(Microondas - satelitales - radiofrecuencia).

(Figura 59)

REPRESENTACIÓN DE SEÑALES EN LOS MEDIOS FÍSICOS: La representación de los


bits en un tipo de señal depende del tipo de medio. Para los medios de cable de cobre, las
señales son patrones de pulsos eléctricos. Para los medios de fibra, las señales son
patrones de luz. Para los medios inalámbricos, las señales son patrones de transmisiones
de radiofrecuencia.

El cable de cobre se utiliza en casi todas las LAN. Hay varios tipos de cable de cobre
disponibles, y cada uno presenta ventajas y desventajas. La correcta selección del
cableado es fundamental para que la red funcione de manera eficiente. Debido a que el
cobre transporta información utilizando corriente eléctrica, es importante elegir el tipo de
cable correcto para el buen flujo de la información a través del mismo.
La fibra óptica es el medio utilizado con mayor frecuencia en las transmisiones de
punto a punto de mayor distancia y alto ancho de banda que requieren los backbones de
LAN y las WAN. En los medios ópticos, se utiliza la luz para transmitir datos a través de una
delgada fibra de vidrio o de plástico. Las señales eléctricas hacen que el transmisor de
fibra óptica genere señales luminosas que son enviadas por la fibra. El host receptor
recibe las señales luminosas y las convierte en señales eléctricas en el extremo opuesto de
la fibra. Sin embargo, no hay electricidad en el cable de fibra óptica en sí. De hecho, el
vidrio utilizado en el cable de fibra óptica es un muy buen aislante eléctrico.

La conectividad física significo un aumento en la productividad, haciendo posible


que se pudiesen compartir: impresoras, servidores y software. Los sistemas tradicionales
de red requieren que las estaciones de trabajo permanezcan estacionarias permitiendo
movimientos sólo dentro del alcance del cable y el puerto de conexión a la red.

La introducción de la tecnología inalámbrica elimina estas limitaciones y otorga


portabilidad real al mundo de la computación. En la actualidad, la tecnología inalámbrica
no iguala las transferencias de alta velocidad, la seguridad o la confiabilidad que brindan
las redes que usan cables. Sin embargo, la flexibilidad de no tener cables justifica el
sacrificio de estas características. Veamos en la siguiente figura algunas representaciones:

Señal de pulsos eléctricos


transmitidos a través de medios de
cobre.

Señal representativa de los pulsos de luz de la


fibra óptica.

Señales moduladas para representar


las transmisiones inalámbricas. Aquí
los bits se transforman en ondas
para poder ser enviadas a través del
aire libre (espectro). Las
modulaciones pueden ser de
amplitud, frecuencia o de fase.

(Fig.: 60,61 y 62).


SEÑALIZACIÓN Y CODIFICACIÓN FÍSICA

Las tres responsabilidades esenciales de la capa física son:

 COMPONENTES FÍSICOS: Los elementos físicos son los dispositivos electrónicos de


hardware, medios y conectores que transmiten y transportan las señales para
representar los bits.

 CODIFICACIÓN: se refiere a técnicas eléctricas utilizadas para la representación de


señales binarias. en otras palabras, La codificación es un método utilizado para
convertir un stream de bits de datos en un código eléctrico predefinido.

 SEÑALIZACIÓN: La capa física debe generar las señales inalámbricas, ópticas o


eléctricas que representan el “1” y el “0” en los medios. El método de
representación de bits se denomina señalización. Los estándares de capa física
deben definir qué tipo de señal representa un “1” y un “0”. Esto puede ser tan
sencillo como un cambio en el nivel de una señal eléctrica, un impulso óptico o un
método de señalización más complejo.

Si bien todos los bits que conforman una trama se presentan ante la capa física
como una unidad, la transmisión de la trama a través de los medios se realiza mediante un
stream de bits enviando uno a la vez. La capa física representa cada uno de los bits de la
trama como una señal. Cada señal ubicada en los medios cuenta con un plazo específico
de tiempo para ocupar los medios, esto se denomina tiempo de bit. El tiempo de bit está
asociado a un reloj y puede entenderse como la duración en segundos de un símbolo
binario. En la siguiente figura veamos un ejemplo de señalización eléctrica:

(Fig.: 63)
MÉTODOS DE SEÑALIZACIÓN: Los bits se representan en el medio al cambiar una o
más de las siguientes características de una señal:

 Amplitud.
 Frecuencia.
 Fase.

La naturaleza de las señales que representaran a los bits en los medios dependerá del
método de señalización que se utilice. Algunos métodos pueden utilizar un atributo de
señal para representar un único “0” y utilizar otro atributo de señal para representar un
único “1”.

Entendamos la señalización mediante el ejemplo de la señal anterior, en la figura


63 se vio representado un método que se denomina como el método de NO retorno a
cero (NRZ), en el cual un cero (0) puede representarse con un nivel bajo de voltaje en los
medios durante el tiempo de bit, mientras que un uno (1) puede representarse como un
voltaje diferente durante el mismo tiempo de bit. Veamos en la siguiente figura el método
NRZ que representa valores binarios a través de una señal eléctrica que varía en amplitud.

(Fig.: 64)

El método de señalización utilizado debe ser compatible con un estándar para que
el receptor pueda detectar las señales del transmisor y proceder a decodificarlas. El
estándar incluye un acuerdo entre el transmisor y el receptor sobre cómo representar los
1 y los 0. Si no existe un acuerdo de señalización, es decir, si se utilizan diferentes
estándares en cada extremo de la transmisión, la comunicación a través del medio físico
no se podrá llevar a cabo.
Los métodos de señalización para representar bits en los medios pueden ser
complejos. Veamos ahora otros dos métodos básicos utilizados para la señalización.

(Figura: 65)

CODIFICACIÓN NRZ: examinando este método simple de codificación descubrimos


que en NRZ, el stream de bits se transmite como una secuencia de valores de voltaje, tal
como se muestra en la figura 64. Un valor de bajo voltaje representa un “0” lógico y un
valor de alto voltaje representa un “1” lógico. El intervalo de voltaje (amplitud) depende
del estándar específico de capa física utilizado.

Este método simple de codificación sólo es adecuado para enlaces de datos de


velocidad lenta. La codificación NRZ no utiliza el ancho de banda de manera eficiente y es
susceptible a la interferencia electromagnética. Además, los límites entre bits individuales
pueden perderse al transmitir en forma consecutiva secuencias largas de “1” ó “0”. En
dicho caso, no se detectan transmisiones de voltaje en los medios a través de largas
cadenas de ceros, por lo que el receptor puede dar por desconectado al transmisor y se
interrumpe la comunicación. En el caso contrario puede limitar la vida útil del transmisor y
receptor por mantener el uso constante de los circuitos transmisores y receptores a través
de de largas cadenas de unos.

Para cubrir esta dificultad es necesario utilizar métodos de codificación física.


Existe una gran variedad de códigos para convertir un stream de bits de datos en un
código eléctrico predefinido. Como ejemplo analicemos brevemente la codificación
Manchester utilizado en las primeras versiones de Ethernet.
CODIFICACIÓN MANCHESTER:

En lugar de representar bits como impulsos de valores simples de voltaje, en el


esquema de codificación Manchester, los valores de bit se representan como transiciones
de voltaje.

Por ejemplo, una transición desde un voltaje bajo a un voltaje alto (en los tiempos
de bit) representa un valor binario de 1. De igual forma, una transición desde un voltaje
alto a un voltaje bajo representa un valor de binario de 0.

(Figura 66)

Como se muestra en la figura 66, se debe realizar una transición de voltaje en el


medio de cada tiempo de bit. En este método de codificación se debe garantizar que los
tiempos de bit en el nodo receptor se encuentren sincronizados con los del nodo
transmisor.

La transición a la mitad del tiempo de bit será en dirección ascendente o


descendente para cada unidad de tiempo en la cual se transmite un bit. Para los valores
de bit consecutivos, no habría ningún problema ya que constantemente existe un cambio
en la señal tanto para largas cadenas de “1” como para largas cadenas de “0”.
1.6.- Ancho de banda.

El ancho de banda (BW) se define como la cantidad de información que puede fluir
a través de una conexión de red en un período dado. Es esencial comprender el concepto
de ancho de banda para el estudio de las redes y telecomunicaciones, por las siguientes
cuatro razones:
 El ancho de banda se encuentra limitado por razones físicas y tecnológicas.
 El ancho de banda NO es gratuito.
 Los requisitos de ancho de banda aumenta a gran velocidad.
 El ancho de banda es fundamental para el desarrollo de la red.

EL ANCHO DE BANDA ES SIMILAR AL DIÁMETRO DE UNA TUBERÍA: Una red de


tuberías trae agua potable a los hogares y sitios de trabajo. Esta red de agua está
compuesta por tuberías de diferentes diámetros, las principales tuberías de agua de una
ciudad pueden medir hasta 1 metro de diámetro, en tanto que la tubería para una llave de
cocina puede medir apenas dos centímetros. El ancho de la tubería determina su
capacidad de transporte de agua. Por lo tanto, el agua es como los datos, y el ancho de la
tubería es como el ancho de banda, entonces resulta lógico pensar que en términos
generales que se necesitan colocar tuberías más grandes (aumentar ancho de banda) si
desea agregar capacidad para el flujo de agua (información).

MEDICIÓN: En los sistemas digitales, la unidad básica del ancho de banda es: bits
por segundo (bps). El ancho de banda es la medición de la cantidad de información, o bits,
que puede fluir desde un lugar hacia otro en un período de tiempo determinado
(segundos). Aunque el ancho de banda se puede describir en bits por segundo, se suelen
usar múltiplos de bits por segundo. En otras palabras, el ancho de banda de una red
generalmente se describe en términos de miles de bits por segundo (kbps), millones de
bits por segundo (Mbps), miles de millones de bits por segundo (Gbps) y billones de bits
por segundo (Tbps). A pesar de que las expresiones ancho de banda y velocidad a menudo
se usan en forma indistinta, no significan exactamente lo mismo. Se puede decir, por
ejemplo, que una conexión “ABA Productivo” a 2,048Mbps de CANTV opera a una
velocidad mayor que una conexión “ABA para todos” a 1,544Mbps. No obstante, si sólo se
utiliza una cantidad pequeña de su capacidad para transportar datos, cada uno de estos
tipos de conexión transportará datos a aproximadamente la misma velocidad. Por
ejemplo, una cantidad pequeña de agua fluirá a la misma velocidad por una tubería
pequeña y por una tubería grande. Por lo tanto, suele ser más exacto decir que una
conexión “ABA Productivo” posee un mayor ancho de banda que una conexión “ABA para
todos”. Esto es así porque la conexión “ABA productivo” posee la capacidad para
transportar más información en el mismo período de tiempo, y no porque tenga mayor
velocidad.

UNIDAD DE BW ABREVIATURA EQUIVALENCIA


Bits por segundo bps 1 bps = Unidad fundamental del BW.
Kilobits por segundo Kbps 1Kbps = 1.000bps = 103 bps
Megabits por segundo Mbps 1Mbps = 1.000.000 = 10 6 bps
Gigabits por segundo Gbps 1Gbps = 1.000.000.000bps = 10 9 bps
Terabits por segundo Tbps 1Tbps = 1.000.000.000.000bps = 10 12 bps

TASA DE TRANSFERENCIA: La tasa de transferencia se refiere a la medida real del


ancho de banda, en un momento dado del día, usando rutas específicas en la red y al
transmitirse un conjunto específico de datos. Desafortunadamente, por varios motivos, la
tasa de transferencia a menudo es mucho menor que el ancho de banda digital máximo
posible del medio utilizado. A continuación se detallan algunos de los factores que
determinan la tasa de transferencia:

 Dispositivos de red
 Tipo de datos que se transfieren
 Topología de la red
 Cantidad de usuarios en la red
 Computador del usuario
 Computador servidor
 Hora de la transmisión.

CÁLCULO DE LA TRANSFERENCIA DE DATOS: A menudo se convoca a los


diseñadores y administradores de red para tomar decisiones con respecto al ancho de
banda. Una decisión podría ser sobre la necesidad de incrementar el tamaño de la
conexión WAN para agregar capacidades a las conexiones fuera de la LAN. Otra decisión
podría ser si el ancho de banda del actual backbone de la LAN satisface las necesidades de
video fluido para conferencias. Las respuestas a este tipo de problemas no siempre son
fáciles de hallar, pero se puede comenzar con un cálculo sencillo de transferencia de
datos.
Aplicando la fórmula tiempo de transferencia.

 S = Tamaño del archivo en bits.


Mejor descarga:  T = tiempo en el que se debe producir la transferencia
T = S / BW de archivos (medida en segundos)
 BW = máximo ancho de banda teórico (medido en bits
Descarga típica: por segundo)
T=S/P  P = tasa de transferencia real en el momento de la
transferencia (medida en bits por segundo)

Hay dos puntos importantes a considerar al momento de realizar este cálculo:

1. El resultado no es más que un estimado, porque el tamaño del archivo no


incluye el gasto agregado por el encapsulamiento.

2. Aunque el cálculo de transferencia de datos es muy sencillo, es importante


asegurarse de usar las mismas unidades a lo largo de toda la ecuación. En otras
palabras, si el ancho de banda se mide en megabits por segundo (Mbps), el
tamaño del archivo debe expresarse en Megabits (Mb), y no en MegaBytes
(MB). Recordemos que el Byte es una unidad de almacenamiento, compuesta
por ocho bits. Por lo tanto, puede que resulte necesario establecer una
conversión que nos ayude a igualar las unidades de datos antes de realizar el
cálculo.

El tamaño de los archivos se suele expresar en Bytes, por lo tanto para la


conversión es necesario tener en consideración lo siguiente:

1 Byte 8 bits
1 KiloByte (KB) 1024 Bytes
1 MegaByte (MB) 1024 KiloBytes (KB)
1 GigaByte (GB) 1024 MegaBytes (MB)
(Fig.: 67)

Ejemplo:

Calcular el tiempo de transferencia para un archivo que contiene 1.5 MB de datos a


través de una línea de 56Kbps.
Paso 1: pasar 1.5 MB a kilobits.

1.5 x 1024 KB = 1536 KB


1536 x 1024 Byte = 1572864 Byte
1572864 x 8 bits = 12582912 bits

1.5MB = 12582,912 Kilobits

Paso 2: sustituir datos en la formula.

T = S / BW
Donde:
BW = 56 Kbps
S = 12582,912 Kb

T = 12582,912Kb / 56Kbps
T= 224,69485 Segundos
Lo que resulta equivalente a un tiempo en minutos de:
T= 3.74 Minutos.
Aproximadamente 4 minutos.

1.6.- Ethernet.
La mayor parte del tráfico en Internet se origina y termina en conexiones de
Ethernet. Ethernet es un estándar en redes de computadoras de área local y define las
características de cableado y señalización de nivel físico, así como también los formatos de
tramas de datos del nivel de enlace de datos del modelo OSI.

El éxito de Ethernet se debe a los siguientes factores:

 Sencillez y facilidad de mantenimiento.


 Capacidad para incorporar nuevas tecnologías.
 Confiabilidad.
 Bajo costo de instalación y de actualización.
La idea original de Ethernet nació del problema de permitir que dos o más host
utilizaran el mismo medio y evitar que las señales interfirieran entre sí. El problema de
acceso por varios usuarios a un medio compartido se estudió a principios de los 70 en la
Universidad de Hawai. Se desarrolló un sistema llamado Alohanet para permitir que varias
estaciones de las Islas de Hawai tuvieran acceso estructurado a la banda de
radiofrecuencia compartida en la atmósfera. Más tarde, este trabajo sentó las bases para
el método de acceso a Ethernet conocido como CSMA/CD.

En 1985, el comité de estándares para Redes Metropolitanas y Locales del Instituto


de Ingenieros Eléctricos y Electrónicos (IEEE) publicó los estándares para las LAN. Estos
estándares comienzan con el número 802. El estándar para Ethernet es el 802.3. El IEEE
quería asegurar que sus estándares fueran compatibles con el modelo OSI de la
Organización Internacional de Estándares (ISO). Por eso, el estándar IEEE 802.3 debía
cubrir las necesidades de la Capa 1 y de las porciones inferiores de la Capa 2 del modelo
OSI. Como resultado, ciertas pequeñas modificaciones al estándar original de Ethernet se
efectuaron en el 802.3.

(Fig.: 67)

OPERACIÓN DE ETHERNET:
El protocolo CSMA/CD usado originalmente en Ethernet, incorpora dos mejoras
que aumentan el rendimiento de la red: en primer lugar, no se transmite si hay otra
estación “hablando”, y en segundo lugar, si mientras se está transmitiendo detecta que
otra estación transmite es probable producir la colisión, por lo que la estación interrumpe
la comunicación en lugar de seguir transmitiendo inútilmente hasta el final de la trama.

Ethernet se considera un modelo de red no determinístico en el cual un grupo de


host comparten un entorno o medio compartido (dominio de colisión) aplicando el
enfoque de: “quien llegue primero, primero se sirve”, es decir que la tarjeta interfaz de red
constantemente está evaluando al medio en busca de una ventana de tiempo para enviar
y recibir sus datos. En el momento en que la NIC encuentra la ausencia de señal en el
medio comenzara a ocupar el mismo para el envió de tramas. Si dos nodos transmiten al
mismo tiempo, producirán una colisión y ningún nodo en el dominio del medio
compartido (dominio de colisión) podrían transmitir. Entonces el método de CSMA/CD en
redes que usan Ethernet, tal como lo hemos visto hasta ahora, permite a las redes de
medios compartidos o topologías multiacceso funcionar en el modo “escuchar antes de
transmitir” para evitar colisiones y elevar el rendimiento de la red.

Por otra parte los protocolos considerados determinísticos (por turnos) son: el
Token Ring y el FDDI. En una red Token Ring, los host individuales se disponen en forma de
anillo y un token de datos especial se transmite por el anillo a cada host en secuencia.
Cuando un host desea transmitir, retiene el token, transmite los datos por un tiempo
limitado y luego envía el token al siguiente host del anillo. El Token Ring es un entor no sin
colisiones ya que sólo un host es capaz de transmitir a la vez.

DIRECCIONAMIENTO DE ETHERNET:
Para permitir el envío local de las tramas en Ethernet, se debe contar con un
sistema de direccionamiento, una forma de identificar los computadores y las interfaces
de manera exclusiva. Ethernet utiliza direcciones MAC que tienen 48 bits de largo y se
expresan como doce dígitos hexadecimales. Las direcciones MAC a veces se denominan
direcciones grabadas (BIA) ya que estas direcciones se graban en la memoria de sólo
lectura (ROM) y se copian en la memoria de acceso aleatorio (RAM) cuando se inicializa la
NIC. La NIC utiliza la dirección MAC para evaluar si el mensaje se debe pasar o no a las
capas superiores del modelo OSI.

En una red Ethernet, cuando un dispositivo envía datos, puede abrir una ruta de
comunicación hacia el otro dispositivo utilizando la dirección MAC destino. El dispositivo
origen adjunta un encabezado con la dirección MAC del destino y envía los datos a la red.
A medida que estos datos viajan a través de los medios de red, la NIC de cada dispositivo
de la red verifica si su dirección MAC coincide con la dirección destino física que
transporta la trama de datos. Si no hay concordancia, la NIC descarta la trama de datos.
Cuando los datos llegan al nodo destino, la NIC procede a dejar pasar la trama hacia las
capas superiores del modelo OSI. En una red multiacceso de Ethernet, todos los nodos
deben examinar el encabezado MAC aunque los nodos que están comunicando estén lado
a lado.
Todos los dispositivos conectados a la LAN de Ethernet tienen interfaces con
dirección MAC incluidas las estaciones de trabajo, impresoras, routers y switches.

ESTRUCTURA DE LA TRAMA DE ETHERNET:


En la capa de enlace de datos, la estructura de la trama es casi idéntica para todas
las velocidades de Ethernet desde 10 Mbps hasta 10000 Mbps. Sin embargo, en la capa
física, casi todas las versiones de Ethernet son sustancialmente diferentes las unas de las
otras, teniendo cada velocidad un juego distinto de reglas de diseño arquitectónico. Esto
es lo que le ha permitido a Ethernet ser un estándar que provee escalabilidad y la
capacidad de involucrar nuevas tecnologías, dispositivos y medios que las respalden sin
comprometer las funciones de la capa de enlace de datos del modelo OSI. Esta
característica permitirte también la compatibilidad del estándar entre la Ethernet
moderna y la antigua. Veamos a continuación la estructura de una trama Ethernet, la cual
está compuesta por siete campos de longitud definida. Los números encima de cada
campo especifican la longitud en bytes para cada uno.

Trama Ethernet.

7 1 6 6 2 64/1500 4
DELIMITADOR LONGITUD
DIRECCION DIRECCION ENCABEZADO Y VERIFICACION
PREAMBULO DE INICIO DE
DESTINO ORIGEN TIPO DATOS DE TRAMA
TRAMA

(Fig.: 68)

 El Preámbulo es un patrón alternado de unos y ceros que se utiliza para la


sincronización de los tiempos en implementaciones de 10 Mbps y menores de
Ethernet. Las versiones más veloces de Ethernet son síncronas y esta información
de temporización es redundante pero se retiene por cuestiones de compatibilidad.

10101010 10101010 10101010 10101010 10101010 10101010 10101010


PREÁMBULO
(Fig.: 69)

 Un Delimitador de Inicio de Trama es un campo de un octeto que marca el final de


la información de temporización y contiene la secuencia de bits 10101011.

 El campo de dirección destino contiene la dirección destino MAC. La dirección


destino puede ser unicast, multicast o de broadcast.
 El campo de dirección de origen contiene la dirección MAC de origen. La dirección
origen generalmente es la dirección unicast del nodo de transmisión de Ethernet.

 El campo longitud/tipo indica la identificación del protocolo proporcionado por la


subcapa LLC de enlace de datos. La longitud indica la cantidad de bytes de datos
que sigue este campo.

 Los Campos de datos y de relleno, de ser necesario, pueden tener cualquier


longitud, mientras que la trama no exceda el tamaño máximo permitido de trama.
La unidad máxima de transmisión (MTU) para Ethernet es de 1500 octetos, de
modo que los datos no deben superar dicho tamaño. El contenido de este campo
no está especificado. Se inserta un relleno no especificado inmediatamente
después de los datos del usuario cuando no hay suficientes datos de usuario para
que la trama cumpla con la longitud mínima especificada. Ethernet requiere que
cada trama tenga entre 64 y 1518 octetos de longitud.

 Una FCS contiene un valor de verificación CRC de 4 bytes, creado por el dispositivo
emisor y recalculado por el dispositivo receptor para verificar la existencia de
tramas dañadas. Ya que la corrupción de un solo bit en cualquier punto desde el
inicio de la dirección destino hasta el extremo del campo de FCS hará que la
checksum (suma de verificación) sea diferente, la cobertura de la FCS se auto-
incluye. No es posible distinguir la corrupción de la FCS en sí y la corrupción de
cualquier campo previo que se utilizó en el cálculo.

EN RESUMEN:

Ethernet es una familia de tecnologías de interconexión de redes que se define en


el estándar 802.3. Los estándares de Ethernet definen los protocolos de la Capa 2 y las
tecnologías de la Capa 1. Ethernet es la tecnología LAN más ampliamente utilizada y
soporta anchos de banda de datos de 10, 100, 1000, o 10 000 Mbps.

El formato básico de la trama y las subcapas del IEEE de las Capas OSI 1 y 2 siguen
siendo los mismos para todas las formas de Ethernet. Sin embargo, los métodos para
detectar y colocar en los medios varían con las diferentes implementaciones.

Ethernet proporciona servicio sin conexión y sin reconocimiento sobre un medio


compartido utilizando CSMA/CD como métodos de acceso al medio. El medio compartido
requiere que el encabezado del paquete de Ethernet utilice la dirección de la capa de
enlace de datos para identificar los nodos de origen y destino. Como con la mayoría de los
protocolos LAN, esta dirección se llama dirección MAC del nodo. Una dirección MAC de
Ethernet es de 48 bits y generalmente se representa en formato hexadecimal.

La trama de Ethernet tiene muchos campos, como se muestra en la figura 70. En la


capa de enlace de datos, la estructura de trama es casi idéntica para todas las velocidades
de Ethernet. Sin embargo, en la capa física, las diferentes versiones de Ethernet colocan
los bits sobre el medio de forma diferente.

1.7.- Token Ring.

Token Ring es una arquitectura de red desarrollada por IBM en los años 1970 con
topología lógica en anillo y técnica de acceso de paso de testigo (token). Token Ring se
establece en el estándar IEEE 802.5. Actualmente se encuentra en franco desuso por la
popularización de Ethernet; por tanto no es empleada en diseños de redes.

CARACTERÍSTICAS PRINCIPALES:

 Utiliza una topología lógica en anillo, aunque por medio de una unidad de acceso
de estación múltiple (MAU), la red puede verse como si fuera una estrella. Tiene
topología física estrella y topología lógica en anillo.
 Utiliza cable especial apantallado, aunque el cableado también puede ser par
trenzado.
 La longitud total de la red no puede superar los 366 metros.
 La distancia entre una computadora y el MAU no puede ser mayor que 100
metros.
 A cada MAU se pueden conectar ocho computadoras.
 Estas redes alcanzan una velocidad máxima de transmisión que oscila entre los 4 y
los 16 Mbps.
 Posteriormente el High Speed Token Ring (HSTR) elevó la velocidad a 110 Mbps
pero la mayoría de redes no la soportan.
2.1.- Medios de cobre.

El medio más utilizado para las comunicaciones de datos es el cableado que utiliza
alambres de cobre para señalizar bits de control y datos entre los dispositivos de red.
Estos cables pueden utilizarse para conectar los host de una LAN a los dispositivos
intermedios, como routers o switches. Los cables también se utilizan para conectar
dispositivos WAN a un proveedor de servicios, como una compañía de tv por cable o
telefónica. Cada tipo de conexión y sus dispositivos complementarios incluyen requisitos
de cableado estipulados por los estándares de la capa física. Los medios de red
generalmente utilizan conectores y tomas. Estos elementos constantemente buscan
ofrecer conexiones y desconexiones sencillas y económicas.

ESPECIFICACIONES DE CABLE

Los cables tienen distintas especificaciones que generan distintas expectativas


acerca de su rendimiento. Por ejemplo, los estándares para los medios de cobre se
definen según lo siguiente:

 Tipo de cableado de cobre utilizado.


 Ancho de banda de la comunicación.
 Tipo de conectores utilizados.
 Distancia máxima de los medios.

Ethernet se caracteriza como el estándar más popular para redes LAN y se


encuentra presente en tanto en el hogar, como en las pequeñas y grandes empresas. Note
que desde hace un tiempo, al adquirir una computadora un puerto Ethernet está
incorporado en la tarjeta madre de manera predeterminada, esto demuestra la solides
que tiene Ethernet como estándar para redes de área local.

Ethernet ha definido varias especificaciones para caracterizar distintas formas de


cableado y velocidad como veremos a continuación:
TIPOS DE ETHERNET.

TIPO DE ANCHO DE DISTANCIA


TIPO DE CABLE DÚPLEX
ETHERNET BANDA MÁXIMA
10Base-5 10 Mbps Coaxial Thicknet Half 500 m
10Base-2 10 Mbps Coaxial Thinnet Half 185 m
10Base-T 10 Mbps UTP Cat-3/Cat-5 Half 100 m
10Base-F 10 Mbps Fibra óptica Unimodal Half 400 m
100Base-T 200Mbps UTP Cat-5 Full 100 m
100Base-FX 200 Mbps Fibra óptica Multimodal Full 2 Km
1000Base-T 1 Gbps UTP Cat-5e Full 100 m
1000Base-TX 1 Gbps UTP Cat-6 Full 100 m
1000Base-SX 1 Gbps Fibra óptica Multimodal Full 550 m
1000 Base-LX 1 Gbps Fibra óptica Unimodal Full 2 Km
1000 Base- LH 1 Gbps Fibra óptica Unimodal Full 100 Km

Existen muchas otras especificaciones Ethernet para caracterizar el cableado físico, pero para
propósitos de este manual bastara con dar a conocer las mencionadas anteriormente.

Fig.: 70

A continuación detallaremos algunas de las variantes más importantes de estas


especificaciones:
ETHERNET DE 10Mbps
Las primeras implementaciones de Ethernet, 10BASE-5 y 10BASE-2 utilizaban cable
coaxial en un bus físico. Dichas implementaciones ya no se utilizan y los más recientes
estándares 802.3 no las admiten.

10BASE-5: se refiere a la velocidad de transmisión a 10 Mbps en banda base. El 5


representa la capacidad que tiene el cable de cobre coaxial RG-8X (costoso) para permitir
que la señal recorra aproximadamente 500 metros antes de que la atenuación interfiera
con la capacidad del receptor de interpretar correctamente la señal recibida. 10BASE-5 a
menudo se denomina "Thicknet" (Ethernet gruesa). Thicknet es, en realidad, un tipo de
red, mientras que 10BASE-5 es el cableado que se utiliza en dicha red.

10BASE-2: se refiere a la velocidad de transmisión a 10 Mbps en banda base. El 2,


en 10BASE-2, se refiere a la longitud máxima aproximada del segmento de 200 metros
antes que la atenuación perjudique la habilidad del receptor para interpretar
apropiadamente la señal que se recibe. La longitud máxima del segmento es en realidad
185 metros, el tipo de cable es de cobre coaxial RG-58 (económico). 10BASE-2 a menudo
se denomina “Thinnet” (Ethernet delgado). Thinnet es, en realidad, un tipo de red,
mientras que 10BASE-2 es el cableado que se utiliza en dicha red.

Tanto 10Base-5 como 10Base-2 se utilizaron en los inicios de Ethernet, sobre


topologías de bus físico (multiacceso) y control de acceso al medio por detección de
colisiones (CSMA/CD). Vale la pena resaltar que el cable coaxial empleado para 10Base-5
era no solo costoso, sino que además resultaba difícil de maniobrar por lo robusto del
cable al momento de realizar el tendido de cableado, por otra parte la terminación del
cableado era muy delicada también, ya que la mala terminación de los mismos traía como
consecuencia ruidos en la señal. Todas las implementaciones de 10Mbps utilizan
codificación Manchester.

10BASE-T: se refiere a la velocidad de transmisión a 10 Mbps. El tipo de


transmisión es banda base. “T” significa: cable de par trenzado. 10BASE-T funciona sobre
cuatro alambres (dos pares trenzados) en un cable de Categoría 3 o de Categoría 5 que
contienen 4 pares trenzados, o lo que es igual a 8 alambres de cobre . La Ethernet de 10 Mbps
se considera como la Ethernet clásica y utiliza una topología en estrella física. Los enlaces
de Ethernet 10BASE‐T pueden tener hasta 100 metros de longitud antes de que requieran
un hub o repetidor.
CABLE DE PAR TRENZADO Y RJ-45

(Fig.: 71)

La 10BASE‐T generalmente no se elige para instalaciones de LAN nuevas. Sin


embargo, todavía existen actualmente muchas redes Ethernet 10BASE‐T. El reemplazo de
los hubs por los switches en redes 10BASE‐T aumentó notablemente la velocidad de
transmisión (throughput) disponible para estas redes. Los enlaces de 10BASE‐T
conectados a un switch pueden admitir el funcionamiento tanto half‐duplex como
full‐dúplex.

ETHERNET DE 100Mbps (Fast Ethernet)


Entre mediados y fines de la década de 1990 se establecieron varios estándares
802.3 nuevos para describir los métodos de transmisión de datos en medios Ethernet a
100 Mbps. Estos estándares utilizaban requisitos de codificación diferentes para lograr
estas velocidades más altas de transmisión de datos.

La Ethernet de 100 Mbps, también denominada Fast-Ethernet, puede


implementarse utilizando medios de fibra o cobre de par trenzado. Las implementaciones
más conocidas de la Ethernet de 100 Mbps son:
 100BASE‐TX con UTP Cat5 o mayor
 100BASE‐FX con cable de fibra óptica

100BASE‐TX: fue diseñada para admitir la transmisión a través de par trenzado de


cobre UTP. La implementación 100BASE‐TX utiliza los mismos mecanismos de transmisión
y recepción de 10BASE‐T. Sin embargo, la 100BASE‐TX requiere UTP de Categoría 5 o
superior y la codificación paso de ser Manchester a un método de codificación más
eficiente conocido como codificación 4B/5B.

Al igual que con la 10BASE‐T, la 100BASE‐TX se conecta como estrella física, sin
embargo, a diferencia de la 10BASE-T, las redes 100BASE‐TX utilizan generalmente un
switch en el centro de la estrella en vez de un hub. Aproximadamente al mismo tiempo
que las tecnologías 100BASE‐TX se convirtieron en la norma, los switches LAN también
comenzaron a implementarse con frecuencia. Estos desarrollos simultáneos llevaron a su
combinación natural en el diseño de las redes 100BASE‐TX.

100BASE‐FX: estándar que utiliza el mismo procedimiento de codificación que la


100BASE‐TX, pero lo hace en medios de fibra óptica en vez de cobre UTP. Si bien los
procedimientos para codificación, decodificación y reloj son los mismos en ambos medios,
la transmisión de señales es diferente: pulsos eléctricos en cobre y pulsos de luz en fibra
óptica. La 100BASE‐FX utiliza conectores de interfaz de fibra de bajo costo (generalmente
llamados conectores SC).

ETHERNET DE 1000Mbps (Gigabit Ethernet)


Las diferencias entre el estándar Ethernet, Fast Ethernet y Gigabit Ethernet se
encuentran en la capa física. Debido a las mayores velocidades de estos estándares
recientes, la menor duración de los tiempos de bit requiere una consideración especial.
Como los bits ingresan al medio por menor tiempo y con mayor frecuencia, es
fundamental la temporización. Esta transmisión a alta velocidad requiere de frecuencias
cercanas a las limitaciones de ancho de banda para los medios de cobre. Esto hace que los
bits sean más susceptibles al ruido en los medios de cobre.

Estos problemas requieren que Gigabit Ethernet utilice dos distintos pasos de
codificación. La transmisión de datos se realiza de manera más eficiente utilizando códigos
para representar el stream de bits. La cuestión de la eficiencia se basa en la velocidad con
la que el adaptador o la interfaz de red puedan cambiar los niveles de voltaje y en la
manera en que dicho cambio de voltaje pueda detectarse de un modo confiable a 100
metros de distancia de la NIC o la interfaz de transmisión.

1000BASE-T: Al instalar Fast-Ethernet para aumentar el ancho de banda de las


estaciones de trabajo, se comenzaron a crear cuellos de botella corriente arriba en la red.
1000BASE-T (IEEE 802.3ab) se desarrolló para proporcionar ancho de banda adicional a fin
de ayudar a aliviar estos cuellos de botella. Proporcionó mayor desempeño a dispositivos
tales como backbones dentro de los edificios, enlaces entre los switches, servidores
centrales y otras aplicaciones de armarios para cableado así como conexiones para
estaciones de trabajo de nivel superior. Uno de los atributos más importantes del
estándar para 1000BASE-T es que es interoperable con 10BASE-T y 100BASE-TX.

Obtener 1000 Mbps (Gigabit) de ancho de banda fue un desafío de diseño. El


primer paso para lograr una 1000BASE-T fue utilizar los cuatro pares de hilos en lugar de
los dos pares tradicionales utilizados para 10BASE-T y 100BASE-TX (ver figura 72). Esto se
logra mediante un sistema de circuitos complejo que permite las transmisiones full dúplex
en el mismo par de hilos. Como el cable Cat 5e puede transportar de forma confiable
hasta 125 Mbps de tráfico, se proporcionan 250 Mbps por par, de esta manera con los
cuatro pares de hilos, se logran los 1000 Mbps esperados. Como la información viaja
simultáneamente a través de las cuatro rutas, el sistema de circuitos tiene que dividir las
tramas en el transmisor y reensamblarlas en el receptor.

La codificación usada en 1000BASE-T es la codificación de línea 4D-PAM5. Este tipo


de codificación significa que la transmisión y recepción de los datos se produce en ambas
direcciones en el mismo hilo a la vez. Como es de esperar, esto provoca una colisión
permanente en los pares de hilos. Estas colisiones generan patrones de voltaje complejos.
Mediante los complejos circuitos integrados que usan técnicas tales como la cancelación
de eco, la Corrección del Error de Envío Capa 1 (FEC) y una prudente selección de los
niveles de voltaje, el sistema logra una tasa de transferencia de 1Gigabit.

En los períodos de inactividad, son nueve los niveles de voltaje que se encuentran
en el cable y durante los períodos de transmisión de datos son 17. Con este gran número
de estados y con los efectos del ruido, la señal en el cable parece más analógica que
digital. Como en el caso del analógico, el sistema es más susceptible al ruido debido a los
problemas de cable y terminación.
TIPOS DE ETHERNET RJ-45

(Figura: 72)

1000BASE‐SX y 1000BASE‐LX (fibra óptica): Las versiones de fibra óptica de la


Gigabit Ethernet (1000BASE‐SX y 1000BASE‐LX) ofrecen las siguientes ventajas sobre el
UTP:
 Inmunidad al ruido.
 Excelentes características a distancia.
 Tamaño físico y peso reducido.
 Ancho de banda superior.
Todas las versiones de 1000BASE‐SX y 1000BASE‐LX admiten la transmisión binaria
full‐dúplex a 1000 Mbps en dos hebras de fibra óptica. La codificación de la transmisión se
basa en un esquema de codificación denominado 8B/10B.

Las principales diferencias entre las versiones de fibra de 1000BASE‐SX y


1000BASE‐LX son los medios de enlace, los conectores y la longitud de onda de la señal
óptica.

TIPOS DE MEDIOS DE COBRE


(COAXIAL - STP - UTP)

1. CABLE COAXIAL:
El cable coaxial consiste de un conductor de cobre rodeado de una capa de aislante
flexible. El conductor central también puede ser hecho de un hilo de aluminio cubierto de
estaño que permite que el cable sea fabricado de forma económica. Sobre este material
aislante existe una malla de cobre tejida u hoja metálica que actúa como el segundo hilo
del circuito y como un blindaje para el conductor interno. Esta segunda capa, o blindaje,
también reduce la cantidad de interferencia electromagnética externa. Cubriendo la capa
en forma de malla está la chaqueta del cable. La figura 73 ilustra la estructura del cable
coaxial y algunos de los conectores asociados al tipo de cable.

(Figura: 73)
USOS DEL CABLE COAXIAL:
El diseño del cable coaxial ha sido adaptado para diferentes necesidades. El coaxial
es un tipo de cable importante que se utiliza en tecnologías de acceso inalámbrico o por
cable. Estos cables comúnmente se utilizan para colocar antenas en los dispositivos
inalámbricos. También transportan energía de radiofrecuencia (RF) entre las antenas y el
equipo de radio.

Es el medio de uso más frecuente para transportar señales de televisión por cable.
La televisión por cable tradicional llega a nuestros hogares a través de cable coaxial y
transmite señales en una única dirección, sin embargo algunas empresas proveedoras de
servicios de tv por cable ya admiten una característica bidireccional, lo que permite
ampliar la capacidad de sus servicios a tv, telefonía e internet.

En el pasado, el cable coaxial se utilizaba para las instalaciones Ethernet a través de


las especificaciones 10BASE-5 y 10BASE-2. Hoy en día, el UTP (Par trenzado no blindado)
ofrece costos más bajos y un ancho de banda mayor que el coaxial y lo ha reemplazado
como estándar para todas las instalaciones de Ethernet.

2. CABLE UTP:
El cable de par trenzado no blindado (UTP) es un medio de cuatro pares de hilos
que se utiliza en diversos tipos de redes. Cada uno de los 8 hilos de cobre individuales del
cable UTP está revestido de un material aislante de color diferente para su codificación.
Además, cada par de hilos está trenzado. Este tipo de cable cuenta sólo con el efecto de
cancelación que producen los pares trenzados de hilos para limitar la degradación de la
señal por diafonía. El trenzado cumple una función en el cable, su propósito es cancelar
las señales no deseadas.

Cuando dos alambres de un circuito eléctrico se colocan uno cerca del otro, los
campos electromagnéticos externos crean la misma interferencia en cada alambre. Los
pares se trenzan para mantener los alambres lo más cerca posible. Cuando esta
interferencia común se encuentra en los alambres del par trenzado, el receptor los
procesa de la misma manera pero en forma opuesta. Como resultado, las señales
provocadas por la interferencia electromagnética desde fuentes externas se cancelan de
manera efectiva.

Para entender mejor lo anteriormente descrito, entiéndase que cuando la


corriente eléctrica fluye a través de un hilo de cobre, se crea un campo magnético circular
a su alrededor. Cuando la corriente fluye en direcciones opuestas en los dos alambres de
un par, los campos magnéticos, como fuerzas equivalentes pero opuestas, producen un
efecto de cancelación mutua.

El cable de par trenzado no blindado presenta muchas ventajas. Es de fácil


instalación y es más económico que los demás tipos de medios para networking. De
hecho, el UTP cuesta menos por metro que cualquier otro tipo de cableado para LAN. Sin
embargo, la ventaja real es su tamaño. Debido a que su diámetro externo es tan pequeño,
el cable UTP no llena los conductos para el cableado tan rápidamente como sucede con
otros tipos de cables. Además, si se está instalando el cable UTP con un conector RJ-45, las
fuentes potenciales de ruido de la red se reducen enormemente y prácticamente se
garantiza una conexión sólida y de buena calidad. El cableado de par trenzado presenta
ciertas desventajas, como por ejemplo: el cable UTP es más susceptible al ruido eléctrico y
a la interferencia que otros tipos de medios para networking y la distancia que puede
abarcar la señal sin el uso de repetidores es menor para UTP que para los cables coaxiales
y de fibra óptica.

En la figura a continuación se muestra un cable tipo UTP junto con algunas


descripciones que resultan importantes destacar.

CABLE DE PAR TRENSADO NO BLINDADO UDP

(Figura 74)
3. CABLE STP:
El cable de par trenzado blindado (STP) combina las técnicas de blindaje,
cancelación y trenzado de cables. Cada par de hilos está envuelto en un papel metálico.
Los dos pares de hilos están envueltos juntos en otro papel metálico. Su uso es común en
instalaciones de redes Token Ring, el STP reduce el ruido eléctrico dentro del cable como
por ejemplo: el acoplamiento de par a par y la diafonía. El STP también reduce el ruido
electrónico desde el exterior del cable, como, por ejemplo, la interferencia
electromagnética (EMI) y la interferencia de radiofrecuencia (RFI).

El cable de par trenzado blindado comparte muchas de las ventajas y desventajas


del cable de par trenzado no blindado (UTP). El cable STP brinda mayor protección ante
toda clase de interferencias externas, pero es más caro y la instalación resulta más difícil.

Existe un híbrido de UTP con STP, este se denomina UTP apantallado (ScTP),
conocido también como par trenzado de papel metálico (FTP). El ScTP consiste,
básicamente, en cable UTP envuelto en un blindaje de papel metálico. Muchos fabricantes
e instaladores de cables pueden usar el término STP para describir el cable ScTP. En la
figura a continuación se pueden ver las diferencias entre STP y ScTP.

(Figura: 74)
SEÑALES Y RUIDO

En los cables de cobre, las señales de datos se representan por niveles de voltaje
que representan unos y ceros binarios. Los niveles de voltaje se miden respecto de un
nivel de referencia de cero voltios tanto en el transmisor como en el receptor. Este nivel
de referencia se denomina tierra de señal.

Para que una LAN funcione correctamente, el dispositivo receptor debe poder
interpretar con precisión los unos y ceros binarios transmitidos como niveles de voltaje.
Como la tecnología actual de Ethernet admite velocidades de miles de millones de bits por
segundo, cada bit debe ser reconocido, aun cuando su duración sea muy breve. Esto
significa que es necesario retener lo más posible la potencia original de la señal, a medida
que la señal recorre el cable y atraviesa los conectores.

El ruido es un factor indeseable que se encuentra presente en todo sistema de


comunicaciones, el ruido interviene la señal afectando la misma y haciéndola dificultosa
para el receptor. Existen distintos factores que degradan la señal como veremos a
continuación:

 ATENUACIÓN EN MEDIOS DE COBRE:


La atenuación es la disminución de la amplitud de una señal sobre la extensión de
un enlace. Los cables muy largos y las frecuencias de señal muy elevadas contribuyen a
una mayor atenuación de la señal. La atenuación se expresa en decibelios (dB) usando
números negativos. Los valores negativos de dB más bajos indican un mejor
rendimiento del enlace.

El decibelio (dB): es una unidad de medida importante para la descripción de


señales de redes. dB mide la pérdida o ganancia de la potencia de una señal. Los decibelios
pueden ser valores negativos lo cual representaría una pérdida de potencia o atenuación a
medida que la onda viaja o un valor positivo para representar una ganancia en potencia si
la señal es amplificada. Existen 2 formulas para calcular los decibelios según sea el caso:

 dB (Potencia) = 10 log10 (P (final) / P (referencia))


 dB (Voltaje)= 20 log10 (V (final) / V (referencia))

La primera fórmula describe los decibelios en función de la potencia (P), y la


segunda en función del voltaje (V). Normalmente, las ondas de luz en las
fibras ópticas y las ondas de radio en el aire se miden usando la fórmula de
potencia. Las ondas electromagnéticas en los cables de cobre se miden
usando la fórmula del voltaje.
Host transmisor Host receptor

La señal digital se atenúa a


medida que recorre la red.

Señal original (Fuerte) Señal recibida (Débil)

(Figura 75)

Son muchos los factores que contribuyen a la atenuación. La resistencia del cable
de cobre convierte en calor a parte de la energía eléctrica de la señal. La señal también
pierde energía cuando se filtra por el aislamiento del cable y como resultado de la
impedancia provocada por conectores defectuosos.

 FUENTES DE RUIDO EN MEDIOS DE COBRE


El ruido es un concepto importante en los sistemas de comunicación, incluyendo
las LAN. Cuando se habla de ruido, normalmente se hace referencia a sonidos
indeseables; sin embargo, cuando se habla de comunicaciones se entiende por ruido
señales indeseables. El ruido puede provenir de fuentes naturales y tecnológicas, y se
agrega a las señales de datos en los sistemas de comunicación. Como ejemplo veamos
en la figura a continuación una señal pulso rectangular afectada por el ruido.

(Figura 76)
Todos los sistemas de comunicación tienen cierta cantidad de ruido. Aunque es
imposible eliminar el ruido, se pueden minimizar sus efectos si se comprenden los
orígenes del ruido. Son muchas las posibles fuentes de ruido, como por ejemplo:

 Cables cercanos que transportan señales de datos.


 Interferencia de radiofrecuencia (RFI), que es el ruido de otras señales que se están
transmitiendo en las proximidades.

 Interferencia electromagnética (EMI), que es el ruido que proviene de fuentes


cercanas como motores, hornos microondas y luces.

“Existe un tipo de ruido que afecta por igual a todas las frecuencias de transmisión y se denomina ruido
blanco”.

 DIAFONÍA
La diafonía es la transmisión de señales de un hilo a otro hilo cercano. La diafonía
se presenta cuando cambia el voltaje en un hilo, produciendo un campo magnético
que puede ser absorbido en un hilo cercano causando perturbaciones en las señales
que este transporte. El hilo transmisor irradia esta energía como una señal de radio de
un transmisor. Los hilos adyacentes del cable funcionan como antenas que reciben la
energía transmitida, lo que interfiere con los datos transmitidos en esos hilos. Las
señales de cables diferentes pero próximos unos de otros también pueden causar
diafonía. La diafonía es más destructiva a frecuencias de transmisión elevadas.

Los cables de par trenzado están diseñados para reducir la diafonía en las señales
de datos o de ruido provenientes de un par de hilos adyacentes. Al colocar conectores
en los extremos de los cables UTP, se debe minimizar el destrenzado de los pares de
hilos para disminuir las probabilidades de ruido en la conexión. Para dar ejemplo de lo
anteriormente descrito se muestra la siguiente figura:

Conector defectuoso: el cable


permanece sin trenzar un trecho
muy largo, lo que aumenta las
probabilidades de ruido y diafonía.

Conector correcto: los hilos


permanecen sin trenzar solo el
trecho necesario para unir el
conector, además el conector está
bien sujeto a la chaqueta del cable. (Figura: 77)
Existen tres tipos distintos de diafonía:

 Paradiafonía (NEXT): puede entenderse como un tipo de diafonía que se


produce cuando las señales que provienen de un par interfieren con otro par
en el extremo cercano del cable ocasionando perturbaciones en la señal que
interfieren en la comunicación.

 Telediafonía (FEXT): puede entenderse como un tipo de diafonía que ocurre


cuando las señales que provienen de un par interfieren con otro par pero a un
extremo lejano del cable. La FEXT también se considera una forma de ruido
pero menos perjudicial que la NEXT ya que el ruido es producido de forma
lejana y a medida que se desplaza es absorbido por la atenuación del cable.

 Paradiafonía de suma de potencia (PSNEXT): La Paradiafonía de suma de


potencia (PSNEXT) mide el efecto acumulativo de NEXT de todos los pares de
hilos del cable. El efecto combinado de la diafonía proveniente de múltiples
fuentes simultáneas de transmisión puede ser muy perjudicial para la señal.

ESTÁNDARES DE PRUEBAS DEL CABLE

La Asociación de la Industria de las Telecomunicaciones (TIA) y la Asociación de


Industrias de Electrónica (EIA) son asociaciones industriales que desarrollan y publican una
serie de estándares sobre el cableado estructurado para voz y datos para las LAN.

Tanto la TIA como la EIA están acreditadas por el Instituto Nacional Americano de
Normalización (ANSI) para desarrollar estándares voluntarios para la industria de las
telecomunicaciones. Muchos de los estándares están clasificados ANSI/TIA/EIA. Los
distintos comités y subcomités de TIA/EIA desarrollan estándares para fibra óptica, equipo
terminal del usuario, equipo de red, comunicaciones inalámbricas y satelitales.

ESTÁNDARES TIA/EIA
Aunque hay muchos estándares y suplementos, los que se enumeran en la Figura
78 son los que los instaladores de cableado utilizan con más frecuencia.
(Figura: 78)

TIA/EIA-568-B: es el actual estándar de cableado que especifica los requisitos


sobre componentes y transmisión para los medios de telecomunicaciones. El estándar
TIA/EIA-568-B especifica diez pruebas que un cable de cobre debe pasar si ha de ser
usado en una LAN Ethernet moderna de alta velocidad.

Los diez parámetros de prueba principales que se deben verificar para que un
enlace de cable cumpla con los estándares de TIA/EIA son:

1) Mapa de cableado
2) Pérdida de inserción
3) Paradiafonía (NEXT)
4) Paradiafonía de suma de potencia (PSNEXT)
5) Telediafonía del mismo nivel (ELFEXT)
6) Telediafonía del mismo nivel de suma de potencia (PSELFEXT)
7) Pérdida de retorno
8) Retardo de propagación
9) Longitud del cable
10) Sesgo de retardo
2.2.- Medios de fibra optica.
El cableado de fibra óptica utiliza fibras de plástico o de vidrio para guiar las ondas
de luz desde el origen hacia el destino. En los medios ópticos, se utiliza la luz para
transmitir datos a través de la delgada fibra de vidrio o plástico. Las señales eléctricas
hacen que el transmisor de fibra óptica genere señales luminosas que son enviadas por la
fibra. El host receptor recibe las señales luminosas y las convierte en señales eléctricas en
el extremo opuesto de la fibra. Sin embargo, no hay electricidad en el cable de fibra óptica
en sí. De hecho, el vidrio utilizado en el cable de fibra óptica es un muy buen aislante
eléctrico.

COMPARACIÓN ENTRE CABLEADO DE COBRE Y DE FIBRA ÓPTICA

Teniendo en cuenta que las fibras utilizadas en los medios de fibra óptica no son
conductores eléctricos, este medio es inmune a la interferencia electromagnética y a las
muchas formas de ruido que representan vulnerabilidades y desventajas en los medios de
cobre. Las fibras ópticas pueden utilizarse en longitudes mucho mayores que los medios
de cobre sin la necesidad de regenerar la señal, ya que son finas y tienen una pérdida de
señal relativamente baja. Algunas especificaciones de la capa física de fibra óptica admiten
longitudes que pueden alcanzar varios kilómetros.

Algunos de los problemas de implementación de medios de fibra óptica:

 Más costoso (comúnmente) que los medios de cobre en la misma distancia (pero
para una capacidad mayor)
 Se necesitan diferentes habilidades y equipamiento para terminar y empalmar la
infraestructura de cables
 Manejo más cuidadoso que los medios de cobre

En la actualidad, en la mayor parte de las organizaciones se utiliza la fibra óptica


como principal cableado backbone para conexiones punto a punto con un gran flujo de
tráfico entre puntos considerablemente distantes. Ya que la fibra óptica no conduce
electricidad y presenta una pérdida de señal baja, es ideal para usos donde el medio de
cobre resulta inadecuado.
CABLE DE FIBRA ÓPTICA

Revestimiento

Búfer

Envoltura Núcleo
(normalmente PVC)
Fibra de aramido
(material de refuerzo)

Envoltura (normalmente PVC)

Fibra de aramido (material de refuerzo)

Búfer
Revestimiento
Núcleo

(Figura: 79)
En general, un cable de fibra óptica se compone de cinco partes tal y como se
ilustro en la figura 79. Estas partes son: el núcleo, el revestimiento, un búfer, un material
resistente y un revestimiento exterior. La parte de una fibra óptica por la que viajan los
rayos de luz recibe el nombre de núcleo de la fibra. Alrededor del núcleo se encuentra el
revestimiento. Alrededor del revestimiento se encuentra un material amortiguador
compuesto generalmente de plástico denominado búfer. El búfer ayuda a proteger al
núcleo y al revestimiento de cualquier daño. Le sigue un material de refuerzo resistente
que rodea al búfer, este material de refuerzo resistente evita que el cable de fibra óptica
se estire cuando los encargados de la instalación tiran de él. El último elemento es la
envoltura. La envoltura rodea al cable para así proteger la fibra de abrasión, solventes y
demás contaminantes.

Cada cable de fibra óptica que se usa en networking está compuesto de dos fibras
de vidrio envueltas en revestimientos separados. Tal y como se ilustra en la figura 80, una
fibra transporta los datos transmitidos desde un dispositivo A a un dispositivo B mientras
que otra fibra transporta los datos desde el dispositivo B hacia el dispositivo A. Esto es así
para poder proporcionar una comunicación full-dúplex. Recordemos que el par trenzado
de cobre utiliza un par de hilos para transmitir y un par de hilos para recibir. Entonces
para el caso de la implementación de la fibra óptica para transmitir datos, los circuitos de
fibra óptica usan una hebra de fibra para transmitir y otra para recibir. En general, estos
dos cables de fibra se encuentran en un solo revestimiento exterior hasta que llegan al
punto en el que se colocan los conectores.

Host A Host B

(Figura: 80)

PRODUCCIÓN Y DETECCIÓN DE SEÑALES ÓPTICAS


Los láseres o diodos de emisión de luz (LED) generan impulsos de luz que se utilizan
para representar los datos transmitidos como bits en los medios. Los dispositivos
electrónicos semiconductores, denominados fotodiodos, detectan los impulsos de luz y los
convierten en voltajes que pueden reconstruirse en tramas de datos.

Cada una de estas fuentes de luz puede ser encendida y apagada muy rápidamente
para así enviar datos (unos y ceros) a un elevado número de bits por segundo.

Nota:
La luz del láser transmitida a través del cableado de fibra óptica puede dañar
el ojo humano. Se debe tener precaución y evitar mirar dentro del extremo de
una fibra óptica activa.

FIBRA MULTIMODO Y MONOMODO

En términos generales, los cables de fibra óptica pueden clasificarse en dos tipos:
monomodo y multimodo.

 La fibra óptica monomodo transporta un sólo rayo de luz, generalmente emitido


desde un láser. Este tipo de fibra puede transmitir pulsos ópticos en distancias muy
largas, ya que la luz del láser es unidireccional y viaja a través del centro de la fibra.

 La fibra óptica multimodo a menudo utiliza emisores LED que no generan una
única ola de luz coherente. En cambio, la luz de un LED ingresa a la fibra
multimodo en diferentes ángulos. Los tendidos extensos de fibra pueden generar
pulsos poco claros al recibirlos en el extremo receptor ya que la luz que ingresa a la
fibra en diferentes ángulos requiere de distintos períodos de tiempo para viajar a
través de la fibra. Este efecto, denominado dispersión modal, limita la longitud de
los segmentos de fibra multimodo.

La fibra multimodo y la fuente de luz del LED que utiliza resultan más económicas que
la fibra monomodo y su tecnología del emisor basada en láser.

A continuación vemos las diferencias más relevantes entre la fibra monomodo y la


fibra multimodo.
 Núcleo pequeño.
 Menor dispersión.
 Ideal para largas distancias (hasta 100 Km)
 Usa láser como fuente de luz.

 Núcleo de mayor diámetro que la fibra


monomodo.
 Permite mayor dispersión, por lo tanto existen
perdidas de la señal.
 Adecuada para aplicaciones a largas distancias
pero menores que en la monomodo (hasta 2Km)
 Usa led como fuente de luz.

(Figuras: 81 y 82)
2.3.- Medios inálambricos.
Los medios inalámbricos transportan señales electromagnéticas mediante
frecuencias de microondas y radiofrecuencias que representan los dígitos binarios de las
comunicaciones de datos. Como medio de red, el sistema inalámbrico no se limita a
conductores o canaletas, como lo es en el caso de los medios de fibra o de cobre;
entonces tal y como su nombre lo indica, este tipo de tecnología sin cables facilita el
proceso de comunicación utilizando el aire libre (espectro) para el transporte de datos. En
las redes de datos una WLAN (Wireless LAN), es una LAN que se compone de medios
inalámbricos para la comunicación entre los host.

LA SEÑAL INALÁMBRICA

Las computadoras envían señales de datos electrónicamente. Los transmisores de


radio convierten estas señales eléctricas en ondas de radio. Las corrientes eléctricas
cambiantes en la antena de un transmisor generan ondas de radio. Estas ondas de radio
son irradiadas en líneas rectas desde la antena, sin embargo, las ondas de radio pierden
energía a medida que se alejan de la antena transmisora, al igual que para el caso de los
medios conductores de cobre o fibra óptica, el medio inalámbrico también sufre los
efectos de la atenuación.

Otra consideración importante que se debe tomar en cuenta es que, al igual que lo
que sucede con la luz, las ondas de radio pueden ser absorbidas por ciertos materiales y
reflejadas por otros. Al pasar de un material, como el aire, a otro material, como una
pared de concreto, las ondas de radio sufren un efecto denominado refracción. La
refracción puede entenderse como la perdida de energía de la señal inalámbrica al pasar
de un medio a otro. Las gotas de agua que se encuentran en el aire también dispersan y
absorben las ondas de radio, y es que recordemos que el agua es un muy buen conductor
eléctrico, así como también que las ondas electromagnéticas están compuestas por
electrones, por lo tanto el efecto de absorción es algo que podemos imaginarnos con
facilidad.

Como las señales de radio se debilitan a medida que se alejan del transmisor, el
receptor también debe estar equipado con una antena. Cuando las ondas de radio llegan a
la antena del receptor, se generan débiles corrientes eléctricas en ella. Estas corrientes
eléctricas, producidas por las ondas de radio recibidas, son equivalentes a las corrientes
que originalmente generaron las ondas de radio en la antena del transmisor. El receptor
amplifica la fuerza de estas señales eléctricas débiles para armar la representación de los
bits que pasaran a la capa de enlace de datos del modelo OSI.

MODULACIÓN

En un transmisor, las señales eléctricas (datos) que provienen de un computador o


de una LAN no son enviadas directamente a la antena del transmisor. En cambio, estas
señales de datos son usadas para alterar una segunda señal potente llamada señal
portadora.

Una señal de portadora es una onda de alta frecuencia y gran potencia que sirve de
transporte a nuestra señal mensaje denominada “onda modulada”. Lo que se hace
entonces es darle forma a la portadora y moldearla en función de la señal mensaje
(moduladora). La moduladora es la señal eléctrica en la que hemos transformado los
datos provenientes de las capas superiores. Este proceso de modulación es ejecutado por
el transmisor, luego una antena transforma en ondas electromagnéticas las señales
eléctricas que se van al aire.

Cuando la antena receptora recibe las ondas, estas pasan a un circuito receptor
donde las son “demodulas”, es decir, se extrae la moduladora, donde viene el mensaje o
los datos y desecha la portadora. Una vez realizada la demodulación, el receptor está listo
para descifrar el mensaje y proceder a la representación de los datos. Es importante
destacar que todo el proceso mencionado anteriormente son procesos de capa 1, por lo
tanto capa 1 es quien entrega el mensaje proveniente de la demodulación a las capas
superiores del modelo OSI para la representación de los datos.

Los procesos de modulación para redes inalámbricas son complejos y muy


elaborados, pero el concepto de modulación puede ser fácil de entender y demostrado
con modelos más sencillos como por ejemplo el de la figura a continuación:

(Figura: 83)
Hay muchas formas de modular una señal, pero existen tres formas básicas en las
que se puede modular una señal portadora de radio. Por ejemplo: las estaciones de radio
de Amplitud Modulada (AM) modulan la altura (amplitud) de la señal portadora. Las
estaciones de Frecuencia Modulada (FM) modulan la frecuencia de la señal portadora
según lo determina la señal eléctrica proveniente del micrófono. En las WLAN, se utiliza un
tercer tipo de modulación llamado modulación de fase (PM), en este tipo de modulación
los bits de datos de una señal eléctrica cambian la fase de la señal portadora. Un cambio
de fase significa que la señal hace un cambio de 180 grados cada vez que aparece un “1” o
un “0” en el mensaje. Un circuito receptor demodula la señal que llega desde su antena e
interpreta los cambios de fase de la señal portadora y la reconstruye a partir de la señal
eléctrica de datos original.

En la figura a continuación se ilustran los tres tipos de modulación descritos


anteriormente.

(Figura: 84)

De la figura anterior pueden establecerse varias conclusiones tales como:

MODULACIÓN EN AM: La señal eléctrica moduladora, al “subirse” en la portadora de alta


frecuencia, le hace variar su amplitud, es decir, transforma la onda portadora en sentido
vertical.

MODULACIÓN EN FM: Al contrario, al modular en FM, la onda portadora sufre variaciones


en sentido horizontal, es decir, se ve afectada su frecuencia.

MODULACIÓN EN PM: por ultimo en este tipo de modulación la frecuencia y la amplitud


se mantienen, lo único existe es una inversión de 180 grados en la forma de la onda.
ESTÁNDARES DE COMUNICACIÓN INALÁMBRICA

Los estándares de IEEE y de la industria de las telecomunicaciones sobre las


comunicaciones inalámbricas de datos abarcan la capa física y de Enlace de datos. Los
cuatro estándares comunes de comunicación de datos que se aplican a los medios
inalámbricos son:

 IEEE estándar 802.11: Comúnmente denominada Wi‐Fi, se trata de una tecnología LAN
inalámbrica (Red de área local inalámbrica, WLAN) que utiliza una contención o
sistema no determinista con un proceso de acceso a los medios de Acceso múltiple
con detección de portadora/Prevención de colisiones (CSMA/CA).
 IEEE estándar 802.15: Red de área personal inalámbrica (WPAN) estándar,
comúnmente denominada “Bluetooth”, utiliza un proceso de emparejamiento de
dispositivos para comunicarse a través de una distancia de 1 a 100 metros.
 IEEE estándar 802.16: Comúnmente conocida como WiMAX (Interoperabilidad
mundial para el acceso por microondas), utiliza una topología punto a multipunto para
proporcionar un acceso de ancho de banda inalámbrico.
 Sistema global para comunicaciones móviles (GSM): Incluye las especificaciones de la
capa física que habilitan la implementación del protocolo Servicio general de radio por
paquetes (GPRS) de capa 2 para proporcionar la transferencia de datos a través de
redes de telefonía celular móvil.

En cada uno de los ejemplos anteriores, las especificaciones de la capa física se


aplican a áreas que incluyen: datos para la codificación de señales de radio, frecuencia,
poder de transmisión, recepción de señales, requisitos decodificación y diseño, así como
también la construcción de la antena.

En la siguiente figura se ilustran algunos de los productos comerciales de las


tecnologías inalámbricas más comúnmente utilizadas.

(Figura: 85)
LAN INALÁMBRICA

Una implementación común de transmisión inalámbrica de datos permite a los


dispositivos conectarse en forma inalámbrica a través de una LAN. En general, una LAN
inalámbrica requiere los siguientes dispositivos de red:

 Punto de acceso inalámbrico (AP): es un dispositivo de red inalámbrico que


concentra las señales inalámbricas de los host y les permite un intercambio de
información a quienes consigan alcanzar el radio de cobertura de la antena.
Generalmente se le conecta a la infraestructura de red existente basada en cobre,
como Ethernet para que los equipos inalámbricos tengan acceso a los host
conectados a la red a través de cables.

 Adaptadores NIC inalámbricos: Proporcionan capacidad de comunicación


inalámbrica a cada host de la red. Se trata de una NIC con una antena receptora.

A medida que la tecnología ha evolucionado, ha surgido una gran cantidad de


estándares WLAN basados en Ethernet. Las WLAN no usan una trama estándar 802.3, por
lo tanto, el término "Ethernet inalámbrica" puede resultar engañoso, sin embargo el
formato de trama de capa 2 de los estándares para redes inalámbricas como WI-FI son
compatibles con 802.3 de Ethernet.

Los estándares incluyen:

 IEEE 802.11a: opera en una banda de frecuencia de 5 GHz y ofrece velocidades de


hasta 54 Mbps. Posee un área de cobertura menor y es menos efectivo al penetrar
paredes y otras estructuras ya que opera en frecuencias superiores. Los
dispositivos que operan conforme a este estándar no son interoperables con los
estándares 802.11b y 802.11g descritos a continuación.
 IEEE 802.11b: opera en una banda de frecuencia de 2.4 GHz y ofrece velocidades
de hasta 11 Mbps. Los dispositivos que implementan este estándar tienen un
mayor alcance y pueden penetrar mejor las paredes y otras estructuras que los
dispositivos basados en 802.11a.
 IEEE 802.11g: opera en una frecuencia de banda de 2.4 GHz y ofrece velocidades
de hasta 54 Mbps. Por lo tanto, los dispositivos que implementan este estándar
operan en la misma radiofrecuencia y tienen un alcance de hasta 802.11b pero con
un ancho de banda de 802.11a.
 IEEE 802.11n: el estándar IEEE 802.11n se encuentra actualmente en desarrollo. El
estándar propuesto define la frecuencia de 2.4 Ghz o 5 GHz. La velocidad típica de
transmisión de datos que se espera es de 100 Mbps a 210 Mbps con un alcance de
distancia de hasta 70 metros.

Los beneficios de las tecnologías inalámbricas de comunicación de datos son


evidentes, especialmente en cuanto al ahorro en el cableado costoso de las instalaciones y
en la conveniencia de la movilidad del host. Sin embargo, se necesitan desarrollar y aplicar
procesos y políticas de seguridad rigurosas para proteger las LAN inalámbricas del daño y
el acceso no autorizado.

802.11 (a,b,g,n) = WLAN

NIC para redes inalámbricas

Ejemplo de WLAN

(Figura: 86)
3.1- Arquitectura de red.
Una red debe admitir una amplia variedad de aplicaciones y servicios, así como
también funcionar con diferentes tipos de infraestructuras físicas. El término arquitectura
de red, en este contexto, se refiere a las tecnologías que admiten la infraestructura física,
los servicios y los protocolos que brindan la capacidad trasladar mensajes a toda la red de
la manera más confiable y económica. Debido a la evolución continua de la tecnología,
existen cuatro características básicas que la arquitectura de una red necesita para cumplir
con las expectativas de los usuarios. Estas características son:

1) Tolerancia a fallas. 2) Escalabilidad.


3) Calidad del servicio. 4) Seguridad.

TOLERANCIA A FALLAS:
La tolerancia a fallas surge de la expectativa de que la red debe estar siempre
disponible a los usuarios que operan en ella, un ejemplo claro de una red tolerante a
fallas es la red de redes, internet debe estar siempre disponible para los millones de
usuarios que confían en ella, por lo tanto, internet como cualquier otra red con
perspectiva de crecimiento requiere de una arquitectura de red diseñada y creada con
tolerancia a fallas. Una red tolerante a fallas es la que limita el impacto de una falla del
software o hardware y puede recuperarse rápidamente cuando se produce dicha falla.
Estas redes dependen de enlaces o rutas redundantes entre el origen y el destino del
mensaje. Si un enlace o ruta falla, los procesos garantizan que los mensajes pueden
enrutarse en forma instantánea en un enlace diferente transparente para los usuarios
en cada extremo.

ESCALABILIDAD
Una red escalable se refiere a la capacidad de admitir nuevos usuarios y
aplicaciones, sin afectar el rendimiento del servicio prestado a los usuarios actuales.
La capacidad de la red de admitir estas nuevas interconexiones depende de un diseño
jerárquico. Generalmente un diseño jerárquico se presenta en capas, donde cada capa
tiene una función específica para poder brindar la posibilidad de ampliar las
capacidades de la red a nuevos usuarios y servicios sin comprometer la calidad de la
misma.

A continuación se ilustran ejemplos de lo descrito anteriormente:


TOLERANCIA A FALLAS

ESCALABILIDAD

(Figuras 87 y 88)
CALIDAD DE SERVICIO (QoS):
La calidad de servicio (QoS) se refiere a una técnica empleada para el
establecimiento de prioridades que algunos paquetes tienen con respecto a otros que
no se consideran tan importantes. La asignación de las prioridades dependerá del tipo
de aplicación. Por ejemplo: Las transmisiones de voz y video en vivo requieren un nivel
de calidad constante y un stream de datos ininterrumpido para la correcta
comprensión del mensaje, característica que no era necesaria para las aplicaciones
informáticas tradicionales. La calidad de estos servicios se mide con el nivel suficiente
de satisfacción del usuario al experimentar la presentación del audio o del video a
través de la red.

Para entender mejor la necesidad del QoS, imagine por un momento una
llamada a través de internet (telefonía VoIP), en la que el contenido del mensaje
hablado pasa a través de la red con la misma prioridad que una solicitud de página
web, en este caso, los paquetes de datos de la aplicación web son menos urgentes que
los paquetes de voz en una llamada, ya que la pagina web seria la misma todo el
tiempo que pueda tardar en cargarse la información desde el origen al destino, pero
en el caso de los paquetes de voz, no es algo que pueda tolerarse, ya que un retardo
podría afectar la inteligibilidad del mensaje hablado.

La calidad de servicio es administrada en el router, garantizando que las


prioridades coincidan con el tipo de comunicación y su importancia en la red de una
organización. Generalmente el streaming (transmisiones de voz y video) encabeza la
lista de prioridades, mientras que solicitudes de páginas web reciben menor prioridad.

(Figura: 89)
SEGURIDAD:
La seguridad se refiere a la protección de los datos y de los contenidos de
información que una organización maneja, esta información puede llegar a ser muy
sensible y delicada como es el caso de estados de cuentas y transacciones bancarias,
proyectos comerciales, contraseñas de acceso a las redes no autorizadas, acceso a bases
de datos, entre otras cosas, en las cuales puede verse comprometido el futuro y la
confianza de la empresa u organización. En este sentido resulta muy importante que la
red cuente con métodos, herramientas y procedimientos que ayuden a combatir los
defectos de seguridad que pueda tener la arquitectura de red.

(Figura: 90)

3.2- LAN Ethernet.


Ethernet es la tecnología LAN más popular en el mundo, siendo la más utilizada
gracias a su versatilidad y capacidad, soportando anchos de banda que varían desde los 10
Mbps a 10.000 Mbps. La mayor parte del tráfico en Internet se origina y termina en
conexiones de Ethernet. Desde su inicio en la década de 1970, Ethernet ha evolucionado
para satisfacer la creciente demanda de LAN de alta velocidad. Para tener un poco de
perspectiva vamos a comparar la Ethernet antigua con la que conocemos hoy.

LAN ANTIGUA DE ETHERNET

En la antigüedad Ethernet ofrecía la velocidad de 10 Mbps sobre cable de par


trenzado a través de la especificación 10BASE‐T, en estas redes era común el uso de hub
como punto central del segmento de red. Un hub es un dispositivo que funciona
formando una topología física de estrella pero lógica de un bus multiacceso de medio
compartido. Debido a que el medio era compartido, sólo una estación a la vez podía
realizar una transmisión de manera exitosa. Este tipo de conexión se describe como
comunicación half‐duplex.

A medida que se agregaban más dispositivos a una red Ethernet, la cantidad de


colisiones de tramas aumentaba notablemente. Durante los períodos de poca actividad de
comunicación, las pocas colisiones que se producían se administraban mediante el
CSMA/CD, con muy poco impacto en el rendimiento. Sin embargo, a medida que la
cantidad de dispositivos y el consiguiente tráfico de datos aumenta, el incremento de las
colisiones puede reducir la respuesta de la red por parte de las solicitudes y necesidades
de los usuarios.

A modo de analogía, sería similar a cuando salimos a trabajar o vamos a la


escuela a la mañana temprano y las calles están relativamente vacías. Más tarde, cuando
hay más automóviles en las calles, pueden producirse colisiones y generar demoras en el
tráfico.

(Figura: 91)
LAN ETHERNET ACTUAL

Un desarrollo importante que mejoró el rendimiento de la LAN fue la introducción


de los switches para reemplazar los hubs en redes basadas en Ethernet. Este desarrollo
estaba estrechamente relacionado con el desarrollo de Ethernet 100BASE‐TX. Los switches
pueden controlar el flujo de datos mediante el aislamiento de cada uno de los puertos y el
envío de una trama sólo al destino correspondiente en vez del envío de todas las tramas a
todos los dispositivos como era el caso del hub.

En el switch al igual que en el hub, se forma una topología física en estrella pero
lógicamente se diferencia del hub. En el switch cada puerto representa un acceso
dedicado e individual a la red, es decir que cada uno de sus puertos presenta una
topología lógica punto a punto. De esta manera se reduce la cantidad de dispositivos que
recibe cada trama, lo que se traduce en una mejora significativa que eleva el rendimiento
de la red. Esto, junto con la posterior introducción de las comunicaciones full‐dúplex
permitió el desarrollo de Ethernet de 1 Gbps y más.

POR CADA PUERTO DE


SWITCH EXISTE UNA
CONEXIÓN PUNTO A
PUNTO. DESDE EL
PUERTO ORIGEN AL
DESTINO EXISTE UN
SOLO CIRCUITO
DEDICADO, QUE LE
PERMITE A LA RED SER
INMUNE A LAS
COLISIONES Y
ADQUIRIR VELOCIDAD
AL OPERAR EN MODO
FULL-DÚPLEX.

(Figura: 92)
3.3- Medios Ethernet y requisitos del conector.
Las especificaciones de los cables y conectores usados para admitir las
implementaciones de Ethernet derivan del cuerpo de estándares de la Asociación de la
Industria de las Telecomunicaciones (TIA) y la Asociación de Industrias Electrónicas (EIA)
Las categorías de cableado definidas para Ethernet derivan del Estándar de Recorridos y
Espacios de Telecomunicaciones para Edificios Comerciales EIA/TIA-568 (SP-2840). Los
estándares definidos por estas asociaciones representan la norma para la elaboración e
implementación de una LAN Ethernet

MEDIOS DE CONEXIÓN

(Figura: 92)

La Figura 92 muestra los diferentes tipos de conexión utilizados en cada


implementación de la capa física. El jack y el conector de jack registrado (RJ-45) son los
más comunes, ya que son los conectores asociados al cable de par trenzado utilizado en
muchas de las implementaciones LAN de Ethernet.
En el pasado, algunos tipos de conector de la tarjeta de interfaz de red (NIC) no se
ajustaban al medio al que se tenían que conectar. Como se ve en la Figura 92, existe en
algunos equipos una interfaz llamada AUI de 15 pines. El conector AUI permite que
medios diferentes se conecten cuando se usan con el transceptor apropiado. Un
transceptor es un adaptador que convierte un tipo de conexión a otra.

Por ejemplo, un transceptor convierte un conector AUI en uno RJ-45, coaxial, o de


fibra óptica con la finalidad de ajustar la NIC de un determinado equipo al tipo de medio
utilizado.

CONECTORES DE MEDIOS

CONECTORES COMUNES DE MEDIOS DE COBRE:


Un conector muy común es el RJ‐45, se utiliza para diferentes especificaciones
Ethernet de la capa física. La EIA‐TIA 568, define un código de colores para los cables de
par trenzado que interconectan los dispositivos y host dentro de la LAN.

Si bien muchos tipos de cables de cobre pueden comprarse prefabricados, en


algunas situaciones, especialmente en instalaciones LAN, la terminación de los medios de
cobre pueden realizarse en sitio de la instalación. Las terminaciones se refieren a la
colocación del conector RJ-45 en el cable de par trenzado y también a la unión del cable al
Socket RJ-45 comúnmente conocido como Jack.

(Figura: 93)

Como se ve en la Figura 93, el Socket UTP RJ-45 mejor conocido como jack es el
componente femenino en un dispositivo de red, toma de pared o panel de conexión.
CONECTORES COMUNES DE FIBRA ÓPTICA:
Los conectores de fibra óptica incluyen varios tipos. La figura muestra algunos de
los tipos más comunes:

(Figura: 94)

 Punta Recta (ST): un conector muy común, al estilo de un BNC de conector de


cable coaxial, ampliamente utilizado con fibra multimodo.

 Conector suscriptor (SC): Este tipo de conector se utiliza ampliamente con fibra
monomodo.

 Conector Lucent (LC): un conector pequeño que está adquiriendo popularidad en


su uso con fibra monomodo; también admite la fibra multimodo.

La terminación y el empalme del cableado de fibra óptica requieren de equipo y


capacitación especiales. La terminación incorrecta de los medios de fibra óptica produce
una disminución en las distancias de señalización o una falla total en la transmisión.
Tres tipos comunes de errores de empalme y terminación de fibra óptica son:

 Desalineación: los medios de fibra óptica no se alinean con precisión al unirlos.


 Separación de los extremos: no hay contacto completo de los medios en el empalme
o la conexión.
 Acabado final: los extremos de los medios no se encuentran bien pulidos o puede
verse suciedad en la terminación.

3.4- Implementacion de UTP con RJ-45


La Asociación de Industrias Electrónicas y la Asociación de las Industrias de las
Telecomunicaciones (EIA/TIA) establecen las conexiones del cableado UTP.

El conector RJ‐45 es el componente macho engarzado a los extremos del cable.


Cuando se observan desde arriba con la pestaña del conector hacia abajo, los pins se
enumeran del 1 al 8, de izquierda a derecha. Es importante recordar esta orientación al
identificar un cable, ya que existe una norma de codificación de colores y debemos estar
viendo el cable por el lado correcto para darnos cuenta del tipo de cable. La figura a
continuación ilustra un ejemplo de la manera de colocar el cable para su verificación.

La pestaña debajo.

(Figura: 95)
Para que la electricidad fluya entre el conector y el jack, el orden de los hilos debe
seguir el código de colores T568A, o T568B recomendado en los estándares EIA/TIA-568-
B.1, como se ve en la Figura 96. Use cable UTP categoría 5E o mayor, dado que las
categorías superiores pueden usarse en lugar de las inferiores a la hora de elaborar un
cable de red. Existen dos tipos de cable que son usados para la interconexión de
dispositivos en las LAN estos son:

 Cable UTP de conexión directa.


 Cable UTP de conexión cruzada.

Las diferencias entre uno y otro se encuentran en el orden en que se colocaron los
cables en el conector de acuerdo al código de colores. Veamos en la figura a continuación
las dos normas existentes para el código de colores definidos como T568A y T568B.

(Figura: 96)

CABLES UTP DE CONEXIÓN DIRECTA:


Un cable de conexión directa tiene conectores en cada extremo y su terminación
es idéntica conforme a los estándares T568A o T568B.

La identificación del tipo de cable utilizado se hace colocando un extremo al lado


del otro, con la misma orientación, así podría verse en cada uno los hilos de color. Si el
orden de los hilos de color es el mismo en cada extremo, entonces el cable es de conexión
directa. La figura a continuación ilustra dos ejemplos de un cable de conexión directa, allí
puede verse un cable directo T568A y otro T568B, ambos representan lo mismo pero en
normas distintas.

(Figura: 97)

Utilice cables directos para las siguientes conexiones:

 Switch a puerto Ethernet del router.


 Computadora a switch.
 Computadora a hub.

CABLES UTP DE CONEXIÓN CRUZADA:


Para que los dos dispositivos se comuniquen a través de un cable directamente
conectado entre los dos, el terminal transmisor de uno de los dispositivos necesita
conectarse al terminal receptor del otro dispositivo. El cable debe tener una terminación
para que el pin transmisor, Tx, que toma la señal desde el dispositivo A en un extremo, se
conecte al pin receptor, Rx, en el dispositivo B. De manera similar, el pin Tx del dispositivo
B debe estar conectado al pin Rx del dispositivo A. Si el pin Tx de un dispositivo tiene el
número 1 y el pin Rx tiene el número 2, el cable conecta el pin 1 en un extremo con el pin
2 en el otro extremo. Este tipo de cable se denomina “de conexión cruzada” por estas
conexiones de pin cruzadas. Para alcanzar este tipo de conexión con un cable UTP, un
extremo debe tener una terminación como diagrama de pin EIA/TIA T568A y el otro, como
T568B. La figura a continuación ilustra la forma de un cable cruzado.

Los pins de transmisión en cada uno de los extremos se


conectan a los pins de recepción del otro extremo, en el caso
de la velocidad de 1Gbps se cruzan los 4 pares ya que a esa
velocidad todos pins del cable se usan.

(Figura: 98)
Utilice cables de conexión cruzada para conectar:

 Switch a switch.
 Switch a hub.
 Hub a hub.
 Router a router.
 Computadora a computadora.
 Computadora a router.

En general, cuando conecte diferentes tipos de dispositivos, utilice un cable de


conexión directa. Cuando conecte el mismo tipo de dispositivo, utilice un cable de
conexión cruzada.

Por otra parte muchos de los dispositivos más nuevos incluyen una característica
de conexión cruzada automática. Esta característica permite al dispositivo detectar el tipo
de cable requerido y configura las interfaces según corresponda. En algunos dispositivos,
esta detección automática se realiza en forma predeterminada. Por lo tanto a la hora de
implementar un cableado no hay que preocuparse por preparar varios tipos de cable,
puede cómodamente ajustarse a un estándar para la conexión directa y le serviría para
toda la red, pero siempre y cuando los equipos posean la característica de detección de
conexión automática.

3.4- Dispositivos de red.


Los dispositivos de red son todos aquellos equipos que permiten hacer fluir el
tráfico y la comunicación de datos (información) entre los host de una LAN, posibilitando
su interconexión, estos dispositivos son:

 Repetidor.
 Hub (concentrador).
 Puente.
 Switch.
 Router.
REPETIDOR

Un repetidor es un dispositivo de red simple, su trabajo consiste en recibir la señal


en uno de sus puertos, para luego regenerarla, y volver a transmitirla en otro puerto. El
propósito de un repetidor es regenerar y retemporizar las señales de red a nivel de los bits
para permitir que dichos bits viajen a mayor distancia a través de los medios. Recordemos
que la señal eléctrica que viaja a través de un medio de cobre se atenúa a medida que
recorre el cable, por lo tanto si se necesita extender el alcance de una señal más allá de lo
que permite el medio utilizado para transportar los datos es necesario el uso de un
repetidor. Por ejemplo, un cable de par trenzado UTP permite a la señal recorrer 100
metros antes de que la degradación de señal por atenuación impida al receptor la
correcta interpretación de los datos. Si se usa un repetidor el alcance de una señal se
puede extender por otros 100 metros.

(Figura: 99)

En la figura anterior se ilustro el propósito de un repetidor utilizando un medio de


cobre UTP como ejemplo. Ahora fíjese bien que el único propósito del repetidor es el de
regenerar las señales y retransmitirlas sin realizar ninguna operación lógica al respecto,
por lo tanto un repetidor resulta ser un dispositivo de capa 1 ya que su función no supera
las aspectos físicos de la red. No toma decisiones solo se interesa por recibir una señal y
regenerarla para volver a transmitirla.
HUB (CONCENTRADOR)

Los hubs básicamente son repetidores multipuerto. En muchos casos, la diferencia


entre los dos dispositivos radica en el número de puertos que cada uno posee. Mientras
que un repetidor convencional tiene sólo dos puertos, un hub por lo general tiene de
cuatro a veinticuatro puertos. Los hubs por lo general se utilizan en las redes Ethernet
10BASE-T o 100BASE-T, aunque hay otras arquitecturas de red que también los utilizan. El
uso de un hub hace que cambie la topología de la red desde un bus lineal, donde cada
dispositivo se conecta de forma directa al cable, a una en estrella. En un hub, los datos
que llegan a un puerto del hub se transmiten de forma eléctrica a todos los otros puertos
conectados al mismo segmento de red, salvo a aquel puerto desde donde enviaron los
datos.

(Figura: 100)

Los dispositivos conectados al hub reciben todo el tráfico que se transporta a


través del hub. Cuántos más dispositivos están conectados al hub, mayores son las
probabilidades de que haya colisiones. Las colisiones ocurren cuando dos o más
estaciones de trabajo envían al mismo tiempo datos a través del cable de la red. Cuando
esto ocurre, todos los datos se corrompen. Cada dispositivo conectado al mismo
segmento de red se considera un miembro de un dominio de colisión. Al tratarse de un
repetidor multipuerto el Hub es también un dispositivo de capa 1.
PUENTE

A veces, es necesario dividir una LAN grande en segmentos más pequeños que
sean más fáciles de manejar, como en el caso de la figura 101. Esto disminuye la cantidad
de tráfico en una sola LAN y puede extender el área geográfica más allá de lo que una sola
LAN puede admitir. La función del puente es tomar decisiones inteligentes con respecto a
pasar señales o no al segmento siguiente de la red.

(Figura: 101)

Los puentes operan en la capa de enlace de datos del modelo de referencia OSI, de
esta manera este dispositivo utiliza las direcciones de capa 2 para establecer decisiones
inteligentes con respecto a las señales que recibe y envía.
Cuando un puente recibe una trama a través de la red, se busca la dirección MAC
destino en la tabla de puenteo para determinar si hay que filtrar, inundar, o copiar la
trama en otro segmento. El proceso de decisión tiene lugar de la siguiente forma:

 Si el dispositivo destino se encuentra en el mismo segmento que la trama, el


puente impide que la trama vaya a otros segmentos. Este proceso se conoce como
filtrado.
 Si el dispositivo destino está en un segmento distinto, el puente envía la trama
hasta el segmento apropiado.
 Si el puente desconoce la dirección destino, el puente envía la trama a todos los
segmentos excepto aquel en el cual se recibió. Este proceso se conoce como
inundación.
 Si se ubica de forma estratégica, un puente puede mejorar el rendimiento de la red
de manera notoria.

SWITCH

Un switch se describe a veces como un puente multipuerto. Mientras que un


puente típico puede tener sólo dos puertos que enlacen dos segmentos de red, el switch
puede tener varios puertos, según la cantidad de segmentos de red que sea necesario
conectar. Al igual que los puentes los switches son dispositivos de capa 2, esto quiere
decir que aprenden determinada información sobre los paquetes de datos que se reciben
de los distintos host de la red. Los switches utilizan la información de capa 2 para crear
tablas de envío y así determinar el destino de los datos que se están mandando de un host
a otro de la red.

Aunque hay algunas similitudes entre los dos, un switch es un dispositivo más
sofisticado que un puente. Un puente determina si se debe enviar una trama al otro
segmento de red, basándose en la dirección MAC destino. Un switch tiene muchos
puertos con muchos segmentos de red conectados a ellos. El switch elige el puerto al cual
el dispositivo o estación de trabajo destino está conectado basado en la dirección MAC
aprendida en ese puerto. Los switches Ethernet están llegando a ser soluciones para
conectividad de uso difundido porque, al igual que los puentes, los switches mejoran el
rendimiento de la red al mejorar la velocidad y el ancho de banda.
Interfaz Dirección MAC
e0 00-50-DA-0D-F5-2D
e1 00-50-F1-12-8A-00
e2 00-50-BA-41-44-3C
e3 00-50-C2-43-0F-1B

(Figura: 102)

Actualmente la comunicación de datos en redes Ethernet se hace a través de la


conmutación de tramas. La conmutación de las tramas de datos es el procedimiento
mediante el cual una trama se recibe en un medio de entrada o puerto y luego se
transmite a un medio de salida o puerto especifico que coincide con el destino del
mensaje.
La conmutación es una tecnología que alivia la congestión en las LAN Ethernet,
reduciendo el tráfico y aumentando el ancho de banda. Los switches pueden remplazar a
los hubs con facilidad debido a que ellos funcionan con las infraestructuras de cableado
existentes. Esto mejora el rendimiento con un mínimo de alteración en la red ya existente.
ROUTER

Los router son dispositivos de capa 3, el propósito de los router generalmente


consiste enrutar paquetes desde un host en una red origen a otro host en otra red distinta
destino, en otras palabras permite la interconexión entre host ubicados en redes distintas.
Los routers en una red también funcionan para asegurar que el mensaje llegue al destino
de la manera más rápida y eficaz.

Es muy amplia la cantidad de funciones que un router cumple en una red, esto
también depende de sus capacidades, pero la esencia básica de su funcionamiento es la
de contener broadcast y enrutar paquetes fuera del alcance de la LAN a redes distintas.
Para ello el router utiliza el direccionamiento lógico basado en direcciones IP. Un router
además puede ser utilizado para segmentar una red utilizando una estructura de subred
para mejorar la arquitectura de la red.

(Figura: 103)
3.5- Modelo Cliente / Servidor.
Cuando una persona intenta acceder a la información en un dispositivo, ya sean
éstos una computadora personal o portátil, un PDA, teléfono celular o cualquier otro
dispositivo conectado a la red, los datos pueden no estar físicamente almacenados en sus
dispositivos. Si así fuere, se debe solicitar al dispositivo que contiene los datos, permiso
para acceder a esa información.

En una disposición cliente/servidor, los servicios de red se ubican en un


computador dedicado denominado servidor. El servidor responde a las peticiones de los
clientes. El servidor es un computador central que se encuentra disponible de forma
continua para responder a las peticiones de los clientes, ya sea de un archivo, impresión,
aplicación u otros servicios. En general, los computadores de escritorio funcionan como
clientes y uno o más computadores con potencia de procesamiento adicional, memoria y
software especializado funcionan como servidores.

Los servidores están diseñados para cumplir con las peticiones de muchos clientes
a la vez. Antes de que un cliente pueda acceder a los recursos del servidor, se debe
identificar y obtener la autorización para usar el recurso. Esto se hace asignando a cada
cliente un nombre de cuenta y una contraseña que un servicio de autenticación verifica. El
servicio de autenticación actúa como guardián para proteger el acceso a la red. Con la
centralización de las cuentas de los usuarios, de la seguridad, y del control de acceso, las
redes basadas en servidores simplifican la administración de grandes redes.

La concentración de recursos de red como archivos, impresoras y aplicaciones en


servidores hace que sea más fácil hacer una copia de seguridad de los datos generados y
de mantenerlos. En vez de estar repartidos en equipos individuales, los recursos pueden
encontrarse en servidores dedicados y especializados para facilitar el acceso.

La distribución de las funciones en las redes cliente/servidor ofrece grandes


ventajas, pero también lleva aparejado algunos costos. Aunque la agregación de recursos
en los sistemas de servidor trae mayor seguridad, acceso más sencillo y control
coordinado, el servidor introduce un punto único de falla a la red.

Los servidores requieren de personal entrenado y capacitado para su


administración y mantenimiento. Esto aumenta los costos de hacer funcionar la red. Los
sistemas de servidor también necesitan hardware adicional y especializado que hace que
el costo aumente.
(Figura: 106)

SERVIDOR

En un contexto general de redes, cualquier dispositivo que responde a una


solicitud de aplicaciones de cliente funciona como un servidor. Un servidor generalmente
es una computadora que contiene información para ser compartida con muchos sistemas
de cliente. Por ejemplo, páginas Web, documentos, bases de datos, imágenes, archivos de
audio y vídeo pueden almacenarse en un servidor y enviarse a los clientes que lo solicitan.
En otros casos, como una impresora de red, el servidor de impresión envía las solicitudes
de impresión del cliente a la impresora específica.

Diferentes tipos de aplicaciones del servidor tienen diferentes requerimientos para


el acceso de clientes. Algunos servidores pueden requerir de autenticación de la
información de cuenta del usuario para verificar si el usuario tiene permiso para acceder a
los datos solicitados o para utilizar una operación en particular. Dichos servidores deben
contar con una lista central de cuentas de usuarios y autorizaciones, o permisos (para
operaciones y acceso a datos) otorgados a cada usuario.
3.6- Modelo de comunicacion par-a-par.
El modelo de comunicación par a par también se le conoce como el modelo P2P
(peer-to-peer). En un modelo de red par a par los computadores de la red actúan como
socios en partes iguales, o pares. Como pares, cada computador puede tomar la función
de cliente o de servidor.

En una red entre pares, dos o más computadoras están conectadas a través de una
red y pueden compartir recursos (por ejemplo, impresora y archivos), sin tener un
servidor dedicado. Cada dispositivo final conectado puede funcionar como un servidor o
como un cliente. Una computadora puede asumir el rol de servidor para una transacción
mientras funciona en forma simultánea como cliente para otra transacción. Los roles del
cliente y el servidor se configura según las solicitudes.

En una red de par a par, los usuarios individuales controlan sus propios recursos.
Los usuarios pueden decidir compartir ciertos archivos con otros usuarios. Ya que son los
usuarios individuales los que toman estas decisiones, no hay un punto central de control o
administración en la red. Además, en caso de fallas, los usuarios individuales deben tener
una copia de seguridad de sus sistemas para poder recuperar los datos si estos se pierden.
Cuando un computador actúa como servidor, es posible que el usuario de ese equipo note
que el rendimiento es menor, ya que el equipo cumple las peticiones realizadas por otros
sistemas.

(Figura: 104)
En la figura anterior se muestra un ejemplo de una red entre pares, es una simple
red doméstica con dos computadoras conectadas que comparten una impresora. Cada
persona puede configurar su computadora para compartir archivos, habilitar juegos en
red o hasta para compartir una conexión de Internet. Fíjese como las computadoras
intercambian el rol de cliente y servidor dependiendo del origen de la solicitud.

A diferencia del modelo cliente/servidor, que utiliza servidores dedicados, las redes
punto a punto descentralizan los recursos en una red. En lugar de ubicar información para
compartir en los servidores dedicados, la información puede colocarse en cualquier parte
de un dispositivo conectado. La mayoría de los sistemas operativos actuales admiten
compartir archivos e impresoras sin requerir software del servidor adicional. Debido a que
las redes punto a punto generalmente no utilizan cuentas de usuarios centralizadas,
permisos, ni registros, es difícil implementar las políticas de acceso y seguridad en las
redes que contienen una mayor cantidad de computadoras. Se deben establecer cuentas
de usuario y derechos de acceso en forma individual para cada dispositivo, esto es lo que
se conoce como autenticación en la red. La autenticación es un recurso de seguridad
básico que tienen las computadoras conectadas a una red, por lo general es la petición de
un nombre de usuario mas una contraseña para asegurar que dicho usuario es quien dice
ser.

Otro buen ejemplo sobre la funcionalidad y aplicación de la comunicación punto a


punto son dos computadoras remotas conectadas a internet que utilizan programas de
software para compartir recursos entre ellas. Tanto es el éxito de estas redes que el mayor
tráfico en Internet lo registran los intercambios P2P, en la figura a continuación, se
muestra una grafica realizada por una importante compañía que presta servicios y
productos orientados a redes P2P (Pando).

(Figura: 105)
Lo bueno de las redes P2P es que son descentralizadas. En lugar de
tener una sola computadora donde se almacenan los archivos y la gente
los descarga, las redes funcionan de manera abierta. Por ejemplo, Usted
instala en su computadora un software gratuito como eMule o el popular
Ares. Al configurarlo, determina qué archivos quiere compartir. Cualquier
persona del mundo que esté buscando una canción que usted tenga,
entrará a su computadora de manera remota y la descargará. Lo mismo
puede hacer usted en la computadora de aquel u otro usuario conectado.

Todo el software para redes P2P tienen un sencillo motor de búsqueda con el que
accedemos a los archivos de otros usuarios y usuarias eligiendo el que queremos descargar.

DIFERENCIAS COMPARATIVAS ENTRE EL MODELO DE COMUNICACION


CLIENTE/SERVIDOR Y PAR-A-PAR

VENTAJAS DE LA RED PAR A PAR VENTAJAS DE LA RED CLIENTE/SERVIDOR


Su implementación es menos costosa. Ofrece mayores niveles de seguridad.
Es más fácil de administrar cuando la red es
No requiere software de administración de
grande, ya que la administración se
red especializado
encuentra centralizada.
No requiere un administrador de red Todos los datos pueden copiarse en una
dedicado. ubicación central.

DESVENTAJAS DE LA RED
DESVENTAJAS DE LA RED PAR A PAR
CLIENTE/SERVIDOR
En redes grandes la administración es Necesita costoso software administrativo y
inmanejable. operacional de red especializado.
Es necesario capacitar a cada uno de los
Necesita hardware más potente y costoso
usuarios para realizar tareas
para el host servidor.
administrativas.
Tiene un solo punto de falla. Los datos de
Todas las computadoras comparten los
usuario no estarán disponibles si el servidor
recursos, lo cual afecta su rendimiento.
se encuentra desactivado.
Es menos segura. Requiere un administrador profesional.
3.7- Dominio de colision.
En redes multiacceso, donde los host comparten un mismo medio, si dos nodos
envían paquetes al mismo tiempo, se produce una colisión y los paquetes se pierden.
Entonces según el CSMA/CD, ambos nodos envían una señal de congestión, esperan una
cantidad de tiempo aleatoria y retransmiten sus paquetes. En definitiva cualquier parte de
la red en donde los paquetes de dos o más nodos puedan interferir entre ellos se
considera como un dominio de colisión. Una red con una gran cantidad de nodos en el
mismo segmento tiene un dominio de colisiones mayor y, generalmente, más tráfico. A
medida que aumenta la cantidad de tráfico en la red, aumentan las posibilidades de
colisión.

Los dominios de colisión son los segmentos de red física conectados, un segmento
de red física es todo aquello que funciona en la capa 1 del modelo OSI se encuentre
formando un conjunto. Cada vez que ocurre una colisión en la red, se detienen todas las
transmisiones de este conjunto por un período de tiempo.

Los dispositivos de Capa 1, tales como los repetidores y hubs, tienen la función
primaria de extender los segmentos de cable de Ethernet, al extender la red se pueden
agregar más hosts, sin embargo, cada host que se agrega aumenta la cantidad de tráfico
potencial en la red. Como los dispositivos de Capa 1 transmiten todo lo que se envía en los
medios, cuanto mayor sea el tráfico transmitido en un dominio de colisión, mayor serán
las posibilidades de colisión. El resultado final es el deterioro del rendimiento de la red,
que será mayor si todos los computadores en esa red exigen anchos de banda elevados.
En fin, al colocar dispositivos de capa 1 se extienden los dominios de colisión, pero la
longitud de una LAN puede verse sobrepasada y causar otros problemas de colisión.

Los dispositivos de Capa 2 dividen o segmentan los dominios de colisión. El control


de propagación de trama con la dirección MAC asignada a todos los dispositivos de
Ethernet ejecuta esta función. Los dispositivos de Capa 2, los puentes y switches, hacen un
seguimiento de las direcciones MAC y el segmento en el que se encuentran. Al hacer esto,
estos dispositivos pueden controlar el flujo de tráfico en el nivel de Capa 2. Esta función
hace que las redes sean más eficientes, al permitir que los datos se transmitan por
diferentes segmentos de la LAN al mismo tiempo sin que las tramas colisionen. Al usar
puentes y switches, el dominio de colisión se divide efectivamente en partes más
pequeñas, que se transforman cada una a su vez en un dominio de colisión.
(Figura: 106)

HUBS Y DOMINIOS DE COLISIÓN.

Un hub recibe una señal, la regenera y la envía a todos los puertos menos al puerto
de dónde se produjo la señal. El uso de hubs crea un bus lógico. Esto significa que la LAN
utiliza medios de acceso múltiple. Los puertos utilizan un método de ancho de banda
compartido y a menudo disminuyen su rendimiento en la LAN debido a las colisiones y a la
recuperación. Si bien se pueden interconectar múltiples hubs, éstos permanecen como un
único dominio de colisiones.

Los hubs son más económicos que los switches. Un hub generalmente se elige
como dispositivo de red dentro de una LAN muy pequeña que opera bajo requisitos de
velocidad de transmisión (throughput) lenta o cuando los recursos económicos sean
limitados. En la figura a continuación, se ilustra una red conformada por la interconexión
de 2 hubs y 6 computadoras, entonces de acuerdo a lo anteriormente descrito, todo el
conjunto representa un solo dominio de colisión, por lo que toda esta conformación se
vería afectada por la colisión de un par de nodos en la topología.
LAN QUE UTILIZA HUB

(Figura: 107)

SWITCH Y DOMINIOS DE COLISIÓN.

Un switch recibe una trama y regenera cada bit de la trama en el puerto de destino
adecuado. Este dispositivo se utiliza para segmentar una red en múltiples dominios de
colisiones. A diferencia del hub, un switch reduce las colisiones en una LAN. Cada puerto
del switch crea un dominio de colisiones individual. Esto crea una topología lógica punto a
punto en el dispositivo de cada puerto. Además, un switch proporciona ancho de banda
dedicado en cada puerto y así aumenta el rendimiento de una LAN. El switch de una LAN
también puede utilizarse para interconectar segmentos de red de diferentes velocidades.

Generalmente, los switches se eligen para conectar dispositivos a una LAN. Si bien
un switch es más costoso que un hub, resulta económico al considerar su confiabilidad y
rendimiento mejorados.
La siguiente figura ilustra un ejemplo de red LAN utilizando un switch como el
dispositivo de interconexión de la red. Fíjese que cada host tiene una dirección física
(MAC) asociada, esta dirección es utilizada por el switch para llenar una tabla de
direcciones y realizar un proceso de conmutación, dirigiendo cada trama entre un host
origen y destino a través de un segmento individual en el switch, con ancho de banda
dedicado y libre de colisiones.

LAN QUE UTILIZA SWITCH

(Figura: 108)
3.8- Dominio de broadcast.
Dividir una LAN en varios dominios de colisión aumenta la posibilidad de que cada
host en la red tenga acceso a los medios de manera más rápida y eficiente. Efectivamente,
esto reduce la posibilidad de que ocurran colisiones y aumenta el ancho de banda
disponible en los medios. Pero los dispositivos de Capa 2 reenvían broadcasts. Un
broadcast puede definirse como un tráfico que va desde un host a todos los host de la red,
para lograr esto, un dispositivo envía un paquete utilizando una dirección especial, similar
a un código en el campo de dirección destino de la trama que permite que todas las NIC
en la red procesen el paquete.

Un dominio del broadcast puede definirse como todos los dominios de colisión que
procesan la misma trama de broadcast. En otras palabras, todos los nodos que forman
parte de ese segmento de red delimitados por un dispositivo de Capa 3. Los dominios de
broadcast están controlados en el nivel de Capa 3, por lo tanto, los routers no reenvían
broadcasts. Los routers, en realidad, funcionan en las Capas 1, 2 y 3 del modelo OSI, ellos
al igual que los dispositivos de Capa 1, poseen una conexión física y transmiten datos a los
medios, realizan encapsulamiento de Capa 2 en todas las interfaces y se comportan como
cualquier otro dispositivo de Capa 2. Pero en la Capa 3, un router permite segmentar los
dominios de broadcast y realizar funciones de enrutamiento.

(Figura: 109)
La figura anterior (109), ilustra una forma sencilla y clara de resumir las
características de comunicación de los dispositivos que pertenecen a las distintas capas
del modelo OSI. La figura a continuación (110), representa una red compuesta por los
distintos dispositivos ya descritos. Fíjese bien que a cada lado del router existen la misma
cantidad de computadoras, sin embargo, la LAN 1 posee un hub para interconectar las
estaciones de trabajo, por lo tanto todo el segmento se considera un dominio de colisión
y también un dominio de broadcast. La LAN 2 posee un único dominio de broadcast, pero
4 dominios de colisión, uno por cada puerto del switch conectado al segmento de red.

(Figura: 110)

DIRECCIÓN DE BROADCAST

Una dirección de broadcast, es una dirección especial en la red que hace posible
que desde una única estación de trabajo se pueda enviar una trama que sea capaz de
recorrer todos los dominios de colisión y ser procesada por todos los host de la LAN.
(Figura: 111)

En la figura anterior se ilustra la trama Ethernet, debe fijarse en las direcciones


MAC destino e IP destino. Sobre estos campos se escribe la dirección de broadcast. Una
dirección MAC de broadcast, también llamada broadcast de capa 2, es una dirección que
se escribe como: FF-FF-FF-FF-FF-FF para todas las redes Ethernet, recordemos que una
dirección MAC se compone por 12 números hexadecimales, a su vez el conjunto de los
números hexadecimales se compone de 15 símbolos, estos símbolos van del 1 al 9 y de la
A a la F, donde F representa el máximo valor del conjunto. Una dirección de broadcast de
capa 2 es la misma para todas las redes, y debe ser procesada por todas las tarjetas de
interfaz de red (NIC) de cada host en la red.

Por otra parte una dirección de broadcast también puede observarse en la capa 3 y
se conoce como la dirección de broadcast de IPv4. En este caso no sucede como el
anterior, en capa 2 existe un único formato de representación para la dirección de
broadcast. En cambio en capa 3, la dirección de broadcast es variable, esta variación se
hace dependiendo de la identificación de la red. Es decir, en una LAN existe un rango de
direcciones IP que debe ser identificado para poder determinar la dirección de broadcast.
Aprenderá más sobre las direcciones de broadcast de capa 3 más adelante en este
manual.

Las fuentes de broadcast más comunes en redes Ethernet son las estaciones de
trabajo y los router. Una estación de trabajo envía broadcast para encontrar información
en la red sobre direcciones físicas a partir de direcciones de IPv4, esta labor la lleva a cabo
un protocolo llamado ARP. Por otra parte, los routers envían broadcast para mantener
tablas de ruteo de los distintos protocolos de enrutamiento dinámico, estos protocolos
son usados por el router para que este dispositivo pueda elegir la mejor ruta hacia un
destino particular. A continuación, se detallara mejor el proceso de ARP en las estaciones
de trabajo de una LAN, mientras que el proceso de enrutamiento en el router lo conocerá
como parte del contenido del modulo IV.

PROTOCOLO DE RESOLUCIÓN DE DIRECCIONES (ARP)

Cuando un host en la red requiere realizar un envió de datos, es necesario que se


encapsule el paquete con las direcciones IP destino y MAC destino especificas del host al
cual está dirigido el paquete, de esta manera se garantiza que entrega de los datos pasara
a las capas superiores en el host destino. En caso contrario, el resultado de enviar una
trama en la red para un host destino que no posee identificación a nivel de capa 2 o 3,
traería como consecuencia que se descarte el paquete y en ese caso la comunicación de
datos no tendría éxito. Para evitar este problema los host cuentan con una tabla de
asignaciones conocida como ARP. En esta tabla de asignaciones se encuentran las
direcciones IP destino asociadas a su respectiva dirección física. En la siguiente figura se
ilustra una entrada en la tabla ARP, fíjese que existe una dirección IP asociada a una MAC,
ambas direcciones representan al mismo destino, la diferencia entre una y otra, es la capa
para la cual trabajan.

(Figura: 112)

ARP es el protocolo de resolución de direcciones en la red, en ARP se envían


broadcast que recorren la LAN para solicitar información de capa 2 a partir de una
dirección IP dada. El proceso es muy simple y se describe a continuación.

Mediante un ejemplo describiremos el proceso de ARP en el cual, a partir de una


dirección IP se solicita a la red una dirección física. Para encapsular la trama con la
identificación del host destino, el host origen debe conocer la dirección IP y dirección
física del host destino. En el ejemplo se tiene una pequeña LAN con tres host
interconectados a través de un switch y un router para segmentar el dominio de
broadcast del resto de la red. El ejemplo está centrado en la tabla ARP del host A, pero
para el resto de los host en la red, el proceso es idéntico.
Fíjese en la tabla ARP del
host A (en la parte superior de la
figura: 113), puede ver que esta
vacia, por lo cual no existen
entradas actualmente. Mas
tarde el host A tiene un paquete
que enviar a la dirección IP:
192.168.168.3, esta es la
dirección IP del host C.

El host A toma los datos


de la capa de aplicación y los
encapsula, al llegar a la capa 3 se
le agregan la dirección IP de
origen y destino, se obtiene el
paquete y este pasa a la capa 2
para armar la trama Ethernet. En
este punto el host A debe buscar
la dirección física destino de la trama, así que busca en su tabla ARP y descubre que no
existen coincidencias, entonces el host A debe iniciar un proceso de ARP para consultarle
a la red la dirección física asociada a la IP 192.168.168.3.

El host A, introduce en la red un broadcast de capa 2, pero con la dirección IP


conocida. Todos los host en la red deben procesar este broadcast, pero una vez que se
desencapsulen los datos de capa 3, los host que no coincidan con la dirección:
192.168.168.3 descartaran el paquete inmediatamente. El host que coincida con la
dirección de capa 3 podrá ver el contenido de datos del paquete. Allí descubrirá que existe
una solicitud ARP.
Una vez que el host C recibe la solicitud, se arma una trama dirigida únicamente al
host A (este tipo de tramas recibe el nombre de unicast), en ella se encuentra la respuesta
a la solicitud de ARP originada por el host A, y es enviada a él utilizando las direcciones de
origen recibidas en el paquete de broadcast. Fíjese en la figura 115 que los campos de
dirección MAC destino e IP destino cambiaron. Entonces, el host C envía el paquete de
respuesta, el switch recoge este paquete y revisa la dirección MAC destino, verifica en su
tabla de direcciones MAC, encuentra una coincidencia y a través del puerto correcto en el
switch es enviado el paquete al Host A.

Cuando el host A recibe


el paquete automáticamente se
agrega una entrada en su tabla
ARP (observe la figura: 116). En
este punto el proceso ARP
culmina y otro se originara cada
vez que un host lo solicite.

El paquete que tenía que


enviar inicialmente el host A al
host C se termina de llenar con
la información requerida, y se
envían las tramas de manera
satisfactoria.

Todo lo descrito
anteriormente ocurre en
fracciones de segundo y sin que
el usuario tenga conciencia de ello, este es un proceso que se repite una y otra vez de
forma transparente y totalmente dinámica.
3.9- Planificación de una red LAN.
Antes de enviar un E-mail, utilizar un teléfono IP o realizar otras interacciones a
través de una red de datos, debemos conectar dispositivos intermediarios y finales
mediante conexiones inalámbricas o de cable para formar una red que funcione. Esta red
será la que soporte nuestra comunicación en la red humana.

Hasta esta punto del manual, hemos considerado los servicios que una red de
datos puede proporcionar a la red humana, examinado las características de cada capa del
modelo OSI y las operaciones de los protocolos TCP/IP y conocimos también las
características más importantes sobre Ethernet, la cual se considera una tecnología LAN
universal. El siguiente paso es aprender cómo reunir todos estos elementos para formar
una red que funcione.

La planificación y elaboración de una red LAN es simple, pero debe contar con la
selección adecuada de los dispositivos de red, acompañada de un buen diseño en el
esquema de direccionamiento para redes LAN de mediano a gran tamaño.

SELECCIÓN DE UN DISPOSITIVO LAN ADECUADO

Primero que nada necesitamos saber qué tipo de dispositivos hacen falta en una
LAN, los dispositivos de red que conforman una red LAN son:

 HUB: es un dispositivo de capa 1 que se encarga de interconectar los host dentro


de una LAN para el intercambio de información, estos dispositivos extienden los
dominios de colisión al utilizar un bus lógico de multiacceso, por lo tanto su uso es
común en una LAN de tamaño reducido, de esta manera no se ve afectado el
rendimiento de la red.
 SWITCH: estos dispositivos de capa 2 segmentan los dominios de colisión y
duplican el ancho de banda de la red. Su uso ha logrado reemplazar al hub en las
redes LAN, debido a que prestan un alto nivel de rendimiento en la red se utilizan a
velocidades de 100Mbps y más. Estos dispositivos extienden los dominios de
broadcast al reenviar las tramas de broadcast a todos sus dominios de colisión.
 EL ROUTER: Los routers son los principales dispositivos utilizados para
interconectar redes LAN. Cada puerto de un router se conecta a una red diferente
y realiza el enrutamiento de los paquetes entre las redes. Los routers tambien
tienen la capacidad de dividir dominios de broadcast y dominios de colisiones.
Dentro de una LAN puede haber más de un Hub o Switch para conectar a los
dispositivos finales, pero solo existirá un router para conectar la LAN con otras redes.

Los routers poseen interfaces Ethernet para conectar con la LAN, para esto
generalmente se utiliza un cableado UTP (par trenzado no blindado) o de fibra óptica,
dependiendo del modelo del equipo. Además de eso un router se usa para
interconexiones WAN, las interfaces WAN de un router no son Ethernet, recordemos que
Ethernet es una tecnología para redes LAN únicamente, estas interfaces WAN se conocen
como interfaces seriales. Como este manual está adaptado para dar a conocer los saberes
requeridos para la implementación de una LAN no se incluirán detalles sobre las interfaces
seriales y las WAN. De acuerdo con el PNFSI, en la unidad curricular redes de
telecomunicaciones tendrá la oportunidad de conocer sobre estos temas.

FACTORES DE SELECCIÓN DE DISPOSITIVOS

Para cumplir con los requisitos de servicio de los usuarios, se debe planificar y
diseñar una LAN. La planificación asegura que se consideren debidamente todos los
requisitos, factores de costo y opciones de implementación antes de adquirir un equipo.
Se deben considerar varios factores al seleccionar un dispositivo para una LAN particular.
Los factores más importantes incluyen:

 Costo
 Velocidad y tipos de puertos/interfaces
 Posibilidad de expansión
 Facilidad de administración
 Características y servicios adicionales
(Figura: 117)

Dado que el switch es el dispositivo que permite a los host el acceso a la red, la
elección de este dispositivo juega un papel muy importante. A partir del tipo de hardware
que usemos para el switch y de la configuración que posea nuestra red tendremos
asegurada una LAN que permitirá ser útil a través del tiempo, bajo las condiciones de
tráfico requeridas por las distintas aplicaciones y a un costo adaptado a nuestras
necesidades.
FACTORES QUE SE DEBEN CONSIDERAR EN LA ELECCIÓN DE UN SWITCH

COSTO:
El costo de un switch se determina según sus capacidades y características. La
capacidad del switch incluye el número y los tipos de puertos disponibles además de la
velocidad con la que estos operan. Otros factores que afectan el costo son las capacidades
de administración de red, las tecnologías de seguridad incorporadas y las tecnologías
opcionales de conmutación avanzadas.

En principio puede parecer que la mejor opción es implementar un switch grande


en una ubicación central. Sin embargo, este aparente ahorro en los costos puede
contrarrestarse por el gasto generado por las longitudes de cable más extensas que se
necesitan para conectar cada dispositivo de la LAN al switch. Esta opción debe compararse
con el costo generado al implementar una cantidad de switches más pequeños
conectados a un switch central con una cantidad menor de cables largos.

Otra consideración en los costos es cuánto invertir en redundancia. El


funcionamiento de toda la red física se ve afectada si existen problemas con un switch
central único. Existen varias formas de proporcionar redundancia. Podemos ofrecer un
switch central secundario para que funcione simultáneamente con el switch central
primario. También podemos proporcionar cableado adicional para suministrar múltiples
interconexiones entre los switches. El objetivo de los sistemas redundantes es permitir
que la red física continúe con su funcionamiento incluso si falla uno de los dispositivos.

(Figura: 118)
VELOCIDAD Y TIPOS DE PUERTOS E INTERFACES
La necesidad de velocidad está siempre presente en un entorno LAN.
Continuamente los desarrolladores de software y aplicaciones están desarrollando nuevas
implementaciones y tecnologías que exigen recursos de ancho de banda de la red. Se
encuentran disponibles computadoras más nuevas con NIC incorporadas para admitir
velocidades de transmisión de 10/100/1000 Mbps. La selección de dispositivos de Capa 2
que puedan ajustarse a mayores velocidades permite a la red evolucionar sin reemplazar
los dispositivos centrales. Al seleccionar un switch, es fundamental la elección las
velocidades y tipo de puerto. Para orientarlo en la decisión a la hora de adquirir un switch,
hágase las siguientes preguntas: ¿Usted compraría un switch con?:

 ¿Sólo los puertos suficientes para las necesidades actuales?


 ¿Una combinación de velocidades UTP?
 ¿Dos tipos de puerto, de UTP y de fibra?

Considere cuidadosamente cuántos puertos UTP se necesitarán y cuántos puertos


de fibra se necesitarán. Del mismo modo, considere cuántos puertos necesitarán una
capacidad de 1 Gbps y cuántos requerirán sólo anchos de banda de 10/100 Mbps. Tenga
en cuenta además cuándo necesitará más puertos. Una buena elección sobre el equipo
que esté pensando en adquirir permite que usted pueda ampliar la red sin tener que
perder la inversión inicial, al contrario, usted se preocupara solo por ampliar su red
apoyado sobre la inversión inicial.

(Figura: 119)
FACTORES PARA TENER EN CUENTA AL ELEGIR UN ROUTER

Cuando se selecciona un router, deben coincidir las características del mismo con
su propósito. Al igual que el switch, también deben considerarse las velocidades, los tipos
de interfaz y el costo. Los factores adicionales para elegir un router incluyen:

 Posibilidad de expansión
 Características del sistema operativo

POSIBILIDAD DE EXPANSIÓN
Los dispositivos de red, como los
routers y switches, forman parte tanto de
las configuraciones físicas modulares como
de las fijas. Las configuraciones fijas tienen
un tipo y una cantidad específica de puertos
o interfaces. Los dispositivos modulares
tienen ranuras de expansión que
proporcionan la flexibilidad necesaria para
agregar nuevos módulos a medida que
aumentan los requisitos. La mayoría de
estos dispositivos incluyen una cantidad básica de puertos fijos además de ranuras de
expansión.

CARACTERÍSTICAS DEL SISTEMA OPERATIVO


Los routers poseen un sistema
operativo que permite realizar funciones de
administración, de esta forma el dispositivo
puede ser configurado para hacer uso de
los servicios que presta a conveniencia de
nuestra red, dependiendo de los servicios
soportados por el sistema operativo, el
equipo podrá realizar funciones especiales
tales como:

 Configuraciones de enrutamiento.
 Configuraciones de seguridad.
 Configuraciones de calidad de servicio (QoS)
 Soporte de voz sobre IP (VoIP)
 Entre otras características especiales.
4.1- Direcciones IPv4 y mascaras de red.
En una LAN se necesitan identificadores para diferenciar a cada host en la red.
Estos identificadores existen a nivel de capa 2 y capa 3. En módulos anteriores aprendimos
sobre Ethernet, funciones básicas de los dispositivos de capa 2 e identificamos una
dirección MAC, también aprendimos que los dispositivos de capa 2 son capaces de
segmentar los dominios de colisión y utilizar estas direcciones físicas para conmutar
tramas a través de un puerto específico del switch asociado al host destino. En esta
sección aprenderemos sobre el identificador de capa 3, esta capa del modelo OSI
encapsula los datos agregándoles un encabezado que incluye una dirección que identifica
a la red origen y destino, esta dirección se conoce como dirección IP.

DIRECCIÓN IPV4

Las direcciones binarias de 32 bits que se usan en las LAN y en Internet se


denominan direcciones de Protocolo Internet versión 4 (IPv4). Cada dispositivo de una red
debe ser definido en forma exclusiva. En la capa de red es necesario identificar los
paquetes de la transmisión con las direcciones de origen y de destino de los dos sistemas
finales. Con Ipv4, esto significa que cada paquete posee una dirección de origen de 32 bits
y una dirección de destino de 32 bits en el encabezado de Capa 3. En la figura a
continuación, se ilustran resaltados los campos que contienen las direcciones agregadas
por el encabezado de capa 3, en una trama de Ethernet.

(Figura: 122)

Estas direcciones se usan en la red de datos como patrones binarios. Dentro de los
dispositivos, la lógica digital es aplicada para su interpretación. Para quienes formamos
parte de la red humana, una serie de 32 bits es difícil de interpretar e incluso más difícil de
recordar. Por lo tanto, representamos direcciones Ipv4 utilizando el formato decimal
punteado.

FORMATO PUNTO DECIMAL:


Los patrones binarios que representan direcciones Ipv4 son expresados con puntos
decimales separando cada byte del patrón binario, llamado octeto, con un punto. Se le
llama octeto debido a que cada número decimal representa un byte u 8 bits.

Por ejemplo: la dirección

10101100000100000000010000010100

Es expresada en puntos decimales como

172.16.4.20

Tenga en cuenta que los dispositivos usan la lógica binaria. El formato decimal
punteado se usa para que a las personas les resulte más fácil utilizar y recordar las
direcciones.

PORCIONES DE RED Y DE HOST


En cada dirección IPv4, alguna porción de los bits de orden superior representa la
dirección de red. En la Capa 3, se define una red como un grupo de hosts con patrones de
bits idénticos en la porción de dirección de red de sus direcciones.

A pesar de que los 32 bits definen la dirección de un host en IPv4, existe un rango
variable de bits que identifican a un host específico dentro de la dirección. A este rango
variable se le denomina porción de host de la dirección. El número de bits usado en esta
porción del host determina el número de hosts que podemos tener dentro de la red.

A continuación se ilustra una dirección IPv4, en la cual aparecen identificada las


porciones anteriormente descritas:

(Figura: 123)
Fíjese en la figura anterior, puede fácilmente reconocer los 32 bits que componen
la dirección IPv4 y su equivalente en decimal. Observe que existen 4 octetos y que un
octeto es una agrupación de 8 bits. Observe también el ultimo octeto, en el se encuentra
representada la porción de host de la dirección, por lo tanto podemos decir que la porción
de host tiene una longitud de 8 bits, lo cual es equivalente a un rango en decimal que va
desde “0 a 255”, donde “0” en decimal se obtiene cuando todos los bits de la porción
están también en “0”, pero cuando todos los bits de esta porción están en 1 suman “255”
en decimal y este valor es la cantidad máxima de direcciones que nuestra red es capaz de
soportar. Veamos esto en la figura a continuación:

Fíjese en la porción de red, es la


que se encuentra enmarcada y con
letras de color rojo. Observe que para
todas las direcciones IP se mantiene
constante. Los tres primeros octetos
de esta dirección en particular forman
la porción de red y deben mantenerse
constantes para toda la LAN.

Todas las direcciones que


compartan la misma porción de red
son parte un mismo dominio de
broadcast, por esta razón es
importante que se mantenga
constante para todas las direcciones IP
de la red. Si algún host en la LAN tiene
una diferencia respecto a la porción de
red, traería como consecuencia que
este dispositivo será incapaz de
establecer comunicación con el resto
de la LAN.

La porción de host en cambio si


varia, cada variación corresponde a
una dirección IP dentro de la LAN, la
cantidad de direcciones IP que pueda
soportar una LAN está sujeta a la
longitud en bits que pueda tener la
porción de host.
TIPOS DE DIRECCIONES IP

Dentro del rango de direcciones de cada red IPv4, existen tres tipos de
direcciones:

 DIRECCIÓN DE RED: la dirección en la que se hace referencia a la red.


 DIRECCIÓN DE BROADCAST: una dirección especial utilizada para enviar datos a
todos los hosts de la red.
 DIRECCIONES HOST: las direcciones asignadas a los dispositivos finales de la red.

DIRECCIÓN DE RED:
La dirección de red es una manera estándar de hacer referencia a una red. Por
ejemplo: se podría hacer referencia a la dirección de red de la figura 124 como “red
192.168.10.0”. Ésta es una manera sencilla y descriptiva de referirse a la red ya que todos
los hosts de la red 192.168.10.0 tendrán los mismos bits de red.

Dentro del rango de dirección IPv4 de una red, la dirección más baja se reserva
para la dirección de red. Esta dirección tiene un 0 para cada bit en la porción de host de la
dirección. Por lo tanto no tome esta dirección IP para ningún host en la red. En la figura
125 se ilustra un ejemplo de lo anteriormente descrito.

192.168.10.0 se utiliza para


referirse a la red en su
totalidad. Todos los
dispositivos en esta red
poseen los mismos bits de
dirección de red.
(Figura: 125)
DIRECCIÓN DE BROADCAST
La dirección de broadcast IPv4 es una dirección especial para cada red que permite
la comunicación a todos los host en esa red. Para enviar datos a todos los hosts de una
red, un host puede enviar un solo paquete dirigido a la dirección de broadcast de la red.

La dirección de broadcast utiliza la dirección más alta en el rango de la red. Ésta es


la dirección en la cual los bits de la porción de host son todos 1. Para la red 192.168.10.0
con 24 bits de red, la dirección de broadcast sería 192.168.10.255. En la figura 126 se
ilustra un ejemplo de lo anteriormente descrito.

La dirección de broadcast se
utiliza para enviar paquetes
a cada host en la LAN que
comparta la misma porción
de red de la dirección

(Figura: 126)

DIRECCIONES DE HOST
Como se describió anteriormente, cada dispositivo final requiere una dirección
única para poder enviar y recibir paquetes en la red. En las direcciones Ipv4, se asignan los
valores entre la dirección de red y la dirección de broadcast a los dispositivos en dicha red.
La siguiente figura ilustra la forma de una dirección IP de host.
Cada host en la red
posee una dirección
única.

(Figura: 127)

CLASES DE DIRECCIONES IP

Las direcciones IP se dividen en clases para definir las redes de tamaño pequeño,
mediano y grande. Las direcciones Clase A se asignan a las redes de mayor tamaño. Las
direcciones Clase B se utilizan para las redes de tamaño medio y las de Clase C para redes
pequeñas.

CLASE DE BITS DE MAYOR PRIMER INTERVALO DE NUMERO DE BITS EN


DIRECCIÓN IP PESO DIRECCIÓN DE OCTETO LA DIRECCIÓN DE RED.
Clase A 0 0 - 127 8
Clase B 10 128 - 191 16
Clase C 110 192 - 223 24
Clase D 1110 224 - 239 28

Cada dirección IP completa de 32 bits se divide en una parte de red y otra de host.
El primer paso para determinar qué parte de la dirección identifica la red y qué parte
identifica el host es identificar la clase de dirección IP. Para adaptarse a redes de distintos
tamaños y para ayudar a clasificarlas, las direcciones IP se dividen en grupos llamados
clases. Esto se conoce como direccionamiento classful.
DIRECCIONES IP CLASE A, B, C, D

(Figura: 128)

DIRECCIONES CLASE A
La dirección Clase A se diseñó para admitir redes de tamaño extremadamente
grande, de más de 16 millones de direcciones de host disponibles. Las direcciones IP Clase
A utilizan sólo el primer octeto para indicar la dirección de la red. Los tres octetos
restantes son para las direcciones host.

(Figura: 129)

El primer bit de la dirección Clase A siempre es 0. Con dicho primer bit, que es un
0, el menor número que se puede representar es 00000000, 0 decimal. El valor más alto
que se puede representar es 01111111, 127 decimal. Estos números 0 y 127 quedan
reservados y no se pueden utilizar como direcciones de red. Cualquier dirección que
comience con un valor entre 1 y 126 en el primer octeto es una dirección Clase A.
La red 127.0.0.0 se reserva para las pruebas de loopback. Los Routers o las
máquinas locales pueden utilizar esta dirección para enviar paquetes nuevamente hacia
ellos mismos. Por lo tanto, no se puede asignar este número a una red.

DIRECCIONES CLASE B
La dirección Clase B se diseñó para cumplir las necesidades de redes de tamaño
moderado a grande. Una dirección IP Clase B utiliza los primeros dos de los cuatro octetos
para indicar la dirección de la red. Los dos octetos restantes especifican las direcciones del
host.

(Figura: 130)

Los primeros dos bits del primer octeto de la dirección Clase B siempre son 10. Los
seis bits restantes pueden poblarse con unos o ceros. Por lo tanto, el menor número que
puede representarse en una dirección Clase B es 10000000, 128 decimal. El número más
alto que puede representarse es 10111111, 191 decimal. Cualquier dirección que
comience con un valor entre 128 y 191 en el primer octeto es una dirección Clase B.

DIRECCIONES CLASE C
El espacio de direccionamiento Clase C es el que se utiliza más frecuentemente en
las implementaciones LAN. Este espacio de direccionamiento tiene el propósito de admitir
redes pequeñas con un máximo de 254 hosts.

(Figura: 131)

Una dirección Clase C comienza con el binario 110. Por lo tanto, el menor número
que puede representarse es 11000000, 192 decimal. El número más alto que puede
representarse es 11011111, 223 decimal. Si una dirección contiene un número entre 192 y
223 en el primer octeto, es una dirección de Clase C.
DIRECCIONES CLASE D
La dirección Clase D se creó para permitir multicast en una dirección IP. Una
dirección multicast es una dirección exclusiva de red que dirige los paquetes con esa
dirección destino hacia grupos predefinidos de direcciones IP. Por lo tanto, una sola
estación puede transmitir de forma simultánea una sola corriente de datos a múltiples
receptores, no a todos.

(Figura: 132)

El espacio de direccionamiento Clase D, en forma similar a otros espacios de


direccionamiento, se encuentra limitado matemáticamente. Los primeros cuatro bits de
una dirección Clase D deben ser 1110. Por lo tanto, el primer rango de octeto para las
direcciones Clase D es 11100000 a 11101111, o 224 a 239. Una dirección IP que comienza
con un valor entre 224 y 239 en el primer octeto es una dirección Clase D.

La siguiente tabla a continuación resume lo descrito anteriormente, se ilustra el


rango de direcciones IP del primer octeto tanto en decimales como en binario para cada
clase de dirección IP.

CLASE DE DIRECCIÓN IP INTERVALO DE DIRECCIÓN IP


Clase A 1 – 126 (00000001 – 01111110)
Clase B 128 – 191 (10000000 – 10111111)
Clase C 192 – 223 (11000000 – 11011111)
Clase D 224 – 255 (11100000 – 11101111)

MÁSCARA DE RED: IDENTIFICACIÓN DE LA PORCION DE RED

Para definir las porciones de red y de host de una dirección, los dispositivos usan
un patrón separado de 32 bits llamado máscara de red o subred, como se muestra en la
figura 133. La máscara de subred se expresa con el mismo formato decimal punteado que
la dirección IPv4. La máscara de subred se crea al colocar un 1 binario en cada posición de
bit que representa la porción de red y un 0 binario en cada posición de bit que representa
la porción de host.

(Figura: 133)

La máscara de subred se configura en un host junto con la dirección IPv4 para


definir la porción de red de esa dirección.

Por ejemplo veamos las direcciones classfull y sus mascaras de red:

Dirección clase A

Dirección clase B

(Figuras: 134 y 135)


Dirección clase C

(Figura: 136)

OPERACIÓN LÓGICA AND

Dentro de los dispositivos de redes de datos, se aplica la lógica digital para


interpretar las direcciones. Cuando se crea o envía un paquete IPv4, la dirección de red de
destino debe obtenerse de la dirección IP del host destino. Esto se hace por medio de una
lógica llamada AND.

Se aplica la lógica AND a la dirección host IPv4 y a su máscara de subred para


determinar la dirección de red a la cual pertenece el host destino. Cuando se aplica esta
lógica AND a la dirección y a la máscara de subred, el resultado que se produce es la
dirección de red.

OPERACIÓN AND
AND es una de las tres operaciones binarias básicas utilizadas en la lógica digital.
Las otras dos son OR y NOT. AND se usa para determinar la dirección de red, por lo tanto,
sólo se tratará aquí la lógica AND. La lógica AND es la comparación de dos bits que
produce los siguientes resultados:

1 AND 1 = 1
1 AND 0 = 0
0 AND 1 = 0
0 AND 0 = 0

La operación AND es similar a una multiplicación, fíjese que el resultado de “0 AND


1” y “1 AND 1“, en cualquiera de los casos la aplicación de AND con ceros produce un
cero y la aplicación de AND con unos a cada lado produce un 1. Estas propiedades de la
aplicación de AND se usan con la máscara de subred para “enmascarar” los bits de host de
una dirección IPv4. Se aplica la lógica AND a cada bit de la dirección con el bit de máscara
de subred correspondiente.
Debido a que todos los bits de la máscara de subred que representan bits de host
son “0”, la porción de host de la dirección de red resultante está formada por todos “0”.
Recuerde que una dirección IPv4 con todos “0” en la porción de host representa la
dirección de red.

De igual manera, todos los bits de la máscara de subred que indican la porción de
red son “1”. Cuando se aplica la lógica AND a cada uno de estos “1” con el bit
correspondiente de la dirección, los bits resultantes son idénticos a los bits de dirección
originales.

APLICACIONES DE AND
Los routers y los dispositivos finales usan AND para calcular procesos de sobre
rutas, direcciones de red y de host.

Los routers usan AND para determinar una ruta aceptable para un paquete
entrante. El router verifica la dirección de destino e intenta asociarla con una ruta
conocida en su tabla de enrutamiento. Más específicamente, cuando llega un paquete a
un router, éste realiza el procedimiento de aplicación de AND entre la dirección IP de
destino en el paquete entrante y la máscara de subred, esta operación arrojara
información sobre la dirección de red destino. Esta dirección de red luego se compara con
las rutas de la tabla de enrutamiento del router para buscar alguna coincidencia con
relación a la red destino. Si existen coincidencias, el router enviara al paquete a un
siguiente salto o si esta directamente conectada la red destino a una de sus interfaces
físicas solamente se enruta en paquete a esa interfaz conectada a la red. Si no existen
coincidencias el paquete se descarta.

Un host de origen debe determinar si un paquete debe ser directamente enviado a


un host en la red local o si debe ser dirigido al router. Para tomar esta determinación, un
host primero debe conocer su propia dirección de red. Un host obtiene su dirección de red
al aplicar la lógica AND a la dirección IP con la máscara de subred. La lógica AND también
es llevada a cabo por un host de origen entre la dirección de destino del paquete y la
máscara de subred de este host. Esto produce la dirección de red de destino. Si esta
dirección de red coincide con la dirección de red del host local, el paquete es
directamente enviado al host de destino. Si las dos direcciones de red no coinciden, el
paquete es enviado al router.

A continuación veamos un ejemplo de operación AND en la red.


Aplicación de mascara de subred a un dispositivo con la dirección 172.160.100.6
que pertenece a la red 172.160.0.0, veamos como determinar la dirección de red a partir
de la dirección IP y la máscara de subred:

1 AND 1 = 1
Centremos nuestra atención en las operaciones AND que
tienen 1 en la dirección IP y 1 en la máscara de subred, (Figura: 137)
estas operaciones se encuentran resaltadas, el resultado
de esta operación es 1 y se refleja en la dirección de red.

1 AND 0 = 0 y 0 AND 1 = 0
Ahora centremos nuestra atención en las operaciones AND
que tienen 0 en la dirección IP ó 0 en la máscara de subred, (Figura: 138)
estas operaciones se encuentran resaltadas, el resultado
de la operación entre un 1 un 0 es siempre 0.
0 AND 0 = 0
Ahora centremos nuestra atención en las operaciones AND
que tienen 0 en la dirección IP y 0 en la máscara de subred, (Figura: 139)
estas operaciones se encuentran resaltadas, el resultado
de esta operación siempre 0.

En conclusión, cuando tengamos que realizar la operación AND en una dirección IP


con máscara de subred, tenga en cuenta 5 cosas:

1) Convierta de decimal a binario las direcciones IP y la máscara.


2) Este proceso se realiza bit a bit entre la dirección IP y la máscara.
3) Los bits en “1” de la máscara, reflejaran los bits “1” y “0” de la dirección IP
sobre la dirección de red.
4) Los bits en “0” de la máscara, reflejaran siempre “0” en la dirección de red, sin
importar los valores de los bits en la dirección IP.
5) El resultado final de esta operación es hallar la dirección de red a la cual
pertenece una dirección IP.

Antes de continuar en este manual, se recomienda hacer un repaso sobre la


conversión de decimal a binario y viceversa, realice ejercicios suficientes para que de esta
manera la comprensión de la siguiente sección sea menos complicada ya que exige la
habilidad de cálculo.
4.2- Calculo de sub-red.
Una subred se refiere a la creación de una o varias redes dentro de una red. La
división en subredes permite crear múltiples redes lógicas de un solo bloque de
direcciones. Un bloque de direcciones se refiere a las direcciones classfull o con clase
vistas en la sección anterior.

RAZONES PARA CREAR SUBREDES

Las clases de direcciones IP ofrecen de 254 a casi 16,8 millones de Hosts, como se
muestra en la figura a continuación. Para administrar de forma eficiente un número
limitado de direcciones IP, todas las clases pueden subdividirse en subredes más
pequeñas.

(Figura: 140)

Además de la necesidad de contar con flexibilidad en la administración, la división


en subredes permite que el administrador de la red brinde contención de broadcast y
seguridad de bajo nivel en la LAN. La división en subredes ofrece algo de seguridad ya que
el acceso a las otras subredes está disponible solamente a través de los servicios de un
Router. Por lo tanto, cada subred se considera un segmento de LAN distinto.

PRINCIPIOS BÁSICOS DE DIVISIÓN EN SUBREDES

Creamos las subredes utilizando uno o más de los bits del host como bits de la red.
Esto se hace ampliando la máscara para tomar prestado algunos de los bits de la porción
de host de la dirección, a fin de crear bits de red adicionales. Cuanto más bits de host se
usen, mayor será la cantidad de subredes que puedan definirse. Para cada bit que se tomó
prestado, se duplica la cantidad de subredes disponibles. Por ejemplo: si se toma prestado
1 bit, es posible definir 2 subredes. Si se toman prestados 2 bits, es posible tener 4
subredes. Sin embargo, con cada bit que se toma prestado, se dispone de menos
direcciones host por subred.

La selección del número de bits a utilizar en el proceso de división en subredes


dependerá del número máximo de Hosts que se requiere por subred. Es necesario tener
una buena comprensión de la matemática binaria básica y del valor de posición de los bits
en cada octeto para calcular el número de subredes y Hosts creados cuando se pide bits
prestados.

BITS PEDIDOS 1 2 3 4 5 6 7 8
VALOR 128 64 32 16 8 4 2 1

(Figura: 141)

Los últimos dos bits del último octeto nunca se asignen a la subred, sea cual sea la
clase de dirección IP. Estos bits se denominan los bits menos significativos de la dirección.
El uso de todos los bits disponibles para crear subredes, excepto los menos significativos,
dará como resultado subredes con sólo dos Hosts utilizables.

PREFIJO DE RED /25 /26 /27 /28 /29 /30 N/A N/A
MASCARA 128 192 224 240 248 252 N/A N/A
BITS PEDIDOS 1 2 3 4 5 6 7 8
VALOR 128 64 32 16 8 4 2 1
N/A = No Aplica.
(Figura: 142)

FORMATO DE BARRA DIAGONAL (PREFIJO DE RED):


Al expresar una dirección de red IPv4, se agrega una longitud de prefijo a la
dirección de IP. La longitud de prefijo es la cantidad de bits en la dirección que conforma
la porción de red. Es equivalente a la máscara de la dirección IP, pero con una forma más
fácil de escribirla y recordarla. Por ejemplo: en una dirección 172.16.4.0 con mascara
255.255.255.0, sería lo mismo decir 172.16.4.0/24, /24 es la longitud de prefijo e indica
que los primeros 24 bits de la dirección IP son de la porción de red. El prefijo asignado
puede variar de acuerdo con la cantidad de hosts de la red. Tener un número de prefijo
diferente cambia el rango de host y la dirección de broadcast para cada red.
Como ya se menciono anteriormente, la máscara de subred provee al Router la
información necesaria para determinar en qué red y subred se encuentra un Host
determinado. La máscara de subred se crea mediante el uso de “unos” binarios a la
derecha de los bits de la porción de red. Los bits de subred se determinan mediante la
suma de los valores de las posiciones donde se colocaron estos bits. Por ejemplo: Si se
pidieron prestados tres bits de la porción de host de una dirección clase C, la máscara de
subred quedaría como: 255.255.255.224. Esta máscara se puede representar usando el
prefijo de red como: /27. Este último valor representa los 24 bits de red de una dirección
clase C, sumado a los 3 bits para la subred que fueron “pedidos” de la porción de host.
Veamos esto en la siguiente figura.

(Figura: 143)

FÓRMULA PARA CALCULAR SUBREDES Y CANTIDAD DE HOST

Use esta fórmula para calcular la cantidad de subredes:

2n = cantidad de subredes
Donde (n): es la cantidad de bits que se tomaran prestados de la porción de host.
EJEMPLO:
Calcule el número de bits que se necesitan para crear 4 subredes.
Solución:
22 = 4 Subredes
Se necesitan solo 2 bits de la porción de host de un bloque de direcciones para la
creación de 4 subredes.

Use esta fórmula para calcular la cantidad de host:

2n – 2= cantidad de host por subred


Donde (n): es la cantidad de bits de la porción de host, el menos dos es por las
direcciones reservadas para el ID de subred y el broadcast de subred.

EJEMPLO:
En una dirección clase C se realizo un proceso de subred en la cual 2 de los bits de
la porción de host fueron pedidos para crear 4 subredes, calcule el número máximo de
host por subred.

Solución:
En el último octeto de una dirección clase C se utilizaron 2 bits de la porción
de host, por lo tanto de ese octeto quedan restantes 6 bits para Host, entonces:

26 – 2
32 – 2= 30
Son 30 direcciones de host utilizables por subred.

Esta es la esencia de los esquemas de direccionamiento de una red, se calculan la


cantidad de subredes y la cantidad de host por subred, el propósito es que cada subred
pueda pertenecer a un segmento lógico distinto dentro de una organización, por ejemplo:
un administrador de red puede asignar cada subred a un departamento diferente, de esta
manera cada departamento se encuentra lógicamente separado del otro (están en redes
distintas), es posible entonces lograr el control del flujo de datos en la red, establecer
mejoras en la administración de los recursos al crear políticas de acceso en el router y la
seguridad también puede ser reforzada segmentando los dominios de broadcast.
ESQUEMAS DE DIRECCIONAMIENTO

Un esquema de direccionamiento es una manera de identificar las distintas redes y


sus direcciones, este esquema proporciona al administrador de red una forma clara y
precisa sobre el uso de las direcciones en la red.

Veamos como ejemplo, un esquema de direccionamiento, en el cual un


administrador requiere tres subredes.

PASÓ 1: CÁLCULO DE LAS SUBREDES


Hace falta utilizar un bloque de direcciones, utilizaremos la siguiente dirección
clase C: 192.168.1.0/24. Ahora hace falta realizar el cálculo de subred necesario para
determinar las 3 subredes y sus direcciones.

n
Para el cálculo de subred utilizamos la formula: 2 = cantidad de subredes
Recuerde que necesitamos tres subredes y que para ello tomaremos bits de la
porción de host de la dirección de red. Entonces, ¿Cuantos bits serán?
21 = 2 Subredes
No podría utilizarse un solo bit ya que no obtendríamos la cantidad de subredes necesaria.

22 = 4 Subredes
Utilizando 2 bits de la porción de host obtendríamos 4 subredes, nos sobraría 1 subred
pero esta es la opción más aproximada a nuestro requerimiento, además esa dirección
que sobra se puede aprovechar en un futuro.

PASÓ 2: OBTENER LAS SUBREDES Y MASCARA DE SUBRED


Para obtener las subredes, se definen todas las combinaciones posibles con 2 bits.

Con dos bits se pueden hacer 4 combinaciones como máximo, con estas
combinaciones obtenemos distintas direcciones de subred, todas con una misma mascara
de subred en común que incluye a los 24 bits de la porción de la clase C sumado con los
dos bits tomados de la porción de host.

Esto se ilustra en las figuras 144 y 145 a continuación.


(Figura: 144)

Se obtiene también la nueva mascara de subred.

(Figura: 145)
Las direcciones de subred calculadas se muestran a continuación:

1) SUBRED 0 = 192.168.1.0/26
2) SUBRED 1 = 192.168.1.64/26
3) SUBRED 2 = 192.168.1.128/26
4) SUBRED 4 = 192.168.1.192/26

PASÓ 3: CÁLCULO DE LA CANTIDAD DE HOST POR SUBRED.


Los bits restantes para host son solo 6 por lo tanto al incluir este valor en la
formula obtenemos que:

2n – 2= cantidad de host por subred


Donde (n) = 6

26 – 2 = 62
62 host por subred.

De esta manera finalizamos el cálculo y podemos representar las subredes y el


esquema de direccionamiento como se muestra a continuación.

(Figura: 146)
ESQUEMA DE DIRECCIONAMIENTO
DIRECCIÓN DE
SUBRED DIRECCIÓN DE RED RANGO DE HOST
BROADCAST
0 192.168.1.0 /26 192.168.1.1 – 192.168.1.62 192.168.1.63 /26
1 192.168.1.64 /26 192.168.1.65 – 192.168.1.126 192.168.1.127 /26
2 192.168.1.128 /26 192.168.1.129 – 192.168.1.190 192.168.1.191 /26
3 192.168.1.192 /26 192.168.1.193 – 192.168.1.254 192.168.1.255 /26
(Figura: 147)

Vamos a considerar ahora un ejemplo con 6 subredes, 5 subredes para


direccionamiento LAN y una subred para un enlace entre routers, nos basaremos en la
misma dirección que en el ejemplo anterior.

PASÓ 1: CÁLCULO DE LAS SUBREDES


Para incluir 6 redes se usa la formula
2n = cantidad de subredes
23 = 8

Para obtener al menos 6 subredes, pida prestados tres bits de host. Una máscara de
subred 255.255.255.224 proporciona los tres bits de red adicionales.

Las combinaciones con tres bits generan 8 subredes distintas que se muestran a
continuación en el paso 2:

PASÓ 2: OBTENER LAS SUBREDES Y MASCARA DE SUBRED


1) SUBRED 0 = 192.168.1.0 /26
2) SUBRED 1 = 192.168.1.32 /26
3) SUBRED 2 = 192.168.1.64 /26
4) SUBRED 3 = 192.168.1.96 /26
5) SUBRED 4 = 192.168.1.128 /26
6) SUBRED 5 = 192.168.1.160 /26
7) SUBRED 6 = 192.168.1.192 /26
8) SUBRED 7 = 192.168.1.224 /26

PASÓ 3: CÁLCULO DE LA CANTIDAD DE HOST POR SUBRED.


Los bits restantes para host son solo 5 por lo tanto al incluir este valor en la
formula obtenemos que:
2n – 2= cantidad de host por subred
Donde (n) = 5

25 – 2 = 30
30 host por subred.

De esta manera finalizamos el cálculo y podemos representar las subredes y el


esquema de direccionamiento como se muestra a continuación.

(Figura: 148)
ESQUEMA DE DIRECCIONAMIENTO
DIRECCIÓN DE
SUBRED DIRECCIÓN DE RED RANGO DE HOST
BROADCAST
0 192.168.1.0 /27 192.168.1.1 – 192.168.1.30 192.168.1.31 /27
1 192.168.1.32 /27 192.168.1.33 – 192.168.1.62 192.168.1.63 /27
2 192.168.1.64 /27 192.168.1.65 – 192.168.1.94 192.168.1.95 /27
3 192.168.1.96 /27 192.168.1.97 – 192.168.1.126 192.168.1.127 /27
4 192.168.1.128 /27 192.168.1.129 – 192.168.1.158 192.168.1.159 /27
5 192.168.1.160 /27 192.168.1.161 – 192.168.1.190 192.168.1.191 /27
6 192.168.1.192 /27 192.168.1.193 – 192.168.1.222 192.168.1.223 /27
7 192.168.1.224 /27 192.168.1.225 – 192.168.1.254 192.168.1.255 /27
(Figura: 149)
5.1- Introduccion al funcionamiento del router.
Un router conecta una red con otra red, por lo tanto, el router es responsable del
enrutamiento y la entrega de paquetes a través de diferentes redes. El destino de un
paquete IP puede ser un servidor Web en otro país o un servidor de correo electrónico en
la red de área local. Es responsabilidad de los routers entregar esos paquetes a su debido
tiempo.

Un router conecta múltiples redes. Esto significa que tiene varias interfaces, cada
una de las cuales pertenece a una red IP diferente. Cuando un router recibe un paquete IP
en una interfaz, determina qué interfaz usar para enviar el paquete hacia su destino. La
interfaz que usa el router para enviar el paquete puede ser la red del destino final del
paquete (la red con la dirección IP de destino de este paquete), o puede ser una red
conectada a otro router que se usa para alcanzar la red de destino.

Las interfaces de router pueden dividirse en dos grupos principales:

 Interfaces LAN, como Ethernet y Fast-Ethernet. La interfaz Ethernet del router


normalmente usa un jack RJ-45 que admite un cableado de par trenzado no
blindado (UTP).
 Interfaces WAN, como serial, ISDN y Frame Relay. Las interfaces WAN se usan para
conectar los routers a redes externas, generalmente a través de distancias
geográficas mucho mayores.

La principal responsabilidad de un router es dirigir los paquetes destinados a redes


locales y remotas al:

 Determinar la mejor ruta para enviar paquetes


 Enviar paquetes hacia su destino

INTRODUCCIÓN A LA TABLA DE ENRUTAMIENTO DEL ROUTER

Una tabla de enrutamiento es similar a una base de datos en la que el router


almacena información sobre rutas. El router utiliza una tabla de enrutamiento para
determinar la mejor ruta para reenviar el paquete. Cuando el router recibe un paquete,
examina su dirección IP de destino y busca la mejor coincidencia con una dirección de red
en la tabla de enrutamiento del router. La tabla de enrutamiento también incluye la
interfaz que se utilizará para enviar el paquete. Cuando se encuentra una coincidencia, el
router encapsula el paquete IP en la trama de enlace de datos de la interfaz de salida.
Luego, el paquete se envía hacia su destino. La siguiente figura muestra un ejemplo de la
tabla de enrutamiento de un router el cual posee varias rutas tanto directamente
conectadas como remotas.

(Figura: 150)

Vamos a resaltar algunos aspectos de la figura anterior. Por ejemplo:

Podemos ver en la tabla de enrutamiento el origen de las rutas, si estas son rutas
directamente conectadas o remotas.

(Figura: 151)

Puede ser apreciada la dirección IP y mascara de red o subred.

(Figura: 152)
Y por ultimo podemos también descifrar información sobre la interfaz de salida
asociada a una determinada ruta.

(Figura: 153)

Una red conectada directamente es una red que está directamente vinculada a una
de las interfaces del router. Cuando se configura una interfaz de router con una dirección
IP y una máscara de subred, la interfaz pasa a ser un host en esa red. La dirección de red y
la máscara de subred de la interfaz, junto con el número y el tipo de interfaz, se ingresan
en la tabla de enrutamiento como una red conectada directamente.

Una red remota es una red que no está directamente conectada al router. En otras
palabras, una red remota es una red a la que sólo se puede llegar mediante el envío del
paquete a otro router. Las redes remotas se agregan a la tabla de enrutamiento mediante
el uso de un protocolo de enrutamiento dinámico o la configuración de rutas estáticas. Las
rutas dinámicas son rutas hacia redes remotas que fueron aprendidas automáticamente
por el router utilizando un protocolo de enrutamiento dinámico. Las rutas estáticas son
rutas hacia redes manualmente configuradas por un administrador de red. Ver ejemplo:

(Figura: 154)
5.2- Enrutamiento de paquetes IP.
El enrutamiento IP es un concepto relativamente simple. Cuando un equipo tiene
que enviar una trama a otro, primero comprueba si la dirección IP del destinatario
pertenece a su propia red y, si es el caso, le envía la trama directamente. Sin embargo, si
la dirección IP de destino pertenece a una red distinta, el equipo se limita simplemente a
enviar la trama a su puerta de enlace predeterminada o Gateway de la red, que en
nuestro caso es un router que dispone al menos de dos interfaces para interconectar dos
redes o mas. Para poder enviarle la trama, el equipo remitente debe conocer la dirección
MAC del router, una tarea de la que se encarga, como ya es sabido, el protocolo ARP.

Una vez que el router recibe la trama, la desencapsula y extrae la dirección IP de la


red de destino. A continuación, el router examina su tabla de enrutamiento para buscar la
mejor coincidencia y decidir dónde tiene que reenviar los datos. Cada ruta de esta tabla
está compuesta por las direcciones IP de una red de destino y de próximo salto. La
dirección de próximo salto es la dirección de otro equipo conectado en la misma red a
través del cuál se puede acceder a esa red. Con la topología de red de la Figura 155,
observe que por cada dominio de broadcast existe una dirección de Gateway.

(Figura: 155)
PAQUETES IP: CÓMO LLEVAR DATOS DE EXTREMO A EXTREMO

Como ya sabemos, la función de la capa de Red es transferir datos desde el host


que los origina hacia el host destino de los mismos. Durante la encapsulación en el host
origen, un paquete IP se construye en la Capa 3 para transportar el PDU de la Capa 4. Si el
host de destino está en la misma red que el host de origen, el paquete se envía entre dos
hosts en el medio local sin la necesidad de un router.

Sin embargo, si el host destino y el host origen no están en la misma red o subred,
el paquete puede llevar una PDU de la capa de Transporte a través de muchas redes y
muchos routers. Si es así, la información que contiene no está alterada por ningún router
cuando se toman las decisiones de envío.

En cada salto, las decisiones de envío están basadas en la información del


encabezado del paquete IP. El paquete con su encapsulación de capa de Red también se
mantiene básicamente intacto a través de todo el proceso desde el host de origen hasta el
host de destino.

Si la comunicación se produce entre dos hosts de diferentes redes, la red local


envía el paquete desde el host origen hasta su Gateway. El router examina la porción de
red de la dirección de destino del paquete y envía el paquete a la interfaz adecuada. Si la
red de destino está conectada directamente a este router, el paquete es enviado
directamente a ese host. Si la red de destino no está conectada directamente, el paquete
es enviado a un segundo router, que es el router del siguiente salto. El paquete que se
envía pasa a ser responsabilidad de este segundo router. Muchos routers o saltos a lo
largo del camino puede procesar el paquete antes de llegar a destino.

Observe la siguiente figura a continuación, allí se muestra un ejemplo grafico de lo


descrito anteriormente, en el que un host ubicado en la red 192.168.10.0 /24 envía un
paquete a un host destino ubicado en la red 192.168.20.0 /24.
(Figura: 156)

(Figura: 157)
(Figura: 158)

(Figura: 159)
(Figura: 160)

(Figura: 161)
GATEWAY = SALIDA DE NUESTRA RED

El router en una red, es considerado también el Gateway por defecto y es


necesario al querer enviar un paquete fuera de la red de área local. Si la porción de red de
la dirección destino del paquete es diferente de la red del host origen, el paquete tiene
que hallar la salida fuera de la red original. Para esto el paquete es entregado al Gateway.
El Gateway es una interfaz del router conectado a la red local. La interfaz del Gateway
tiene una dirección de capa de red que concuerda con la dirección de red de los host. Los
host en una red están configurados para reconocer la dirección de Gateway de la LAN.

GATEWAY POR DEFECTO = PUERTA DE ENLACE PREDETERMINADA


El Gateway por defecto está configurado en un host. En una computadora con
Windows, que sigue siendo por ahora el sistema operativo más popular entre los usuarios,
se usan las herramientas de las propiedades del protocolo internet (TCP/IP) para ingresar
la dirección IPv4 del Gateway por defecto. Tanto la dirección IPv4 del host como la
dirección del Gateway deben estar incluidas en la misma porción de red (o subred si se
utiliza) de sus respectivas direcciones.

En la siguiente figura se proporciona un ejemplo de configuración de un host para


formar parte de una LAN, al host en cuestión se le deben configurar los parámetros de la
dirección IPv4, mascara de red o subred y Gateway por defecto. En este ejemplo se
ilustraran las configuraciones bajo el ambiente de Windows para acceder a las
propiedades de TCP/IP.

(Figura: 162)
DESCRIPCIÓN DE ENRUTADO

Un protocolo enrutado permite que un Router envíe datos entre nodos de


diferentes redes. Para que un protocolo sea enrutable, debe admitir la capacidad de
asignar a cada dispositivo individual un número de red y uno de Host. Por ejemplo en el
protocolo IP se requiere que en una dirección completa se especifique la porción de red y
la porción de Host. Estos protocolos también necesitan una máscara de red para
diferenciar estos dos números. La dirección de red, como ya sabemos, se obtiene al
realizar la operación "AND" con la dirección y la máscara de red.

La razón por la que se utiliza una máscara de red es para permitir que grupos de
direcciones IP secuenciales sean considerados como una sola unidad. Si no se pudiera
agrupar, cada Host tendría que mapearse de forma individual para realizar el
enrutamiento.

El Protocolo Internet (IP) es la implementación más popular de un protocolo


enrutado, este protocolo posee un esquema de direccionamiento de red jerárquico. IP es
un protocolo de entrega no orientado a la conexión, poco confiable y de máximo esfuerzo.
El término no orientado a la conexión significa que no se establece ningún circuito de
conexión dedicado antes de la transmisión, como sí lo hay cuando se establece una
comunicación telefónica. IP determina la ruta más eficiente para los datos basándose en el
protocolo de enrutamiento. Los términos poco confiables y de máximo esfuerzo no
implican que el sistema no sea confiable y que no funcione bien; más bien significan que
IP no verifica que los datos lleguen a su destino (esta es tarea de TCP a nivel de capa 4). La
verificación de la entrega no siempre se lleva a cabo.

DESCRIPCIÓN DEL ENRUTAMIENTO

La capa de red es la encargada de proveer los servicios para dirigir los paquetes al
host destino. Los host de origen y destino no siempre están conectados a la misma red. En
realidad, el paquete podría recorrer muchas redes diferentes. A lo largo de la ruta, cada
paquete debe ser guiado a través de la red para que llegue a su destino final. Los
dispositivos intermediarios que conectan las redes son los routers. La función del router es
seleccionar las rutas y dirigir paquetes hacia su destino. A este proceso se lo conoce como
enrutamiento.

Durante el enrutamiento a través de una internetwork, el paquete puede recorrer


muchos dispositivos intermediarios. A cada ruta que toma un paquete para llegar al
próximo dispositivo se la llama salto. A medida que el paquete es enviado, su contenido
(la PDU de la Capa de transporte) permanece intacto hasta que llega al host destino.

La red de destino puede estar ubicada un número de routers o saltos fuera del
Gateway de la red. La ruta hacia la red destino sólo indicaría el router del siguiente salto al
cual el paquete debe reenviarse, no el router final. El proceso de enrutamiento usa una
ruta para asignar una dirección de red de destino hacia el próximo salto y luego envía el
paquete hacia esta dirección del próximo salto. Veamos la siguiente figura que ilustra la
tabla de enrutamiento de un router local para conocer redes remotas y tomar decisiones
sobre rutas que debe seguir un paquete.

(Figura: 163)

ENRUTADO COMPARADO CON ENRUTAMIENTO

Los protocolos usados en la capa de red que transfieren datos de un Host a otro a
través de un Router se denominan protocolos enrutados o enrutables. Los protocolos
enrutados transportan datos a través de la red. Los protocolos de enrutamiento permiten
que los Routers elijan la mejor ruta posible para los datos desde el origen hasta el destino.

Los Routers utilizan los protocolos de enrutamiento para intercambiar las tablas de
enrutamiento y compartir la información de enrutamiento. En otras palabras, los
protocolos de enrutamiento permiten enrutar protocolos enrutados.
PROCESOS DE ENRUTAMIENTO

El enrutamiento es fundamental para cualquier red de datos, ya que transfiere


información a través de una internetwork de origen a destino. Los routers son dispositivos
que se encargan de transferir paquetes de una red a la siguiente.

Como se vio en la sección anterior, los routers aprenden sobre redes remotas ya
sea de manera dinámica, utilizando protocolos de enrutamiento, o de manera manual,
utilizando rutas estáticas. En muchos casos, los routers utilizan una combinación de
protocolos de enrutamiento dinámico y rutas estáticas.

ENRUTAMIENTO ESTÁTICO:
Las rutas estáticas son muy comunes y este tipo de enrutamiento se usa para
señalar un destino remoto en un router de forma manual, el administrador de la red debe
ser quien establezca una a una las rutas en la tabla de enrutamiento. Algunas veces los
routers poseen una conexión única fuera de la LAN a estas rutas se le configuran como
rutas estáticas por defecto, una ruta estática por defecto indica al router donde enviar un
paquete que no posee ninguna coincidencia con las rutas de la tabla de enrutamiento, es
decir, es una salida predeterminada que poseen algunos routers para reenviar datos a
través de una interfaz especifica en los mismos que generalmente esta próxima a la red o
internet.

(Figura: 164)
Las ventajas del enrutamiento estático es que resulta una buena elección en redes
con un número de routers reducido. Ya que la configuración de las rutas estáticas es
sencilla, por lo tanto si la estructura o topología de red no es compleja, el uso del
enrutamiento estático es una opción ideal.

La principal desventaja de este tipo de enrutamiento es que no responde a los


cambios de la red, es decir, que si las rutas cambian, un administrador de red debe
reconfigurar en cada uno de los routers de la red la nueva ruta o el cambio de la misma.

ENRUTAMIENTO DINÁMICO:
Es esencial que todos los routers en una internetwork posean conocimiento
actualizado, no siempre es factible mantener la tabla de enrutamiento por configuración
estática manual. Por eso, se utilizan los protocolos de enrutamiento dinámico.

Los protocolos de enrutamiento son un conjunto de reglas por las que los routers
comparten dinámicamente la información de su tabla de enrutamiento. Cuando un router
recibe información sobre rutas nuevas o modificadas, actualiza su propia tabla de
enrutamiento y, a su vez, pasa la información a otros routers. De esta manera, todos los
routers cuentan con tablas de enrutamiento actualizadas dinámicamente y pueden
aprender sobre las rutas a redes remotas en las que se necesitan muchos saltos para
llegar.

Entre los protocolos de enrutamiento dinámico mas comunes se incluyen:


• Protocolo de información de enrutamiento (RIP).
• Protocolo de enrutamiento de Gateway interior mejorado (EIGRP).
• Open Shortest Path First (OSPF).

Aunque los protocolos de enrutamiento dinámico proveen a los routers la


posibilidad de mantener las tablas de enrutamiento actualizadas, existen costos. Primero,
el intercambio de información sobre rutas agrega una sobrecarga que consume el ancho
de banda adicional en la red. Esta sobrecarga puede llegar a ser un problema,
particularmente para los enlaces del ancho de banda reducido entre routers. Segundo, la
información de la ruta que recibe un router es procesada constantemente para realizar la
configuración automática de las tablas de enrutamiento. Esto significa que los routers que
emplean estos protocolos deben tener suficiente capacidad de procesamiento como para
implementar los algoritmos del protocolo para realizar el enrutamiento oportuno del
paquete y enviarlo.
El enrutamiento estático por su parte no produce sobrecarga de la red ni ubica
entradas en la tabla de enrutamiento de otros routers de manera automática, por lo tanto
el router no necesita ningún tipo de procesamiento. El costo para un enrutamiento
estático es solo administrativo.

En la siguiente figura se muestra un ejemplo de la operación de los protocolos de


enrutamiento dinámico:

(Figura: 165)
¿CUÁNTO CUESTA UNA RUTA?

Los algoritmos de enrutamiento utilizan métricas distintas para determinar el


menor costo a una red destino. Es decir, una métrica de enrutamiento es un método por
el cual un router determina que ruta es mejor que otra para llegar a una red destino, para
lograr esto el mismo considera información sobre: ancho de banda, numero de saltos,
fiabilidad, retardo y costo administrativo. Un algoritmo de enrutamiento guardara en la
tabla de enrutamiento del router la mejor ruta a un destino basado siempre en el valor su
métrica mas baja.

5.3- Protocolos de enrutamiento por vector-distancia.


Los protocolos de enrutamiento dinámico pueden ayudar a simplificar la vida del
administrador de redes. El enrutamiento dinámico hace innecesario el exigente y
prolongado proceso de configurar rutas estáticas. El enrutamiento dinámico también hace
posible que los routers se adapten a los cambios de la red y que ajusten sus tablas de
enrutamiento en consecuencia, sin la intervención del administrador de redes.

En el protocolo de vector-distancia, las actualizaciones de las tablas de


enrutamiento se hacen periódicamente, o cuando cambia la topología de la red. Es
importante que un protocolo de enrutamiento sea eficiente en su tarea de actualizar las
tablas de enrutamiento. Al igual que en el proceso de descubrimiento de la red, las
actualizaciones de cambio de topología se producen de forma sistemática de un router a
otro. Los algoritmos de vector-distancia requieren que cada router envíe toda la tabla de
enrutamiento a cada uno de sus vecinos adyacentes. Las tablas de enrutamiento incluyen
información acerca del costo total de la ruta (definido por su métrica) y la dirección lógica
del primer router en la ruta hacia cada una de las redes indicadas en la tabla.

Entre los protocolos de enrutamiento por vector distancia más conocidos se


encuentran: el Protocolo de información de enrutamiento RIP (Route Information
Protocol) y el Protocolo de Enrutamiento de Gateway Interior IGRP (Internal Gateway
Route Protocol).

El Protocolo de información de enrutamiento (RIP) es un protocolo de


enrutamiento por vector-distancia, en uso en miles de redes en todo el mundo. El hecho
que RIP se base en estándares abiertos y que sea de fácil implementación hace que
resulte atractivo para algunos administradores de redes, aunque RIP carece de la
capacidad y de las características de los protocolos de enrutamiento más avanzados. Por
su simplicidad, RIP es un buen protocolo de iniciación para pequeñas redes.

Al igual que RIP, el Protocolo de enrutamiento de gateway interior (IGRP) es un


protocolo de enrutamiento por vector-distancia. A diferencia de RIP, IGRP es un protocolo
propietario de la empresa CISCO y no un protocolo basado en estándares públicos.
Aunque es muy fácil de implementar, IGRP es un protocolo de enrutamiento más
complejo que RIP. Es capaz de utilizan diversos factores para determinar la mejor ruta
hacia la red de destino.

Protocolo RIP

RIP es el protocolo de enrutamiento por vector de distancia más antiguo. Si bien


RIP carece de la sofisticación de los protocolos de enrutamiento más avanzados, su
simplicidad y amplia utilización en forma continua representan el testimonio de su
persistencia. RIP no es un protocolo "en extinción". De hecho, se cuenta ahora con un tipo
de RIP de IPv6 llamado RIPng (próxima generación).

RIP evolucionó de un protocolo anterior desarrollado en Xerox, llamado Protocolo


de información de gateway (GWINFO). Con el desarrollo de Xerox Network System (XNS),
GWINFO evolucionó a RIP. Luego, adquirió popularidad ya que se implementó en la
Distribución del Software Berkeley (BSD) como un daemon denominado routed. A la
primera versión de RIP se la denomina generalmente RIPv1 para distinguirla de RIPv2. Sin
embargo, ambas versiones comparten muchas funciones similares.

CARACTERÍSTICAS SOBRE RIP:


 RIP es un protocolo de enrutamiento por vector distancia.
 RIP utiliza el conteo de saltos como su única métrica para la selección de
rutas.
 Las rutas publicadas con conteos de saltos mayores que 15 se consideran
inalcanzables.
 Con RIP se envían mensajes a la red cada 30 segundos.
 La porción de datos de un mensaje de RIP se encapsula en un segmento
UDP, con los números de puerto origen y destino establecidos en 520.
 El encabezado IP y los encabezados de enlace de datos agregan direcciones
de destino de broancast antes de enviar el mensaje a todas las interfaces
configuradas con RIP.
 La distancia administrativa (grado de conocimiento y confiabilidad) máxima
es de 120.

RIP evita los bucles de enrutamiento prolongados de forma indefinida, mediante la


fijación de un límite en el número de saltos permitido en una ruta, desde su origen hasta
su destino. El número máximo de saltos permitido en una ruta es de 15. Cuando un router
recibe una actualización de enrutamiento que contiene una entrada nueva o cambiada, el
valor de la métrica aumenta en 1, para incluir el salto correspondiente a sí mismo. Si este
aumento hace que la métrica supere la cifra de 15, se considera que es infinita y la red de
destino se considera fuera de alcance.

(Figura: 166)

En la figura anterior se observa la encapsulación de un mensaje RIP. Fíjese que


para RIPv1, las direcciones destino son broadcast.

Funcionamiento de RIP

PROCESO DE SOLICITUD / RESPUESTA DE RIP


RIP utiliza dos tipos de mensajes especificados en el campo comando:
 Mensaje solicitud.
 Mensaje respuesta.
Cuando RIP se inicia, envía un mensaje a cada uno de sus vecinos (a través del
puerto 520) pidiendo una copia de la tabla de encaminamiento del vecino. Este mensaje
es una solicitud (el campo "comando" se pone a 1). Los routers vecinos devuelven una
copia de sus tablas de encaminamiento, entonces el router de inicio empieza a llenar su
propia tabla de enrutamiento con las rutas de menor costo hacia las redes remotas.

Cuando RIP está en modo activo envía toda o parte de su tabla de encaminamiento
a todos los vecinos por broadcast. Esto se hace cada 30 segundos. La tabla de
encaminamiento se envía en forma de respuesta, por lo tanto el mensaje RIP lleva el
campo comando en “2”, aun que no haya habido petición.

Cuando RIP descubre que una métrica ha cambiado, la difunde por broadcast a los
demás routers. Este proceso es una actualización de la tabla de enrutamiento y debe
realizarse dicha actualización en todas las tablas de enrutamiento de los router vecinos, el
tiempo que dura este proceso de actualización se conoce como convergencia de la red, es
decir el tiempo en el que se lleva a cabo el proceso mediante el cual todos los routers de
la red poseen la misma información en sus tablas de enrutamiento.

Cuando RIP recibe una respuesta, el mensaje se valida y la tabla local se actualiza si
es necesario. Para mejorar el rendimiento y la fiabilidad, RIP especifica que una vez que un
router a aprendido una ruta de otro, debe guardarla hasta que conozca una mejor (de
coste estrictamente menor). Esto evita que los routers oscilen entre dos o más rutas de
igual coste.

Las rutas que RIP aprende de otros routers expiran a menos que se vuelvan a
difundir en 180 segundos (6 ciclos de broadcast). Cuando una ruta expira, su métrica se
pone a infinito, la invalidación de la ruta se difunde a los vecinos, y 60 segundos más
tarde, se borra de la tabla de enrutamiento.

En la actualidad existen tres versiones diferentes de RIP, las cuales son:

 RIPv1: No soporta subredes. Tampoco incluye ningún mecanismo de


autentificación de los mensajes. No se usa actualmente. Su especificación
está recogida en el RFC 1058. Es un protocolo de routing con clase.
 RIPv2: Soporta subredes, CIDR y VLSM. Soporta autenticación utilizando
uno de los siguientes mecanismos: no autentificación, autentificación
mediante contraseña, autentificación mediante contraseña codificada
mediante MD5 (desarrollado por Ronald Rivest). Su especificación está
recogida en RFC 1723 y en RFC 2453.
 RIPng: RIP para IPv6. Su especificación está recogida en el RFC 2080.
 También existe un RIP para IPX, que casualmente lleva el mismo acrónimo,
pero no está directamente relacionado con el RIP para redes IP, ad-hoc.

VENTAJAS E INCONVENIENTES
Ventajas de RIP
 RIP es más fácil de configurar (comparativamente a otros protocolos).
 Es un protocolo abierto (admite versiones derivadas aunque no
necesariamente compatibles).
 Es soportado por la mayoría de los fabricantes.

Desventajas de RIP
 Su principal desventaja, consiste en que para determinar la mejor métrica,
únicamente toma en cuenta el número de saltos, descartando otros
criterios como: Ancho de banda, congestión y retardo).
 RIP tampoco está diseñado para resolver cualquier posible problema de
encaminamiento. El RFC 1720 (STD 1) describe estas limitaciones técnicas
de RIP como graves y el IETF está evaluando candidatos para reemplazarlo
en que OSPF es el favorito. Este cambio, está dificultado por la amplia
expansión de RIP y necesidad de acuerdos adecuados.

Protocolo IGRP

IGRP es un protocolo de enrutamiento de gateway interior (IGP) por vector-


distancia. Los protocolos de enrutamiento por vector-distancia comparan
matemáticamente las rutas al medir las distancias. Dicha medición se conoce como
vector-distancia. Los routers que usan los protocolos de vector-distancia deben enviar
toda o parte de su tabla de enrutamiento en un mensaje de actualización de
enrutamiento, a intervalos regulares y a cada uno de sus routers vecinos. A medida que se
propaga la información de enrutamiento por toda la red, los routers realizan las siguientes
funciones:
• Identificar nuevos destinos.
• Conocer de fallas.

IGRP es un protocolo de enrutamiento de vector-distancia desarrollado por el


gigante en el mundo de las redes: Cisco. IGRP envía actualizaciones de enrutamiento a
intervalos de 90 segundos, las cuales publican las redes de un sistema autónomo en
particular. Las características claves de IGRP son las siguientes:
• La versatilidad para manejar automáticamente topologías indefinidas y
complejas.
• La flexibilidad necesaria para segmentarse con distintas características de
ancho de banda y de retardo.
• La escalabilidad para operar en redes de gran tamaño

Por defecto, el protocolo de enrutamiento IGRP usa el ancho de banda y el retardo


como métrica. Además de eso, IGRP puede configurarse para utilizar una combinación de
variables para calcular una métrica compuesta.

Esta métrica compuesta es más precisa que la métrica del número de saltos que
usa RIP para elegir una ruta hacia un destino. La ruta de menor valor métrico es la mejor.

Las métricas que utiliza el protocolo IGRP son:


• Ancho de banda: el menor valor de ancho de banda en la ruta.
• Retardo: el retardo acumulado de la interfaz a lo largo de la ruta.
• Confiabilidad: la confiabilidad del enlace hacia el destino, según sea
determinada por el intercambio de mensajes de actividad (keepalives).
• Carga: la carga sobre un enlace hacia el destino, medida en bits por
segundos.

Vous aimerez peut-être aussi