Académique Documents
Professionnel Documents
Culture Documents
Visão Geral
O IP versão 4 (IPv4) ofereceu uma estratégia de endereçamento que, embora fosse escalável
durante certo tempo, resultou em uma alocação ineficiente de endereços. O IPv4 poderá logo
ser substituído pelo IP versão 6 (IPv6) como o protocolo dominante da Internet. O IPv6 possui
espaço de endereçamento virtualmente ilimitado e a sua implementação já começou em
algumas redes. Ao longo das últimas duas décadas, os engenheiros modificaram o IPv4, de
modo que ele possa sobreviver ao crescimento exponencial da Internet. A VLSM é uma das
modificações que tem ajudado a preencher a lacuna entre IPv4 e IPv6.
As redes precisam ser escaláveis, já que as necessidades dos usuários evoluem. Quando uma
rede é escalável, ela pode crescer de maneira lógica, eficiente e econômica. O protocolo de
roteamento usado em uma rede ajuda a determinar a escalabilidade da rede. É importante
escolher com prudência o protocolo de roteamento. O Routing Information Protocol versão 1
(RIP v1) serve bem para redes pequenas. No entanto, ele não é escalável para comportar
redes grandes. O RIP versão 2 (RIP v2) foi elaborado para superar essas limitações.
Este módulo cobre alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:
1.1 VLSM
1.1.1 O que é VLSM e por que ele é usado
Com o crescimento das sub-redes IP, os administradores têm procurado maneiras de usar o
seu espaço de endereços com mais eficiência. Esta página introduz uma técnica chamada
VLSM. Com VLSM, um administrador de rede pode usar uma máscara longa em redes com
poucos hosts, e uma máscara curta em sub-redes com muitos hosts.
3
Para implementar VLSM, um administrador de rede precisa usar um protocolo de roteamento
que o suporte. Os roteadores Cisco suportam VLSM com Open Shortest Path First (OSPF) IS-
IS Integrado, Enhanced Interior Gateway Routing Protocol (EIGRP), RIP v2 e roteamento
estático.
VLSM permite que uma organização utilize mais de uma máscara de sub-rede dentro do
mesmo espaço de endereço de rede. A implementação de VLSM maximiza a eficiência dos
endereços e freqüentemente é chamada de criação de sub-redes em uma sub-rede.
Os protocolos de roteamento classless exigem que uma rede utilize a mesma máscara de sub-
rede. Por exemplo, uma rede com um endereço 192.168.187.0 pode usar somente uma
máscara de sub-rede, tal como 255.255.255.0.
4
Um protocolo de roteamento que permite VLSM libera o administrador para usar diferentes
máscaras de sub-rede para redes dentro de um único sistema autônomo.
A Figura mostra um exemplo de como um administrador de rede pode usar uma máscara de 30
bits para conexões de redes, uma máscara de 24 bits para redes de usuários e até uma
máscara de 22 bits para redes de até 1000 usuários.
Esta página explicará como certos esquemas de endereçamento podem desperdiçar espaço
de endereços.
5
Na Figura , a equipe de gerenciamento da rede emprestou três bits da porção host de um
endereço Classe C, que foi selecionado para esse esquema de endereços. Se a equipe optar
por usar a sub-rede zero, haverá oito sub-redes utilizáveis. Cada sub-rede pode suportar 30
hosts. Se a equipe optar por usar o comando no ip subnet-zero, haverá sete sub-redes
utilizáveis com 30 hosts em cada sub-rede. Os roteadores com o Cisco IOS versão 12.0 ou
posterior usam a sub-rede zero por default.
Na Figura , os escritórios remotos Sydney, Brisbane, Perth e Melbourne podem ter 30 hosts
cada um. A equipe reconhece que será necessário endereçar os três links WAN ponto-a-ponto
entre Sydney, Brisbane, Perth e Melbourne. Se a equipe utilizar as últimas três sub-redes para
os links WAN, todos os endereços disponíveis serão utilizados e não haverá espaço para
crescimento. A equipe também terá desperdiçado os 28 endereços de host de cada sub-rede
só para endereçar três redes ponto-a-ponto. Esse esquema de endereçamento desperdiça um
terço do espaço de endereços em potencial.
Tal esquema de endereços é aceitável para uma rede local pequena. No entanto, ele gera
muito desperdício se forem usadas conexões ponto-a-ponto.
6
A próxima página explicará como VLSM pode ser usado para evitar o desperdício de
endereços.
Para aplicar VLSM ao problema de endereços, a equipe divide o endereço Classe C em sub-
redes de vários tamanhos. Sub-redes grandes são criadas para redes locais. Sub-redes muito
pequenas são criadas para links WAN e para outros casos especiais. Uma máscara de 30 bits
é utilizada para criar sub-redes com apenas dois endereços de host válidos. Esta é a melhor
solução para conexões ponto-a-ponto. A equipe tomará uma das três sub-redes que
anteriormente decidiu designar para links WAN e a dividirá novamente em sub-redes com uma
máscara de 30 bits.
No exemplo, a equipe tomou uma das últimas três sub-redes, a sub-rede 6, e a dividiu outra
vez em sub-redes. Desta vez, a equipe utiliza uma máscara de 30 bits.
7
As Figuras e ilustram que, depois de utilizar VLSM, a equipe dispõe de oito conjuntos de
endereços para serem usados para os links ponto-a-ponto.
VLSM ajuda a gerenciar endereços IP. Esta página explicará como usar VLSM para definir
máscaras de sub-rede que atendam aos requisitos do link ou segmento. Uma máscara de sub-
rede deve satisfazer aos requisitos de uma rede local com uma máscara de sub-rede e aos
requisitos de uma WAN ponto-a-ponto com outra.
8
O exemplo na Figura mostra uma rede que carece de um esquema de endereços.
O exemplo contém um endereço Classe B 172.16.0.0 e duas redes locais que exigem um
mínimo de 250 hosts cada uma. Se os roteadores usarem um protocolo de roteamento
classless, o link WAN precisará ser uma sub-rede da mesma rede Classe B. Os protocolos de
roteamento classful, tais como RIP v1, IGRP e EGP não suportam VLSM. Sem VLSM, o link
WAN precisaria da mesma máscara de sub-rede dos segmentos das redes locais. Uma
máscara de 24 bits de 255.255.255.0 pode suportar 250 hosts.
Um link WAN precisa apenas de dois endereços, um para cada roteador. Isso resulta em 252
endereços desperdiçados.
9
Se for usado o VLSM, uma máscara de 24 bits ainda seria aplicada nos segmentos LAN para
os 250 hosts. Uma máscara de 30 bits poderia ser usada para o link WAN, porque são
necessários apenas dois endereços de host.
A Figura mostra onde os endereços da sub-rede podem ser aplicados com base no número de
hosts exigidos. Os links WAN usam endereços de sub-rede com um prefixo de /30. Esse
prefixo comporta apenas dois endereços de host, que é exatamente o suficiente para a
conexão ponto-a-ponto entre os dois roteadores.
Para calcular os endereços de sub-rede usados nos links WAN, subdivida em novas sub-redes
uma das sub-redes /26 não usadas. Nesse exemplo, 172.16.33.0/26 é subdividida em novas
sub-redes com um prefixo /30. Isso fornece mais quatro bits de sub-rede e, portanto, 16 (24)
sub-redes para as WANs. A Figura ilustra como lidar com um sistema VLSM.
VLSM pode ser usado para dividir em sub-redes um endereço já dividido em sub-redes. Por
exemplo, considere o endereço de sub-rede 172.16.32.0/20 e uma rede que precisa de dez
endereços de host. Com esse endereço de sub-rede, existem 212 – 2 ou seja 4094 endereços
de host, a maioria dos quais será desperdiçada. Com VLSM, é possível dividir 172.16.32.0/20
em sub-redes para criar mais endereços de rede com um número menor de hosts por rede.
Quando 172.16.32.0/20 é dividido em 172.16.32.0/26, há um ganho de 26 ou seja 64 sub-redes.
Cada sub-rede pode suportar 26 – 2, ou seja 62 hosts.
10
Etapa 1 Escreva 172.16.32.0 em forma binária.
Etapa 2 Trace uma linha vertical entre o 20o e o 21o bits, conforme indicado na Figura . O limite
original da sub-rede foi /20.
Etapa 3 Trace uma linha vertical entre o 26o e o 27o bits, conforme indicado na Figura . O limite
original da sub-rede /20 é estendido mais seis bits à direita, o que resulta em /26.
Etapa 4 Calcule os 64 endereços de sub-rede com os bits entre as duas linhas verticais, do
menor para o maior valor. A figura mostra as primeiras cinco sub-redes disponíveis.
É importante lembrar-se de que somente sub-redes não utilizadas podem ser ainda divididas
em sub-redes. Se qualquer endereço de uma sub-rede for usado, essa sub-rede não poderá
ser dividido mais em sub-redes.
Na Figura , quatro números de sub-rede são usados nas redes locais. A sub-rede
172.16.33.0/26 não utilizada é subdividida em novas sub-redes para serem usadas nos links
WAN.
Quando VLSM for usado, é importante manter os números de sub-rede agrupados na rede
para permitir a agregação. Por exemplo, redes como 172.16.14.0 e 172.16.15.0 devem estar
perto uma da outra para que os roteadores possam transportar uma rota para 172.16.14.0/23.
11
A utilização de classless interdomain routing (CIDR) e VLSM impede o desperdício de
endereços e promove a agregação ou resumo de rotas. Sem o resumo de rotas, o roteamento
do backbone da Internet provavelmente teria entrado em colapso antes de 1997.
A Figura ilustra como o resumo de rotas reduz a carga ao longo do fluxo entre os roteadore.
Esta hierarquia complexa de redes e sub-redes de tamanhos variáveis é resumida em vários
pontos com um endereço de prefixo, até que toda a rede seja anunciada como uma só rota
agregada de 200.199.48.0/20. O resumo de rotas, ou super-rede, só será possível se os
roteadores de uma rede utilizarem um protocolo de roteamento classless tal como OSPF ou
EIGRP. Os protocolos de roteamento classless transportam um prefixo que consiste em um
endereço IP e uma máscara de bits, de 32 bits nas atualizações de roteamento. Na Figura , a
rota resumida que eventualmente chega ao provedor contém um prefixo de 20 bits comum a
todos os endereços dentro da organização. Esse endereço é 200.199.48.0/20 ou
11001000.11000111.0011. Para que o resumo funcione, os endereços precisam ser
cuidadosamente designados de maneira hieráquica de modo que os endereços resumidos
compartilhem os bits de ordem superior.
VLSM aumenta a flexibilidade do resumo de rotas porque utiliza os bits de ordem superior
compartilhados à esquerda, mesmo que as redes não sejam contíguas.
12
A Figura mostra que os endereços compartilham os primeiros 20 bits. Esses bits estão em
vermelho. O 21o bit não é o mesmo para todos os roteadores. Portanto, o prefixo para a rota
resumida terá 20 bits de comprimento. Isso é usado para calcular o número de rede da rota
resumida.
A Figura mostra que os endereços compartilham os primeiros 21 bits. Esses bits estão em
vermelho. O 22o bit não é o mesmo para todos os roteadores. Portanto, o prefixo para a rota
resumida terá 21 bits de comprimento. Isso é usado para calcular o número de rede da rota
resumida.
Esta página ensinará aos alunos como calcular e configurar corretamente VLSM.
13
• Endereço de rede: 192.168.10.0
• O roteador Perth precisa suportar 60 hosts. Isso significa que serão necessários pelo
menos seis bits na porção host do endereço. Seis bits resultarão em 26 – 2, ou seja, 62
possíveis endereços de host. A conexão de rede local do roteador Perth recebe a
designação da sub-rede 192.168.10.0/26.
• Os roteadores Sydney e Singapore precisam suportar 12 hosts cada um. Isso significa
que serão necessários pelo menos quatro bits na porção host do endereço. Quatro bits
resultarão em 24 – 2, ou seja, 14 possíveis endereços de host. Para a conexão de rede
local do roteador Sydney, é designada a sub-rede 192.168.10.96/28 e para a conexão
da rede local do roteador Singapore é designada a sub-rede 192.168.10.112/28.
• O roteador KL precisa suportar 28 hosts. Isso significa que serão necessários pelo
menos cinco bits na porção host do endereço. Cinco bits resultarão em 25 – 2, ou seja,
30 possíveis endereços de host. A conexão de rede local do roteador KL recebe a
designação da sub-rede 192.168.10.64/27.
• A conexão entre Perth e Kuala Lumpur requer apenas dois endereços de host. Isso
significa que serão necessários pelo menos dois bits na porção host do endereço. Dois
bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre
Perth e Kuala Lumpur recebe a designação da sub-rede 192.168.10.128/30.
• A conexão entre Sydney e Kuala Lumpur requer apenas dois endereços de host. Isso
significa que serão necessários pelo menos dois bits na porção host do endereço. Dois
bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre
Sydney e Kuala Lumpur recebe a designação da sub-rede 192.168.10.132/30.
• A conexão entre Singapore e Kuala Lumpur requer apenas dois endereços de host.
Isso significa que serão necessários pelo menos dois bits na porção host do endereço.
Dois bits resultarão em 22 – 2, ou seja, 2 possíveis endereços de host. A conexão entre
Singapura e Kuala Lumpur recebe a designação da sub-rede 192.168.10.136/30.
14
A seguinte configuração é para a conexão ponto-a-ponto entre Singapura e KL.
Singapore(config)#interface serial 0
Singapore(config-if)#ip address 192.168.10.137 255.255.255.252
KualaLumpur(config)#interface serial 1
KualaLumpur(config-if)#ip address 192.168.10.138 255.255.255.252
Esta página conclui a lição. A próxima lição tratará de RIP. A primeira página descreve RIP v1
A Internet é uma coleção de sistemas autônomos (ASs). Cada AS possui uma tecnologia de
roteamento que pode ser diferente da utilizada em outros sistemas autônomos. O protocolo de
roteamento usado dentro de um AS é chamado Interior Gateway Protocol (IGP). Um protocolo
diferente usado para transferir informações de roteamento entre sistemas autônomos é
chamado Exterior Gateway Protocol (EGP). RIP foi projetado para funcionar como IGP em um
AS de tamanho moderado. Não é próprio para utilização em ambientes mais complexos.
15
RIP v1 é considerado um IGP classful. RIP v1 é um protocolo vetor de distância, que envia em
broadcast toda a tabela de roteamento para cada roteador vizinho a intervalos
predeterminados. O intervalo padrão é de 30 segundos. RIP usa a contagem de saltos como
métrica, sendo 15 o número máximo de saltos.
Se o roteador receber informações sobre uma rede e a interface por onde se recebe
informações pertencer à mesma rede mas em sub-rede diferente, o roteador aplicará a
máscara de sub-rede que está configurada na interface por onde a informação foi recebida.
Esta página tratará do RIP v2, o qual é uma versão melhorada do RIP v1. Ambas as versões
do RIP possuem as seguintes características:
16
RIP v2 proporciona roteamento de prefixo, o que permite que ele envie informações sobre
máscaras de sub-rede junto com a atualização de rotas. Portanto, RIP v2 suporta a utilização
de roteamento classless no qual diferentes sub-redes dentro da mesma rede podem usar
diferentes máscaras de sub-rede, como é o caso do VLSM.
RIP v2 acomoda a autenticação nas suas atualizações. Um conjunto de chaves pode ser usado
em uma interface como verificação de autenticação. RIP v2 permite uma escolha do tipo de
autenticação a ser usada nos pacotes RIP v2. A escolha será entre texto puro e criptografia
Message-Digest 5 (MD5). Texto puro é o padrão. MD5 pode ser usado para autenticar a origem
de uma atualização de roteamento. MD5 é tipicamente usado para criptografar senhas enable
secret e não existe nenhuma reversão conhecida.
Esta página apresentará mais informações sobre o funcionamento de RIP. Ela também
descreverá as diferenças entre RIP v1 e RIP v2.
RIP usa algoritmos de vetor de distância para determinar a direção e a distância para qualquer
link na internetwork. Se houver vários caminhos até um destino, o RIP seleciona aquele com o
menor número de saltos. No entanto, como a contagem de saltos é a única métrica de
roteamento usada pelo RIP, ele nem sempre seleciona o caminho mais rápido até um destino.
17
A Figura resume o comportamento do RIP v1 quando usado por um roteador.
RIP v2 é uma versão melhorada do RIP v1. Possui muitas das características do RIP v1. RIP
v2 também é um protocolo vetor de distância que utiliza contagem de saltos, temporizadores
holddown e split-horizon. A Figura compara e contrasta RIP v1 com RIP v2.
A primeira Atividade de Laboratório nesta página mostra aos alunos como preparar e configurar
RIP nos roteadores. A segunda Atividade de Laboratório repassa a configuração básica dos
roteadores. A Atividade com Mídia Interativa ajudará os alunos a entenderem as diferenças
entre RIP v1 e RIP v2.
18
1.2.4 Configurando RIP v2
RIP v2 usa multicasts para se comunicar com outros roteadores. A métrica de roteamento
ajuda os roteadores a encontrarem o melhor caminho para cada rede ou sub-rede.
19
O comando router inicia o processo de roteamento. O comando network causa a
implementação das três funções a seguir:
A combinação dos comandos router rip e version 2 especifica RIP v2 como protocolo de
roteamento, enquanto o comando network identifica uma rede conectada participante.
20
1.2.5 Verificando RIP v2
Se não houver uma atualização após 240 segundos, o roteador removerá as entradas da
tabela de roteamento. O roteador injeta rotas para as redes listadas após a linha "Routing for
Networks". O roteador recebe rotas dos roteadores RIP vizinhos listados após a linha "Routing
for Networks". A distância padrão de 120 refere-se à distância administrativa para uma rota
RIP.
21
O comando show ip interface brief também pode ser usado para listar um resumo das
informações e do status de uma interface.
A Atividade de Laboratório ensinará aos alunos como usar os comandos show para verificar as
configurações do RIP v2.
Use o comando debug ip rip para exibir atualizações de roteamento do RIP à medida que
elas são enviadas ou recebidas. O comando no debug all ou undebug all desativa toda
a depuração.
O exemplo mostra que o roteador que está sendo diagnosticado recebeu atualizações de um
roteador no endereço de origem 10.1.1.2. O roteador no endereço de origem 10.1.1.2 enviou
informações sobre dois destinos na atualização da tabela de roteamento. O roteador que está
sendo diagnosticado também enviou atualizações, em ambos os casos com o endereço
multicast 224.0.0.9 como destino. O número entre parênteses representa o endereço de origem
encapsulado no cabeçalho IP.
Algumas vezes podem ser vistas outras saídas do comando debug ip rip que incluem
entradas como as seguintes:
Esses resultados aparecem durante a inicialização ou quando ocorre um evento tal como uma
transição de uma interface ou quando um usuário limpa a tabela de roteamento manualmente.
Uma entrada, como a seguinte, é mais provavelmente causada por um pacote malformado
vindo do transmissor:
Exemplos de saídas do comando debug ip rip com seus significados aparecem na Figura .
22
1.2.7 Rotas padrão
Esta página descreverá rotas padrão e explicará como elas são configuradas.
Por default, os roteadores aprendem os caminhos para os destinos de três formas diferentes:
O comando ip default-network estabelece uma rota padrão nas redes que usam
protocolos de roteamento dinâmico.
23
Router(config)#ip default-network 192.168.20.0
De um modo geral, depois que a tabela de roteamento tiver sido definida para lidar com todas
as redes que precisam ser configuradas, é freqüentemente útil garantir que os demais pacotes
vão para um local específico. Essa rota é denominada rota padrão para o roteador. Um
exemplo é um roteador que está conectado com a Internet. Todos os pacotes não definidos na
tabela de roteamento irão para a interface determinada do roteador padrão.
Na Figura , Hong Kong 2 e Hong Kong 3 utilizariam Hong Kong 4 como gateway padrão. Hong
Kong 4 usaria a interface 192.168.19.2 como gateway padrão. Hong Kong 1 rotearia para a
Internet pacotes de todos os hosts internos. Para permitir que Hong Kong 1 roteie esses
pacotes, é necessário configurar uma rota padrão como:
Resumo
24
Variable-Length Subnet Masks (VLSM), freqüentemente chamado "dividir uma sub-rede em
sub-redes", é usado para maximizar a eficiência do endereçamento. É um recurso que permite
que um só sistema autônomo possua redes com diferentes máscaras de sub-rede. O
administrador de rede pode usar uma máscara longa em redes com poucos hosts, e uma
máscara curta em sub-redes com muitos hosts.
VLSM ajuda a gerenciar endereços IP. VLSM permite a definição de uma máscara de sub-rede
que atenda aos requisitos do link ou do segmento. Uma máscara de sub-rede deve atender aos
requisitos de uma rede local com uma máscara de sub-rede e aos requisitos de uma WAN
ponto-a-ponto com outra máscara.
Se for escolhido o esquema VLSM, este precisará ser corretamente calculado e configurado.
25
CAPITULO 02 - OSPF com uma única área (Single-Area OSPF)
Visão Geral
As duas principais classes de IGPs são distance vector (vetor de distância) e link-state (estado
do enlace). Os dois tipos de protocolos de roteamento encontram rotas através de sistemas
autônomos. Os protocolos de roteamento distance vector e link-state usam métodos diferentes
para realizar as mesmas tarefas.
Os primeiros protocolos de roteamento, como o RIP v1, eram todos protocolos distance vector.
Há muitos protocolos de roteamento distance vector em utilização atualmente, como RIP v2,
IGRP e o protocolo de roteamento híbrido EIGRP. Conforme as redes se tornaram maiores e
mais complexas, as limitações dos protocolos de roteamento distance vector se tornaram mais
aparentes. Os roteadores que usam um protocolo de roteamento distance vector aprendem
sobre a topologia da rede a partir das atualizações da tabela de roteamento dos roteadores
vizinhos. A utilização de largura de banda é alta, devido à troca periódica de atualizações de
roteamento, e a convergência da rede é lenta, resultando em decisões de roteamento ruins.
OSPF é um dos mais importantes protocolos link-state. Ele se baseia em padrões abertos, o
que significa que pode ser desenvolvido e aperfeiçoado por vários fabricantes. É um protocolo
complexo e um desafio para implementação em uma rede grande. Os princípios básicos do
OSPF são abordados neste módulo.
Em redes grandes, o OSPF pode ser configurado para abranger muitas áreas e vários tipos de
área diferentes. A capacidade de projetar e implementar grandes redes OSPF começa com a
capacidade de configurar o OSPF em uma única área. Este módulo também discute a
configuração do OSPF com uma única área (Single-Area OSPF).
Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:
26
• Explicar como são mantidas as informações do roteamento link-state;
• Tratar do algoritmo do roteamento link-state;
• Examinar as vantagens e desvantagens dos protocolos de roteamento link-state;
• Comparar e contrastar os protocolos de roteamento link-state com os protocolos de
roteamento distance vector;
• Ativar o OSPF em um roteador;
• Configurar um endereço de loopback para definir a prioridade do roteador;
• Modificar a métrica de custo para alterar a preferência de rota do OSPF;
• Configurar a autenticação do OSPF;
• Alterar os temporizadores do OSPF;
• Descrever as etapas para criar e propagar uma rota padrão;
• Usar comandos show para verificar a operação do OSPF;
• Configurar o processo de roteamento do OSPF;
• Definir os principais termos do OSPF;
• Descrever os tipos de rede OSPF;
• Descrever o protocolo Hello do OSPF;
• Identificar as etapas básicas da operação do OSPF.
27
Os algoritmos de roteamento link-state mantêm um banco de dados complexo com as
informações de topologia. Enquanto o algoritmo distance vector tem informações não-
específicas sobre redes distantes e nenhum conhecimento sobre roteadores distantes, um
algoritmo de roteamento link-state mantém conhecimento completo sobre roteadores distantes
e sobre como eles estão interconectados.
Cada roteador envia pacotes hello em multicast para ficar informado sobre o estado dos
roteadores vizinhos. Cada roteador usa LSAs para se manter informado sobre todos os
roteadores em sua área da rede. Os pacotes hello contêm informações sobre as redes que
estão conectadas ao roteador.
Na figura , P4 tem conhecimento sobre seus vizinhos, P1 e P3, na rede Perth3. Os LSAs
fornecem atualizações sobre o estado dos enlaces (links) que são interfaces nos outros
roteadores da rede.
28
• Usam o algoritmo SPF para calcular a rota mais curta para cada rede;
• Armazenam as informações da rota na tabela de roteamento.
Esta página irá explicar como os protocolos link-state usam os seguintes recursos:
• Os LSAs;
• Um banco de dados topológico;
• O algoritmo SPF;
• A árvore SPF;
• Uma tabela de roteamento de caminhos e portas para determinar o melhor caminho
para os pacotes.
Os protocolos de roteamento link-state foram criados para superar as limitações dos protocolos
de roteamento distance vector. Por exemplo, os protocolos distance vector somente trocam
atualizações de roteamento com vizinhos imediatos, enquanto os protocolos de roteamento
link-state trocam informações de roteamento através de uma área muito maior.
Quando ocorre uma falha na rede, por exemplo um vizinho fica inalcançável, os protocolos link-
state inundam (flood) LSAs com um endereço multicast especial para toda a área. Flooding, ou
inundar é o processo de enviar informações por todas as portas, exceto aquela em que as
informações foram recebidas. Cada roteador link-state toma uma cópia do LSA e atualiza seu
banco de dados link-state, ou topológico. Em seguida, o roteador link-state encaminha o LSA
para todos os dispositivos vizinhos. Os LSAs fazem com que todos os roteadores dentro da
área recalculem as rotas. Por esse motivo, a quantidade de roteadores link-state dentro de uma
área deve ser limitada.
Um link é o mesmo que uma interface em um roteador. O estado do link é uma descrição de
uma interface e da relação com os roteadores vizinhos. Por exemplo, uma descrição da
interface incluiria o endereço IP da interface, a máscara de sub-rede, o tipo de rede à qual está
conectada, os roteadores conectados a essa rede e assim por diante. O conjunto de link-states
forma um banco de dados de link-states, que às vezes é chamado de banco de dados
topológico. O banco de dados de link-states é usado para calcular os melhores caminhos
através da rede. Os roteadores link-state aplicam o algoritmo Dijkstra do "caminho mais curto
29
primeiro" (SPF – Shortest Path First) consultando o banco de dados de link-states. Isso cria a
árvore SPF, tendo o roteador local como raiz. Em seguida, os melhores caminhos são
selecionados a partir da árvore SPF e colocados na tabela de roteamento.
Cada roteador constrói um banco de dados topológico a partir dos LSAs que recebe. Em
seguida, o algoritmo SPF é usado para computar a facilidade de alcance dos destinos. Essa
informação é usada para atualizar a tabela de roteamento. Esse processo pode descobrir
alterações na topologia da rede causadas por falha de componentes ou crescimento da rede.
Uma troca de LSAs é acionada por um evento da rede, e não por atualizações periódicas. Isso
acelera o processo de convergência, pois não há necessidade de esperar até que uma série de
temporizadores expire para que os roteadores possam convergir.
30
Nessa figura, as rotas têm custos iguais, portanto o protocolo de roteamento link-state grava
as duas rotas. Alguns protocolos link-state oferecem uma maneira de avaliar a capacidade de
desempenho das duas rotas e escolher a melhor delas. Se a rota preferencial através do
roteador C passar por dificuldades operacionais, tais como congestionamento ou falha de
componentes, o protocolo de roteamento link-state pode detectar essa alteração e rotear os
pacotes através do roteador B.
31
Estas são algumas desvantagens dos protocolos de roteamento link-state:
A inundação inicial de LSAs fornece aos roteadores as informações de que eles necessitam
para criar um banco de dados de link-states. As atualizações de roteamento ocorrem somente
quando a rede muda. Se não há alterações, as atualizações de roteamento ocorrem após um
determinado intervalo. Se a rede muda, uma atualização parcial é enviada imediatamente. A
atualização parcial só contém informações sobre os links que mudaram. Os administradores de
rede preocupados com a utilização do link da WAN perceberão que essas atualizações parciais
e esporádicas são uma alternativa eficiente aos protocolos de roteamento distance vector, que
enviam uma tabela de roteamento completa a cada 30 segundos. Quando ocorre uma
alteração, todos os roteadores link-state são avisados simultaneamente pela atualização
parcial. Os roteadores de vetor de distância esperam até que os vizinhos percebam a
mudança, implementem-na e lhes enviem a atualização.
32
As vantagens dos protocolos link-state em relação aos protocolos distance vector são a
convergência mais rápida e a melhor utilização da largura de banda. Os protocolos link-state
suportam CIDR e VLSM. Isso os torna uma boa opção para redes complexas e escaláveis. Na
verdade, os protocolos link-state geralmente superam em desempenho os protocolos distance
vector em redes de qualquer tamanho. Os protocolos link-state não são implementados em
todas as redes porque exigem mais memória e poder de processamento do que os protocolos
distance vector e podem sobrecarregar equipamentos mais lentos. Outro motivo para que não
sejam implementados mais amplamente é o fato de serem bastante complexos. Os protocolos
de roteamento link-state exigem administradores bem treinados para configurá-los e mantê-los
corretamente.
Esta página conclui esta lição. A próxima lição irá apresentar um protocolo de roteamento link-
state chamado OSPF. A primeira página irá oferecer uma visão geral.
Esta página irá apresentar o OSPF. OSPF é um protocolo de roteamento link-state que se
baseia em padrões abertos. Está descrito em diversos padrões da IETF (Internet Engineering
Task Force). A letra inicial O de OSPF vem de "open" e significa que é um padrão aberto ao
público e não proprietário.
O OSPF, quando comparado com o RIP v1 e v2, é o IGP preferido, visto que pode ser
escalado. O RIP é limitado a 15 saltos, converge lentamente e às vezes escolhe rotas lentas,
pois ignora fatores críticos, tais como a largura de banda, na determinação das rotas. Uma
desvantagem de usar o OSPF é que ele só suporta protocolos baseados em TCP/IP. O OSPF
superou essas limitações e é um protocolo de roteamento robusto e escalável, adequado às
redes modernas. O OSPF pode ser usado e configurado como uma única área para redes
pequenas. Também pode ser usado para redes grandes.
33
Conforme mostrado na figura , grandes redes OSPF usam um projeto hierárquico. Várias áreas
se conectam a uma área de distribuição, ou área 0, que também é chamada de backbone. A
abordagem do projeto permite extenso controle das atualizações de roteamento. A definição da
área reduz a sobrecarga de roteamento, acelera a convergência, confina a instabilidade da
rede a uma área e melhora o desempenho.
O OSPF reúne informações dos roteadores vizinhos sobre o estado do link de cada roteador
OSPF. Essa informação é despejada para todos os seus vizinhos. Um roteador OSPF anuncia
os estados de seus próprios links e repassa os estados de links recebidos.
34
Em seguida, cada roteador aplica o algoritmo SPF em sua própria cópia do banco de dados.
Esse cálculo determina a melhor rota até um destino. O algoritmo SPF aumenta o custo, que é
um valor geralmente baseado na largura de banda. O caminho de menor custo é adicionado à
tabela de roteamento, que também é conhecida como banco de dados de encaminhamento
(forwarding database).
Cada roteador mantém uma lista dos vizinhos adjacentes, chamada de banco de dados de
adjacências. O banco de dados de adjacências é uma lista de todos os roteadores vizinhos
com os quais um roteador estabeleceu comunicação bidirecional. Ele é exclusivo de cada
roteador.
Esta página irá explicar as diferenças entre o OSPF e os protocolos distance vector tais como o
RIP. Os roteadores link-state mantêm uma imagem comum da rede e trocam informações
sobre links após a descoberta inicial ou após mudanças na rede. Os roteadores link-state não
enviam tabelas de roteamento em broadcasts periodicamente como os protocolos distance
vector. Portanto, os roteadores link-state usam menos largura de banda para a manutenção da
tabela de roteamento.
O RIP é apropriado para redes pequenas, e o melhor caminho se baseia no menor número de
saltos. O OSPF é apropriado para redes grandes que podem ser escaladas, e o melhor
caminho é determinado pela velocidade do link. O RIP e outros protocolos distance vector
usam algoritmos simples para computar os melhores caminhos. O algoritmo SPF é complexo.
Os roteadores que implementam protocolos distance vector precisam de menos memória e de
processadores menos poderosos do que os que implementam OSPF.
O OSPF seleciona as rotas com base no custo, que está relacionado à velocidade. Quanto
maior a velocidade, menor o custo OSPF do link.
35
O OSPF seleciona o caminho mais rápido sem loop a partir da árvore SPF como sendo o
melhor caminho da rede.
O OSPF garante um roteamento sem loops. Os protocolos distance vector podem causar loops
de roteamento.
• Velocidade de convergência;
• Suporte a VLSM (máscaras de sub-rede com tamanho variável);
• Tamanho da rede;
• Seleção de caminhos;
• Agrupamento de membros.
Em grandes redes, a convergência do RIP pode levar vários minutos, já que a tabela de
roteamento de cada roteador é copiada e compartilhada com os roteadores conectados
diretamente. Após a convergência inicial do OSPF, manter um estado convergente é mais
rápido, pois apenas as alterações da rede são despejadas para outros roteadores de uma área.
O OSPF suporta VLSMs e, por isso, é chamado de protocolo classless. O RIP v1 não suporta
VLSMs, mas o RIP v2 suporta.
O RIP considera uma rede que esteja a mais de 15 roteadores de distância como inalcançável,
pois a quantidade de saltos é limitada a 15. Isso limita o RIP a topologias pequenas. O OSPF
não tem limite de tamanho e é adequado para redes médias a grandes.
O RIP seleciona o caminho até uma rede adicionando 1 à contagem de saltos relatada por um
vizinho. Ele compara a quantidade de saltos até um destino e seleciona o caminho com a
menor distância, ou menor número de saltos. Esse algoritmo é simples e não requer um
roteador poderoso nem uma grande quantidade de memória. O RIP não leva em conta a
largura de banda disponível na determinação do melhor caminho.
O OSPF seleciona um caminho usando custo, uma métrica baseada na largura de banda.
Todos os roteadores OSPF precisam obter informações completas sobre as redes de cada
roteador para calcular o caminho mais curto. Esse algoritmo é complexo. Portanto, o OSPF
requer roteadores mais poderosos e mais memória do que o RIP.
O RIP usa uma topologia linear. Os roteadores de uma região RIP trocam informações com
todos os roteadores. O OSPF usa o conceito de áreas. Uma rede pode ser subdividida em
grupos de roteadores. Dessa maneira, o OSPF pode limitar o tráfego a essas áreas. Alterações
em uma área não afetam o desempenho em outras áreas. Essa abordagem hierárquica
permite que uma rede aumente em escala de maneira eficiente.
Esta página irá explicar como o OSPF usa o algoritmo do caminho mais curto primeiro
(Shortest Path First) para determinar o melhor caminho até um destino.
36
Nesse algoritmo, o melhor caminho é o caminho com menor custo. O algoritmo foi
desenvolvido por Dijkstra, um cientista da computação holandês, e foi explicado em 1959. O
algoritmo considera uma rede como um conjunto de nós conectados por links ponto-a-ponto.
Cada link tem um custo. Cada nó tem um nome. Cada nó tem um banco de dados completo de
todos os links e, assim, são conhecidas todas as informações sobre a topologia física. Todos
os bancos de dados de link-states, dentro de uma determinada área, são idênticos. A tabela da
figura mostra as informações recebidas pelo nó D. Por exemplo, D recebeu informações de que
estava conectado ao nó C com um link de custo 4 e ao nó E com um link de custo 1.
Então, o algoritmo do menor caminho calcula uma topologia sem loops usando o nó como
ponto de partida e examinando as informações que tem sobre os nós adjacentes.
Na figura , o nó B calculou o melhor caminho até D. O melhor caminho até D é passando pelo
nó E, que tem custo 4. Essa informação é convertida em uma entrada de rota em B, que
encaminhará o tráfego para C. Os pacotes destinados a D vindos de B passarão de B para C,
de C para E e de E para D nessa rede OSPF.
37
2.2.5 Tipos de rede OSPF
Um quarto tipo, ponto-a-multiponto, pode ser configurado manualmente em uma interface por
um administrador.
38
O DR envia informações de link-state para todos os outros roteadores do segmento usando o
endereço de multicast 224.0.0.5 para todos os roteadores OSPF.
Em redes ponto-a-ponto, existem apenas dois nós e não há eleição de DR nem de BDR. Os
dois roteadores se tornam completamente adjacentes um do outro.
Quando um roteador inicia um processo de roteamento OSPF em uma interface, ele envia um
pacote hello e continua a enviá-lo a intervalos regulares. As regras que regem a troca de
pacotes hello no OSPF são chamadas de protocolo Hello.
Embora o pacote hello seja pequeno, ele consiste no cabeçalho do pacote OSPF. Para o
pacote hello, o campo tipo é definido como 1.
O pacote hello carrega informações sobre as quais todos os vizinhos devem concordar antes
de formar uma adjacência e trocar informações de link-state.
39
2.2.7 Etapas da operação do OSPF
Quando um roteador inicia um processo de roteamento OSPF em uma interface, ele envia um
pacote hello e volta a enviá-lo a intervalos regulares. O conjunto de regras que regem a troca
de pacotes hello no OSPF é chamado de protocolo Hello. Em redes multiacesso, o protocolo
Hello elege um roteador designado (DR) e um roteador designado de backup (BDR). O hello
carrega informações sobre as quais todos os vizinhos devem concordar para formar uma
adjacência e trocar informações de link-state. Em redes multiacesso, o DR e o BDR mantêm
adjacências com todos os outros roteadores OSPF da rede.
Roteadores adjacentes passam por uma seqüência de estados. Eles precisam estar no estado
full state para que as tabelas de roteamento sejam criadas e o tráfego seja roteado. Cada
roteador envia anúncios de link-state (LSAs) em pacotes de atualização de link-state (LSUs).
Esses LSAs descrevem os links de todos os roteadores. Cada roteador que recebe um LSA de
seu vizinho grava esse LSA no banco de dados de link-states. Esse processo é repetido para
todos os roteadores da rede OSPF.
40
Quando os bancos de dados estão completos, cada roteador usa o algoritmo SPF para calcular
uma topologia lógica sem loops para cada rede conhecida. Para construir essa topologia, usa-
se o caminho mais curto com o menor custo, selecionando-se assim a melhor rota.
O roteamento OSPF usa o conceito de áreas. Cada roteador contém um banco de dados de
link-states de uma área específica. Uma área da rede OSPF pode receber qualquer número de
0 a 65.535. Entretanto, uma única área recebe o número 0 e é conhecida como área 0. Em
redes OSPF com mais de uma área, todas as áreas precisam se conectar à área 0. A área 0
também é chamada de área backbone.
41
A configuração do OSPF requer que o processo de roteamento OSPF esteja ativado no
roteador com os endereços de rede e as informações da área especificados. Os endereços de
rede são configurados com uma máscara curinga e não com uma máscara de sub-rede. A
máscara curinga representa os links ou endereços de host que podem estar presentes nesse
segmento. O ID da área pode ser escrito como um número inteiro ou em notação decimal com
pontos.
Cada rede deve ser identificada com a área à qual pertence. O endereço de rede pode ser uma
rede inteira, uma sub-rede ou o endereço da interface. A máscara curinga representa o
conjunto de endereços de host que o segmento suporta. Ela é diferente da máscara de sub-
rede, que é usada ao configurar endereços IP em interfaces.
Quando o processo OSPF se inicia, o Cisco IOS usa o maior endereço IP local que esteja ativo
como o ID do roteador OSPF. Se não houver uma interface ativa, o processo OSPF não será
iniciado. Se a interface ativa ficar inoperante, o processo OSPF não tem um ID do roteador e,
portanto, pára de funcionar até que a interface fique operante novamente.
Para garantir a estabilidade do OSPF, deve haver uma interface ativa para o processo OSPF o
tempo todo. Uma interface de loopback, que é uma interface lógica, pode ser configurada para
essa finalidade. Quando se configura uma interface de loopback, o OSPF usa esse endereço
como ID do roteador, independentemente do valor. Em um roteador com mais de uma interface
de loopback, o OSPF toma o maior endereço IP de loopback como o ID do roteador.
Para criar e atribuir um endereço IP a uma interface de loopback, use os seguintes comandos:
É considerado prática recomendável usar interfaces de loopback para todas as rotas que
executem OSPF. Essa interface de loopback deve ser configurada com um endereço usando
uma máscara de sub-rede de 32 bits igual a 255.255.255.255. Uma máscara de sub-rede de 32
bits é chamada de máscara de host, pois a máscara de sub-rede especifica uma rede de um
host. Quando o OSPF recebe uma solicitação para anunciar uma rede de loopback, ele sempre
anuncia o loopback como uma rota de host com uma máscara de 32 bits.
42
Em redes multiacesso com broadcast, pode haver mais de dois roteadores. O OSPF elege um
roteador designado (DR) para ser o foco de todas as atualizações de link-states e de todos os
anúncios de link-states. Como o papel do DR é crucial, elege-se um roteador designado de
backup (BDR) para assumir se o DR falhar.
Se o tipo de rede de uma interface for broadcast, a prioridade padrão do OSPF é 1. Quando as
prioridades OSPF são iguais, a eleição do DR é decidida pelo ID do roteador. O roteador de
maior ID é selecionado.
O resultado da eleição pode ser determinado garantindo-se que as urnas, os pacotes hello,
contêm uma prioridade para essa interface do roteador. A interface que relata a maior
prioridade para um roteador garante que ele se torne o DR.
As prioridades podem ser definidas com qualquer valor entre 0 e 255. Um valor 0 impede que
um roteador seja eleito. Um roteador com a prioridade OSPF mais alta será escolhido para DR.
Um roteador com a segunda prioridade OSPF mais alta será o BDR. Após o processo de
eleição, o DR e o BDR retêm suas funções mesmo se forem adicionados à rede roteadores
com valores mais altos de prioridade OSPF.
O OSPF usa o custo como métrica para determinar a melhor rota. Um custo está associado ao
lado da saída de cada interface do roteador. Os custos também estão associados a dados de
roteamento derivados externamente. Em geral, o custo do caminho é calculado usando a
fórmula [10^8/ largura de banda] , onde a largura de banda é expressa em bps. O
administrador de sistemas também pode configurar o custo por outros métodos. Quanto menor
o custo, maior a probabilidade de que a interface seja usada para encaminhar tráfego de
dados. O Cisco IOS determina automaticamente o custo com base na largura de banda da
interface. Para a operação correta do OSPF, é essencial definir a largura de banda correta da
interface.
43
Router(config)#interface serial 0/0
Router(config-if)#bandwidth 56
O custo pode ser alterado para influenciar no resultado do cálculo do custo OSPF. Uma
situação comum que requer uma alteração de custo é um ambiente com roteadores de
diferentes fabricantes. Uma alteração de custo pode garantir que o valor de custo de um
fabricante seja igual ao valor de custo de outro fabricante. Outra situação é quando se usa
Gigabit Ethernet. O custo padrão atribui o menor valor de custo (1) a um link de 100 Mbps. Em
uma situação com Ethernet de 100 Mbps e 1 Gigabit, os valores de custo padrão podem fazer
com que o roteamento tome um caminho menos desejável, a menos que sejam ajustados. O
número do custo pode ficar entre 1 e 65.535.
Por padrão, um roteador confia que as informações de roteamento estão vindo do roteador que
deveria estar enviando essas informações. Um roteador também confia em que as informações
não foram violadas ao longo da rota.
Para garantir essa confiança, os roteadores de uma área específica podem ser configurados
para autenticarem um ao outro.
Cada interface OSPF pode apresentar uma chave de autenticação que será usada pelos
roteadores que enviarem informações OSPF para outros roteadores do segmento. A chave de
autenticação, conhecida como senha, é um segredo compartilhado entre os roteadores. Essa
chave é usada para gerar os dados de autenticação no cabeçalho do pacote OSPF. A senha
pode ter até oito caracteres. Use a seguinte sintaxe de comando para configurar a autenticação
do OSPF:
Com autenticação simples, a senha é enviada como texto puro. Isso significa que pode ser
facilmente decodificada se um sniffer de pacotes capturar um pacote OSPF.
44
Router(config-if)#ip ospf message-digest-key id-da-chave md5 tipo-de-
criptografia chave
Os roteadores OSPF precisam ter os mesmos hello intervals e os mesmos dead intervals para
trocarem informações. Por padrão, o dead interval tem quatro vezes o valor do hello interval.
Isso significa que um roteador tem quatro chances de enviar um pacote hello antes de ser
declarado morto ou inoperante (dead).
Em redes OSPF com broadcast, o hello interval padrão é de 10 segundos e o dead interval
padrão é de 40 segundos. Em redes sem broadcast, o hello interval padrão é de 30 segundos e
o dead interval padrão é de 120 segundos. Esses valores padrão resultam em uma operação
eficiente do OSPF e raramente precisam ser alterados.
Para configurar os hello intervals e dead intervals em uma interface, use os seguintes
comandos:
O roteamento OSPF garante caminhos sem loops para todas as redes do domínio. Para
alcançar redes fora do domínio, o OSPF precisa saber sobre a rede ou precisa ter uma rota
padrão. Ter uma entrada para cada rede do mundo exigiria enormes recursos de cada
roteador.
Uma alternativa prática é adicionar uma rota padrão até o roteador OSPF conectado à rede
externa. Essa rota pode ser redistribuída para cada roteador do AS através de atualizações
OSPF normais.
Uma rota padrão configurada é usada por um roteador para gerar um gateway de último
recurso. A sintaxe de configuração da rota padrão estática usa o endereço de rede 0.0.0.0 e
uma máscara de sub-rede 0.0.0.0:
45
Router(config)#ip route 0.0.0.0 0.0.0.0 [interface | próximo-salto
endereço]
Esta é denominada "rota quad-zero" ou "rota de quatro zeros", e qualquer endereço de rede se
encaixa na regra a seguir. O gateway da rede é determinado pela operação AND entre o
destino do pacote e a máscara de sub-rede.
A seguinte declaração de configuração propagará essa rota para todos os roteadores de uma
área OSPF normal:
Router(config-router)#default-information originate
Todos os roteadores da área aprenderão uma rota padrão, desde que a interface do roteador
de borda até o gateway padrão esteja ativa.
Um roteador OSPF precisa estabelecer uma relação de vizinhança ou adjacência com outro
roteador OSPF para trocar informações de roteamento. Uma falha em estabelecer uma relação
de vizinhança é causada por qualquer dos seguintes motivos:
46
No roteamento OSPF, também é importante garantir o seguinte:
A figura lista esses comandos. A figura mostra comandos úteis para solucionar problemas do
OSPF.
Resumo
47
triggered updates somente quando ocorre uma alteração na rede, enviam atualizações
periódicas conhecidas como atualizações link-state e usam um mecanismo hello para
determinar a possibilidade de alcançar os vizinhos.
Um link é o mesmo que uma interface em um roteador. O estado do link é uma descrição de
uma interface e da relação com seus roteadores vizinhos. Com os LSAs, os roteadores link-
state anunciam os estados de seus links a todos os outros roteadores da área para que cada
roteador possa criar um banco de dados completo de link-states. Eles formam relacionamentos
especiais com seus vizinhos e com outros roteadores link-state. Isso os torna uma boa opção
para redes complexas e escaláveis. As vantagens do roteamento link-state em relação aos
protocolos distance vector são a convergência mais rápida e a melhor utilização da largura de
banda. Os protocolos link-state suportam roteamento CIDR (Classless Interdomain Routing) e
VLSM (Variable-length Subnet Mask).
48
MODULO 03 – EIGRP
Visão Geral
O EIGRP suporta CIDR e VLSM, o que permite que os projetistas de redes maximizem o
espaço de endereçamento. Comparado ao IGRP, que é um protocolo de roteamento classful, o
EIGRP oferece tempos de convergência mais rápidos, melhor escalabilidade e um melhor
gerenciamento de loops de roteamento.
Além do mais, o EIGRP pode substituir o Novell RIP e o AppleTalk Routing Table Maintenance
Protocol (RTMP). O EIGRP serve tanto em redes IPX e AppleTalk com possante eficiência.
O EIGRP é uma escolha ideal para redes grandes com vários protocolos baseadas
principalmente em roteadores Cisco.
Este modulo cobre as tarefas mais comuns de configuração do EIGRP. A ênfase está na
maneira em que o EIGRP estabelece relações com roteadores adjacentes, calcula rotas
primárias e de backup e responde a falhas nas rotas conhecidas para um determinado destino.
Uma rede é composta de muitos dispositivos, protocolos e meios físicos que permitem a
ocorrência de comunicação de dados. Quando um componente de rede não funciona
corretamente, isso pode afetar toda a rede. De qualquer maneira, os administradores de rede
precisam identificar e resolver rapidamente os problemas quando surgem. As seguintes são
algumas razões pelas quais ocorrem problemas nas redes:
49
organizada. Embora este módulo focalize a maneira de identificar e resolver problemas nos
protocolos de Camada 3, é importante identificar e eliminar quaisquer problemas que possam
existir nas camadas inferiores.
Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:
3.1 EIGRP
3.1.1 Comparando o EIGRP e o IGRP
A Cisco lançou o EIGRP em 1994 como versão melhorada e escalável do seu protocolo de
roteamento de vetor de distância, o IGRP. Esta página irá explicar como o EIGRP e o IGRP se
comparam. A tecnologia de vetor de distância e as informações de distâncias utilizadas pelo
IGRP são também usadas pelo EIGRP.
As comparações entre o EIGRP e o IGRP cabem dentro das seguintes categorias principais:
• Modo de compatibilidade
• Cálculo da métrica
• Contagem de saltos
• Redistribuição automática de protocolos
• Route tagging
O IGRP e o EIGRP são compatíveis um com o outro. Esta compatibilidade proporciona uma
interoperabilidade transparente de roteadores que utilizam IGRP. Isto é importante porque os
usuários podem valer-se das vantagens de ambos os protocolos. O EIGRP oferece suporte de
vários protocolos, mas o IGRP não.
O EIGRP e o IGRP calculam suas métricas de forma um pouco diferente. O EIGRP multiplica a
métrica do IGRP por um fator de 256. Isso é porque o EIGRP utiliza uma métrica de 32 bits e o
IGRP utiliza uma métrica de 24 bits. O EIGRP pode multiplicar ou dividir por 256 para
facilmente trocar informações com o IGRP.
O IGRP possui uma contagem máxima de saltos de 255. O EIGRP tem um limite máximo de
contagem de saltos de 224. Isso é mais que suficiente para suportar redes de grande porte
apropriadamente projetadas.
50
Permitir que protocolos de roteamento tão diferentes quanto o OSPF e o RIP compartilhem
informações exige uma configuração avançada. A redistribuição ou compartilhamento de rotas
é automático entre o IGRP e o EIGRP contanto que ambos os processos usem o mesmo
número AS.
Na Figura , o RTB automaticamente redistribui rotas aprendidas por EIGRP para o AS do IGRP
e vice-versa. O EIGRP marca como externas as rotas aprendidas por IGRP ou vindas de
qualquer fonte externa porque estas rotas não são oriundas de roteadores que utilizam o
EIGRP. IGRP não pode diferenciar entre rotas internas e externas.
As rotas EIGRP são marcada com D e as rotas externas são identificadas por EX. RTA
identifica a diferença entre a rede 172.16.0.0, que foi aprendida através do EIGRP e a rede
192.168.1.0 que foi redistribuída a partir do IGRP. Na tabela RTC, o protocolo IGRP não faz tal
distinção. O RTC, que usa somente o IGRP, enxerga apenas as rotas IGRP,
independentemente do fato de que tanto 10.1.1.0 como 172.16.0.0 foram redistribuídas a partir
do EIGRP.
51
3.1.2 Conceitos e terminologia do EIGRP
Esta página irá tratar das três tabelas utilizadas pelo EIGRP para armazenar informações sobre
a rede.
Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia prontamente
disponíveis em RAM para que possam reagir rapidamente a mudanças. Como o OSPF, o
EIGRP guarda essas informações em várias tabelas e bancos de dados.
• Tabela de vizinhos
• Tabela de topologia
• Tabela de roteamento
A tabela de vizinhos é a tabela mais importante do EIGRP. Cada roteador EIGRP mantém uma
tabela de vizinhos que lista os roteadores adjacentes. Essa tabela é comparável ao banco de
dados de adjacências utilizado pelo OSPF. Existe uma tabela de vizinhos para cada protocolo
suportado pelo EIGRP.
Quando novos vizinhos são descobertos, o endereço e a interface do vizinho são registrados.
Estas informações são armazenadas na estrutura de dados referente ao vizinho. Quando um
vizinho envia um pacote de hello, ele anuncia um hold time (tempo de retenção). O hold time é
o período de tempo em que um roteador trata um vizinho como alcançável e operacional. Se
um pacote de hello não for recebido dentro do hold time, este hold time expirará. Ao expirar o
hold time, o Diffusing Update Algorithm (DUAL), que é o algoritmo de vetor de distância do
EIGRP, recebe notificação da mudança na topologia e precisa recalcular a nova topologia.
• Feasible distance (FD) – Esta é a menor métrica calculada para cada destino. Por
exemplo, a feasible distance (distância viável) até 32.0.0.0 é 2195456.
• Route source – O número de identificação do roteador que originalmente anunciou
essa rota. Esse campo só está preenchido em rotas externas à rede EIGRP. O route
tagging pode ser útil quando for utilizado roteamento baseado em diretivas. Por
exemplo, a origem da rota até 32.0.0.0 é 200.10.10.10 através de 200.10.10.10.
• Reported distance (RD) – A distância relatada por um vizinho adjacente para um
destino específico. Por exemplo, a reported distance para 32.0.0.0 é 281600 como
indicado em (2195456/281600).
• Interface information – A interface através da qual o destino pode ser alcançado.
• Route status –O status de uma rota. As rotas são identificadas como sendo passivas,
que significa que a rota é estável e pronta para ser usada, ou ativa, que significa que a
rota está no processo de ser recomputada pelo DUAL.
52
A tabela de roteamento EIGRP contém as melhores rotas até cada destino. Estas informações
são geradas a partir da tabela de topologia. Os roteadores que utilizam o EIGRP mantêm uma
tabela de roteamento para cada protocolo de rede.
Um successor route é uma rota selecionada como rota primária para alcançar um destino. O
DUAL identifica essa rota a partir das informações contidas nas tabelas de vizinhos e de
topologia e as coloca na tabela de roteamento. Podem existir até quatro successor routes para
qualquer determinado destino. Essas podem ser de custo igual ou desigual e são identificadas
como os melhores caminhos livres de loops até um dado destino.
Essas rotas são identificadas ao mesmo tempo que as successor routes, mas essas rotas só
ficam guardadas na tabela de topologia. Podem ser retidas na tabela de topologia várias
feasible successors para um destino mas isso não é obrigatório.
53
Um roteador enxerga as feasible successors como próximos vizinhos, ou seja, mais perto do
destino do que ele mesmo. O custo de uma feasible successor é computado de acordo com o
custo anunciado pelo roteador vizinho até o destino. Se uma successor route se tornar inativa,
o roteador procurará uma feasible successor já identificada. Essa rota será promovida ao
status de successor route. Uma feasible successor precisa possuir um custo anunciado inferior
ao custo atual da successor route até o destino. Se uma feasible successor não for identificada
a partir das informações atuais, o roteador colocará a rota com o status Ativo e enviará pacotes
de solicitação para todos os vizinhos de modo a computar a topologia atual. O roteador pode
identificar qualquer nova successor route ou feasible successor dentre os novos dados
recebidos nos pacotes de resposta (Reply) relativos às solicitações realizadas. O roteador
então colocará um status Passivo na rota.
A tabela de topologia pode registrar informações adicionais sobre cada rota. O EIGRP
classifica as rotas como internas ou externas. O EIGRP acrescenta um route tag em cada rota
para identificar a sua classificação. As rotas internas se originam dentro do AS do EIGRP.
• Convergência rápida
• Utilização eficiente da largura de banda
• Suporte para VLSM e CIDR
• Suporte para várias camadas de rede
• Não depende dos protocolos roteados
54
Os protocol-dependent modules (PDMs) protegem o EIGRP contra revisões muito longas. A
evolução de protocolos roteados, tais como IP, poderão exigir um novo módulo de protocolo,
mas não necessariamente uma revisão do EIGRP propriamente dito.
Os roteadores que utilizam o EIGRP têm convergência rápida porque se valem do DUAL. O
DUAL garante uma operação livre de loops durante uma computação de rota que permita que
todos os roteadores envolvidas em uma mudança de topologia sincronizem simultaneamente.
O EIGRP suporta IP, IPX e AppleTalk através de PDMs. O EIGRP pode redistribuir
informações IPX-RIP e IPX SAP para melhorar o desempenho geral. De fato, o EIGRP pode
assumir o papel desses dois protocolos. Os roteadores que utilizam o EIGRP recebem
atualizações de roteamento e serviços e atualizam outros roteadores apenas quando ocorrem
mudanças no SAP ou nas tabelas de roteamento. Nas redes que utilizam o EIGRP, as
atualizações de roteamento ocorrem em atualizações parciais. O EIGRP também pode
substituir o RTMP do AppleTalk. Como protocolo de roteamento de vetor de distância, o RTMP
depende de trocas periódicas e completas de informações de roteamento. Para reduzir a
utilização de recursos, o EIGRP usa atualizações event-driven para redistribuir informações de
roteamento AppleTalk. O EIGRP também usa uma métrica composta configurável para
determinar a melhor rota até uma rede AppleTalk. O RTMP utiliza a contagem de saltos, que
pode resultar em um roteamento menos que ótimo. Os clientes AppleTalk esperam receber
informações RTMP dos roteadores locais, de modo que o EIGRP para AppleTalk deve ser
executado somente em uma rede sem clientes, tal como um link WAN.
Esta página irá tratar de algumas das novas tecnologias introduzidas pelo EIGRP. Cada nova
tecnologia representa uma melhoria na eficiência de operação, velocidade de convergência ou
funcionalidade do EIGRP com relação ao IGRP e outros protocolos de roteamento. Essas
tecnologias se enquadram em uma das seguintes quatro categorias:
Os roteadores que usam os simples protocolos de vetor de distância não estabelecem relações
com seus vizinhos. Os roteadores que utilizam o RIP e o IGRP meramente enviam atualizações
por broadcast ou multicast nas interfaces configuradas. Em contraste, os roteadores que
utilizam o EIGRP ativamente estabelecem relações com seus vizinhos, de maneira muito
semelhante àquela dos roteadores OSPF.
55
Os roteadores que utilizam o EIGRP utilizam pequenos pacotes de hello para realizar isso. Os
pacotes de hello são enviados por default de cinco em cinco segundos. Um roteador EIGRP
supõe que, enquanto recebe pacotes de hello dos seus vizinhos conhecidos, esses vizinhos e
suas rotas permaneçam viáveis ou no estado Passivo. Quando os roteadores que utilizam o
EIGRP formam adjacências, é possível:
Com o RTP, o EIGRP pode enviar multicast ou unicast simultaneamente para diferentes pares.
Isso permite eficiência máxima.
O ponto forte do EIGRP é o DUAL, que é o mecanismo de cálculo de rotas do EIGRP. O nome
completo dessa tecnologia é DUAL finite-state machine (FSM). Uma FSM é uma máquina de
estados e não um dispositivo mecânico com peças que se movem. As FSMs definem um
conjunto de possíveis estados pelos quais algo pode passar, os eventos que causam tais
estados e os eventos que resultam de tais estados. Os projetistas usam FSMs para descrever
como um dispositivo, programa de computador ou algoritmo de roteamento irá reagir a um
conjunto de eventos especificados. A FSM do DUAL contém toda a lógica usada para calcular
e comparar rotas em uma rede EIGRP.
56
O DUAL rastreia todas as rotas anunciadas por vizinhos. As métricas composta de cada rota
são usadas para compará-las.
O DUAL também garante que cada caminho esteja livre de loops. O DUAL insere os
caminhos de menor custo na tabela de roteamento. Essas rotas primárias são conhecidas
como successor routes. Uma cópia das successor routes é também colocada na tabela de
topologia.
Uma das melhores características do EIGRP é o seu projeto modular. Os projetos modulares
ou em camadas, são comprovadamente os mais escaláveis e adaptáveis. O suporte para
protocolos roteados, tais como IP, IPX e AppleTalk é incluído no EIGRP através de PDMs.
Teoricamente, o EIGRP pode adicionalr PDMs para uma fácil adaptação a protocolos novos ou
revisados como IPv6.
Cada PDM é responsável por todas as funções relacionadas ao seu protocolo roteado
específico. O módulo IP-EIGRP é responsável pelas seguintes funções:
57
3.1.5 Estrutura de dados do EIGRP
Como o OSPF, o EIGRP se vale de diferentes tipos de pacotes para manter suas tabelas e
estabelecer relações com roteadores vizinhos. Esta página irá descrever esses tipos de
pacotes.
• Hello
• Acknowledgment
• Update
• Query
• Reply
O EIGRP depende dos pacotes de hello para descobrir, verificar e redescobrir roteadores
vizinhos. A redescoberta ocorre se os roteadores que utilizam o EIGRP não recebem pacotes
de hello dos seus vizinhos após um intervalo de retenção (hold time interval) e depois
restabelecem comunicações.
Os roteadores que utilizam o EIGRP enviam pacotes de hello a um intervalo fixo, mas
configurável, denominado intervalo de hello.
O intervalo de hello default depende da largura de banda da interface. Nas redes IP, os
roteadores que utilizam o EIGRP enviam pacotes de hello ao endereço IP multicast 224.0.0.10.
Se o EIGRP não receber um pacote de um vizinho dentro do hold time, o EIGRP considerará
aquele vizinho como inativo. O DUAL então entra em cena para reavaliar a tabela de
roteamento. Por default, o hold time é três vezes o intervalo de hello, mas um administrador
pode configurar ambos os temporizadores a seu próprio critério.
O OSPF exige que os roteadores vizinhos tenham os mesmos intervalos de hello e dead
interval para se comunicar. O EIGRP não tem tal restrição. Os roteadores vizinhos aprendem
sobre cada um dos outros temporizadores respectivos através da troca de pacotes de hello.
Em seguida utilizam essas informações para formar uma relação estável independentemente
dos temporizadores desiguais. Os pacotes de hello são sempre enviados como não confiáveis.
Isto significa que nenhuma confirmação é transmitida.
58
pelo destino para ser confiável. Os pacotes de confirmação (Acknowledgment), que são
pacotes de hello sem dados, são usados para esta finalidade. Diferentemente dos hellos
multicast, os pacotes de confirmação (Acknowledgment) são unicast. Confirmações podem ser
anexadas a outros tipos de pacotes EIGRP, tais como pacotes de resposta (Reply).
Os pacotes de atualização (Update) também são usados quando um roteador detecta uma
mudança na topologia. Nesse caso, o roteador EIGRP envia um pacote de atualização
(Update) em multicast a todos os vizinhos, alertando-os sobre a mudança. Todos os pacotes
de atualização (Update) são enviados como confiáveis.
Um roteador EIGRP usa pacotes de consulta (Query) sempre que precise de alguma
informação específica de um ou de todos os seus vizinhos. Um pacote de resposta (Reply) é
usado para responder à consulta.
Se um roteador EIGRP perder o seu sucessor e não puder encontrar um feasible successor
para uma rota, o DUAL coloca a rota no estado Ativo. É então enviado em multicast uma
consulta a todos os vizinhos na tentativa de localizar um sucessor até a rede destino. Os
vizinhos precisam enviar respostas que proporcionem informações sobre sucessores ou que
indiquem a indisponibilidade de informações. As consultas podem ser em multicast ou unicast,
mas as respostas sempre são em unicast. Os dois tipos de pacotes são enviados como
confiáveis.
A rede EIGRP segue uma seqüência de ações para permitir a convergência entre os
roteadores, que atualmente possuem as seguintes informações sobre a topologia:
59
• O Roteador C possui uma successor route através do Roteador B.
• O Roteador C possui uma rota feasible successor através do Roteador D.
• O Roteador D possui uma successor route através do Roteador B.
• O Roteador D não possui rota feasible successor.
• O Roteador E possui uma successor route através do Roteador D.
• O Roteador E não possui feasible successor.
60
O seguinte exemplo demonstra como cada roteador na topologia seguirá as regras de seleção
de feasible successor quando a rota a partir do Roteador D através do Roteador B cair.
• No Roteador D
o A rota através do Roteador B é removida da tabela de topologia.
o Esta é a successor route. O Roteador D não possui rota feasible successor
identificada.
o O Roteador D precisa computar novas rotas.
• No Roteador C
o A rota até Network A através do Roteador D está inativa.
o A rota através do Roteador D é removida da tabela.
o Esta é a rota feasible successor para o Roteador C.
• No Roteador D
o O Roteador D não possui feasible successor. Ele não pode comutar para uma
rota alternativa identificada como reserva.
o O Roteador D precisa computar a topologia da rede. O caminho até o destino,
Network A, é definido como Ativo.
o O Roteador D envia um pacote de consulta (Query) a todos os vizinhos
conectados para solicitar informações sobre a topologia.
o O Roteador C tem uma entrada anterior para o Roteador D.
o O Roteador D não tem uma entrada anterior para o Roteador E.
• No Roteador E
o A rota até Network A através do Roteador D está inativa.
o A rota através do Roteador D é removida da tabela.
o Esta é a successor route para o Roteador E.
o O Roteador E não tem uma feasible route identificada.
o Note que o custo RD do roteamento através do Roteador C é de 3. Esse é o
mesmo custo da successor route através do Roteador D.
• No Roteador C
o O Roteador E envia um pacote de consulta (Query) ao Roteador C.
o O Roteador C remove o Roteador E da tabela.
o O Roteador C responde ao Roteador D com uma nova rota até Network A.
• No Roteador D
o O status da rota até o destino, Network A, ainda está marcado como Ativo. A
computação ainda não foi concluída.
61
o O Roteador C respondeu ao Roteador D para confirmar que uma rota até o
destino, Network A, está disponível com um custo de 5.
o O Roteador D ainda espera uma resposta do Roteador E.
• No Roteador E
o O Roteador E não possui feasible successor para alcançar o destino, Network
A.
o O Roteador E, portanto, marca o status da rota até a rede destino como Ativo.
o O Roteador E precisa recomputar a topologia da rede.
o O Roteador E remove a rota através do Roteador D da tabela.
o O Roteador E envia um pacote de consulta (Query) ao Roteador C, para
solicitar informações sobre a topologia.
o O Roteador E já possui uma entrada através do Roteador C. O seu custo é de
3, o mesmo que o da successor route.
• No Roteador E
o O Roteador C responde com uma RD de 3.
o O Roteador E agora pode enviar a rota através do Roteador C como a nova
successor route com uma FD de 4 e uma RD de 3.
o O Roteador E troca o status Ativo da rota até o destino, Network A, por um
status Passivo. Note que a rota terá um status Passivo por default sempre que
estejam sendo recebidos pacotes de hello. Neste exemplo, somente as rotas
com status Ativo são marcadas.
• No Roteador E
o O Roteador E envia uma resposta (Reply) ao Roteador D para informá-lo sobre
as informações de topologia do Roteador E.
• No Roteador D
o O Roteador D recebe o pacote de resposta (Reply) do Roteador E.
o O Roteador D introduz esses dados para a rota até o destino, Network A,
através do Roteador E.
o Esta rota se torna mais uma successor route dado que o custo é idêntico
àquele do roteamento através do Roteador C e a RD é inferior ao custo FD de
5.
A convergência ocorre entre todos os roteadores que utilizam o EIGRP que utilizam o algoritmo
DUAL.
62
Siga as seguintes etapas para configurar o EIGRP para IP:
2. Indique quais redes pertencem ao sistema autônomo EIGRP no roteador local através
do seguinte comando:
router(config-router)#network network-number
router(config-if)#bandwidth kbps
63
4. A Cisco também recomenda adicionar o seguinte comando a todas as configurações
do EIGRP:
router(config-if)#eigrp log-neighbor-changes
Esta página irá ensinar aos alunos como configurar manualmente endereços de sumarização.
O EIGRP faz automaticamente a sumarização das rotas no limite classful. Este é o limite onde
termina o endereço da rede, conforme definido pelo endereçamento baseado em classe. Isso
significa que embora RTC esteja conectado somente à sub-rede 2.1.1.0, ele anunciará que é
conectado à rede Classe A 2.0.0.0 inteira. Na maioria dos casos, a sumarização automática é
vantajosa porque mantém as tabelas de roteamento tão compactas como possível.
No entanto, a sumarização automática poderá não ser a opção preferida em certos casos. Por
exemplo, se houver sub-redes não contíguas, a sumarização automática precisa ser
desativada para uma operação correta do roteamento.
router(config-router)#no auto-summary
64
Com o EIGRP, um endereço para sumarização pode ser manualmente configurado pela
configuração de uma rede de prefixo. Rotas sumarizadas manualmente são configuradas em
cada interface, de modo que a interface que irá propagar a sumarização das rotas precisa ser
selecionada primeiro. Depois, o endereço para sumarização poderá ser definido com o
comando ip summary-address eigrp:
Note que a rota de sumarização origina de Null0 e não de uma interface real. Isso é porque
essa rota é usada para fins de anúncio e não representa um caminho que o RTC pode seguir
para alcançar a rede. No RTC, essa rota tem uma distância administrativa de 5.
O RTD não está ciente da sumarização mas aceita a rota. À rota é atribuída a distância
administrativa de uma rota EIGRP normal, que é 90 por default.
Na maioria dos casos de sumarização manual, deve ser utilizado o comando no auto-
summary.
65
Esta página irá explicar como os comandos show podem ser usados para verificar
configurações do EIGRP. A Figura enumera os comandos show mais importantes para o
EIGRP e explica brevemente as suas funções.
O recurso debug do Cisco IOS também proporciona comandos de monitoramento úteis para o
EIGRP.
66
3.2.4 Criando tabelas de vizinhos
Esta página irá explicar como o EIGRP cria tabelas de vizinhos. Os alunos também irão
aprender sobre as informações armazenadas em uma tabela de vizinhos e como são
utilizadas.
Os roteadores vetor de distância simples não estabelecem relações com seus vizinhos. Os
roteadores que utlizam o RIP e o IGRP meramente enviam atualizações por broadcast ou
multicast nas interfaces configuradas. Em contraste, os roteadores que utilizam o EIGRP
estabelecem de forma ativa relações com seus vizinhos como é o caso dos roteadores OSPF.
A tabela de vizinhos é a tabela mais importante do EIGRP. Cada roteador EIGRP mantém uma
tabela de vizinhos que lista os roteadores adjacentes. Essa tabela é comparável ao banco de
dados de adjacências utilizado pelo OSPF. Existe uma tabela de vizinhos para cada protocolo
suportado pelo EIGRP.
67
para identificar pacotes que estejam fora de seqüência. A tabela de vizinhos é usada
para suportar uma entrega seqüenciada e confiável de pacotes e pode ser considerada
como análoga ao protocolo TCP usado na entrega confiável de pacotes IP.
Esta página irá explicar como o EIGRP armazena informações sobre rotas e topologias. Os
alunos também irão aprender como o DUAL usa estas informações para rotear dados.
Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia disponíveis
em RAM para que possam reagir rapidamente a mudanças. Como o OSPF, o EIGRP guarda
essas informações em várias tabelas ou bancos de dados.
O DUAL também tenta calcular uma rota de reserva no caso da successor route falhar. Essa é
conhecida como rota feasible successor. O DUAL, depois de calcular a rota feasible successor
coloca-a na tabela de topologia. Essa rota pode evocada se a successor route até o destino se
tornar inalcançável ou não confiável.
Esta página irá explicar como o DUAL seleciona uma rota alternativa na tabela de topologia
quando um link se torna inativo. Se não for encontrada uma rota feasible successor, a rota é
marcada como Ativa, ou seja, não utilizável no momento. Pacotes de consulta (Query) são
enviados aos roteadores vizinhos solicitando informações sobre a topologia. O DUAL utiliza
essas informações para recalcular rotas successor route e feasible successor até o destino.
Quando o DUAL tiver concluído esses cálculos, a successor route é colocada na tabela de
roteamento. Em seguida tanto a successor route como a rota feasible successor são colocadas
na tabela de topologia. A rota até o destino final agora passa do estado Ativo ao estado
Passivo. Isto significa que a rota está operacional e confiável.
O DUAL identifica a rota primária preferida, conhecida como successor route (Successor). O
DUAL também identificará rotas backup, se houver, conhecidas como feasible successors (FS).
Observe que não é necessário ter uma feasible successor identificada.
68
3.2.7 Mantendo tabelas de roteamento
Esta página irá explicar como o DUAL mantém e atualiza tabelas de roteamento.
O DUAL rastreia todas as rotas anunciadas pelos vizinhos usando a métrica composta de cada
rota para sua comparação. O DUAL também garante que cada caminho esteja livre de loops.
Os caminhos de custo mais baixo são inseridos pelo algoritmo DUAL na tabela de roteamento.
Essas rotas primárias são conhecidas como successor routes. Uma cópia dessas rotas é
colocada na tabela de topologia.
Se um link for desativado, o DUAL procura um caminho alternativo, ou seja, uma feasible
successor, dentro da tabela de topologia. Se não for encontrada uma feasible successor, a rota
é marcada como Ativa, ou seja, não utilizável no momento. Pacotes de consulta (Query) são
enviados aos roteadores vizinhos solicitando informações sobre a topologia. O DUAL utiliza
essas informações para recalcular as successor routes e feasible successor routes até o
destino.
Quando o DUAL tiver concluído esses cálculos, a successor route é colocada na tabela de
roteamento. Em seguida tanto a successor route como a rota feasible successor são colocadas
na tabela de topologia. A rota até o destino final agora passa do estado Ativo ao estado
Passivo. Isto significa que a rota está operacional e confiável.
Quando novos vizinhos são descobertos, o endereço e a interface do vizinho são registrados.
Estas informações são armazenadas na estrutura de dados referente ao vizinho. Quando um
vizinho envia um pacote de hello, ele anuncia um hold time. O hold time é o período de tempo
em que um roteador trata um vizinho como alcançável e operacional. Em outras palavras, se
não for ouvido um pacote de hello dentro do hold time, o hold time vence. Ao vencer o hold
time, o DUAL é informado sobre a mudança na topologia e precisa recalcular a nova topologia.
Esta página irá explicar a seqüência lógica de etapas que devem ser usadas para identificar e
resolver qualquer problema com protocolos de roteamento.
69
1. Quando estiver analisando uma falha da rede, faça uma descrição clara do problema.
70
6. Analise os resultados para determinar se o problema já foi resolvido. Caso tenha sido,
então o processo está completo.
7. Se por acaso o problema não foi resolvido, crie um plano de ação baseado no
problema mais provável na lista. Volte à Etapa 4, mude uma variável de cada vez e
repita o processo até que seja resolvido o problema.
71
Os comandos show do Cisco IOS encontram-se entre as ferramentas mais importantes para
entender o status de um roteador, detectar roteadores vizinhos, monitorar a rede em geral e
isolar problemas na rede.
Os comandos EXEC debug podem fornecer uma abundância de informações sobre o tráfego
nas interfaces, mensagens de erros internos, pacotes de diagnóstico específicos ao protocolo e
outros dados úteis para a identificação e resolução de problemas. Use os comando debug
para isolar problemas, não para monitorar a operação normal da rede. Use os comandos
debug apenas para procurar tipos específicos de tráfego ou de problemas. Antes de usar o
comando debug, restrinja os problemas a um subconjunto de causas mais prováveis. Use o
comando show debugging para examinar quais recursos de depuração estão ativados.
Esta página irá tratar de VLSM como o problema mais comum que ocorre nas redes RIP.
VLSM impede o anúncio de rotas RIP. Isso deve-se ao fato de que o RIP Versão 1 não suporta
VLSM. Se as rotas RIP não estão sendo anunciadas, verifique o seguinte:
Use o comando EXEC debug ip rip para exibir informações sobre transações de
roteamento RIP. O comando no debug ip rip, no debug all, ou undebug all desativa
toda a depuração.
72
A Figura mostra que o roteador sendo depurado recebeu uma atualização de outro roteador no
endereço origem 192.168.3.1. Esse roteador enviou informações sobre dois destinos na
atualização da tabela de roteamento. O roteador sendo depurado também enviou atualizações.
Ambos os roteadores enviaram um broadcast para o endereço 255.255.255.255 como destino.
O número entre parênteses representa o endereço origem encapsulado no cabeçalho IP.
Na saída abaixo, aparece uma entrada que muito provavelmente foi causada por um pacote
malformado vindo do transmissor:
Esta página ensinará aos alunos como identificar e resolver problemas com o IGRP.
73
Use o comando router igrp autonomous-system para ativar o processo de roteamento
do IGRP:
R1(config-router)#network 172.30.0.0
R1(config-router)#network 192.168.3.0
R1#show ip protocols
R1#show ip route
Se uma rede se tornar inacessível, os roteadores que executam o IGRP enviam triggered
updates aos vizinhos para informá-los sobre o fato. Um roteador vizinho então responderá com
atualizações poison reverse e manterá a rede suspeita em estado holddown durante 280
segundos.
Esta página irá apresentar alguns comandos utilizados para identificar e resolver problemas do
EIGRP.
Para trocar atualizações de roteamento, cada roteador na rede EIGRP precisa ser configurado
com o mesmo número de sistema autônomo.
74
Use o comando de configuração de roteador network network-number para permitir que
as interfaces participem no processo de atualização do EIGRP:
R1(config-router)#network 172.30.0.0
R1(config-router)#network 192.168.3.0
R1#show ip protocols
As seguintes são algumas razões possíveis porque o EIGRP não funcione corretamente:
Uma das causas mais comuns da perda de contato com um vizinho é uma falha no link atual.
Outra causa possível é um temporizador de holddown expirado. Já que os pacotes de hello são
enviados de 5 em 5 segundos na maioria das rede, o tempo de holddown na saída de um
comando show ip eigrp neighbors normalmente deve ter um valor entre 10 e 15.
Para monitorar e identificar e resolver problemas com eficácia nas redes que utilizam o EIGRP,
use os comandos descritos nas Figuras
75
3.3.5 Identificando e resolvendo problemas de configuração do OSPF
Esta página ensinará aos alunos como identificar e resolver problemas com o OSPF.
Use o comando EXEC privilegiado debug ip ospf events para exibir as seguintes
informações sobre eventos relacionados ao OSPF:
• Adjacências
• Informações de flooding
• Seleção do designated router
• Cálculo do shortest path first (SPF)
Se um roteador configurado para o roteamento OSPF não enxerga um vizinho OSPF em uma
rede conectada, realize as seguintes tarefas:
76
• Certifique-se de que ambos os vizinhos façam parte da mesma área.
Para exibir informações sobre cada pacote do Open Shortest Path First (OSPF) recebido, use o
comando EXEC privilegiado debug ip ospf packet. A forma no desse comando desativa a
saída da depuração.
O comando debug ip ospf packet produz um conjunto de informações para cada pacote
recebido. A saída varia levemente, conforme a autenticação utilizada.
Resumo
Embora o IGRP e o EIGRP sejam compatíveis, existem algumas diferenças. O EIGRP oferece
suporte de vários protocolos, mas o IGRP não. O EIGRP e o IGRP usam cálculo da métrica
diferentes. O IGRP tem uma contagem máxima de saltos de 255. O EIGRP tem um limite de
contagem de saltos de 224.
Os roteadores que utilizam o EIGRP mantêm informações sobre rotas e topologia prontamente
disponíveis em RAM. Como o OSPF, o EIGRP guarda essas informações em três tabelas. A
tabela de vizinhos enumera os roteadores adjacentes, a tabela de topologia, que consiste em
todas as tabelas de roteamento do EIGRP no sistema autônomo, e a tabela de roteamento que
contém as melhores rotas até um destino. O DUAL (o algoritmo de vetor de distância do
EIGRP) utiliza as informações fornecidas na tabela de vizinhos e na tabela de topologia e
calcula as rotas de menor custo para cada destino. A rota primária preferida é conhecida como
successor route e a rota de reserva é conhecida como feasible successor (FS).
O algoritmo DUAL realiza a convergência rápida do EIGRP. Cada roteador constrói uma tabela
de topologia que contém informações sobre como rotear até cada destino. Cada tabela de
topologia identifica o protocolo de roteamento ou o EIGRP, o custo mais baixo da rota,
conhecido como Feasible Distance (FD) e o custo da rota conforme anunciado pelo roteador
vizinho, conhecido como Reported Distance (RD).
A tabela mais importante do EIGRP é a tabela de vizinhos que lista roteadores adjacentes.
Pacotes de hello são utilizados para estabelecer adjacências com roteadores vizinhos. Por
default, os pacotes de hello são enviados de cinco em cinco segundos. As tabelas de vizinhos
contêm campos para o endereço do vizinho, hold time, smooth round-trip timer (SRTT), queue
count (Q Cnt) e um sequence number (Seq NO).
Se um link for desativado, o DUAL procura um caminho de rota alternativo, ou seja, uma
feasible successor, dentro da tabela de topologia. Se não for encontrada uma feasible
successor, a rota é marcada como Ativa, ou seja, não utilizável no momento. Pacotes de
consulta (Query) são enviados aos roteadores vizinhos solicitando informações sobre a
topologia. O DUAL utiliza essas informações para recalcular rotas successor route e feasible
successor até o destino.
77
As oito etapas do processo de identificação e resolução de problemas devem ser seguidas ao
determinar a causa de problemas com protocolos de roteamento. Variable-length subnet mask
(VLSM) é o problema mais comum encontrado no Routing Information Protocol (RIP) que
impede que as rotas RIP sejam anunciadas. O comando show ip protocols fornece
informações sobre os parâmetros e sobre o estado atual do processo do protocolo de
roteamento ativo. Para o IGRP, use o comando router igrpautonomous-system para
ativar o processo de roteamento IGRP. Para o EIGRP, use o comando router
eigrp autonomous-system para ativar o processo de roteamento EIGRP: O comando
show ip ospf neighbor é útil para a identificação e resolução de problemas na formação
de adjacências no OSPF, já que a maioria dos problemas se relacionam com a formação de
adjacências e com a sincronização do banco de dados link-state
Os projetos das redes locais têm evoluído. Até muito recentemente, os projetistas usavam hubs
e bridges para construir redes. Agora, os switches e os roteadores são os principais
componentes dos projetos de redes locais, e a capacidade e o desempenho desses
dispositivos melhoram continuamente.
Este módulo descreve as raízes das redes locais Ethernet modernas, com ênfase na evolução
da Ethernet/802.3, a arquitetura de rede local implantada com mais freqüência. Uma
observação do contexto histórico do desenvolvimento das redes locais e dos vários dispositivos
de rede que podem ser usados nas diferentes camadas do modelo OSI ajudarão os alunos a
entenderem melhor as razões pelas quais os dispositivos de rede evoluíram da forma como
evoluíram.
Muitos switches modernos são capazes de realizar tarefas variadas e complexas na rede. Este
módulo oferecerá uma introdução à segmentação de redes e descreverá os princípios básicos
de operação dos switches.
Switches e bridges realizam a maior parte do trabalho pesado nas redes locais, tomando
decisões quase instantâneas ao receber quadros. Este módulo descreve em detalhe como os
switches aprendem os endereços físicos dos nós e como transmitem e filtram os quadros. Este
módulo descreve também os princípios da segmentação de redes locais e dos domínios de
colisão.
78
Os switches são dispositivos da Camada 2 usados para aumentar a largura de banda
disponível e reduzir o congestionamento da rede. Um switch pode segmentar uma rede local
em microssegmentos, que são segmentos com apenas um único host. A microssegmentação
cria vários domínios sem colisão a partir de um grande domínio. Por ser um dispositivo da
Camada 2, o switch de rede local aumenta a quantidade de domínios de colisão, mas todos os
hosts conectados ao switch continuam fazendo parte do mesmo domínio de broadcast.
Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:
Esta página fará uma revisão sobre os dispositivos encontrados em uma rede.
As primeiras tecnologias de rede local usavam infra-estruturas thick Ethernet ou thin Ethernet.
É importante entender as limitações dessas infra-estruturas, conforme mostrado na figura , a
fim de compreender os avanços na comutação das redes locais.
79
O acréscimo de hubs ou concentradores na rede ofereceu uma melhora para as tecnologias
thick Ethernet e thin Ethernet. Um hub é um dispositivo da Camada 1 e às vezes é conhecido
como concentrador Ethernet ou repetidor multiporta. Os hubs permitem melhor acesso à rede
para mais usuários. Eles regeneram sinais de dados, permitindo que as redes sejam
estendidas para distâncias maiores. Os hubs fazem isso gerando os sinais de dados
novamente. Eles não tomam nenhuma decisão quando os sinais são recebidos. Simplesmente
regeneram e amplificam os sinais de dados para todos os dispositivos conectados, exceto para
o dispositivo que enviou o sinal originalmente.
As colisões são um subproduto das redes Ethernet. Se dois ou mais dispositivos tentarem
transmitir ao mesmo tempo, ocorre uma colisão. Esta situação é análoga a dois carros que
tentam mudar para uma mesma faixa e que causam uma colisão. O tráfego fica parado até que
a colisão tenha sido resolvida. Um excesso de colisões em uma rede resulta em tempos de
resposta lentos. Isso indica que a rede está muito congestionada ou tem muitos usuários que
precisam acessá-la ao mesmo tempo.
80
Os dispositivos da Camada 2 são mais inteligentes que os da Camada 1. Eles tomam decisões
de encaminhamento com base nos endereços MAC (Media Access Control) contidos nos
cabeçalhos dos quadros de dados transmitidos.
Uma bridge é um dispositivo da Camada 2 usada para dividir, ou segmentar, uma rede. As
bridges coletam e transmitem seletivamente os quadros de dados entre dois segmentos da
rede. Para isso, elas aprendem o endereço MAC dos dispositivos de cada segmento
conectado. Com essa informação, a bridge constrói uma tabela de bridging e encaminha ou
bloqueia o tráfego com base nessa tabela. Isso resulta em domínios de colisão menores e
maior eficiência da rede. As bridges não restringem o tráfego de broadcast. Entretanto, elas
oferecem maior controle de tráfego dentro de uma rede.
Os switches criam um circuito virtual entre dois dispositivos conectados que querem se
comunicar. Quando o circuito virtual é criado, um caminho de comunicação dedicado é
estabelecido entre os dois dispositivos. A implementação de um switch na rede oferece
microssegmentação. Isso cria entre a origem e o destino um ambiente livre de colisões,
permitindo a máxima utilização da largura de banda disponível. Os switches são capazes de
facilitar múltiplas conexões simultâneas de circuito virtual. Isso é semelhante a uma rodovia
dividida em várias faixas, em que cada carro tem sua própria faixa exclusiva.
Os roteadores não encaminham broadcasts, a menos que sejam programados para fazer isso.
Assim, reduzem o tamanho tanto dos domínios de colisão como dos domínios de broadcast de
uma rede. Os roteadores são os dispositivos de controle de tráfego mais importantes nas
grandes redes. Eles permitem a comunicação entre dois computadores, independentemente da
localização ou do sistema operacional.
81
4.1.2 Fatores que afetam o desempenho da rede
Esta página descreverá alguns fatores que fazem com que as redes locais fiquem
congestionadas e sobrecarregadas.
As redes locais atuais estão ficando cada vez mais congestionadas e sobrecarregadas. Além
de uma grande quantidade de usuários de rede, existem vários outros fatores que contribuem
para testar os limites das redes locais tradicionais:
82
• Os aplicativos cliente/servidor não exigem que as estações de trabalho mantenham as
informações nem forneçam espaço em disco para armazená-las. Devido ao
custo/benefício dos aplicativos cliente/servidor, esses aplicativos provavelmente serão
ainda mais usados no futuro.
Esta página descreverá alguns fatores que podem ter impacto negativo no desempenho de
uma rede Ethernet.
A Ethernet é uma tecnologia de transmissão de broadcast. Por isso, dispositivos de rede tais
como computadores, impressoras e servidores de arquivos comunicam-se entre si através de
um meio compartilhado. O desempenho de uma rede local Ethernet/802.3 de meio
compartilhado pode ser afetado negativamente por vários fatores:
• A entrega dos quadros de dados das redes locais Ethernet/802.3 tem uma natureza de
broadcast.
• O método CSMA/CD (carrier sense multiple access/collision detect) permite que
apenas uma estação transmita de cada vez.
• Os aplicativos multimídia que exigem maior largura de banda, como, por exemplo,
vídeo e Internet, associados à natureza de broadcast da Ethernet, podem criar
congestionamento na rede.
• Ocorre uma latência normal conforme os quadros percorrem o meio físico da rede e os
dispositivos da rede.
A Ethernet usa CSMA/CD e pode suportar taxas de transmissão rápidas. A Fast Ethernet, ou
100BASE-T, oferece velocidades de transmissão de até 100 Mbps. A Gigabit Ethernet oferece
velocidades de transmissão de até 1000 Mbps e a 10-Gigabit Ethernet oferece velocidades de
transmissão de até 10.000 Mbps. O objetivo da Ethernet é fornecer a melhor prestação de
serviços possível e permitir que todos os dispositivos no meio compartilhado transmitam
igualmente. Uma certa quantidade de colisões é esperada no projeto da Ethernet e CSMA/CD.
As colisões ocorrem naturalmente em redes Ethernet e podem se tornar um grande problema.
Em sua origem, a Ethernet era uma tecnologia half-duplex. O half-duplex permite que os hosts
apenas transmitam ou recebam em um determinado momento, mas não as duas coisas. Cada
host examina a rede para ver se está ocorrendo transmissão de dados antes de transmitir mais
dados. Se a rede já estiver em uso, a transmissão sofre um atraso. Apesar do adiamento da
transmissão, dois ou mais hosts podem transmitir ao mesmo tempo. Isto resulta em uma
colisão. Quando ocorre uma colisão, o host que a detecta primeiro emite um sinal de
congestionamento para os outros hosts. Quando um sinal de congestionamento é recebido,
cada host pára a transmissão de dados e, em seguida, espera um tempo aleatório até
retransmiti-los. O algoritmo de recuo gera esse atraso aleatório. Quanto mais hosts forem
adicionados à rede e começarem a transmitir, maior a probabilidade de ocorrerem colisões.
As redes locais Ethernet ficam saturadas porque os usuários executam softwares que exigem
muito da rede, como aplicativos cliente/servidor, que fazem com que os hosts transmitam com
mais freqüência e por períodos de tempo mais longos. A placa de rede (NIC), usada pelos
dispositivos de uma rede local, fornece vários circuitos para que a comunicação entre os
dispositivos possa ocorrer
83
4.1.5 Congestionamento da rede
Esta página discutirá alguns fatores que criam uma necessidade de maior largura de banda em
uma rede.
Todos esses fatores aumentam a demanda por velocidade nas redes com largura de banda
disponível de 10 Mbps e é por isso que muitas redes oferecem hoje uma largura de banda de
100 Mbps em suas redes locais.
84
Também houve um aumento na quantidade de usuários em uma rede. À medida em que mais
pessoas utilizam as redes para compartilhar arquivos maiores, acessar servidores de arquivos
e conectar-se à Internet, ocorre o congestionamento da rede. Com isso, os tempos de resposta
ficam mais lentos, as transferências de arquivos ficam mais longas e os usuários da rede
tornam-se menos produtivos. Para aliviar o congestionamento na rede, é necessária mais
largura de banda, ou a largura de banda disponível deve ser usada com mais eficiência.
Esta página ajudará os alunos a entenderem os fatores que aumentam a latência da rede.
Latência, ou atraso, é o tempo que um quadro ou um pacote leva para trafegar da estação de
origem até o destino final. É importante quantificar a latência total do caminho entre a origem e
o destino nas LANs e WANs. No caso específico da rede local Ethernet, é importante entender
a latência e seu efeito na sincronização da rede, já que ela é usada para determinar se o
CSMA/CD funcionará adequadamente.
• Primeiramente, há o tempo que a placa de rede de origem leva para colocar os pulsos
elétricos no fio e o tempo que a placa de rede de destino leva para interpretar esses
pulsos. Às vezes, isso é chamado de atraso da placa de rede, geralmente em torno de
1 microssegundo para uma placa de rede Ethernet 10BASE-T.
• Em segundo lugar, há o atraso real de propagação, correspondente ao tempo que o
sinal leva para trafegar através do cabo. Geralmente, é de aproximadamente 0,556
microssegundos a cada 100 m para cabos UTP Cat 5. Cabos mais longos e menor
velocidade nominal de propagação (NVP) resultam em um maior atraso de
propagação.
• Em terceiro lugar, a latência cresce dependendo dos dispositivos de rede que estão no
caminho entre dois computadores. Esses dispositivos são de Camada 1, de Camada 2
ou de Camada 3.
85
4.1.7 Tempo de transmissão da Ethernet 10BASE-T
Todas as redes têm o que chamamos bit time ou slot time. Muitas tecnologias rede local, como
a Ethernet, definem bit time como a unidade básica de tempo na qual apenas um bit pode ser
enviado. Para que os dispositivos ópticos ou eletrônicos reconheçam o um ou o zero binários,
deve haver um tempo mínimo durante o qual o bit está ligado ou desligado.
O tempo de transmissão é igual ao número de bits a serem enviados multiplicado pelo bit time
de uma determinada tecnologia. Outra maneira de pensar o tempo de transmissão é o intervalo
entre o início e o final da transmissão de um quadro, ou entre o início da transmissão de um
quadro e uma colisão. Quadros pequenos precisam de uma quantidade de tempo menor.
Quadros grandes precisam de uma quantidade de tempo maior.
Cada bit da Ethernet de 10 Mbps tem uma janela de transmissão de 100 ns. Esse é o bit time.
Um byte equivale a 8 bits. Portanto, 1 byte leva no mínimo 800 ns para ser transmitido. Um
quadro de 64 bytes, que é o menor quadro Ethernet 10BASET que permite que o CSMA/CD
funcione corretamente, tem um tempo de transmissão de 51.200 ns ou 51,2 microssegundos. A
transmissão de um quadro inteiro de 1000 bytes pela estação de origem exige 800
microssegundos. O tempo em que o quadro efetivamente chega à estação de destino depende
da latência adicional introduzida pela rede. Essa latência pode ser devida a diversos atrasos,
incluindo todos os seguintes:
Esta página explicará como um repetidor pode ser usado para ampliar a distância de uma rede
local.
A distância que pode ser coberta por uma rede local é limitada pela atenuação. Atenuação
significa que o sinal se enfraquece conforme trafega ao longo da rede. A resistência do cabo ou
do meio através do qual o sinal trafega causa a perda de força do sinal. Um repetidor Ethernet
é um dispositivo da camada física da rede que amplifica ou regenera o sinal em uma rede local
Ethernet. Quando se usa um repetidor para aumentar a distância de uma rede local, uma única
rede pode abranger uma distância maior e mais usuários podem compartilhar essa mesma
rede. Entretanto, o uso de repetidores e hubs aumenta os problemas associados a broadcasts
e colisões. Tem um efeito negativo também sobre o desempenho geral da rede local de meio
compartilhado.
86
4.1.9 Transmissão full-duplex
Para transmitir e receber simultaneamente, é exigida uma porta do switch dedicada para cada
nó. As conexões full-duplex podem usar meios 10BASE-T, 100BASE-TX ou 100BASE-FX para
criar conexões ponto-a-ponto. As placas de rede de todos os dispositivos conectados precisam
ter capacidade full-duplex.
O switch Ethernet full-duplex aproveita os dois pares de fios do cabo e cria uma conexão direta
entre o transmissor (TX) em uma extremidade do circuito e o receptor (RX) na outra
extremidade. Com as duas estações conectadas dessa forma, cria-se um ambiente livre de
colisão, pois a transmissão e a recepção dos dados ocorrem em circuitos independentes e não-
concorrentes.
Geralmente, a Ethernet só pode usar de 50% a 60% dos 10 Mbps de largura de banda
disponíveis devido às colisões e à latência. A Ethernet full-duplex oferece 100% da largura de
banda nas duas direções. Isso produz um throughput potencial de 20 Mbps, resultante dos 10
Mbps de TX e dos 10 Mbps de RX.
Esta página explicará a segmentação das redes locais. A figura mostra um exemplo de uma
rede Ethernet segmentada. A rede inteira tem 15 computadores. Dos quinze, 6 são servidores
e 9 são estações de trabalho. Cada segmento usa o método de acesso CSMA/CD e mantém o
tráfego entre os usuários no segmento. Cada segmento é o seu próprio domínio de colisão.
87
A segmentação permite uma redução significativa do congestionamento da rede dentro de
cada segmento. Quando há transmissão de dados em um segmento, os dispositivos dentro
desse segmento compartilham a largura de banda total. Os dados que passam entre os
segmentos são transmitidos através do backbone da rede por meio de uma bridge, de um
roteador ou de um switch.
Esta página descreverá as principais funções de uma bridge em uma rede local.
As bridges são dispositivos da Camada 2 que encaminham os quadros de dados com base no
endereço MAC. As bridges lêem o endereço MAC de origem dos pacotes de dados para
descobrir os dispositivos que estão em cada segmento. Em seguida, os endereços MAC são
usados para construir uma tabela de bridging. Isso permite que as bridges bloqueiem os
pacotes que não precisam ser encaminhados para fora do segmento local.
Embora as bridges sejam transparentes para outros dispositivos de rede, a latência da rede
aumenta de 10% a 30% quando se usa uma bridge. O aumento de latência se deve às
decisões tomadas pelas bridges antes de encaminhar os pacotes. Uma bridge é considerada
um dispositivo store-and-forward. As bridges examinam o campo de endereço de destino e
calculam o CRC (cyclic redundancy check), presente no campo Frame Check Sequence (FCS)
antes de encaminhar o quadro. Se a porta de destino estiver ocupada, as bridges armazenam
temporariamente o quadro até que a porta fique disponível
88
4.2.3 Segmentação de redes locais com roteadores
Esta página explicará como os roteadores são usados para segmentar uma rede local.
89
Além disso, os roteadores não encaminham broadcasts, enquanto os switches e as bridges
precisam encaminhar quadros de broadcast
Esta página explicará como os switches são usados para segmentar uma rede local.
Em uma rede local Ethernet totalmente comutada, os nós de origem e de destino funcionam
como se fossem os únicos nós da rede. Quando esses dois nós estabelecem um link, ou
circuito virtual, eles têm acesso à maior largura de banda disponível. Esses links fornecem
significativamente mais throughput do que as redes locais Ethernet conectadas por bridges ou
hubs. Esse circuito de rede virtual é estabelecido no interior do switch e existe apenas quando
os nós precisam se comunicar.
90
A seguir estão duas operações básicas realizadas pelos switches:
91
92
4.2.6 Latência do switch Ethernet
A latência de um switch é o tempo desde o momento em que um quadro entra no switch até o
momento em que o quadro sai do switch. A latência está diretamente relacionada ao processo
de comutação configurado e ao volume de tráfego.
Esta página mostrará aos alunos como a comutação ocorre na camada de enlace de dados e
na camada de rede.
93
Roteadores e switches da Camada 3 usam endereços IP para rotear um pacote. Switches de
rede local ou switches da Camada 2 encaminham quadros com base nas informações de
endereço MAC. Atualmente, os termos comutação da Camada 3 e roteamento são usados
como sinônimos.
94
O fluxo de tráfego em uma rede comutada ou linear é inerentemente diferente do fluxo de
tráfego em uma rede roteada ou hierárquica. As redes hierárquicas oferecem fluxo de tráfego
mais flexível do que as redes lineares.
A comutação das redes locais pode ser classificada em simétrica ou assimétrica dependendo
da maneira como a largura de banda é alocada para as portas do switch. Um switch simétrico
fornece conexões comutadas entre portas com a mesma largura de banda. Um switch de rede
local assimétrico fornece conexões comutadas entre portas com larguras de banda diferentes,
por exemplo uma combinação de portas de 10 Mbps e de 100 Mbps.
A comutação assimétrica permite dedicar mais largura de banda à porta do switch conectada a
um servidor a fim de evitar um gargalo. Isso permite fluxos de tráfego mais suaves, em que
vários clientes se comunicam com um servidor ao mesmo tempo. Um switch assimétrico requer
bufferização de memória. O uso de buffers mantém os quadros contíguos entre portas com
diferentes taxas de dados.
95
Na bufferização por porta, os quadros são armazenados em filas vinculadas a portas de
entrada específicas. Um quadro só é transmitido para a porta de saída quando todos os
quadros à frente dele na fila tiverem sido transmitidos com êxito. É possível que um único
quadro atrase a transmissão de todos os quadros na memória devido a uma porta de destino
que esteja ocupada. Esse atraso ocorre mesmo se os outros quadros puderem ser transmitidos
para portas de destino que estejam abertas.
O switch mantém um mapa de vínculos entre quadros e portas, mostrando para onde um
pacote precisa ser transmitido. O vínculo é apagado do mapa depois que o quadro é
transmitido com êxito. O buffer de memória é compartilhado. A quantidade de quadros
armazenados no buffer é restringida pelo tamanho de todo o buffer de memória e não limitada
a um único buffer de porta. Isso permite que quadros maiores sejam transmitidos e menos
quadros sejam descartados. Isso é importante para a comutação assimétrica, em que há troca
de quadros entre portas com taxas diferentes.
96
antes que o quadro possa ser encaminhado. Esse modo diminui a latência da
transmissão, mas também reduz a detecção de erros.
Um switch é um dispositivo que conecta segmentos de rede local usando uma tabela de
endereços MAC para determinar o segmento para onde um quadro precisa ser transmitido.
Tanto os switches como as bridges operam na Camada 2 do modelo OSI.
97
• Um switch concentra a conectividade, tornando a transmissão de dados mais eficiente.
Os quadros são comutados das portas de entrada para as portas de saída. Cada porta
ou interface pode oferecer toda a largura de banda da conexão ao host.
• Em um hub Ethernet típico, todas as portas se conectam a um backplane ou conexão
física comum dentro do hub, e todos os dispositivos conectados ao hub compartilham a
largura de banda da rede. Se duas estações estabelecerem uma sessão que use um
nível significativo de largura de banda, o desempenho de rede de todas as outras
estações conectadas ao hub sofrerá degradação.
• Para reduzir a degradação, o switch trata cada interface como um segmento individual.
Quando estações em diferentes interfaces precisam se comunicar, o switch encaminha
quadros na velocidade do fio de uma interface para a outra, para garantir que cada
sessão receba toda a largura de banda.
Para comutar quadros de maneira eficiente entre as interfaces, o switch mantém uma tabela de
endereços. Quando um quadro entra no switch, este associa o endereço MAC da estação
emissora com a interface na qual o quadro foi recebido.
A primeira característica, isolar o tráfego entre segmentos, proporciona maior segurança para
os hosts da rede. Cada segmento usa o método de acesso CSMA/CD para manter o fluxo de
tráfego de dados entre os usuários desse segmento. Essa segmentação permite que vários
usuários enviem informações ao mesmo tempo em diferentes segmentos sem que a rede fique
mais lenta.
98
• Cut-through – Um switch que realiza comutação cut-through somente lê o endereço
de destino ao receber o quadro. O switch começa a encaminhar o quadro antes que
este chegue por completo. Esse modo diminui a latência da transmissão, mas tem uma
detecção de erros ruim. Há duas formas de comutação cut-through:
o Fast-forward – Este tipo de comutação oferece o nível mais baixo de latência
encaminhando imediatamente um pacote após receber o endereço de destino.
A latência é medida a partir do primeiro bit recebido até o primeiro bit
transmitido, ou seja, o primeiro a entrar é o primeiro a sair (FIFO, first in first
out). Este modo tem uma detecção de erros ruim na comutação de rede local.
o Fragment-free – Este tipo de comutação filtra e elimina os fragmentos de
colisão, que constituem a maior parte dos erros de pacote, antes de iniciar o
encaminhamento. Geralmente, os fragmentos de colisão são menores do que
64 bytes. A comutação fragment-free aguarda até que seja determinado que o
pacote recebido não é um fragmento de colisão antes de encaminhá-lo. A
latência também é medida como FIFO.
o Store-and-forward – Todo o quadro é recebido antes de ser encaminhado. Os
endereços de destino e de origem são lidos e os filtros são aplicados antes que
o quadro seja encaminhado. A latência ocorre enquanto o quadro está sendo
recebido. A latência é maior com quadros maiores, pois todo o quadro precisa
ser recebido antes que o processo de comutação comece. O switch tem tempo
para verificar se há erros, o que proporciona maior detecção de erros.
99
4.3.3 Como os switches e as bridges aprendem endereços
Uma bridge é considerada um dispositivo inteligente, pois pode tomar decisões com base nos
endereços MAC. Para isso, ela consulta uma tabela de endereços. Quando uma bridge é
ligada, são transmitidas mensagens de broadcast, pedindo que todas as estações no segmento
local da rede respondam. Conforme as estações devolvem a mensagem de broadcast, a bridge
constrói uma tabela de endereços locais. Esse processo é chamado de aprendizagem.
Dessa forma, a bridge ou o switch aprendem quais endereços pertencem aos dispositivos
conectados a cada porta.
100
de comutação para realizar as seguintes funções: Para extrair e processar as
informações de endereço dos pacotes de dados de entrada;
• Para comparar o endereço de destino com uma tabela de endereços armazenada nela.
A CAM armazena os endereços MAC dos hosts e os respectivos números de porta. A CAM
compara o endereço MAC de destino recebido com o conteúdo da tabela da CAM. Se a
comparação resultar em uma correspondência, a porta é fornecida e o controle de roteamento
encaminha o pacote para a porta e para o endereço corretos.
Um switch Ethernet pode aprender o endereço de cada dispositivo da rede lendo o endereço
de origem de cada quadro transmitido e observando a porta por onde o quadro entrou no
switch. O switch então adiciona essas informações ao seu banco de dados de
encaminhamento. Os endereços são aprendidos de forma dinâmica. Isso significa que,
enquanto os novos endereços são lidos, eles são aprendidos e armazenados na CAM. Quando
um endereço de origem não é encontrado na CAM, ele é aprendido e armazenado para uso
futuro.
Cada vez que um endereço é armazenado, o horário é registrado. Isso permite que os
endereços sejam armazenados por um determinado período de tempo. Cada vez que um
endereço é consultado ou encontrado na CAM, ele recebe um novo registro de hora. Os
endereços que não forem consultados durante um determinado período são removidos da lista.
Ao remover endereços antigos ou obsoletos, a CAM mantém um banco de dados de
encaminhamento preciso e funcional.
1. Se o endereço não for encontrado, a bridge encaminha o quadro por todas as portas
exceto aquela na qual ele foi recebido. Esse processo é chamado de inundação
(flooding). O endereço também pode ter sido excluído pela bridge porque seu software
foi reiniciado recentemente, teve escassez de entradas na tabela de endereços ou
excluiu o endereço porque ele estava muito velho. Como a bridge não sabe qual porta
deve usar para encaminhar o quadro, ela o envia por todas as portas exceto aquela na
qual ele foi recebido. Obviamente não é necessário enviá-lo de volta para o mesmo
segmento de cabo do qual ele foi recebido, uma vez que todos os outros computadores
ou bridges nesse cabo já devem ter recebido o pacote.
2. Se o endereço for encontrado em uma tabela de endereços e estiver associado à porta
na qual foi recebido, o quadro é descartado. Ele já deve ter sido recebido pelo destino.
3. Se o endereço for encontrado em uma tabela de endereços e não estiver associado à
porta na qual foi recebido, a bridge encaminha o quadro para a porta associada ao
endereço.
Se o endereço for encontrado em uma tabela de endereços e não estiver associado à porta na
qual foi recebido, a bridge encaminha o quadro para a porta associada ao endereço.
Esta página explicará como os switches e as bridges filtram quadros. Nesta discussão, os
termos "switch" e "bridge" são sinônimos.
A maior parte das bridges é capaz de filtrar quadros com base em qualquer campo de quadro
da Camada 2. Por exemplo, uma bridge pode ser programada para rejeitar, não encaminhar,
todos os quadros cuja origem seja uma determinada rede. Como as informações da camada de
enlace geralmente incluem uma referência a um protocolo de camada superior, normalmente
as bridges podem filtrar com esse parâmetro. Além disso, os filtros podem ser úteis para lidar
com pacotes desnecessários de broadcast e multicast.
Assim que a bridge termina de construir a tabela de endereços locais, ela está pronta para
operar. Ao receber um quadro, ela examina o endereço de destino. Se o endereço do quadro
101
for local, a bridge o ignora. Se o quadro for endereçado a outro segmento da rede local, a
bridge copia o quadro para o segundo segmento.
A filtragem básica mantém os quadros locais no mesmo local e envia os quadros remotos para
outro segmento da rede local.
• Impede que uma estação envie quadros para fora do seu segmento local da rede local;
• Pára todos os quadros "externos" destinados a uma determinada estação, restringindo
assim as outras estações com as quais ele pode se comunicar.
Os dois tipos de filtragem proporcionam certo controle sobre o tráfego inter-redes e podem
oferecer melhor segurança.
A maioria das bridges Ethernet pode filtrar quadros de broadcast e multicast. As bridges e os
switches que podem filtrar quadros com base nos endereços MAC também podem ser usados
para filtrar quadros Ethernet por endereços de multicast e broadcast. Essa filtragem é obtida
por meio da implementação de redes locais virtuais ou VLANs. As VLANs permitem que os
administradores de rede evitem a transmissão de mensagens de multicast e broadcast
desnecessárias através de uma rede. Às vezes, um dispositivo apresenta defeito e envia
continuamente quadros de broadcast, que são copiados ao redor da rede. Isso é chamado de
tempestade de broadcasts e pode reduzir significativamente o desempenho da rede. Uma
bridge que possa filtrar quadros de broadcast reduz os danos causados por uma tempestade
de broadcasts. Hoje em dia, as bridges também são capazes de filtrar de acordo com o
protocolo da camada de rede. Isso torna menos nítida a demarcação entre bridges e
roteadores. Um roteador opera na camada de rede usando um protocolo de roteamento para
orientar o tráfego ao redor da rede. Uma bridge que implemente técnicas avançadas de
filtragem geralmente é chamada de "brouter". Os brouters realizam filtragem observando as
informações da camada de rede, mas não usam um protocolo de roteamento.
Esta página explicará os dois principais motivos para segmentar uma rede local.
Há duas razões principais para a segmentação de uma rede local. A primeira é para isolar o
tráfego entre os segmentos. A segunda é para alcançar mais largura de banda por usuário
criando domínios de colisão menores.
Sem segmentação, as redes locais com mais do que um pequeno grupo de trabalho
rapidamente poderiam ficar obstruídas com o tráfego e as colisões.
A segmentação da rede local pode ser implementada por meio da utilização de bridges,
switches e roteadores. Cada um desses dispositivos tem seus prós e contras.
102
Com o acréscimo de dispositivos como bridges, switches e roteadores, a rede local é
segmentada em diversos domínios de colisão menores. No exemplo mostrado, foram criados
quatro domínios de colisão.
Cada interface do roteador se conecta a uma rede diferente. Assim, a inserção de um roteador
em uma rede local cria domínios de colisão menores e domínios de broadcast menores. Isso
ocorre porque os roteadores não encaminham broadcasts, a menos que sejam programados
para tal.
Um switch emprega "microssegmentação" para reduzir o domínio de colisão de uma rede local.
O switch faz isso criando segmentos de rede dedicados ou conexões ponto a ponto. Ele
conecta esses segmentos em uma rede virtual dentro do switch.
Esse circuito de rede virtual existe apenas quando dois nós precisam se comunicar. É
chamado de circuito virtual pois existe apenas quando necessário e é estabelecido dentro do
switch.
Os switches de rede local são considerados bridges multiportas sem domínio de colisão,
devido à microssegmentação. Os dados são trocados em altas velocidades através da
comutação do quadro para o seu destino. Lendo as informações do endereço MAC de Camada
2 de destino, os switches podem alcançar transferências de dados de alta velocidade, da
mesma forma que uma bridge. Esse processo leva a baixos níveis de latência e a uma alta
taxa de velocidade de encaminhamento de quadros.
103
A comutação Ethernet aumenta a largura de banda disponível em uma rede. Ela faz isso
criando segmentos de rede dedicados, ou conexões ponto-a-ponto, e conectando esses
segmentos em uma rede virtual dentro do switch. Esse circuito de rede virtual existe apenas
quando dois nós precisam se comunicar. É chamado de circuito virtual, pois existe apenas
quando necessário e é estabelecido dentro do switch.
Embora o switch de rede local reduza o tamanho do domínio de colisão, todos os hosts
conectados ao switch continuam no mesmo domínio de broadcast. Portanto, um broadcast de
um nó ainda será visto por todos os outros nós conectados através do switch da rede local.
Os switches são dispositivos da camada de enlace que, como as bridges, permitem que vários
segmentos de rede local físicos sejam interconectados em uma única rede maior. Semelhantes
às bridges, os switches encaminham e inundam tráfego com base em endereços MAC. Como a
comutação é executada no hardware em vez de no software, ela é significativamente mais
rápida. Cada porta do switch pode ser considerada uma micro-bridge, que age como uma
bridge independente e oferece a largura de banda total do meio para cada host.
Esta página discutirá as colisões, que são uma grande desvantagem das redes Ethernet 802.3.
Os colisões ocorrem quando dois hosts transmitem quadros simultaneamente. Quando ocorre
uma colisão, os quadros transmitidos são corrompidos ou destruídos. Os hosts emissores
param de enviar outras transmissões durante um período aleatório, com base nas regras
Ethernet 802.3 do CSMA/CD. Um excesso de colisões torna as redes improdutivas.
Um switch cria uma tabela de comutação aprendendo os endereços MAC dos hosts que estão
conectados a cada uma de suas portas. Quando dois hosts conectados querem se comunicar,
o switch consulta a tabela de comutação e estabelece uma conexão virtual entre as portas. O
circuito virtual é mantido até que a sessão seja encerrada.
Na figura , Host B e Host C querem se comunicar. O switch cria a conexão virtual, que é
chamada de microssegmento. O microssegmento se comporta como se a rede tivesse apenas
dois hosts, um que envia e outro que recebe, proporcionando a máxima utilização da largura de
banda disponível.
104
Os switches reduzem as colisões e aumentam a largura de banda nos segmentos da rede
porque fornecem largura de banda dedicada a cada segmento da rede.
Esta página descreverá os três métodos de transmissão de dados utilizados em uma rede. A
maneira mais comum de comunicação é por transmissões unicast. Em uma transmissão
unicast, um transmissor tenta alcançar um receptor.
105
Quando dois switches estão conectados, o domínio de broadcast aumenta. Neste exemplo, um
quadro de broadcast é encaminhado para todas as portas conectadas ao Switch 1. O switch 1
está conectado ao Switch 2. O quadro é propagado para todos os dispositivos conectados ao
Switch 2.
O resultado geral é uma redução da largura de banda disponível. Isso ocorre porque todos os
dispositivos no domínio de broadcast precisam receber e processar o quadro de broadcast.
Esta página explicará como os switches aprendem sobre as estações de trabalho de uma rede
local.
Quando uma estação de trabalho se conecta a uma rede local, ela não se preocupa com os
outros dispositivos que estão conectados ao meio físico da rede local. A estação de trabalho
simplesmente transmite os quadros de dados usando uma placa de rede para o meio que
compõe a rede.
Ela poderia estar conectada diretamente a outra estação de trabalho usando um cabo cruzado.
Os cabos cruzados são usados para conectar os seguintes dispositivos:
• Switch a roteador;
• Switch a estação de trabalho ou servidor;
• Hub a estação de trabalho ou servidor.
Os switches são dispositivos da Camada 2 que usam inteligência para aprender os endereços
MAC dos dispositivos conectados às suas portas. Esses dados são inseridos em uma tabela de
106
comutação. Uma vez preenchida a tabela, o switch pode ler o endereço MAC de destino de um
quadro de dados de entrada em uma porta e encaminhá-lo imediatamente. Até que um
dispositivo transmita, o switch não sabe seu endereço MAC.
Resumo
Ethernet é a arquitetura rede local mais comum e é usada para transportar dados entre os
dispositivos de uma rede. Em sua origem, a Ethernet era uma tecnologia half-duplex. Usando
half-duplex, um host podia ou transmitir ou receber em um determinado momento, mas não as
duas coisas. Quando dois ou mais hosts Ethernet transmitem ao mesmo tempo em uma meio
compartilhado, o resultado é uma colisão. O tempo que um quadro ou um pacote leva para
trafegar da estação de origem até o destino final é conhecido como latência ou atraso. As três
fontes de latência são o atraso da placa de rede, o atraso efetivo de propagação e o atraso
devido a dispositivos específicos da rede.
Bit time ou slot time é a unidade básica de tempo na qual UM bit pode ser enviado. Deve haver
um tempo mínimo durante o qual o bit está ligado ou desligado, para que o dispositivo
reconheça o um ou o zero binários.
Atenuação significa que um sinal se enfraquece conforme trafega ao longo da rede. Isso limita
a distância que pode ser abrangida por uma rede local. Um repetidor pode ampliar a distância
de uma rede local, mas também tem um efeito negativo sobre o seu desempenho geral.
A transmissão full-duplex entre estações é obtida pelo uso de conexões Ethernet ponto a
ponto. A transmissão full-duplex proporciona um ambiente de transmissão sem colisões. As
duas estações podem transmitir e receber ao mesmo tempo, e não há negociações pela
largura de banda. É possível utilizar a infra-estrutura de cabeamento existente, desde que o
meio físico atenda aos padrões mínimos da Ethernet.
107
roteador operar na camada de rede e usar o endereço IP para determinar o melhor caminho
até o nó de destino. Um switch pode segmentar uma rede local em microssegmentos, o que
diminui o tamanho dos domínios de colisão. Entretanto, todos os hosts conectados ao switch
continuam no mesmo domínio de broadcast.
Um buffer de memória é uma área de memória onde um switch armazena dados. Ele pode
usar dois métodos para encaminhar quadros: a bufferização por porta e a bufferização em
memória compartilhada.
108
MODULO 05 - Switches
Visão Geral
A tarefa de projetar uma rede pode ser um desafio porque envolve mais do que a simples
conexão de dois computadores. Uma rede requer vários recursos para ser confiável,
gerenciável e escalável. Para projetar redes confiáveis, gerenciáveis e escaláveis, os
projetistas de redes devem entender que cada um dos principais componentes de uma rede
tem requisitos de projeto diferentes.
O projeto de uma rede tornou-se mais difícil, apesar de avanços no desempenho dos
equipamentos e nas capacidades dos meios físicos. A utilização de vários tipos de meios
físicos e redes locais que fazem interconexão com outras redes aumentou a complexidade do
ambiente de redes. Bons projetos de redes melhoram o desempenho e também reduzem as
dificuldades associadas ao crescimento e evolução das redes.
Uma rede local abrange uma sala, edifício ou conjunto de edifícios relativamente contíguos.
Um grupo de edifícios localizados perto uns dos outros e pertencentes a uma única
organização é denominado campus. Os seguintes aspectos da rede precisam ser identificados
antes de se projetar uma rede local de grande porte:
Cada uma dessas camadas do projeto de uma rede local exige switches que são melhor
adaptados às tarefas específicas. Os recursos, funções e especificações técnicas de cada
switch variam conforme a camada do projeto de rede local para a qual se destina o switch.
Para obter o melhor desempenho, é importante entender o papel de cada camada para, então,
escolher o switch que melhor se adapte aos requisitos da camada.
A Atividade Interativa com Mídia irá ajudar os alunos a se familiarizarem com os quatro
objetivos principais de um projeto
109
5.1.2 Considerações do projeto de uma rede local
Esta página irá descrever alguns fatores importantes a serem considerados ao se projetar uma
rede local.
Muitas organizações já atualizaram suas redes locais atuais ou planejam implementar novas
redes locais. Essa expansão no projeto de redes locais deve-se ao desenvolvimento de
tecnologias de alta velocidade, tais como o Asynchronous Transfer Mode (ATM). Essa
expansão também deve-se a arquiteturas complexas de redes locais que utilizam a comutação
de redes locais e redes locais virtuais (VLANs).
110
Com se vê na Figura, os servidores corporativos devem ser colocados nas instalações
principais de distribuição (main distribution facility – MDF). Sempre que possível, o tráfego para
os servidores corporativos deve transitar até a MDF e não ser transmitido através de outras
redes. No entanto, algumas redes utilizam um núcleo roteado ou até um server farm para os
servidores corporativos. Nesses casos, o tráfego de rede transita através de outras redes e
isso geralmente não pode ser evitado. Idealmente, os servidores de grupo de trabalho devem
ser colocados nas instalações de distribuição intermediárias (intermediate distribution facilities -
IDFs) mais próximas aos usuários que acessam os aplicativos desses servidores. Isso permite
que o tráfego transite através da infra-estrutura da rede até uma IDF, e não afeta outros
usuários naquele segmento da rede. Os switches de rede local de camada 2, no interior da
MDF e das IDFs, devem ter 100 Mbps ou mais alocados para esses servidores.
Os nós Ethernet utilizam CSMA/CD. Cada nó precisa competir com os demais nós para
acessar os meios físicos compartilhados, ou domínio de colisão. Se dois nós transmitem
simultaneamente, ocorre uma colisão. Quando ocorrem colisões, o quadro transmitido é
destruído e um sinal de congestionamento é enviado a todos os nós do segmento. Os nós
esperam um período de tempo aleatório e, então, enviam os dados novamente. Um número
excessivo de colisões pode reduzir a largura de banda disponível em um segmento de rede em
trinta e cinco a quarenta por cento da largura de banda disponível.
Um broadcast ocorre quando o endereço MAC (media access control) de destino é definido
como FF-FF-FF-FF-FF-FF. O termo domínio de broadcast refere-se a um conjunto de
dispositivos que recebem um quadro de dados de broadcast vindo de qualquer dispositivo
dentro do próprio conjunto. Todos os hosts que recebem um quadro de dados de broadcast
precisam processá-lo. Esse processo consome os recursos e a largura de banda disponível do
host. Os dispositivos de camada 2, tais como bridges e switches, reduzem o tamanho de um
domínio de colisão. Esses dispositivos não reduzem o tamanho do domínio de broadcast. Os
roteadores reduzem o tamanho do domínio de colisão e o tamanho do domínio de broadcast na
camada 3.
111
5.1.3 Metodologia de projeto de uma rede local
Para que uma rede local seja eficiente e atenda às necessidades de seus usuários, ela deve
ser projetada e implementada de acordo com uma série planejada de etapas sistemáticas. Esta
página irá descrever as seguintes etapas:
112
• Qual é o nível de perícia dessas pessoas?
• Quais são suas atitudes com relação aos computadores e aplicativos?
• Até que ponto estão desenvolvidas as diretrizes organizacionais documentadas?
• Algum tipo de dados foi definido como sendo de suma importância aos propósitos da
organização?
• Alguma operação foi definida como sendo de suma importância aos propósitos da
organização?
• Que protocolos são permitidos na rede?
• Há suporte apenas para certos hosts de desktop?
• Quem é responsável pelos endereços, nomes, projeto de topologia e configuração da
rede local?
• Quais são os recursos organizacionais humanos, de hardware e de software?
• Como esses recursos estão vinculados e compartilhados atualmente?
• Quais recursos financeiros estão disponíveis para a organização?
Uma documentação dos requisitos permite a formulação de uma estimativa informada dos
custos e prazos para a implementação do projeto da rede local. É importante entender as
questões de desempenho de qualquer rede.
A disponibilidade mede a utilidade da rede. Segue abaixo uma lista de algumas das muitas
coisas que afetam a disponibilidade:
• Throughput
• Tempo de resposta
• Acesso aos recursos
Cada cliente tem uma definição diferente de disponibilidade. Por exemplo, pode ser necessário
transmitir voz e imagens de vídeo pela rede. Esses serviços podem requerer muito mais largura
de banda do que aquela disponível na rede ou no backbone. Para aumentar a disponibilidade,
podem ser adicionados recursos, mas isso aumenta o custo da rede. Os projetos de rede
devem proporcionar a maior disponibilidade possível pelo menor preço.
A próxima etapa no projeto de uma rede é analisar os requisitos da rede e de seus usuários. As
necessidades dos usuários de uma rede estão sempre evoluindo. À medida que vão se
tornando disponíveis mais aplicativos de voz e de vídeo nas redes, vai crescendo também a
necessidade de aumentar a largura de banda nas redes.
Uma rede local que não tem a capacidade de proporcionar informações aos seus usuários de
maneira rápida e precisa é inútil. Deve-se tomar as medidas necessárias para garantir que
sejam atendidos os requisitos de informações da organização e de seus funcionários.
113
A próxima etapa é escolher uma topologia geral para a rede local que atenda aos requisitos
dos usuários.
O projeto da topologia de uma rede local pode ser dividido nas seguintes três categorias únicas
do modelo de referência OSI:
• Camada de rede
• Camada de enlace de dados
• Camada física
A etapa final da metodologia do projeto de uma rede local é documentar a topologia física e
lógica da rede. A topologia física da rede refere-se à maneira pela qual os vários componentes
de uma rede local são interconectados. O projeto lógico de uma rede refere-se ao fluxo de
114
dados dentro de uma rede. Também se refere aos esquemas de nomes e endereços usados
nas implementações das soluções do projeto de uma rede local.
Os seguintes itens são importantes para a documentação do projeto de uma rede local.
115
• Mapa lógico de VLANs
116
• Mapas de endereços
Esta página irá ensinar aos alunos como projetar a topologia de camada 1 de uma rede.
Uma avaliação cuidadosa dos pontos fortes e fracos das topologias deve ser feita. A eficácia
de uma rede depende dos cabos a serem utilizados.
117
necessária. As empresas também devem certificar-se de que estes sistemas cumprem os
padrões bem definidos da indústria, tais como as especificações TIA/EIA-568-A.
O padrão TIA/EIA-568-A especifica que todo dispositivo conectado à rede deve ser ligado a um
ponto central através de cabeamento horizontal. Isso se aplica se todos os hosts que
necessitam ter acesso à rede estiverem dentro do limite de distância de 100 metros (328 pés)
para Categoria 5e UTP Ethernet.
Em uma simples topologia em estrela com apenas um wiring closet, o MDF inclui um ou mais
patch panels de conexão horizontal (HCC).
Os patch cables HCC são usados para conectar o cabeamento horizontal da camada 1 às
portas dos switches de rede local da camada 2. A porta uplink do switch da rede local,
conforme o modelo, é conectada à porta Ethernet do roteador de camada 3 através de um
patch cable. Neste ponto, o host final tem uma conexão física completa à porta do roteador.
Quando os hosts em redes maiores excederem o limite de 100 metros (328 pés) para
Categoria 5e UTP, é necessário mais de um wiring closet. Mais de um wiring closet implica
mais de uma área de captação. Os wiring closets secundários são conhecidos como IDFs. Os
padrões TIA/EIA -568-A especificam que os IDFs devem ser conectados ao MDF através de
cabeamento vertical, também conhecido como cabeamento de backbone.
118
Uma conexão cruzada vertical (VCC) é usada para fazer a interconexão entre as várias IDFs e
a MDF. Cabo de fibra ótica é normalmente usado porque os lances de cabo vertical geralmente
excedem o limite de 100 metros (328 pés) para cabo Categoria 5e UTP.
O diagrama lógico é o modelo da topologia da rede sem todos os detalhes do caminho exato
da instalação dos cabos. O diagrama lógico é o mapa básico da rede local, que inclui os
seguintes elementos:
• A especificação dos locais e a identificação dos wiring closets da MDF e das IDFs.
• Documentação do tipo e quantidade de cabos usados para interconectar as IDFs com
a MDF.
• Documentação do número de cabos sobressalentes disponíveis para aumentar a
largura de banda entre os wiring closets. Por exemplo, se o cabeamento vertical entre
a IDF 1 e a MDF estiver sendo utilizado em oitenta por cento, poderão ser utilizados
dois pares adicionais para duplicar a capacidade.
• Fornecimento da documentação detalhada de todos os lances de cabos, seus números
de identificação e a porta na qual termina o lance no HCC ou no VCC.
O propósito dos dispositivos de camada 2 na rede é comutar quadros conforme o seu endereço
MAC de destino, providenciar a detecção de erros e reduzir o congestionamento na rede. Os
dois dispositivos de rede mais comuns de camada 2 são bridges e switches de rede local. Os
dispositivos na camada 2 determinam o tamanho dos domínios de colisão.
As colisões e a dimensão do domínio de colisão são dois fatores que afetam negativamente o
desempenho da rede.
119
A microssegmentação da rede
reduz o tamanho dos domínios de
colisão e reduz o número de
colisões. A microssegmentação é
implementada através da utilização
de bridges e switches. O objetivo é
melhorar o desempenho para um
grupo de trabalho ou para um
backbone. Os switches podem ser
usados com hubs para fornecer o
nível apropriado de desempenho a
diferentes usuários e servidores.
120
Os lances horizontais entre a IDF e as estações de trabalho utilizam cabo Categoria 5e UTP.
Um cabo de acesso horizontal deve ter um comprimento superior a 100 metros (328 pés). Em
um ambiente normal, 10 Mbps é adequado para o cabo de acesso horizontal. Os switches de
rede local assimétricos permitem misturar portas de 10 Mbps e 100 Mbps no mesmo switch.
121
Todos os hosts conectados ao hub de rede local compartilham o mesmo domínio de colisão e a
mesma largura de banda. Isso significa que ocorrerão colisões com mais freqüência.
122
Os hubs de meios físicos compartilhados são geralmente usados no ambiente de um switch de
rede local para criar mais pontos de conexão na extremidade dos lances de cabos horizontais.
Essa solução é aceitável mas é preciso ter cuidado. Os domínios de colisão devem ser
mantidos pequenos e a largura de banda para o host precisa ser providenciada de acordo com
as especificações coletadas na fase de levantamento de requisitos do processo de projeto da
rede.
Os dispositivos de camada 3 podem ser usados para criar segmentos únicos de rede local. Os
dispositivos de camada 3 permitem comunicações entre segmentos com base nos endereços
de camada 3, tais como endereços IP. A implementação dos dispositivos de camada 3 permite
a segmentação da rede local em redes lógicas e físicas únicas. Os roteadores também
permitem a conectividade com WANs, como, por exemplo, a Internet.
O roteamento de camada 3 determina o fluxo de tráfego entre segmentos únicos de rede física
baseados em endereços de camada 3. Um roteador encaminha pacotes de dados com base
nos endereços de destino. Um roteador não encaminha broadcasts baseados em redes locais,
tais como solicitações ARP. Portanto, a interface do roteador é considerada o ponto de entrada
e saída de um domínio de broadcast e interrompe broadcasts para outros segmentos da rede
local.
123
A Figura mostra um exemplo de uma implementação que tem várias redes. Todo o tráfego de
dados da Rede 1 destinado à Rede 2 tem que passar pelo roteador. Nesta implementação, há
dois domínios de broadcast. As duas redes possuem esquemas únicos de endereçamento de
rede de camada 3. Várias redes físicas podem ser criadas com a inserção do cabeamento
horizontal e vertical no switch de camada 2 apropriado. Isso pode ser realizado com patch
cables. Essa implementação também proporciona uma segurança robusta porque todo o
tráfego que entra e sai da rede local precisa passar pelo roteador.
Uma vez criado um esquema de endereços IP para um cliente, ele deve ser claramente
documentado. Uma convenção padrão deve ser definida para os endereços de hosts
importantes na rede.
Esse esquema de endereços deve permanecer consistente através de toda a rede. Mapas de
endereços proporcionam uma visão instantânea da rede.
124
Mapas físicos da rede ajudam na solução de problemas na rede.
125
A implementação de VLANs combina a comutação de camada 2 com as tecnologias de
roteamento de camada 3 para limitar tanto os domínios de colisão como os domínios de
broadcast. As VLANs também proporcionam segurança, com a criação de grupos VLAN que se
comunicam com outras VLANs através de roteadores.
Uma associação de porta física é usada para implementar a designação de VLANs. As portas
P1, P4 e P6 foram atribuídas à VLAN 1. A VLAN 2 tem as portas P2, P3 e P5. A comunicação
entre a VLAN 1 e a VLAN 2 pode ocorrer apenas através do roteador. Isso limita o tamanho
dos domínios de broadcast e utiliza o roteador para determinar se a VLAN 1 pode falar com a
VLAN 2.
126
Esse modelo hierárquico aplica-se a qualquer projeto de rede. É importante reconhecer que
essas três camadas poderão existir em entidades físicas evidentes e distintas. No entanto, isso
não é obrigatório. Essas camadas têm a finalidade de ajudar no projeto bem sucedido de uma
rede e para representar uma funcionalidade que precisa existir em uma rede.
Se for usado um hub, a largura de banda será compartilhada. Se for usado um switch, a largura
de banda será dedicada. Se uma estação de trabalho ou servidor for conectado diretamente à
porta do switch, toda a largura de banda da conexão no switch estará disponível ao
computador conectado. Se um hub for conectado a uma porta do switch, a largura de banda
será compartilhada entre todos os dispositivos conectados ao hub.
127
quadros somente à porta do switch conectado ao dispositivo de destino. O switch cria
pequenos segmentos de camada 2 chamados microssegmentos. O domínio de colisão pode
ter um mínimo de dois dispositivos. Switches de camada 2 são usados na camada de acesso.
O switch Catalyst da Série 1900 ou 2820 é um dispositivo de acesso eficaz para redes de
campos de pequeno ou médio porte. O switch Catalyst da Série 2950 oferece um acesso eficaz
para servidores e usuários que exigem uma largura de banda mais alta. Isso é realizado
através de portas de switch com capacidade Fast Ethernet. Os switches Catalyst da Série 4000
e 5000 incluem portas Gigabit Ethernet e são dispositivos de acesso eficazes para um grande
número de usuários em redes de campus de grande porte.
• Agregação de
conexões dos wiring
closets
• Definição de
domínio de
broadcast/multicast
• Roteamento VLAN
• Quaisquer
transições de meios
físicos que precisem
ocorrer
• Segurança
128
5.2.4 Switches de camada de distribuição
• Catalyst 2926G
129
• A família Catalyst 5000
• A família Catalyst 6000
O núcleo (backbone) pode ser projetado para usar comutação da camada 2 ou da camada 3.
Podem ser usados switches ATM ou Ethernet.
130
5.2.6 Switches da camada central
131
Resumo
O projeto de uma rede local depende dos requisitos de diferentes organizações, mas
tipicamente focaliza a funcionalidade, escalabilidade, gerenciabilidade e adaptabilidade. Para
que uma rede local seja eficaz, ela deve ser projetada e implementada conforme uma série
planejada de etapas sistemáticas. As etapas exigem que os dados e requisitos sejam coletados
e analisados, as camadas 1, 2 e 3 sejam implementadas e que tudo seja documentado. Os
seguintes itens são importantes para a documentação do projeto de uma rede local:
O diagrama lógico da rede local inclui os locais e a identificação dos wiring closets da MDF e
das IDFs, o tipo e a quantidade de cabos usados para interconectar as IDFs com a MDF e o
número de cabos sobressalentes disponíveis para aumentar a largura de banda entre os wiring
closets.
Os roteadores são dispositivos de camada 3 que podem ser usados para criar segmentos
únicos de rede local. Eles permitem comunicações entre segmentos com base nos endereços
de camada 3, tais como endereços IP. A implementação dos dispositivos de camada 3 permite
a segmentação da rede local em redes lógicas e físicas únicas. Os roteadores também
permitem a conectividade com WANs, como, por exemplo, a Internet.
O modelo do projeto hierárquico inclui três camadas. A camada de acesso proporciona acesso
à rede para usuários em grupos de trabalho. A camada de distribuição proporciona uma
conectividade com base em diretivas. A camada central fornece o melhor transporte possível
entre instalações. A camada central é freqüentemente conhecida como backbone.
132
distribuição operam tanto na camada 2 como na camada 3 do modelo OSI. Os switches nesta
camada são conhecidos como switches multicamada.
Visão Geral
Um switch é um dispositivo de rede da camada 2 que atua como ponto de concentração para a
conexão de estações de trabalho, servidores, roteadores, hubs e outros switches.
Um hub é um tipo antigo de dispositivo de concentração que também provê várias portas.
Entretanto, os hubs são inferiores aos switches porque todos os dispositivos conectados a um
hub compartilham a largura de banda e o mesmo domínio de colisão. Outra desvantagem dos
hubs é que eles só operam no modo half-duplex. No modo half-duplex, em um determinado
momento, os hubs só podem enviar ou receber dados, não podem fazer as duas coisas ao
mesmo tempo. Os switches podem operar no modo full-duplex, o que significa que podem
enviar e receber dados simultaneamente.
Os switches são bridges com várias portas. Os switches são a tecnologia padrão atual das
Redes locais Ethernet que usam uma topologia em estrela. Um switch fornece vários circuitos
virtuais dedicados ponto-a-ponto entre os dispositivos conectados à rede, então não há a
possibilidade de ocorrerem colisões.
Devido ao papel predominante dos switches nas redes modernas, a capacidade de entender e
configurar switches é essencial para o suporte de rede.
Os switches novos têm uma configuração predefinida com valores de fábrica. Essa
configuração raramente atende as necessidades dos administradores de rede. Os switches
podem ser configurados e gerenciados a partir de uma interface de linha de comando (CLI). Os
dispositivos de rede também podem ser configurados e gerenciados através de uma interface
baseada na web e de um navegador.
Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.
133
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:
Os switches são computadores dedicados e especializados que contêm uma unidade central
de processamento (CPU), memória de acesso aleatório (RAM) e um sistema operam.
Conforme mostrado na figura, os switches geralmente têm várias portas às quais os hosts
podem se conectar, além de portas especializadas para fins de gerenciamento. É possível
gerenciar os switches e visualizar e alterar sua configuração por meio da porta do console.
Diversos switches Cisco Catalyst da série 2900 estão mostrados na figura. Esses modelos são
de 12, 24 e 48 portas. Os dois switches na parte superior da figura já mostrada são switches
simétricos de configuração fixa, que oferecem FastEthernet em todas as portas ou uma
combinação de portas com 10Mbps e 100Mbps. Os três switches seguintes são modelos
assimétricos com duas portas Gigabit Ethernet fixas de cobre ou fibra. Os quatro switches da
parte inferior são modelos assimétricos com slots modulares GBIC (Gigabit Interface
Converter), que podem acomodar uma variedade de opções de mídia de cobre e fibra.
134
6.1.2 LEDs indicadores do switch
O painel frontal de um switch tem diversas luzes para ajudar a monitorar a atividade e o
desempenho do sistema. Essas luzes são chamadas de LEDs (diodos emissores de luz). Esta
página discutirá os LEDs da parte frontal de um switch:
• LED do Sistema;
• LED da fonte de alimentação remota (RPS);
• LEDs de Modo das Portas;
• LEDs de Status das Portas.
Os LEDs de Modo indicam o estado do botão Modo. Os modos são usados para determinar
como os LEDs de Status das Portas são interpretados. Para selecionar ou alterar o modo das
portas, pressione o botão Modo repetidas vezes até que os LEDs de Modo indiquem o modo
desejado.
A figura descreve as cores dos LED de Status das Portas e sua relação com os valores dos
LEDs de Modo.
135
6.1.3 Verificação dos LEDs das portas durante o POST do switch
Esta página explicará como os LEDs podem ser usados para determinar se um switch está
funcionando corretamente e estabeleceu um link com seu alvo.
Uma vez conectado o cabo de alimentação, o switch inicia uma série de testes, chamada de
autoteste de inicialização, ou power-on self test (POST). O POST é executado
automaticamente para verificar se o switch está funcionando corretamente. O LED do Sistema
indica se o POST obteve êxito ou não. Se o LED do Sistema estiver apagado mas o switch
estiver ligado à energia, então o POST está sendo executado. Se o LED do Sistema estiver
verde, o POST foi bem sucedido. Se o LED do Sistema estiver âmbar, o POST falhou. A falha
do POST é considerada um erro fatal. Não se deve esperar que o switch funcione de maneira
confiável se o POST falhar.
Os LEDs de Status das Portas também mudam durante o POST. Os LEDs de Status das
Portas ficam na cor âmbar por cerca de 30 segundos enquanto o switch descobre a topologia
da rede e procura por loops. Se os LEDs de Status das Portas ficarem verdes, o switch
estabeleceu um link entre a porta e o alvo, por exemplo, um computador. Se os LEDs de Status
das Portas ficarem apagados, o switch determinou que não há nada conectado à porta
Esta página explicará como usar o HyperTerminal para verificar e configurar um switch.
136
Inicie o HyperTerminal no computador. Uma janela de diálogo será exibida. Ao realizar a
configuração inicial da comunicação entre o HyperTerminal e o switch, é necessário dar um
nome à conexão. Selecione a porta COM à qual o switch está conectado a partir do menu pull-
down e clique no botão OK. Uma segunda janela de diálogo será exibida. Configure os
parâmetros conforme mostrado na figura e clique no botão OK.
Conecte o switch a uma tomada. O resultado da inicialização do switch deve ser exibido na tela
do HyperTerminal. Esse resultado mostra informações sobre o switch, detalhes sobre o status
do POST e dados sobre o hardware do switch.
Depois que o switch termina a inicialização e conclui o POST, aparecem prompts para o
diálogo de Configuração do Sistema. O switch pode ser configurado manualmente com ou sem
o auxílio do diálogo de Configuração do Sistema. O diálogo de Configuração do Sistema de um
switch é mais simples do que o de um roteador.
Esta página explicará como usar o comando de ajuda na CLI dos switches da Cisco.
A CLI dos switches da Cisco é muito semelhante à CLI dos roteadores da Cisco.
Digite um ponto de interrogação (?) para emitir o comando de ajuda. Quando se digita esse
comando no prompt do sistema, é exibida uma lista dos comandos disponíveis no modo de
comando atual.
O comando help é muito flexível. Para obter uma lista dos comandos que começam com uma
determinada seqüência de caracteres, digite esses caracteres seguidos imediatamente de um
ponto de interrogação (?). Não digite espaço antes do ponto de interrogação. Essa forma de
ajuda é chamada de ajuda de palavra, pois completa uma palavra.
137
6.1.6 Modos de comando do switch
Esta página discutirá dois modos de comando dos switches. O modo padrão é o modo EXEC
do Usuário. O modo EXEC do Usuário é reconhecido por seu prompt, que termina com um
sinal de maior (>). Os comandos disponíveis no modo EXEC do Usuário são aqueles que se
limitam a alterar configurações do terminal, realizar testes básicos e exibir informações do
sistema. A figura descreve os comandos show disponíveis no modo EXEC do Usuário.
O comando enable é usado para entrar no modo EXEC Privilegiado a partir do modo EXEC
do Usuário. O modo EXEC Privilegiado também é reconhecido por seu prompt, que termina
com um sinal de tralha (#). O conjunto de comandos do modo EXEC Privilegiado inclui o
comando configure, assim como todos os comandos do modo EXEC do Usuário. O
comando configure permite acessar outros modos de comando. Como esses modos são
usados para configurar o switch, o acesso ao modo EXEC Privilegiado deve ser protegido por
senha, para evitar uso não autorizado. Se for definida uma senha, os usuários recebem uma
solicitação para digitar a senha a fim de obter acesso ao modo EXEC Privilegiado. A senha não
aparece na tela, e faz distinção entre maiúsculas e minúsculas.
Ao ser ligado pela primeira vez, um switch tem dados padrão no arquivo de configuração atual.
O nome do host padrão é Switch. Não há senhas definidas nas linhas do console nem do
terminal virtual (vty).
138
As portas ou interfaces do switch estão definidas para o modo automático,
139
Por padrão, o diretório flash tem um arquivo que contém a imagem do IOS, um arquivo
chamado env_vars e um subdiretório chamado html. Depois que o switch for configurado, o
diretório flash conterá um arquivo chamado config.text e um banco de dados de VLANs.
Conforme mostrado na figura, o diretório flash não contém um arquivo config.text nem um
arquivo de banco de dados de VLANs chamado vlan.dat.
Neste estado padrão, o switch tem um único domínio de broadcast e a CLI pode ser usada
para gerenciar e configurar o switch através da porta do console. O protocolo Spanning-Tree
também está ativado e permite que a bridge construa uma topologia sem loops ao longo de
uma rede local estendida.
Pode ser que um switch já esteja pré-configurado e que seja necessário apenas inserir as
senhas dos modos EXEC do Usuário e EXEC Privilegiado. Entra-se no modo de configuração
do switch a partir do modo EXEC Privilegiado.
140
Na CLI, o prompt do modo EXEC Privilegiado padrão é Switch#. No modo EXEC do Usuário, o
prompt é Switch>.
É necessário dar um nome de host ao switch e definir senhas nas linhas do console e vty.
Para permitir que o switch seja acessível por Telnet e por outros aplicativos TCP/IP, é
necessário definir endereços IP e um gateway padrão.
141
Por padrão, a VLAN 1 é a VLAN de gerenciamento. Em uma rede baseada em switches, todos
os dispositivos devem estar na VLAN de gerenciamento. Isso permite que uma única estação
de trabalho de gerenciamento acesse, configure e gerencie todos os dispositivos da rede.
O padrão das portas Fast Ethernet do switch é velocidade automática (auto-speed) e modo
duplex automático (auto-duplex). Isso permite que as interfaces negociem essas configurações.
Se necessário, os administradores de rede podem configurar manualmente a velocidade da
interface e os valores duplex.
Alguns dispositivos de rede podem fornecer uma interface baseada na web para fins de
configuração e gerenciamento. Uma vez configurado com um endereço IP e um gateway, um
switch pode ser acessado dessa maneira. Um navegador pode acessar esse serviço usando o
endereço IP e a porta 80, a porta padrão do http. O serviço HTTP pode ser ligado e desligado e
é possível escolher o endereço de porta do serviço.
142
É possível fazer download de qualquer software adicional, tal como um applet, para o
navegador a partir do switch. Além disso, a rede pode ser gerenciada por uma interface gráfica
com o usuário (GUI) baseada em navegador.
Os switches examinam o endereço de origem dos quadros recebidos nas portas para aprender
o endereço MAC dos PCs ou estações de trabalho conectados a estas. Esses endereços MAC
aprendidos são então gravados em uma tabela de endereços MAC. Os quadros que têm um
endereço MAC de destino que foi gravado na tabela podem ser comutados para a interface
correta.
O comando show mac-address-table pode ser inserido no modo EXEC Privilegiado para
examinar os endereços que um switch aprendeu.
143
Um switch aprende e mantém dinamicamente milhares de endereços MAC. Para preservar a
memória e otimizar a operação do switch, as entradas aprendidas podem ser descartadas da
tabela de endereços MAC. Máquinas podem ter sido removidas de uma porta, desligadas ou
movidas para outra porta do mesmo switch ou de outro switch. Isso pode causar confusão ao
encaminhar quadros. Por todos esses motivos, se não for visto nenhum quadro com um
endereço aprendido previamente, a entrada do endereço MAC é automaticamente descartada
ou considerada obsoleta após 300 segundos.
Em vez de esperar que uma entrada dinâmica fique obsoleta, os administradores de rede
podem usar o comando clear mac-address-table no modo EXEC Privilegiado.
As entradas de endereço MAC configuradas pelos administradores de rede também podem ser
removidas com esse comando. Esse método de limpar as entradas da tabela garante que os
endereços inválidos sejam removidos imediatamente.
144
O seguinte comando pode ser usado para configurar um endereço MAC estático em um switch:
O seguinte comando pode ser usado para remover um endereço MAC estático de um switch:
Uma alternativa é definir port security em uma interface do switch. A quantidade de endereços
MAC por porta pode ser limitada a 1. O primeiro endereço aprendido dinamicamente pelo
switch se torna o endereço seguro.
O comando show port security pode ser usado para verificar o status da segurança de
porta.
145
6.2.6 Adições, movimentações e alterações
Esta página discutirá alguns itens que devem ser configurados antes que um switch seja
adicionado a uma rede.
Os parâmetros a seguir devem ser configurados em um novo switch adicionado a uma rede:
• Nome do switch;
• Endereço IP do switch na VLAN de gerenciamento;
• Um gateway padrão;
• Senhas de linha.
Quando um host é removido de uma porta ou movido para outra, as configurações que podem
causar um comportamento inesperado devem ser eliminadas. Em seguida, o switch pode ser
reconfigurado para refletir as alterações.
146
6.2.7 Gerenciamento do arquivo do sistema operacional do switch
Também deve ser feita uma cópia de backup do IOS em um servidor local. Em seguida, o IOS
pode ser recarregado para a memória flash se necessário.
Esta página discutirá a importância das senhas e explicará como é possível recuperá-las.
Para fins de segurança e gerenciamento, é necessário definir senhas nas linhas do console e
vty. Também é necessário definir uma senha de ativação e uma senha de ativação secreta.
Essas práticas ajudam a garantir que somente usuários autorizados tenham acesso aos modos
EXEC do Usuário e Privilegiado do switch.
Há circunstâncias em que se consegue ter acesso físico ao switch, mas não ao modo EXEC
Usuário ou Privilegiado porque as senhas não são conhecidas ou foram esquecidas.
Esta página explicará a finalidade das atualizações do IOS e do firmware e como elas são
realizadas.
147
Para atualizar o IOS, faça download de uma cópia da nova imagem para um servidor local a
partir do Cisco Connection Online (CCO) Software Center.
Resumo
Quando o switch é ligado pela primeira vez, são configurados dados padrão. Para fins de
gerenciamento, um switch recebe um endereço IP. O comando show version permite
verificar a versão do IOS e as definições do configuration register.
Uma vez configurado com um endereço IP e um gateway, um switch pode ser acessado
através de uma interface baseada em navegador. Isso permite a configuração e o
gerenciamento do switch. Esse serviço pode ser acessado através de um navegador com o
endereço IP e a porta 80, a porta padrão do http.
Um endereço MAC permanente, atribuído a uma interface, garante que o endereço MAC não
será considerado obsoleto automaticamente pelo switch. O comando mac-address-table
static <endereço_mac_do_host> interface
FastEthernet <número_Ethernet> vlan <nome_da_vlan> pode ser usado para
configurar um endereço MAC estático. Use a forma no desse comando para removê-lo. O
comando show port security pode ser usado para verificar a segurança das portas.
O nome do switch, endereço IP, gateway padrão e as senhas de linha devem ser configurados
em um novo switch que é adicionado a uma rede. Quando um host é removido de uma porta
ou movido para outra, as configurações que podem causar um comportamento inesperado
devem ser eliminadas. Deve-se manter uma documentação da configuração atual e realizar
backups periódicos para o servidor ou para um disco.
148
Módulo 07 - Spanning-Tree Protocol
Visão Geral
Redundância é crucial em uma rede. Ela permite que a rede seja tolerante a falhas. Topologias
redundantes protegem contra downtime (tempo de inatividade) ou indisponibilidade da rede. O
downtime pode ser causado pela falha de um único link, porta ou dispositivo da rede. Os
engenheiros de rede geralmente precisam equilibrar o custo da redundância com a
necessidade de disponibilidade da rede.
O Spanning-Tree Protocol é usado nas redes comutadas para criar uma topologia lógica sem
loops a partir de uma topologia física com loops. Links, portas e switches que não fazem parte
da topologia ativa sem loops não encaminham quadros de dados. O Spanning-Tree Protocol é
uma ferramenta poderosa que oferece aos administradores de rede a segurança de uma
topologia redundante sem o risco dos problemas causados pelos loops de comutação.
Este módulo aborda alguns dos objetivos dos exames CCNA 640-801 e ICND 640-811.
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:
149
• Identificar as causas e os resultados da instabilidade do banco de dados de endereços
MAC;
• Identificar os benefícios e os riscos de uma topologia redundante;
• Descrever o papel da spanning-tree em uma rede comutada com caminhos
redundantes;
• Identificar os principais elementos da operação da spanning-tree;
• Descrever o processo de eleição da bridge raiz;
• Listar os estados da spanning-tree na ordem correta;
• Comparar o Spanning-Tree Protocol e Rapid Spanning-Tree Protocol.
Muitas empresas e organizações dependem cada vez mais das redes de computadores para
suas operações. O acesso a servidores de arquivos, bancos de dados, Internet, intranets e
extranets é crucial para o sucesso dos negócios. Se a rede ficar inoperante, a produtividade e a
satisfação dos clientes diminuem.
Cada vez mais, as empresas exigem disponibilidade (ou tempo de atividade) contínua da rede.
Um tempo de atividade de 100% talvez seja impossível, mas muitas organizações tentam
atingir tempos de atividade de 99,999% (cinco noves). Redes extremamente confiáveis
precisam alcançar essa meta. Isso é interpretado como uma hora de inatividade, em média, a
cada 4.000 dias, ou aproximadamente 5,25 minutos de inatividade por ano. Atingir tal meta
requer redes extremamente confiáveis.
A figura 1 ilustra a redundância. Suponha que seja necessário usar um carro para chegar ao
trabalho. Se o carro tiver um defeito que o torne inutilizável, será impossível usar o carro para ir
ao trabalho até que ele seja consertado.
Na média, se o carro ficar inutilizável por motivo de defeito em um a cada dez dias, ele terá
noventa por cento de uso. Portanto, a confiabilidade também é de 90%.
Um segundo carro melhoraria a situação. Não há necessidade de dois carros apenas para ir ao
trabalho. Entretanto, isso fornece redundância, ou backup, em caso de falha do veículo
principal. A capacidade de chegar ao trabalho não depende mais de um único carro.
Os dois carros podem ficar inutilizáveis simultaneamente, em um a cada 100 dias. O segundo
carro aumenta a confiabilidade para 99%.
Uma das metas das topologias redundantes é eliminar as interrupções da rede causadas por
um ponto único de falha. Todas as redes precisam de redundância para melhorar sua
confiabilidade.
Uma rede de estradas é um exemplo global de topologia redundante. Se uma estrada for
fechada para obras, provavelmente haverá uma rota alternativa até o destino.
150
Considere um bairro separado do centro da cidade por
um rio. Se houver apenas uma ponte sobre o rio,
haverá apenas um caminho para o centro da cidade.
Essa topologia não tem redundância.
151
Uma segunda ponte sobre o rio cria uma topologia
redundante. O bairro não ficará isolado do centro caso uma
das pontes fique intransitável
Se o Switch A falhar, o tráfego ainda pode fluir do Segmento 2 para o Segmento 1 e para o
roteador através do Switch B.
Os switches aprendem os endereços MAC dos dispositivos em suas portas, para que os dados
possam ser encaminhados corretamente para o destino. Os switches inundam (flood) quadros
para destinos desconhecidos até aprenderem os endereços MAC dos dispositivos.
152
Broadcasts e multicasts também são despejados.
Uma topologia comutada redundante pode causar tempestades de broadcast, múltiplas cópias
de quadros e problemas de instabilidade da tabela de endereços MAC.
Esta página explicará os efeitos dos broadcasts e dos multicasts em uma rede comutada. Os
multicasts são tratados como broadcasts pelos switches. Quadros de broadcast e multicast são
inundados (flooded) por todas as portas, exceto a que recebeu o quadro.
Se o Host X enviar um broadcast, como uma solicitação ARP, para o endereço da camada 2 do
roteador, o Switch A encaminhará o broadcast por todas as portas. O Switch B, estando no
mesmo segmento, também encaminha todos os broadcasts. O Switch B recebe todos os
broadcasts encaminhados pelo Switch A e o Switch A recebe todos os broadcasts
encaminhados pelo Switch B. O Switch A encaminha os broadcasts recebidos do Switch B. O
Switch B encaminha os broadcasts recebidos do Switch A.
153
Os switches continuam a propagar o tráfego de broadcast indefinidamente. Isso é chamado de
tempestade de broadcasts. Essa tempestade de broadcasts continuará até que um dos
switches seja desconectado. Como os broadcasts exigem tempo e recursos da rede para
serem processados, eles reduzem o fluxo de tráfego dos usuários. A rede parecerá inoperante
ou extremamente lenta.
Suponha que o endereço MAC do Roteador Y excedeu o limite de tempo nos dois switches.
Suponha também que o Host X ainda tem o endereço MAC do Roteador Y em sua cache ARP
e envia um quadro unicast para o Roteador Y. O roteador recebe o quadro, pois está no
mesmo segmento do Host X.
O Switch A não tem o endereço MAC do Roteador Y e, portanto, inunadrá o quadro por suas
portas. O Switch B também não sabe em qual porta está o Roteador Y. Então, o Switch B
inunda o quadro que recebeu. Isso faz com que o Roteador Y receba várias cópias do mesmo
quadro. Essa é uma causa da utilização desnecessária dos recursos da rede.
Esta página explicará como pode ocorrer encaminhamento de informações incorretas em uma
rede comutada redundante. Um switch pode aprender incorretamente que um endereço MAC
está em uma porta, quando na verdade ele está em outra.
154
Neste exemplo, o endereço MAC do Roteador Y não está na tabela de endereços MAC de
nenhum dos switches.
Neste exemplo, o quadro unicast do Roteador Y para o Host X ficará preso em um loop.
Esta página conclui esta lição. A próxima lição descreverá o Spanning-Tree Protocol (STP). A
primeira página discutirá os loops físicos e lógicos em uma rede redundante.
Esta página ensinará os alunos a criarem uma topologia lógica sem loops.
Topologias de rede redundantes são concebidas para garantir que as redes continuem a
funcionar na presença de pontos únicos de falha. Como a rede continua a funcionar, o trabalho
dos usuários é interrompido com menor freqüência. Quaisquer interrupções causadas por falha
devem ser as mais curtas possíveis.
155
Esses loops de bridges (bridging loops) são criados para que, se um link falhar, outro possa
assumir a função de encaminhar o tráfego.
Quando o destino do tráfego é desconhecido para um switch, ele inunda o tráfego por todas as
portas exceto aquela que o recebeu. O tráfego de broadcast e multicast também é
encaminhado por todas as portas, exceto a que recebeu o tráfego. Esse tráfego pode ficar
preso em um loop.
No cabeçalho da camada 2, não há valor de tempo de vida (TTL). Se um quadro for enviado
para uma topologia de switches com loop na camada 2, ele pode ficar em loop para sempre.
Isso desperdiça largura de banda e torna a rede inutilizável.
Na camada 3, o TTL é decrementado e o pacote é descartado quando o TTL atinge 0. Isso cria
um dilema. Para fins de confiabilidade, é necessária uma topologia física que contenha loops
de switches e bridges; por outro lado, uma rede comutada não pode ter loops.
A solução é permitir os loops físicos, mas criar uma topologia lógica sem loops. Nessa
topologia lógica, o tráfego destinado ao server farm conectado a Cat-5 a partir de qualquer
estação de trabalho de usuário conectada a Cat-4 passará por Cat-1 e Cat-2. Isso acontece
mesmo que haja uma conexão física direta entre Cat-5 e Cat-4.
A topologia lógica sem loops criada é chamada de árvore. Essa topologia é uma topologia
lógica em estrela ou em estrela estendida. Ela é a spanning-tree da rede. É uma spanning-tree
(árvore de espalhamento) porque todos os dispositivos da rede podem ser alcançados ou estão
abrangidos por ela.
O algoritmo usado para criar essa topologia lógica sem loops é o algoritmo spanning-tree. Esse
algoritmo pode levar um tempo relativamente longo para convergir. Para reduzir o tempo que
uma rede leva para computar uma topologia lógica sem loops, foi desenvolvido um novo
algoritmo, chamado rapid spanning-tree.
Esta página explicará como usar o STP para criar uma rede sem loops.
156
Bridges e switches Ethernet podem implementar o Spanning-Tree Protocol IEEE 802.1d e usar
o algoritmo spanning-tree para construir uma rede de caminho mais curto sem loops.
O caminho mais curto se baseia em custos de link cumulativos. Os custos dos links se baseiam
na velocidade desses links.
Pelo fato de alguns caminhos serem bloqueados, é possível obter uma topologia sem loops. Os
quadros de dados recebidos em links bloqueados são descartados.
As BPDUs contêm informações que permitem que os switches realizem ações específicas:
157
• Selecionar as portas que fazem parte da spanning-tree. Essas portas são chamadas de
portas designadas. As portas não designadas são bloqueadas.
Esta página ensinará os alunos sobre as portas e os dispositivos que são encontrados em uma
rede comutada STP.
Quando a rede está estabilizada, ela convergiu e há uma spanning-tree por rede.
As portas raiz e as portas designadas são usadas para encaminhar (F) tráfego de dados.
As portas não designadas descartam o tráfego de dados. Essas portas são chamadas de
portas de bloqueio (B) ou de descarte.
158
7.2.4 Escolha da bridge raiz
Esta página explicará como uma bridge raiz é selecionada em uma rede STP.
A primeira decisão tomada por todos os switches de uma rede é identificar a bridge raiz. A
posição da bridge raiz em uma rede afeta o fluxo de tráfego.
Quando um switch é ligado, o algoritmo spanning-tree é usado para identificar a bridge raiz.
São enviadas BPDUs com o ID da bridge (BID).
O BID consiste em uma prioridade da bridge, que tem como padrão 32768, e o endereço MAC
do switch. Por padrão, as BPDUs são enviadas a cada dois segundos.
Quando um switch é inicializado pela primeira vez, ele supõe ser o switch raiz e envia BPDUs
que contêm o endereço MAC tanto no BID do emissor quanto raiz. Essas BPDUs são
consideradas inferiores, pois são geradas a partir do switch designado que perdeu seu link com
a bridge raiz. O switch designado transmite as BPDUs com a informação de que ele é a bridge
159
raiz e também a bridge designada. Essas BPDUs contêm o endereço MAC do switch tanto no
BID do emissor quanto raiz.
Os BIDs são recebidos por todos os switches. Cada switch substitui os BIDs raiz mais altos por
BIDs mais baixos nas BPDUs que são enviadas. Todos os switches recebem as BPDUs e
determinam que o switch com o menor valor de BID raiz será a bridge raiz.
Os administradores de rede podem definir a prioridade do switch com um valor menor que o
padrão, o que torna o BID menor. Isso só deve ser implementado quando o fluxo de tráfego na
rede for bem compreendido
Esta página explicará os cinco estados das portas de um switch que usa STP.
É necessário tempo para que as informações de protocolo se propaguem através de uma rede
comutada. As alterações de topologia em uma parte de uma rede não são conhecidas
instantaneamente em outras partes da rede. Há um atraso de propagação. Um switch não deve
mudar o estado de uma porta de inativo para ativo imediatamente, pois isso pode causar loops
de dados.
Cada porta de um switch que estiver usando o Spanning-Tree Protocol está em um dos cinco
estados mostrados na figura
160
No estado de bloqueio, as portas só podem receber BPDUs. Os quadros de dados são
descartados e nenhum endereço pode ser aprendido. A passagem para o estado seguinte
pode levar até 20 segundos.
As portas passam do estado de bloqueio para o estado de escuta. Neste estado, os switches
determinam se há outros caminhos até a bridge raiz. O caminho que não for o caminho de
menor custo até a bridge raiz volta para o estado de bloqueio. O período de escuta é chamado
de atraso de encaminhamento e dura 15 segundos. No estado de escuta, não ocorre
encaminhamento de dados nem aprendizagem de endereços MAC. As BPDUs ainda são
processadas.
As portas passam do estado de escuta para o estado de aprendizagem. Neste estado, não
ocorre encaminhamento de dados de usuários, mas há aprendizagem de endereços MAC a
partir do tráfego recebido. O estado de aprendizagem dura 15 segundos e também é chamado
de atraso de encaminhamento. As BPDUs ainda são processadas.
Uma porta pode estar em um estado de desativação. Esse estado pode ocorrer quando um
administrador fecha a porta ou a porta falha.
Os valores de tempo indicados em cada estado são os valores padrão. Esses valores foram
calculados supondo que haverá um máximo de sete switches em qualquer ramo da spanning-
tree a partir da bridge raiz.
Uma interconexão de rede comutada terá convergido quando todas as portas dos switches e
das bridges estiverem no estado de encaminhamento ou de bloqueio. Portas de
encaminhamento enviam e recebem tráfego de dados e BPDUs. Portas bloqueadas somente
recebem BPDUs.
161
Quando a topologia da rede muda, os switches e as bridges recalculam a spanning-tree e
causam uma ruptura do tráfego da rede.
A convergência em uma nova topologia spanning-tree que use o padrão IEEE 802.1d pode
levar até 50 segundos. Essa convergência é formada pela idade máxima de 20 segundos, mais
o atraso de encaminhamento de escuta de 15 segundos, mais o atraso de encaminhamento de
aprendizagem de 15 segundos.
O estado de "bloqueio" de uma porta foi renomeado para estado de "descarte". A função de
uma porta de descarte é a de uma porta alternativa. A porta de descarte pode se tornar a porta
designada se a porta designada do segmento falhar.
162
Os tipos de link foram definidos como ponto-a-ponto, borda e compartilhado.
Essas mudanças permitem uma descoberta rápida de falhas de link em redes comutadas.
Com essas alterações, a convergência da rede não deve levar mais do que 15 segundos.
Resumo
163
indefinidamente até que um dos switches seja desconectado. Durante uma tempestade de
broadcasts, a rede parece inoperante ou extremamente lenta. As múltiplas transmissões de
quadros ocorrem quando um roteador recebe várias cópias de um quadro de vários switches,
devido a um endereço MAC desconhecido. As transmissões excessivas fazem com que o
roteador exceda o limite de tempo. Quando um switch aprende incorretamente um endereço
MAC de uma porta, ele pode causar uma situação de loop e instabilidade para a tabela de
endereços MAC.
A topologia lógica sem loops criada é chamada de árvore. A topologia é uma estrela ou estrela
estendida que abrange a árvore da rede. Todos os dispositivos podem ser alcançados ou
abrangidos. O algoritmo usado para criar essa topologia lógica sem loops é o algoritmo
spanning-tree.
O padrão LAN IEEE 802.1w define o protocolo Rapid Spanning-Tree. Ele serve para esclarecer
estados e funções das portas, definir um conjunto de tipos de link e permitir que os switches de
uma rede convergente gerem BPDUs em vez de usar as BPDUs da bridge raiz. O estado de
bloqueio de uma porta foi renomeado para estado de descarte. A função de uma porta de
descarte é a de uma porta alternativa. A porta de descarte pode se tornar a porta designada se
a porta designada do segmento falhar
164
Módulo 08 - Redes locais virtuais
Visão Geral
Uma importante característica da comutação Ethernet é a sua capacidade de criar redes locais
virtuais (VLANs). Uma VLAN é um agrupamento lógico de estações ou dispositivos de rede. As
VLANs podem ser agrupadas por funções operacionais ou por departamentos,
independentemente do local físico dos usuários. O tráfego entre VLANs é restrito. Os switches
e bridges encaminham o tráfego unicast, multicast e broadcast somente em segmentos da rede
local que servem a VLAN à qual o tráfego pertence. Em outras palavras, os dispositivos em
uma VLAN só comunicam com os dispositivos existentes na mesma VLAN. Os roteadores
providenciam a conectividade entre diferentes VLANs.
As VLANs aumentam o desempenho geral da rede pela agregação lógica dos usuários e
recursos. As empresas utilizam VLANs como uma forma de assegurar que um dado conjunto
de usuários estejam agrupados logicamente independentemente da sua localização física. As
organizações utilizam VLANs para agregar usuários do mesmo departamento. Por exemplo, os
usuários do Departamento de Marketing são colocados na VLAN de Marketing e os usuários do
Departamento de Engenharia são colocados na VLAN de Engenharia.
Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:
• Definir VLANs
• Listar as vantagens das VLANs
• Explicar como VLANs são usadas para criar domínios de broadcast
• Explicar como os roteadores são usados para comunicações entre VLANs
• Listar os tipos comuns de VLANs
• Definir ISL e 802.1Q
• Explicar conceito de VLANs geográficas
• Configurar VLANs estáticas em switches Catalyst da Série 2900.
• Verificar e salvar configurações de VLANs
• Excluir VLANs de uma configuração de um switch
165
8.1 Conceitos de VLAN
8.1.1 Introdução a VLANs
Uma VLAN é um agrupamento lógico de estações, serviços e dispositivos de rede que não
estão restritos a um segmento físico de uma rede local.
As VLANs segmentam logicamente as redes comutadas com base nas funções profissionais,
departamentos ou equipes de projetos, independentemente da localização física dos usuários
ou das conexões físicas da rede. Todas as estações de trabalho e servidores utilizados por um
grupo de trabalho em particular compartilham a mesma VLAN, independentemente da sua
conexão ou localização física.
166
A comunicação de uma estação de trabalho em um grupo VLAN é restrita aos servidores de
arquivo no mesmo grupo VLAN. As VLANs segmentam a rede logicamente em diferentes
domínios de broadcast de modo que os pacotes sejam comutados somente entre portas
designadas à mesma VLAN. As VLANs consistem em hosts ou equipamento de rede
interconectados por um só domínio de bridging. O domínio de bridging é suportado em
diferentes equipamentos de rede. Os switches de rede local operam protocolos de bridging
com um grupo de bridging separado para cada VLAN.
167
switches não processam tráfego com bridges entre VLANs, porque isso viola a integridade dos
domínios de broadcast das VLANs. Tráfego deve ser roteado entre VLANs.
Esta página irá explicar como os pacotes são roteados entre diferentes domínios de broadcast.
Uma VLAN é um domínio de broadcast criado por um ou mais switches. O projeto de rede nas
168
A Figura acima mostra como três switches separados são utilizados para criar três domínios de
broadcast separados. O roteamento de Camada 3 permite que o roteador envie pacotes para
os três domínios de broadcast diferentes.
Na Figura acima, uma VLAN é criada com um roteador e um switch. Existem três domínios de
broadcast separados. O roteador roteia tráfego entre as VLANs usando roteamento de Camada
3. O switch na Figura encaminhará quadros às interfaces do roteador se existirem certas
circunstâncias:
169
Se a Estação de Trabalho 1 na VLAN de Engenharia quiser enviar quadros à Estação de
Trabalho 2 na VLAN de Vendas, os quadros são enviados ao endereço MAC Fa0/0 do
roteador. O roteamento ocorre através do endereço IP na interface Fa0/0 do roteador para a
VLAN de Engenharia.
Uma VLAN consiste em uma rede comutada que é logicamente segmentada. Cada porta do
switch pode ser atribuída a uma VLAN. As portas atribuídas à mesma VLAN compartilham
broadcasts. As portas que não pertencem a essa VLAN não compartilham esses broadcasts.
Isso melhora o desempenho da rede porque o número de broadcasts desnecessários é
reduzido. As VLANs de associação estática são conhecidas como VLANs de associação port-
based ou port-centric. Ao entrar em uma rede, um dispositivo automaticamente assume a
associação de VLAN da porta à qual ele está conectado.
170
designada à VLAN 1 para o gerenciamento do switch. As demais portas no switch podem ser
designadas a VLANs alternativas.
171
Esse método é fácil de gerenciar porque não é necessário manter tabelas complexas de
consulta para a segmentação de uma VLAN.
As bridges filtram o tráfego que não precisa ir até outros segmentos além do segmento destino.
Se um quadro precisar atravessar uma bridge e se o endereço MAC destino for conhecido, a
bridge encaminhará o quadro somente à porta da bridge correta. Se o endereço MAC for
desconhecido, ela inunda o quadro para todas as portas no domínio de broadcast, ou seja, na
VLAN, com exceção da porta de origem onde o quadro foi recebido. Os switches são
considerados bridges multiportas.
172
• Mover facilmente as estações de trabalho na rede local
• Adicionar facilmente estações de trabalho à rede local
• Modificar facilmente a configuração da rede local
• Controlar facilmente o tráfego da rede
• Melhorar a segurança
Esta página irá descrever três associações básicas de VLAN utilizadas para determinar e
controlar como um pacote é designado:
173
174
• VLANs baseadas em portas
• VLANs baseadas em endereço MAC
• VLANs baseadas em protocolos
• Padrões de tráfego
• Tipos de aplicações
• As exigências de gerenciamento da rede
• Atributos que os grupos têm em comum
Por exemplo, é permitido ter um total de 254 endereços host em uma sub-rede de uma rede
que utiliza uma máscara de 24 bits para definir cada sub-rede. Devido à enfática
recomendação de que haja uma correspondência exata entre VLANs e sub-redes IP, não é
permitido haver mais de 254 dispositivos em qualquer VLAN. É ainda recomendado que as
VLANs não se estendam além do domínio de Camada 2 do switch de distribuição.
175
Existem dois métodos importantes de frame tagging, Inter-Switch Link (ISL) e 802.1Q. ISL é um
protocolo proprietário da Cisco e já foi o mais largamente utilizado, mas agora está sendo
substituído pelo padrão IEEE 802.1Q de frame tagging.
Conforme os pacotes são recebidos pelo switch de qualquer dispositivo de estação final
conectado, um identificador exclusivo do pacote é adicionado dentro de cada cabeçalho. Estas
informações de cabeçalho designam a associação VLAN de cada pacote. O pacote é então
encaminhado aos switches e roteadores apropriados de acordo com o identificador da VLAN e
o endereço MAC. Quando os pacotes chegam ao nó destino, a ID da VLAN é removida do
pacote pelo switch adjacente e eles são encaminhados para o dispositivo conectado. Essa
marcação de pacotes providencia um mecanismo para o controle do fluxo de broadcasts e de
aplicativos sem interferir com a rede e com os aplicativos. LAN emulation (LANE) é uma
maneira de fazer com que uma rede Asynchronous Transfer Mode (ATM) simule uma rede
Ethernet. Não existe tagging em LANE, mas a conexão virtual utilizada implica uma ID de
VLAN.
Esta página irá fornecer informações básicas sobre VLANs e descrever as características de
uma rede VLAN fim-a-fim.
Num ambiente comutado, uma estação de trabalho receberá somente o tráfego endereçado a
ela. Como os switches filtram o tráfego da rede, as estações de trabalho em um ambiente
comutado enviam e recebem dados com toda a largura de banda dedicada. Ao contrário de um
sistema de hub compartilhado onde somente uma estação pode transmitir em qualquer dado
momento, uma rede comutada permite várias transmissões simultâneas dentro de um domínio
de broadcast. Esse processo não afeta diretamente as demais estações dentro ou fora do
domínio de broadcast.
Cada VLAN precisa ter designado exclusivamente a ela um endereço de sub-rede de Camada
3 da rede.
As VLANs podem existir como redes fim-a-fim ou podem existir dentro de limites geográficos.
176
• Cada VLAN possui um conjunto de requisitos de segurança comum a todos os
membros.
As portas de switches são providenciadas para cada usuário na camada de acesso. Cada cor
representa uma sub-rede. Dado que os usuário mudam de um lugar para outro, cada switch
eventualmente se torna membro de todas as VLANs. Frame tagging é utilizado para transportar
informações desde várias VLANs entre os switches da camada de acesso e os switches da
camada de distribuição.
ISL é um protocolo proprietário da Cisco que mantém informações de VLAN enquanto o tráfego
flui entre os switches. IEEE 802.1Q é um mecanismo de tagging (marcação) de VLAN padrão
aberto (IEEE) em instalações de comutação. Os switches Catalyst 2950 não suportam trunking
ISL.
Na Figura, um roteador da camada central (core layer) é usado para rotear entre sub-redes. A
rede é projetada, com base nos padrões de fluxo do tráfego para manter 80 por cento do
tráfego dentro de uma VLAN. Os 20 por cento restantes atravessam o roteador até os
servidores corporativos e até a Internet e a WAN.
Esta página irá explicar porque as VLANs geográficas se tornaram mais comuns do que as
VLANs fim-a-fim.
As VLANs fim-a-fim permitem que os dispositivos sejam agrupados com base em utilização de
recursos. Isso inclui tais parâmetros como utilização de servidores, equipes de projetos e
departamentos. O objetivo das VLANs fim-a-fim é manter 80 por cento do tráfego na VLAN
local.
177
Com a tendência das redes corporativas a centralizarem seus recursos, as VLANs fim-a-fim se
tornam mais difíceis de manter. Os usuários são forçados a usar muitos recursos diferentes,
muitos dos quais já não existem na sua VLAN. Esse deslocamento da localização e utilização
de recursos exige a criação de VLANs dentro de limites geográficos e não de acordo com
atributos em comum.
Esse local geográfico pode ter até o tamanho de um edifício ou tão pequeno quanto um só
switch dentro de um wiring closet. Em uma estrutura geográfica, é típico encontrar a nova regra
20/80 em vigor. Isso significa que 20 por cento do tráfego permanece dentro da VLAN local e
80 por cento do tráfego da rede transita para fora da VLAN local. Embora essa topologia exija
que os serviços dos recursos transitem através de um dispositivo de Camada 3, esse arranjo
permite que a rede proporcione um método determinístico e consistente para acessar os
recursos.
Esta página irá descrever o tipo de rede na qual uma VLAN estática pode ser configurada. Os
alunos também irão aprender como configurar uma VLAN.
As VLANs estáticas são portas em um switch que são atribuídas manualmente a uma VLAN.
Isso pode ser realizado com um aplicativo de gerenciamento de VLAN ou configurado
diretamente no switch através da CLI. Essas portas mantêm as configurações de VLAN que lhe
foram atribuídas até que sejam modificadas manualmente. Esse tipo de VLAN funciona bem
em redes com requisitos específicos:
178
• Todas as mudanças são controladas e gerenciadas.
• Existe um software robusto de gerenciamento de VLAN para configurar as portas.
• O consumo adicional de recursos necessário para manter endereços MAC de estações
finais e para a filtração especializada das tabelas não é aceitável.
Para configurar VLANs em switches Cisco da série 2900, precisam ser seguidas diretivas
específicas.
A criação de uma VLAN em um switch é uma tarefa muito simples e sem complicações. Se for
usado um switch baseado em comandos, o comando vlan database pode ser usado no
modo EXEC privilegiado para entrar no modo de configuração de VLAN. Um nome também
pode ser configurado para a VLAN, caso necessário:
Switch#vlan database
Switch(vlan)#vlan vlan_number
Switch(vlan)#exit
Ao sair, a VLAN será aplicada ao switch. A próxima etapa será designar a VLAN a uma ou
mais interfaces:
Esta página irá explicar como os comandos show vlan, show vlan brief, ou show vlan
id id_number podem ser usados para verificar configurações de uma VLAN.
• Uma VLAN criada permanece sem utilizar até que seja mapeada a portas de switch.
• Todas as portas Ethernet são atribuídas à VLAN 1 por padrão.
179
A Figura mostra as etapas necessárias para designar uma nova VLAN a uma porta no switch
Sydney.
As Figuras ilistam a saída dos comandos show vlan e show vlan brief.
Esta página irá ensinar os alunos como criar um arquivo texto da configuração de uma VLAN e
usá-lo como backup.
É útil guardar uma cópia da configuração da VLAN como arquivo texto, especialmente quando
é necessário fazer backup ou auditoria.
180
Pode ser feito o backup dos valores da configuração do switch em um servidor TFTP com o
comando copy running-config tftp. Como alternativa, pode ser utilizado o recurso de
captura do HyperTerminal em conjunto com os comandos show running-config e show
vlan para armazenar os parâmetros da configuração.
Esta página irá ensinar os alunos como remover uma VLAN de uma interface de switch
baseado em comandos do Cisco IOS. Esse processo é semelhante ao procedimento utilizado
para remover um comando de um roteador.
Na Figura, Fastethernet 0/9 foi designada à VLAN 300 com o comando switchport access
vlan 300. Para remover esse VLAN da interface, simplesmente use a forma no do comando.
Switch#vlan database
Switch(vlan)#no vlan 300
181
Quando uma VLAN é excluída, todas as portas designada àquela VLAN são desativadas. As
portas, no entanto, permanecerão associadas à VLAN excluída até que sejam designadas a
outra VLAN.
Esta página irá explicar o que os alunos aprenderão desta lição.As VLANs já são muito comuns
nas redes de campus. As VLANs oferecem aos engenheiros de redes flexibilidade em projetar
e implementar redes. As VLANs também permitem a contenção de broadcasts, a segurança e
comunidades de interesse geograficamente divergentes. No entanto, como no caso da
comutação básica de redes locais, podem surgir problemas quando VLANs são
implementadas. Esta lição irá mostrar alguns dos problemas mais comuns que ocorrem com as
VLANs, e proporcionará várias ferramentas e técnicas para a identificação e resolução de
problemas.
182
Os alunos, ao concluírem esta lição, deverão poder:
Esta página ajudará os alunos a desenvolver um método sistemático que pode ser usado na
identificação e resolução de problemas relacionados com switches. As seguintes etapas podem
ajudar no isolamento de um problema em uma rede comutada:
183
1. Examinar as indicações físicas, tais como o estado dos LEDs.
2. Começar com uma só configuração em um switch e trabalhe de dentro para fora.
3. Verificar o link de Camada 1.
4. Verificar o link de Camada 2.
5. Faça a identificação e resolução de problemas com VLANs que abrangem vários
switches.
Muitas redes locais de campus enfrentam padrões inéditos de tráfego de rede que resultam da
combinação de tráfego da intranet, um número reduzido de servidores centralizados no
campus e a crescente utilização de aplicativos multicast. A velha regra de 80/20, que dizia que
só 20 por cento do tráfego da rede podia passar pelo backbone, já está obsoleta. A navegação
Web interna agora permite que os usuários localizem e acessem informações em qualquer
lugar na intranet corporativa. Os padrões de tráfego são determinados pela localização dos
servidores e não pelas configurações físicas dos grupos de trabalho com os quais por acaso
são agrupados.
Sintomas de engarrafamento também podem ocorrer porque a maioria do tráfego está sendo
forçado a atravessar o backbone. Outra causa poderia ser que o acesso "any-to-any" (todos
com todos) é comum, com os usuários a valer-se de recursos corporativos baseados em Web e
184
de aplicativos de multimídia. Nesse caso, poderá ser necessário considerar aumentar os
recursos da rede para atender à crescente demanda.
Uma tempestade de broadcast ocorre quando um número grande de pacotes de broadcast são
recebidos em uma porta. O encaminhamento desses pacotes poderá resultar em um
retardamento ou paralisação da rede. O controle de tempestades é configurado para o switch
como um todo, mas opera independentemente para cada porta. O controle de tempestades
está desativado por default.
A prevenção de tempestades de broadcast pela definição de valores limite em alto ou baixo irá
descartar o excesso de tráfego MAC de broadcast, multicast ou unicast. Além disso, a
configuração de valores de limites crescentes em um switch interromperá a operação da porta.
Problemas com STP incluem tempestades de broadcast, loops, BPDUs e pacotes descartados.
A função do STP é garantir que não ocorram loops lógicos em uma rede por designar uma
bridge raiz. A bridge raiz é o ponto central de uma configuração de spanning-tree que controla
como o protocolo opera.
Localizar a bridge raiz na rede estendida de roteador e switch é necessário para uma
identificação e resolução de problemas eficaz. Os comandos show tanto no roteador como no
switch podem exibir informações sobre a bridge raiz.
185
A configuração de temporizadores de bridge raiz define parâmetros para o atraso de
encaminhamento ou para a idade máxima para informações STP.
Se for necessário reduzir o tráfego BPDU, coloque os temporizadores na bridge raiz ao seu
valor mínimo. Especificamente, defina o parâmetro de atraso de encaminhamento para o
mínimo de 30 segundos, e defina o parâmetro max_age ao máximo de 40 segundos.
Uma porta física em um roteador ou switch poderá pertencer a mais de uma spanning tree se
for um tronco.
186
8.3.4 Identificando e Resolvendo Problemas com VLANs
Esta página irá explicar como os comandos show e debug podem ser usados para fazer a
identificação e resolução de problemas com VLANs.
Para fazer a identificação e resolução de problemas na operação das conexões Fast Ethernet
entre roteadores e switches, é necessário certificar-se de que a configuração da interface do
roteador esteja completa e correta. Certifique-se de que não esteja configurado um endereço
IP na interface Fast Ethernet. Os endereços IP são configurados em cada subinterface de uma
conexão VLAN. Certifique-se de que a configuração da operação duplex no roteador seja igual
àquela na porta/interface apropriada no switch.
187
A Figura exibe a saída do comando show vlan. O resultado mostra a ID da VLAN, seu nome,
status e portas designadas.
188
O comando show vlan exibe informações sobre aquela VLAN no roteador. O comando show
vlan, seguido do número da VLAN, exibe informações específicas àquela VLAN no roteador.
A saída do comando inclui a ID da VLAN, a subinterface do roteador e informações sobre o
protocolo.
189
Esse comando irá mostrar os parâmetros STP usados pelo roteador para a bridge spanning-
tree na rede de roteador e switch.
Bridge Identifier has priority 32768, address 0008.e32e.e600 Configured hello time 2, Max age
20, forward delay 15
190
We are the root of the spanning tree.
O comando debug sw-vlan packets exibe informações gerais sobre os pacotes VLAN
recebidos mas não configurados para suportar o roteador. Quando o roteador é configurado
para rotear ou comutar certos pacotes VLAN, estes são contados e indicados através do
comando show vlans.
Esta página irá descrever três cenários de identificação e resolução de problemas de VLANs
que tratam dos problemas mais comuns. Cada um destes cenários contém uma análise do
problema que ajuda na sua resolução. Ao utilizar os comandos específicos apropriados e
coletar informações relevantes das saídas de comandos, pode-se seguir com êxito o processo
de identificação e resolução de problemas.
Cenário 1: Um trunk (tronco) não pode ser estabelecido entre um switch e um roteador.
Quando surgem dificuldades com uma conexão de tronco entre um switch e um roteador, não
deixe de considerar as seguintes possíveis causas:
1. Certifique-se de que a porta esteja conectada e que não esteja recebendo quaisquer
erros de camada física, de alinhamento ou de frame-check-sequence (FCS). Isso pode
ser realizado com o comando show interface no switch.
2. Certifique-se de que estejam corretamente definidas a operação duplex e a velocidade
entre o switch e o roteador. Isso pode ser realizado através do comando show
interface status no switch ou o comando show interfaces no roteador.
3. Configure a interface física do roteador com uma sub-interface para cada VLAN que irá
roteador tráfego. Verifique isso com o comando IOS show interfaces. Também,
certifique-se de que cada sub-interface no roteador tenha o tipo de encapsulamento, o
191
número de VLAN, o endereço IP e a máscara de sub-rede apropriadamente
configurados. Isso pode ser realizado através do comando IOS show interfaces ou
show running-config.
4. Certifique-se de que o roteador esteja executando uma versão do IOS que suporte
trunking. Isso pode ser verificado através do comando show version.
As bridges de spanning tree utilizam pacotes de Bridge Protocol Data Units (BPDUs) de
notificação de modificações de topologia para notificar as demais bridges sobre alguma
modificação na topologia spanning tree da rede. A bridge com o identificador mais baixo na
rede se torna a raiz. As bridges enviam essas BPDUs sempre que uma porta faça uma
transição entre estados de encaminhamento, contanto que haja outras portas no mesmo grupo
de bridge. Essas BPDUs migram em direção à bridge raiz.
Só pode haver uma bridge raiz para cada rede com bridge. Um processo de eleição determina
qual será a bridge raiz. A raiz determina parâmetros para mensagens de configuração, nas
BPDUs para depois definir os temporizadores para as demais bridges. Outras bridges
designadas determinam o caminho mais curto até a bridge raiz e são responsáveis pelo
anúncio das BPDUs a outras bridges através de portas designadas. Uma bridge deve ter portas
no estado de bloqueio se houver um loop físico.
Podem surgir problemas para as redes em que os nós de bridging utilizam algoritmos de
spanning tree IEEE e DEC. Esses problemas são causados por diferenças na maneira em que
os nós de bridging processam pacotes BPDU ou pacotes hello e na maneira em que
processam dados.
Nesse cenário, o Switch A, Switch B e Switch C estão executando o algoritmo spanning tree
IEEE. O switch D está configurando inadvertidamente para usar o algoritmo spanning tree
DEC.
O Switch A se considera como a raiz IEEE e o Switch D se considera como a raiz DEC. O
Switch B e o Switch C propagam informações da raiz em todas as interfaces para o spanning
tree IEEE. No entanto, o Switch D descarta informações de spanning tree IEEE.
Semelhantemente, os outros roteadores ignoram o direito do Roteador D de ser a raiz.
192
O resultado é que, devido ao fato de nenhuma das bridges acreditarem, existe um loop, e
quando um pacote de broadcast é enviado, ocorre uma tempestade de broadcast em toda a
rede. Essa tempestade de broadcast incluirá os Switches X e Y e além.
Para resolver esse problema, reconfigure o Switch D para IEEE. Embora seja necessária a
mudança de configuração, possivelmente não seja o suficiente para restabelecer a
conectividade. Haverá um atraso de reconvergência enquanto os dispositivos trocam BPDUs e
recalculem o spanning tree para a rede.
Resumo
Uma VLAN é um grupo de serviços de rede não restritos a um segmento físico ou a um switch
de rede local. A configuração ou reconfiguração de VLANs é realizada através de software, o
que torna desnecessário conectar fisicamente ou mover cabos e equipamentos. As VLANs
tratam das questões de escalabilidade, segurança e gerenciamento da rede. Os roteadores em
topologias VLAN oferecem filtragem de broadcast, segurança e gerenciamento de fluxo de
tráfego. Tráfego deve ser roteado entre VLANs. Os switches não processam tráfego com
bridges, porque isso violaria a integridade do domínio de broadcast das VLANs.
A principal vantagem das VLANs é que permitem que o administrador da rede organize a rede
local logicamente em vez de fisicamente. Isso inclui a capacidade de mover estações de
trabalho na rede local, adicionar estações de trabalho à rede local, alterar a configuração da
rede local, controlar tráfego da rede e melhorar a segurança.
Uma VLAN é um domínio de broadcast criado por um ou mais switches. As VLANs são
utilizadas para criar domínios de broadcast a fim de melhorar o desempenho global da rede. A
implementação das VLANs em um switch faz com que o switch mantenha tabelas de bridging
separadas para cada VLAN. Se o quadro entra por uma porta na VLAN 1, o switch procura
VLAN 1 na tabela de bridging. Quando o quadro é recebido, o switch adiciona o endereço
origem à tabela de bridging se aquele for desconhecido. O switch então verifica o destino para
que possa ser tomada uma decisão de encaminhamento. Para fins de aprendizagem e
encaminhamento, a consulta é feita na tabela de endereços somente para aquela VLAN.
Existem três associações básicas para determinar e controlar como um pacote é designado:
VLANs baseadas em portas, VLANs baseadas em endereço MAC e VLANs baseadas em
protocolo.
193
Inter-Switch Link (ISL) é um método de frame tagging que está send rapidamente substituído
pelo frame tagging 802.1Q. Essa marcação de pacotes providencia um mecanismo para o
controle do fluxo de broadcasts e de aplicativos sem interferir com a rede e com os aplicativos.
Cada VLAN precisa ter designado exclusivamente a ela um endereço de rede de Camada 3.
Isso permite que os roteadores comutem pacotes entre VLANs. As VLANs podem existir como
redes fim-a-fim ou podem existir dentro de limites geográficos.
Uma rede VLAN fim-a-fim agrupa os usuários em VLANs com base no grupo ou na função
profissional. Todos os usuários em uma VLAN devem ter os mesmos padrões de fluxo de
tráfego 80/20. A associação de VLAN não muda para um usuário quando fisicamente troca de
local. Cada VLAN possui um conjunto de requisitos de segurança comum a todos os membros.
As VLANs estáticas são portas em um switch que são manualmente atribuídas a uma VLAN
através de um aplicativo de gerenciamento de VLAN ou por ações feitas diretamente dentro do
switch. Essas portas mantêm as configurações de VLAN que lhe foram atribuídas até que
sejam modificadas manualmente. As VLANs dinâmicas não dependem de portas designadas a
uma VLAN específica. Use os comandos show vlan, show vlan brief, ou show vlan
id id_number para verificar a configuração VLAN.
Visão Geral
As primeiras VLANs eram difíceis de implementar através de redes. Cada VLAN era
manualmente configurada em cada switch. O gerenciamento de VLANs em uma rede extensa
era uma tarefa complicada. Para complicar ainda mais as coisas, cada fabricante de switch
utilizava métodos diferentes para implementar VLANs. O VLAN trunking foi elaborado para
resolver esses problemas.
O VLAN trunking permite a definição de v rias VLANs dentro de toda uma organização,
adicionando tags especiais aos quadros para identificar a VLAN à qual pertencem. Essa
utilização de tags permite que várias VLANs sejam implementadas em uma rede comutada de
porte grande sobre um backbone ou tronco comum. O VLAN trunking é baseado em padrões e
o trunking protocol IEEE 802.1Q é agora largamente implementado. O Inter-Switch Link (ISL) é
o protocolo de trunking proprietário da Cisco e pode ser implementado em todas as redes
Cisco.
A tecnologia VLAN oferece muitas vantagens para os administradores de redes. Entre outras,
as VLANs ajudam no controle de broadcasts de camada 3, melhoram a segurança da rede e
podem ajudar no agrupamento lógico de usuários da rede. No entanto, as VLANs apresentam
uma importante limitação. Operam na camada 2 o que significa que os dispositivos em
194
diferentes VLANs não podem comunicar-se sem a utilização de roteadores e de endereços de
camada de rede.
Este módulo cobre alguns dos objetivos para os exames CCNA 640-801 e ICND 640-811.
Ao concluírem este módulo, os alunos deverão ser capazes de realizar as seguintes tarefas:
9.1 Trunking
9.1.1 História do trunking
A história do trunking tem o seu início nas tecnologias de rádio e telefonia. Na tecnologia de
rádio, um tronco é uma só linha de comunicação que transporta vários canais de sinais de
rádio.
Troncos compartilhados também podem ser criados para oferecer redundância entre COs.
195
O conceito utilizado pelas indústrias telefônica e de rádio foi, então, adotado para a
comunicação de dados. Um exemplo disso em uma rede de comunicações é um link de
backbone entre um MDF e um IDF. Um backbone é composto de vários troncos.
Esta página explicará como os troncos são usados em um ambiente de VLAN comutada.
Conforme já mencionado, um tronco é uma conexão física e lógica entre dois switches, através
da qual transita o tráfego da rede. É um só canal de transmissão entre dois pontos. Os dois
pontos geralmente são centrais de comutação.
Em uma rede comutada, um tronco é um link ponto-a-ponto que suporta várias VLANs. O
propósito de um tronco é conservar portas quando é criado um link entre dois dispositivos que
implementam VLANs.
196
A Figura ilustra duas VLANs compartilhadas entre os switches Sa e Sb. Cada switch usa dois
links físicos, de modo que cada porta transporta tráfego para uma só VLAN. Esta é uma
maneira simples de implementar a comunicação VLAN entre switches, mas não é escalável.
O acréscimo de uma terceira VLAN exigiria a utilização de mais duas portas, uma em cada
switch conectado. Este projeto também não é eficiente em termos de compartilhamento de
cargas. Além disso, o nível de tráfego em certas VLANs talvez não justifique um link dedicado.
O trunking agrega vários links virtuais em um só link físico. Isso permite que o tráfego de várias
VLANs transite sobre um único cabo entre os switches.
As estradas com diferentes origens e destinos compartilham uma rodovia nacional principal por
alguns quilômetros e depois dividem-se novamente para chegar aos seus destinos em
particular. Esse método é mais econômico do que a construção de uma estrada separada do
começo ao fim para cada destino conhecido ou novo.
Esta página explicará como os troncos gerenciam a transmissão de quadros entre VLANs.
As tabelas de comutação em ambas as extremidades do tronco podem ser usadas para tomar
decisões sobre encaminhamento baseado nos endereços MAC de destino dos quadros. À
medida que vai aumentando o número de VLANs que transitam pelo tronco, as decisões de
encaminhamento tornam-se mais lentas e mais difíceis de gerenciar. O processo de decisão
torna-se mais lento porque as tabelas de comutação maiores demoram mais para serem
processadas.
197
Os protocolos de trunking foram elaborados para gerenciar com mais eficácia a transferência
de quadros de diferentes VLANs em uma única linha física. Os protocolos de trunking
estabelecem um acordo para a distribuição de quadros para as portas associadas em ambas
as extremidades do tronco.
Os dois tipos existentes de mecanismos de trunking são filtragem de quadros (frame filtering) e
marcação de quadros (frame tagging). O frame tagging foi adotado como o mecanismo padrão
de trunking pelo IEEE.
Os protocolos de trunking que utilizam frame tagging obtêm uma entrega mais rápida de
quadros e facilitam o gerenciamento.
O único link físico entre os dois switches consegue transportar tráfego para qualquer VLAN.
Para conseguir isso, cada quadro enviado no link é marcado para identificar a VLAN à qual
pertence. Existem diferentes esquemas de marcação. Os dois esquemas mais comuns de
marcação para segmentos Ethernet são ISL e 802.1Q:
198
• ISL – Um protocolo proprietário da Cisco
• 802.1Q – Um padrão IEEE que é o foco desta seção
Os dois mecanismos padrão de trunking são frame tagging e filtragem de quadros. Esta página
explicará como o frame tagging pode ser usado para proporcionar uma solução mais escalável
para a implementação de VLANs. O padrão IEEE 802.1Q especifica a marcação de quadros
(frame tagging) como o método para implementar VLANs.
199
É importante entender que um link de tronco não pertence a uma VLAN específica. Um link de
tronco é um canal para VLANs entre switches e roteadores.
ISL é um protocolo que mantém informações de VLAN enquanto o tráfego flui entre os
switches. Com ISL, um quadro Ethernet é encapsulado com um cabeçalho que contém um ID
da VLAN
Esta página ensinará aos alunos como criar e configurar um tronco para VLAN em um switch
configurado por comandos do Cisco IOS.
Primeiro, configure a porta como tronco e depois use os comandos indicados na Figura para
especificar o encapsulamento do tronco.
As Atividades de Laboratório ensinarão os alunos como criar links de tronco entre dois switches
e permitir comunicação entre VLANs eparelhadas.
200
9.2 VTP
9.2.1 A história do VTP
O VLAN Trunking Protocol (VTP) foi criado pela Cisco para resolver problemas operacionais
em uma rede comutada com VLANs. É um protocolo proprietário da Cisco.
Considere o exemplo de um domínio com vários switches interconectados que suportam várias
VLANs. Um domínio é um agrupamento lógico de usuários e de recursos sob controle de um
servidor chamado PDC (Primary Domain Controller). Para manter a conectividade dentro de
VLANs, cada VLAN precisa ser manualmente configurada em cada switch. Com o crescimento
da organização e o acréscimo de switches à rede, cada novo switch precisa ser manualmente
configurado com informações das VLANs. Uma só designação de VLAN incorreta poderia
causar dois problemas:
Mensagens VTP são encapsuladas em quadros de protocolo Inter-Switch Link (ISL) da Cisco
ou do IEEE 802.1Q e passadas através de links de tronco para outros dispositivos. Nos
quadros IEEE 802.1Q, um campo de 4 bytes é usado para a marcação do quadro. Ambos os
formatos transportam o ID da VLAN.
Embora as portas de switches são normalmente designadas para uma só VLAN, as portas de
tronco por default transportam quadros de todas as VLANs.
201
9.2.3 Operação do VTP
Esta página explicará como mensagens VTP são transmitidas. Os alunos também aprenderão
sobre os três modos do VTP num switch.
Ao transmitir mensagens VTP para outros switches na rede, a mensagem VTP é encapsulada
em um quadro de protocolo de trunking, tal como ISL ou IEEE 802.1Q.
• Servidor
• Cliente
202
• Transparente
Os clientes VTP não podem criar, modificar ou excluir informações de VLANs Esse modo é útil
para switches que não possuem memória suficiente para armazenar grandes tabelas de
informações de VLANs. O único papel dos clientes VTP é de processar mudanças de VLAN e
enviar mensagens VTP para todas as portas de tronco.
Os switches no modo VTP transparente encaminham anúncios VTP mas ignoram informações
contidas na mensagem. Um switch transparente não modificará o seu banco de dados ao
receber atualizações nem enviará uma atualização que indique uma mudança no status de
suas VLAN. Exceto para o encaminhamento de anúncios VTP, o VTP é desativado em um
switch transparente.
As VLANs detectadas dentro dos anúncios servem de notificação para o switch de que pode
ser esperado tráfego com os recém-definidos IDs de VLAN.
203
Na Figura, o Switch C transmite uma entrada de banco de dados VTP com adições ou
exclusões ao Switch A e ao Switch B. O banco de dados de configuração possui um número de
revisão que é incrementado por 1. Um número mais alto de revisão de configuração indica que
as informações sobre VLANs sendo recebidas são mais recentes que a cópia armazenada.
Sempre que um switch recebe uma atualização cujo número de revisão de configuração é mais
alto, o switch sobrescreve as informações já armazenadas com as novas informações enviadas
na atualização do VTP. O Switch F não processa a atualização porque está em outro domínio.
Esse processo de sobrescrita significa que se a VLAN não existir no novo banco de dados, ela
será excluída do switch. Além disso, o VTP mantém a sua própria configuração na NVRAM. O
comando erase startup-configuration limpa a configuração dentro da NVRAM, mas
não o número de revisão do banco de dados do VTP. Para redefinir como zero o número de
revisão da configuração, o switch precisa ser reinicializado.
Por default, os domínios de gerenciamento são definidos para um modo não seguro. Isso
significa que os switches interagem sem a utilização de senha. Para definir o domínio de
gerenciamento automaticamente no modo seguro, pode ser adicionada uma senha. A mesma
senha precisa ser configurada em cada switch no domínio de gerenciamento para usar o modo
seguro.
Esta página descreverá os dois tipos de anúncios VTP e os três tipos de mensagens VTP.
Com o VTP, cada switch anuncia em suas portas de tronco o seu domínio de gerenciamento, o
número da revisão da configuração, as VLANs que ele conhece e certos parâmetros para cada
VLAN conhecida. Esses quadros de aviso são enviados para um endereço de multicast, para
que todos os dispositivos vizinhos possam receber os quadros. No entanto, os quadros não
são encaminhados mediante procedimentos normais de bridging. Todos os dispositivos no
mesmo domínio de gerenciamento aprendem sobre novas VLANs configuradas em um
dispositivo transmissor. Uma nova VLAN precisa ser criada e configurada em somente um
dispositivo no domínio de gerenciamento. Os demais dispositivos no mesmo domínio de
gerenciamento automaticamente aprendem as informações.
Anúncios em VLANs configuradas como default de fábrica dependem dos tipos de meios
físicos. As portas de usuários não devem ser configuradas como troncos VTP.
Cada anúncio começa com o número de revisão da configuração em 0. À medida que são
feitas mudanças, o número de revisão da configuração é incrementado em 1, ou seja, n + 1. O
número de revisão continua a ser incrementado até que chegue a 2.147.483.648. Ao chegar a
esse valor, será redefinido como zero.
• Solicitações de anúncios
• Anúncios sumarizados
• Anúncios de subconjuntos
204
Por default, os switches Catalyst servidores e clientes emitem anúncios sumarizados de cinco
em cinco minutos. Os servidores informam os switches vizinhos daquilo que acreditam ser o
atual número de revisão do VTP. Se os nomes de domínio forem idênticos, o servidor ou o
cliente faz a comparação do número de revisão da configuração que recebeu. Se o switch
receber um número de revisão superior ao atual número de revisão desse switch, emitirá uma
solicitação de anúncio para as novas informações de VLAN.
205
Os anúncios de subconjunto contêm informações detalhadas sobre VLANs, tais como a versão
do VTP, o nome do domínio e campos relacionados a ele, além do número de revisão da
configuração. Certas ações podem ativar anúncios de subconjuntos:
Etapas específicas precisam ser consideradas antes de serem configurados o VTP e as VLANs
na rede:
206
1. Determinar o número da versão do VTP que será utilizada.
2. Decidir se este switch será membro de um domínio de gerenciamento já existente, ou
se deve ser criado um novo domínio. Se existir um domínio de gerenciamento,
determinar o nome e a senha do domínio.
3. Escolher um modo de VTP para o switch.
Duas versões diferentes de VTP estão disponíveis, Versão 1 e Versão 2. As duas versões não
são compatíveis entre si. Se um switch estiver configurado em um domínio VTP Versão 2,
todos os switches no domínio de gerenciamento precisarão ser configurados para o VTP
Versão 2. O VTP Versão 1 é o default. O VTP Versão 2 pode ser implementado se os recursos
necessários não existirem na Versão 1. O recurso mais freqüentemente exigido é o suporte
para VLAN Token Ring.
Para configurar a versão do VTP em um switch baseado em comandos do Cisco IOS, primeiro
entre no modo de banco de dados de VLAN.
O seguinte comando pode ser usado para entrar no modo de banco de dados de VLAN e
configurar o número da versão do VTP.
Switch#vlan database
Switch(vlan)#vtp v2-mode
Se o switch for o primeiro switch da rede, o domínio de gerenciamento deverá ser criado. Se o
domínio de gerenciamento foi provido de segurança, configure uma senha para o domínio.
Para adicionar um cliente VTP a um domínio VTP já existente, certifique-se de que o seu
número de revisão da configuração VTP seja inferior ao número de revisão da configuração
dos outros switches no domínio VTP. Use o comando show vtp status. Os switches em um
domínio VTP sempre usam a configuração das VLANs do switch com o número de revisão da
configuração VTP mais alto. Se for adicionado um switch com um número de revisão superior
àquele atualmente existente no domínio VTP, possivelmente serão apagadas todas as
informações das VLANs do servidor VTP e do domínio VTP.
Escolha um dos três modos do VTP disponíveis para o switch. Se este for o primeiro switch no
domínio de gerenciamento e se tiverem que ser adicionados outros switches, configure o modo
como servidor. Os switches adicionais poderão aprender informações de VLAN desse switch.
Deve existir pelo menos um servidor.
As VLANs podem ser criadas, excluídas e renomeadas à vontade sem que o switch propague
modificações a outros switches. É possível que as VLANs sejam parcialmente sobrepostas se
várias pessoas configuram dispositivos dentre de uma rede. Por exemplo, o mesmo ID de
VLAN pode ser usado para VLANs com propósitos divergentes.
207
O seguinte comando pode ser usado para definir o modo correto do switch:
A Figura apresenta a saída do comando show vtp status. Este comando é usado para
verificar a configuração dos parâmetros VTP em um switch baseado em comandos do Cisco
IOS.
A Figura apresenta a saída do comando show vtp counters. Este comando é usado para
exibir estatísticas sobre anúncios enviados e recebidos pelo switch.
Uma VLAN é um agrupamento lógico de dispositivos ou usuários que podem ser agrupados
por função, departamento ou aplicativo, independentemente da sua localização física.
208
As VLANs são configuradas por software no switch. O número de implementações de VLAN de
fabricantes diferentes pode exigir a utilização de software proprietário do fornecedor do switch.
O agrupamento de portas e usuários em comunidades de interesse, denominadas
organizações VLAN, pode ser realizado pela utilização de um só switch ou, de forma mais
abrangente, entre switches conectados dentro da empresa. Ao agrupar as portas e usuários
entre vários switches, as VLANs podem abranger infra-estruturas em um só edifício ou em
edifícios interconectados. As VLANs ajudam na utilização eficaz de largura de banda, já que
compartilham o mesmo domínio de broadcast ou rede de camada 3. As VLANs otimizam a
utilização da largura de banda. As VLANs disputam a utilização da mesma largura de banda,
embora as exigências de largura de banda possam variar muito entre grupos de trabalho ou
departamentos.
209
A seguir são apresentados alguns aspectos a respeito da configuração de VLANs:
A porta 1 em um switch faz parte da VLAN 1 e a porta 2 faz parte da VLAN 200.
Se todas as portas de switches fizessem parte da VLAN 1, os hosts conectados a essas portas
poderiam comunicar-se. Nesse caso, porém, as portas fazem parte de VLANs diferentes, VLAN
1 e VLAN 200. Um roteador precisa ser utilizado se os hosts das diferentes VLANs precisam
comunicar-se.
210
A vantagem mais importante do roteamento é o seu desempenho comprovado na facilitação
das redes, especialmente de redes de grande porte. Embora a Internet sirva como exemplo
óbvio, este fato aplica-se a qualquer tipo de rede, tal como um grande backbone de um
campus. Já que os roteadores impedem a propagação de broadcasts e utilizam algoritmos de
encaminhamento mais inteligentes que as bridges e switches, os roteadores providenciam uma
utilização mais eficiente da largura de banda. Isso simultaneamente resulta em uma seleção de
caminhos flexível e otimizada. Por exemplo, é muito fácil implementar o balanceamento de
cargas através de vários caminhos na maioria das redes quando se utiliza o roteamento. Por
outro lado, o balanceamento de cargas de camada 2 pode ser muito difícil de projetar,
implementar e manter.
Se uma VLAN abrange vários dispositivos, um tronco é usado para interligar os dispositivos.
Um tronco transporta tráfego para várias VLANs. Por exemplo, um tronco pode conectar um
switch a outro switch, um switch ao roteador entre VLANs ou um switch a um servidor com uma
placa de rede especial instalada que suporte o trunking.
Lembre-se de que quando um host em uma VLAN deseja comunicar-se com um host em outra,
um roteador precisa estar envolvido.
211
9.3.3 Questões e soluções de conectividade entre VLANs
Esta página irá descrever algumas questões da conectividade lógica e física que ocorre entre
VLANs.
Quando são interligadas VLANs, várias questões técnicas irão surgir. Duas das questões mais
comuns que surgem em um ambiente de várias VLANs são:
Quando um roteador precisa fazer uma conexão a um host remoto, ele examina a sua tabela
de roteamento para determinar se existe um caminho já conhecido. Se o host remoto encontra-
se em uma sub-rede que ele sabe alcançar, o sistema tenta verificar se é possível fazer a
conexão através daquela interface. Se todos os caminhos conhecidos falharem, o sistema tem
uma última opção – a rota default. Essa rota é um tipo especial de rota gateway e normalmente
ela é a única presente no sistema. Em um roteador, um asterisco (*) indica uma rota default na
saída do comando show ip route. Para hosts em uma rede local, esse gateway é definido
como qualquer máquina que possuir uma conexão direta com o mundo externo e este é o
Gateway Default listado nas configurações TCP/IP da estação de trabalho. Se a rota default
dos hosts estiver configurada para o próprio roteador, ele mesmo estará funcionando como
gateway até a Internet pública. Então a rota default apontará para a máquina gateway em um
Provedor de Serviços de Internet (ISP). As rotas default são implementadas através do
comando ip route.
Nesse exemplo, 192.168.1.1 é o gateway. A conectividade entre VLANs pode ser conseguida
através da conectividade lógica ou física.
A conectividade lógica envolve uma só conexão, ou tronco, entre o switch e o roteador. Esse
tronco pode suportar várias VLANs. Essa topologia chama-se router-on-a-stick (roteador no
espeto) porque existe uma só conexão ao roteador. No entanto, existem várias conexões
lógicas entre o roteador e o switch.
212
A conectividade física envolve uma conexão física separada para cada VLAN. Isso implica uma
interface física separada para cada VLAN.
O tráfego entre VLANs precisa atravessar o backbone de camada 2 para alcançar o roteador
quando transita entre VLANs. O tráfego, então, transita de volta até a estação final desejada,
usando encaminhamento normal de camada 2. Esse fluxo para-fora-do-roteador-e-de-volta é
uma característica dos projetos de router-on-a-stick.
Esta página explicará como as interfaces físicas e lógicas são adicionadas ao projeto da rede.
Em uma situação tradicional, uma rede com quatro VLANs exigiria quatro conexões físicas
entre o switch e um roteador externo.
213
Quando tecnologias, tais como Inter-Switch Link (ISL), tornaram-se mais acessíveis, os
projetistas de redes começaram a usar links de tronco para conectar roteadores aos switches.
Embora seja possível usar qualquer tecnologia de trunking, como ISL, 802.1Q, 802.10 ou LAN
Emulation (LANE), os métodos baseados em Ethernet, tais como ISL e 802.1Q, são os mais
comuns.
214
O protocolo proprietário ISL da Cisco, assim como o padrão multi-fornecedor IEEE 802.1q, são
usados para a implementação de troncos em links Fast Ethernet.
A linha sólida no exemplo refere-se ao único link físico entre o Switch Catalyst e o roteador.
Essa é a interface física que conecta o roteador ao switch.
À medida que vai crescendo o número de VLANs em uma rede, o método físico de ter uma
interface de roteador para cada VLAN rapidamente torna impraticável qualquer expansão. As
redes com muitas VLANs precisam usar o trunking VLAN para atribuir várias VLANs a uma
única interface de roteador.
As linhas pontilhadas no exemplo referem-se a vários links lógicos em utilização nesse link
físico usando subinterfaces. O roteador tem capacidade para suportar muitas interfaces lógicas
em links físicos individuais. Por exemplo, a interface FastEthernet 0/0 poderia suportar três
interfaces virtuais numeradas FastEthernet 1/0.1, 1/0.2 e 1/0.3.
Uma subinterface é uma interface lógica dentro de uma interface física, tal como uma interface
Fast Ethernet em um roteador.
215
Cada subinterface suporta uma VLAN e recebe a designação de um endereço IP. Para que
vários dispositivos possam comunicar-se sobre a mesma VLAN, o endereço IP de todas as
subinterfaces interrelacionadas precisam estar na mesma rede ou sub-rede. Por exemplo, se a
subinterface FastEthernet 0/0.1 tiver um endereço IP 192.168.1.1 então 192.168.1.2,
192.168.1.3 e 192.1.1.4 serão os endereços IP para os dispositivos conectados à subinterface
FastEthernet 0/0.1.
Para realizar o roteamento entre VLANs através de subinterfaces, será necessário criar uma
subinterface para cada VLAN.
216
9.3.6 Configurando o Roteamento Entre VLANs
Esta página demonstrará os comandos utilizados para configurar o roteamento entre VLANs
para um roteador e um switch. Antes da implementação de qualquer um desses comandos,
cada roteador e switch deve ser verificado para saber quais são os encapsulamentos de VLAN
que suportam. Os switches Catalyst 2950 suportam o trunking 802.1q desde o lançamento da
versão 12.0(5.2)WC(1) do Cisco IOS, mas não suportam o trunking Inter-Switch Link (ISL).
Para que o roteamento entre VLANs funcione corretamente, todos os roteadores e switches
envolvidos precisam suportar o mesmo encapsulamento.
Em um roteador, uma interface pode ser dividida logicamente em várias subinterfaces virtuais.
As subinterfaces representam uma solução flexível para o roteamento de vários fluxos de
dados através de uma só interface física. Para definir subinterfaces em uma interface física,
realize as seguintes tarefas:
• Identifique a interface.
• Defina o encapsulamento da VLAN.
• Atribua um endereço IP à interface.
217
O parâmetro port-number identifica a interface física e o parâmetro subinterface-
number identifica a interface virtual.
O roteador precisa poder falar com o switch usando um protocolo de trunking padronizado. Isso
significa que ambos os dispositivos interconectados precisam entender-se. No exemplo, o
802.1Q é usado. Para definer o encapsulamento da VLAN, digite o comando encapsulation
no modo configuração de interface.
218
No exemplo, o roteador possui três subinterfaces configuradas na interface Fast Ethernet 0/0.
Essas três interfaces são identificadas como 0/0.1, 0/0.2 e 0/0.3. Todas as interfaces são
encapsuladas com 802.1q. A interface 0/0.1 faz o roteamento de pacotes para a VLAN 1,
enquanto a interface 0/0.2 faz o roteamento de pacotes para a VLAN 20 e a 0/0.3 faz o
roteamento de pacotes para a VLAN 30.
Resumo
Um tronco é uma conexão física e lógica entre dois switches, através da qual transita o tráfego
da rede. O conceito de trunking tem o seu início nas tecnologias de rádio e telefonia. No
contexto de um ambiente de comutação em VLAN, um tronco é um link ponto-a-ponto que
suporta várias VLANs.
O propósito de um tronco é conservar portas quando é criado um link entre dois dispositivos
que implementam VLANs. O trunking agregará vários links virtuais em um só link físico,
permitindo que o tráfego para várias VLANs transite sobre um único cabo entre os switches.
219
As tabelas de comutação em ambas as extremidades do tronco podem ser usadas para tomar
decisões sobre encaminhamento com base nos endereços MAC de destino dos quadros. Esse
processo torna-se mais lento à medida que vai aumentando o número de VLANs que transitam
no tronco. Para gerenciar com eficácia a transferência de quadros provenientes de diferentes
VLANs em uma só linha física, os protocolos de trunking foram elaborados. Os protocolos de
trunking estabelecem um acordo para a distribuição de quadros para as portas associadas em
ambas as extremidades do tronco.
Existem dois tipos de mecanismos para trunking: filtragem de quadros e frame tagging. Os
protocolos de trunking que utilizam o mecanismo de frame tagging atribuem um identificador
aos quadros. Isso proporciona um melhor gerenciamento e uma entrega mais rápida. Frame
tagging funciona na camada 2 e requer pouco processamento e ocupa poucos recursos
administrativos. O ISL, o protocolo proprietário Inter-Switch Link da Cisco e o 802-1Q, o padrão
IEEE, são os esquemas de tagging mais comuns para segmentos Ethernet.
Antes de implementr o trunking, determine qual é o encapsulamento que a porta pode suportar
mediante a utilização do comando show port capabilities. Para certificar-se de que o
trunking foi configurado, use o comando show trunk [mod_num/port_num] a partir do
modo Privilegiado do switch.
O VLAN Trunking Protocol (VTP) foi criado para resolver problemas operacionais em uma rede
comutada com VLANs. Os dois problemas mais comuns são VLANs com conexões cruzadas
decorrentes de inconsistências na configuração e falhas na configuração em ambientes de
meios físicos mistos.
Com o VTP, cada switch anuncia em suas portas de tronco o seu domínio de gerenciamento, o
número de revisão da configuração, as VLANs que ele conhece e certos parâmetros para cada
VLAN conhecida.
Há dois tipos de anúncios VTP: solicitações de clientes e respostas de servidores. Eles geram
três tipos de mensagens VTP, que incluem solicitação de anúncio, anúncio sumarizado e
anúncio de subconjunto. Com solicitações de anúncios, os clientes solicitam informações de
VLAN e o servidor responde com anúncios sumarizados e de subconjuntos. Por default, os
switches Catalyst servidores e clientes emitem anúncios sumarizados de cinco em cinco
minutos. Os servidores informam aos switches vizinhos o que acreditam ser o atual número de
revisão do VTP. É feita a comparação desse número e, se houver diferenças, novas
informações são solicitadas. Os anúncios de subconjunto contêm informações detalhadas
sobre VLANs, tais como a versão do VTP, o nome do domínio e campos relacionados a ele
além do número de revisão da configuração.
Antes de configurar o VTP e as VLANs em uma rede, descubra o número da versão do VTP,
determine se deve ser criado um novo domínio e estabeleça o modo VTP. Deve existir pelo
menos um servidor. Para definir o modo correto do switch com base em comandos do Cisco
IOS, use o comando Switch(vlan)#vtp {client | server | transparent}.
Use o comando show vtp status para verificar se o número de revisão da configuração o
VTP é inferior ao número de revisão da configuração nos outros switches no domínio VTP
antes de adicionar um cliente.
220
Quando um host em um domínio de broadcast deseja comunicar-se com um host em outro
domínio de broadcast, um roteador precisa ser utilizado. Em um roteador, uma interface pode
ser dividida logicamente em várias subinterfaces virtuais. As subinterfaces representam uma
solução flexível para o roteamento de vários fluxos de dados através de uma só interface física.
O seguinte estudo de caso é usado para ilustrar o processo criação de um projeto de rede,
bem como a documentação necessária. Esse estudo de caso apresenta um cenário no qual a
XYZ Research Company contratou um grupo de consultores de redes para projetar a sua rede.
Este estudo de caso requer que você realize as seguintes tarefas:
• Usar os recursos fornecidos, o diagrama e o texto, para configurar uma rede física
• Configurar um esquema de endereçamento IP, usando VLSM
• Configurar os roteadores conforme o necessário
• Preparar e configurar os switches e as VLANs conforme o necessário
• Verificar e resolver quaisquer problemas com todas as conexões
• Prover documentação detalhada no formato apropriado
• Prover um relatório final por escrito
221