You are on page 1of 178

2

Módulo 01 - Escalonando endereços IP

Visão Geral

O rápido crescimento da Internet surpreendeu a maioria dos observadores. Uma razão para a
Internet ter crescido tão rapidamente foi a flexibilidade do projeto original. Sem o
desenvolvimento de novas metodologias para atribuição de endereços IP, esse rápido
crescimento teria exaurido os endereços IP disponíveis. A fim de solucionar a diminuição da
quantidade de endereços IP, foram desenvolvidas diversas soluções. Uma solução
amplamente implementada é o NAT (Network Address Translation – Tradução de Endereços
de Rede).

NAT é um mecanismo que visa economizar endereços IP registrados em grandes redes e


simplificar as tarefas de gerenciamento do endereçamento IP. Quando um pacote é roteado
através de um dispositivo de rede, geralmente um firewall ou roteador de borda, o endereço IP
de origem é traduzido de um endereço privado interno da rede para um endereço IP público
roteável. Isso permite que o pacote seja transportado por redes externas públicas, tais como a
Internet. Em seguida, o endereço público da resposta é retraduzido para o endereço interno
privado, para entrega dentro da rede interna. Uma variação do NAT, chamada de PAT (Port
Address Translation – Tradução de Endereços de Portas), permite que vários endereços
privados internos sejam traduzidos usando um único endereço público externo.

Geralmente, os roteadores, servidores e outros dispositivos importantes da rede exigem uma


configuração de IP estático, que é inserida manualmente. Entretanto, os clientes desktop não
exigem um endereço específico, mas sim qualquer endereço de um intervalo de endereços.
Normalmente, esse intervalo está dentro de uma sub-rede IP. Uma estação de trabalho dentro
de uma sub-rede específica pode receber qualquer endereço de um intervalo, enquanto outros
valores são estáticos, como a máscara da sub-rede, o gateway padrão e o servidor DNS.

O DHCP (Dynamic Host Configuration Protocol – Protocolo para Configuração Dinâmica de


Hosts) foi projetado para atribuir dinamicamente endereços IP e outras informações
importantes de configuração da rede. Como os clientes desktop geralmente constituem a
grande maioria dos nós de uma rede, o DHCP é uma ferramenta extremamente útil para
poupar o tempo dos administradores da rede.

Ao concluírem este módulo, os alunos deverão ser capazes de:

• Identificar endereços IP privados, conforme descrito na RFC 1918;


• Discutir características do NAT e do PAT;
• Explicar as vantagens do NAT;
• Explicar como configurar o NAT e o PAT, incluindo tradução estática, tradução
dinâmica e overloading;
• Identificar os comandos usados para verificar a configuração do NAT e do PAT;
• Listar as etapas usadas para solucionar problemas de configuração do NAT e do PAT;
• Discutir as vantagens e desvantagens do NAT;
• Descrever as características do DHCP;
• Explicar as diferenças entre BOOTP e DHCP;
• Explicar o processo de configuração do cliente DHCP;
• Configurar um servidor DHCP;
• Verificar a operação do DHCP;
• Solucionar problemas de uma configuração DHCP;
• Explicar as solicitações de DHCP relay.

3
1.1 Escalonando redes com NAT e PAT
1.1.1 Endereçamento privado

A RFC 1918 reserva os três blocos de endereços IP privados a seguir:

• 1 endereço de classe A;
• 16 endereços de classe B;
• 256 endereços de classe C.

Esses endereços são apenas para uso de redes internas privadas. Pacotes que contenham
esses endereços não são roteados pela Internet.

Os endereços públicos da Internet devem ser registrados por organizações que têm a
autoridade para a distribuição e registro de números IP na Internet, como por exemplo, a ARIN
(American Registry for Internet Numbers) ou a RIPE (Réseaux IP Européens), registro regional
da Internet responsável pela Europa e norte da África. Esses endereços públicos da Internet
também podem ser alugados de um provedor de serviços Internet (ISP). Os endereços IP
privados são reservados e podem ser usados por qualquer pessoa. Isso significa que duas
redes, ou dois milhões de redes, podem usar os mesmos endereços privados. Um roteador
nunca deve rotear os endereços da RFC 1918. Geralmente, os provedores de serviço Internet
(ISP) configuram os roteadores de borda, para evitar o encaminhamento do tráfego
endereçado a redes que utilizam estes endereços. O uso de NAT fornece ótimas vantagens
para as empresas e para a Internet. Antes do NAT, um host com endereço privado não podia
acessar a Internet. Assim, cada empresa pode endereçar alguns ou todos os seus hosts com
endereços privados e usar o NAT para fornecer acesso à Internet.

1.1.2 Introdução ao NAT e ao PAT

O NAT foi projetado para economizar endereços IP e permitir que as redes usem endereços IP
privados em redes internas. Esses endereços privados internos são traduzidos em endereços
públicos roteáveis. Isso é obtido por dispositivos de interconexão de redes que executam um
software NAT, que aumenta a privacidade da rede, ocultando os endereços IP internos. Um
dispositivo habilitado para NAT geralmente opera na borda de uma rede stub. Uma rede stub é
uma rede que tem uma única conexão para a rede externa.

4
Quando um host dentro da rede stub quer transmitir para um host fora dela, ele encaminha o
pacote para o roteador do gateway de borda. O roteador do gateway de borda realiza o
processo NAT, traduzindo o endereço privado interno de um host em um endereço público
externo roteável.

Na terminologia NAT, rede interna é o conjunto de redes sujeitas a tradução. A rede externa
refere-se a todos os outros endereços.

A Cisco define os seguintes termos NAT:

5
• Endereço local interno (Inside local address) – Endereço IP atribuído a um host da
rede interna. Geralmente, o endereço não é um endereço IP atribuído pelo InterNIC
(Network Information Center) nem pelo provedor de serviço. Provavelmente, esse
endereço é um dos endereços privados especificados na RFC 1918.
• Endereço global interno (Inside global address) – Um endereço IP legítimo atribuído
pelo InterNIC ou pelo provedor de serviço e que representa um ou mais endereços IP
locais internos para o mundo exterior.
• Endereço local externo (Inside local address) – Endereço IP de um host externo, tal
como é conhecido pelos hosts da rede interna.
• Endereço global externo (Outside global address) – Endereço IP atribuído a um host
da rede externa. O proprietário do host atribui esse endereço.

1.1.3 Principais recursos do NAT e do PAT

As traduções NAT podem ser usadas para inúmeras finalidades e podem ser atribuídas tanto
de maneira dinâmica como estática. O NAT estáticoa foi projetado para permitir o mapeamento
dos endereços locais e endereços globais.. Isso é particularmente útil para hosts que precisam
ter um endereço consistente, acessível a partir da Internet. Esses hosts internos podem ser
servidores corporativos ou dispositivos de rede.

O NAT dinâmico foi projetado para mapear um endereço IP privado para um endereço público.
Qualquer endereço IP de um pool de endereços IP públicos é atribuído a um host da rede.
Com o mecanismo de overloading, ou PAT (Port Address Translation – Tradução de Endereços
de Portas), Vários endereços privados podem ser mapeados para um único endereço público,
porque cada endereço privado é rastreado por um número de porta.

O PAT usa números de porta de origem exclusivos no endereço IP global interno, para
distinguir cada uma das traduções.

6
O número da porta é codificado em 16 bits. O número total de endereços internos que podem
ser traduzidos para um endereço externo poderia ser, teoricamente, até 65.536 por endereço
IP. Na realidade, a quantidade de portas que podem receber um único endereço IP fica em
torno de 4.000. O PAT tenta preservar a porta de origem. Se essa porta de origem já estiver
em uso, o PAT atribui o primeiro número de porta disponível, a partir do início do grupo de
portas apropriado 0-511, 512-1023 ou 1024-65535. Quando não há mais portas disponíveis e
há mais de um endereço IP externo configurado, o PAT passa para o próximo endereço IP,
para tentar alocar novamente a porta de origem. Esse processo continua até que não haja mais
portas disponíveis nem endereços IP externos.

O uso de NAT oferece as seguintes vantagens:

• Elimina a necessidade de atribuir um novo endereço IP a cada host quando se muda


para um novo provedor de serviços Internet (ISP). Elimina a necessidade de endereçar
novamente todos os hosts que exigem acesso externo, economizando tempo e
dinheiro.
• Economiza endereços, pela aplicação de multiplexação no nível das portas. Com o uso
de PAT, os hosts internos podem compartilhar um único endereço IP público para toda
comunicação externa. Nesse tipo de configuração, são necessários pouquíssimos
endereços externos para suportar muitos hosts internos, economizando, assim,
endereços IP.
• Protege a segurança da rede. Como as redes privadas não anunciam seus endereços
nem sua topologia interna, elas permanecem razoavelmente seguras quando usadas
em conjunto com o uso de NAT para obter acesso externo controlado.

1.1.4 Configurando NAT e PAT

Tradução estática
Para configurar a tradução estática de endereços de origem internos, execute as tarefas das
figuras.

7
A figura abaixo mostra o uso da tradução NAT estática. O roteador traduz pacotes do host
10.1.1.2 para um endereço de origem 192.168.1.2.

8
Tradução dinâmica
Para configurar a tradução dinâmica de endereços de origem internos, execute as tarefas da
figura abaixo.

9
A lista de acesso deve permitir somente os endereços a serem traduzidos. Lembre-se de que
há um "deny all" implícito no final de cada lista de acesso. Uma lista de acesso que seja muito
permissiva pode causar resultados imprevisíveis. A Cisco recomenda que as listas de acesso
referenciadas pelos comandos NAT não sejam configuradas com o comando permit any. A
utilização de permit any pode fazer com que o NAT consuma muitos recursos do roteador,
causando problemas na rede.

10
A figura acima traduz todos os endereços de origem que passam pela lista de acesso 1, com
endereço de origem 10.1.0.0/24, em um endereço do pool chamado nat-pool1. O pool contém
endereços de 179.9.8.80/24 a 179.9.8.95/24.

OBSERVAÇÃO:
NAT não traduzirá o host 10.1.1.2, pois ele não tem permissão para ser traduzido, segundo a
lista de acesso.

Overloading
Overloading é configurado de duas maneiras, dependendo da forma como os endereços IP
públicos foram alocados. Um provedor de serviços Internet (ISP) pode alocar somente um
endereço IP público para uma rede, o qual geralmente é atribuído à interface externa que se
conecta ao provedor. A figura abaixo mostra como configurar a sobrecarga nessa situação.

11
Outra maneira de configurar overloading é se o provedor de serviços Internet tiver
disponibilizado um ou mais endereços IP públicos para uso como pool NAT. Esse pool pode
ser sobrecarregado conforme mostrado na configuração da figura.

A figura abaixo mostra um exemplo de configuração PAT.

12
1.1.5 Verificando configurações PAT

Uma vez configurado o NAT, use os comandos clear e show para verificar se ele está
operando conforme o esperado.

Por padrão, as traduções dinâmicas de endereços saem da tabela de traduções NAT depois de
excedido um limite de tempo em que não são utilizadas. Quando a tradução de portas (PAT)
não está configurada, as entradas de tradução expiram após 24 horas, a menos que os
temporizadores sejam reconfigurados com o comando ip nat translation timeout
timeout_seconds no modo de configuração global. Limpe as entradas antes do tempo de
expiração, usando um dos comandos da figura.

13
As informações de tradução podem ser exibidas realizando-se uma das tarefas do modo
EXEC.

14
Uma alternativa é usar o comando show run e procurar os comandos de NAT, lista de
acesso, interface ou pool com os valores exigidos.

1.1.6 Solucionando problemas em configurações NAT e PATAT

Quando há problemas de conectividade IP em um ambiente NAT, geralmente é difícil


determinar suas causas. Muitas vezes, culpa-se o NAT indevidamente, quando, na verdade,
existe um outro problema.

Ao tentar determinar a causa de um problema de conectividade IP, é importante eliminar o


NAT. Siga as seguintes etapas para determinar se o NAT está operando conforme o esperado:

1. Com base na configuração, defina claramente o que o NAT deve realizar.


2. Verifique se as traduções corretas estão presentes na tabela de tradução.
3. Verifique se a tradução está ocorrendo, usando os comandos show e debug.
4. Examine em detalhe o que está ocorrendo com o pacote e verifique se os roteadores
têm as informações corretas de roteamento para levar o pacote adiante.

Use o comando debug ip nat para verificar a operação do recurso NAT, exibindo
informações sobre cada pacote que está sendo traduzido pelo roteador. O comando debug ip
nat detailed gera uma descrição de cada pacote considerado para tradução. Esse
comando também exibe informações sobre certos erros ou condições de exceção, tais como a
impossibilidade de alocar um endereço global.

A figura mostra um exemplo da saída do comando debug ip nat. Nesse exemplo, as duas
primeiras linhas da saída da depuração mostram que foram produzidas uma
requisiçãorequisição e uma resposta de DNS (Domain Name System – Sistema de Nomes de
Domínio). As outras linhas mostram a saída da depuração de uma conexão Telnet de um host
no interior da rede para um host no exterior da rede.

Decodifique a saída de debug usando os pontos-chave a seguir:

15
• O asterisco ao lado da palavra NAT indica que a tradução está ocorrendo em um
caminho com comutação mais rapida (fast-switch). O primeiro pacote de uma conversa
sempre passa por um caminho com comutação mais lenta, o que significa que o
primeiro pacote é comutado utilizando process-switch. Os outros pacotes passam com
comutação fast-switch, se houver uma entrada no cache.
• s = a.b.c.dé o endereço de origem.
• O endereço de origem a.b.c.d é traduzido em w.x.y.z.
• d = e.f.g.h é o endereço de destino.
• O valor entre parênteses é o número de identificação IP. Essas informações podem ser
úteis para depuração. Elas são úteis, por exemplo, porque permitem correlacioná-las
com pacotes capturados por outros analisadores de protocolos.

1.1.7 Problemas no uso de NAT

O NAT tem diversas vantagens, dentre as quais:

• Economiza o esquema de endereçamento legalmente registrado, permitindo a


privatização das intranets.
• Aumenta a flexibilidade das conexões à rede pública. Pools múltiplos, pools de backup
e pools de balanceamento de carga podem ser implementados para garantir conexões
de rede pública confiáveis.
• Consistência do esquema de endereçamento da rede interna. Em uma rede sem
endereços IP privados e NAT, a alteração de endereços IP públicos exige a
renumeração de todos os hosts da rede existente. Os custos para renumerar os hosts
podem ser significativos. O NAT permite manter o esquema existente e suportar um
novo esquema de endereçamento público.

Mas o NAT também tem desvantagens. Ativar a tradução de endereços causa perda de
funcionalidade, particularmente com qualquer protocolo ou aplicação que envolva o envio de
informações de endereço IP dentro do payload IP. Isso exige um suporte adicional do
dispositivo NAT.

O NAT aumenta o atraso. Surgem atrasos na comutação de caminhos devido à tradução de


cada endereço IP dentro dos cabeçalhos dos pacotes. O primeiro pacote sempre passa pelo
caminho de comutação mais lenta, o que significa que o primeiro pacote é comutado utilizando
process-switch. Os outros pacotes passam pelo caminho com comutação mais rápida (fast-
switch), se houver uma entrada no cache.

O desempenho pode ser outra preocupação, porque NAT é efetuado atualmente utilizando
comutação process-switch. A CPU precisa olhar cada pacote para decidir se deve traduzi-lo.
Ela precisa alterar o cabeçalho IP e, possivelmente, o cabeçalho TCP.

Uma desvantagem significativa da implementação e utilização do NAT é a perda da


rastreabilidade IP ponta-a-ponta. Torna-se muito mais difícil rastrear pacotes que passam por
diversas alterações de endereço ao longo dos vários saltos do NAT. Se algum hacker quiser
determinar a origem de um pacote, terá dificuldade em rastrear ou obter o endereço inicial da
origem ou do destino.

O NAT também força alguns aplicativos que usam endereçamento IP a pararem de funcionar,
porque oculta os endereços IP ponta-a-ponta. Os aplicativos que usam endereços físicos em

16
vez de um nome de domínio qualificado não alcançam os destinos traduzidos através do
roteador NAT. Às vezes, esse problema pode ser evitado através da implementação de
mapeamentos NAT estáticos.

O NAT do Cisco IOS suporta os seguintes tipos de tráfego:

• ICMP;
• FTP (File Transfer Protocol – Protocolo de Transferência de Arquivos), incluindo os
comandos PORT e PASV;
• NetBIOS sobre TCP/IP, serviços de datagrama, de nome e de sessão;
• RealAudio da RealNetworks;
• CUSeeMe da White Pines;
• StreamWorks da Xing Technologies;
• Consultas "A" e "PTR" do DNS;
• H.323/Microsoft NetMeeting, IOS versões 12.0(1)/12.0(1)T e posteriores;
• VDOLive da VDOnet, IOS versões 11.3(4)11.3(4)T e posteriores;
• Web Theater da VXtreme, IOS versões 11.3(4)11.3(4)T e posteriores;
• Multicast IP, IOS versão 12.0(1)T, somente com tradução do endereço de origem;

O NAT do Cisco IOS não suporta os seguintes tipos de tráfego:

• Atualizações de tabelas de roteamento;


• Transferências de zonas DNS;
• BOOTP;
• Protocolos talk e ntalk;
• SNMP (Simple Network Management Protocol – Protocolo Simples de Gerenciamento
de Redes).

1.2 DHCP
1.2.1 Introdução ao DHCP

O DHCP (Dynamic Host Configuration Protocol – Protocolo para Configuração Dinâmica de


Hosts) funciona em modo cliente/servidor. O DHCP permite que os clientes DHCP de uma rede
IP obtenham suas configurações de um servidor DHCP. Quando se utiliza o DHCP, o trabalho
de gerenciamento de uma rede IP é menor. A opção de configuração mais significativa que um
cliente recebe do servidor é seu endereço IP. O protocolo DHCP está descrito na RFC 2131.

A maioria dos sistemas operacionais modernos inclui um cliente DHCP, como é o caso dos
vários sistemas operacionais Windows, Novell Netware, Sun Solaris, Linux e MAC OS. O
cliente solicita valores de endereçamento ao servidor DHCP da rede.

17
Esse servidor gerencia a alocação de endereços IP e responde às solicitações de configuração
dos clientes. O servidor DHCP pode responder às solicitações de várias sub-redes. O DHCP
não foi previsto para configurar roteadores, comutadores e servidores. Esses tipos de hosts
precisam de endereços IP estáticos.

A função do DHCP é fornecer um processo para um servidor alocar informações IP aos


clientes. Os clientes alugam as informações do servidor por um período definido
administrativamente. Quando o aluguel (lease) expira, o cliente precisa pedir outro endereço,
embora geralmente receba o mesmo endereço novamente.

Normalmente, os administradores preferem que um servidor da rede ofereça serviços DHCP,


pois essas soluções são escalonáveis e relativamente fáceis de gerenciar. Os roteadores Cisco
podem utilizar um conjunto de recursos do Cisco IOS, o Easy IP, para oferecer um servidor
DHCP opcional completo. Por padrão, o Easy IP aluga as configurações por 24 horas. Isso é
útil em escritórios pequenos ou domésticos, em que o usuário pode tirar proveito do DHCP e
do NAT sem ter um servidor NT ou UNIX.

Os administradores configuram os servidores DHCP para atribuir endereços a partir de pools


predefinidos. Os servidores DHCP também podem oferecer outras informações, tais como
endereços de servidores DNS e WINS e nomes de domínios. A maioria dos servidores DHCP
também permite que o administrador defina especificamente quais endereços MAC clientes
podem ser servidos e atribuir-lhes automaticamente o mesmo endereço IP todas as vezes.

O DHCP usa o UDP (User Datagram Protocol – Protocolo de Datagrama de Usuário) como
protocolo de transporte. O cliente envia mensagens para o servidor na porta 67. O servidor
envia mensagens para o cliente na porta 68.

18
1.2.2 Diferenças entre BOOTP e DHCP

Inicialmente, a comunidade Internet desenvolveu o protocolo BOOTP para ativar a


configuração de estações de trabalho sem disco. O BOOTP foi definido originalmente na RFC
951 em 1985. Como antecessor do DHCP, o BOOTP tem algumas características operacionais
semelhantes. Os dois protocolos baseiam-se em uma estrutura cliente/servidor e usam as
portas UDP 67 e 68. Essas portas ainda são conhecidas como portas BOOTP.

Os quatro parâmetros básicos do IP são:

• Endereço IP;
• Endereço do gateway;
• Máscara de sub-rede;
• Endereço do servidor DNS.

O BOOTP não aloca endereços IP dinamicamente a um host. Quando um cliente solicita um


endereço IP, o servidor BOOTP procura em uma tabela predefinida uma entrada que
corresponda ao endereço MAC do cliente. Se houver uma entrada, o endereço IP
correspondente é devolvido ao cliente. Isso significa que a vinculação entre o endereço MAC e
o endereço IP já deve ter sido configurada no servidor BOOTP.

Há duas diferenças principais entre o DHCP e o BOOTP:

• O DHCP define mecanismos através dos quais os clientes podem receber um


endereço IP alugado (em lease) por um período de tempo finito. Esse período de
aluguel (lease) permite que o endereço IP seja atribuído a outro cliente posteriormente
ou que o cliente receba outro endereço caso se mude para outra sub-rede. Os clientes
também podem renovar o aluguel (lease) e manter o mesmo endereço IP.
• O DHCP fornece o mecanismo para que um cliente reúna outros parâmetros de
configuração IP, tais como WINS e nome de domínio.

1.2.3 Principais recursos do DHCP

Existem três mecanismos que são usados para atribuir um endereço IP ao cliente.

• Alocação automática – O DHCP atribui um endereço IP permanente ao cliente.


• Alocação manual – O administrador atribui o endereço IP ao cliente. O DHCP informa
o endereço ao cliente.
• Alocação dinâmica – O DHCP atribui, ou aluga, um endereço IP ao cliente por um
período de tempo limitado.

O enfoque desta seção é o mecanismo de alocação dinâmica. Alguns dos parâmetros de


configuração disponíveis estão listados na RFC 1533 do IETF:

• Máscara de sub-rede;
• Roteador;
• Nome de domínio;
• Servidor(es) de nomes de domínio (DNS);

19
• Servidor(es) WINS.

O servidor DHCP cria pools de endereços IP e parâmetros associados.

Os pools são dedicados a uma sub-rede IP lógica individual. Isso permite que vários
servidores DHCP respondam e que os clientes IP sejam móveis. Se vários servidores
responderem, o cliente pode escolher somente um deles.

1.2.4 Operação do DHCP

O processo de configuração do cliente DHCP segue as seguintes etapas:

20
1. Um cliente precisa estar configurado para DHCP ao iniciar o processo de associação a
uma rede. O cliente envia uma requisiçãorequisição a um servidor pedindo uma
configuração IP. Em algumas situações o cliente pode sugerir o endereço IP desejado,
por exemplo, ao solicitar uma prorrogação de um aluguel (lease) do DHCP. O cliente
localiza um servidor DHCP, enviando um broadcast chamado DHCPDISCOVER.
2. Quando o servidor recebe o broadcast, ele determina se pode atender à requisição a
partir de seu próprio banco de dados. Se não puder, ele encaminha a requisição a
outro servidor DHCP. Se puder atender à requisição, o servidor DHCP oferece ao
cliente informações de configuração IP na forma de um DHCPOFFER unicast. O
DHCPOFFER é uma proposta de configuração que pode incluir endereço IP, endereço
de servidor DNS e tempo de aluguel (lease).
3. Se o cliente considera a oferta aceitável, ele envia outro broadcast, um
DHCPREQUEST, solicitando especificamente esses determinados parâmetros IP. Por
que o cliente envia a requisição por broadcast e não por unicast ao servidor? Ele usa
um broadcast porque a primeira mensagem, DHCPDISCOVER, pode ter alcançado
mais de um servidor DHCP. Se mais de um servidor tiver feito sua oferta, a
DHCPREQUEST enviada por broadcast permite que os outros servidores saibam qual
delas foi aceita. Geralmente, a oferta aceita é a primeira que foi recebida.
4. O servidor que recebe a DHCPREQUEST oficializa a configuração, enviando uma
confirmação por unicast, a DHCPACK. É possível, mas muito improvável, que o
servidor não envie a DHCPACK. Isso pode ocorrer se o servidor tiver alugado as
mesmas informações a outro cliente nesse ínterim. O recebimento da mensagem
DHCPACK permite que o cliente comece a usar imediatamente o endereço atribuído.
5. Se o cliente detecta que o endereço já está em uso no segmento local, ele envia uma
mensagem DHCPDECLINE e o processo é reiniciado. Se o cliente tiver recebido uma
DHCPNACK do servidor depois de enviar a DHCPREQUEST, ele inicia o processo
novamente.
6. Se o cliente não precisa mais do endereço IP, ele envia uma mensagem
DHCPRELEASE ao servidor.

Dependendo das diretrizes adotadas por uma organização, pode ser permitido que um usuário
ou um administrador atribua endereços IP estáticos a um host, com a possibilidade de utilizar
um endereço IP que já pertença ao pool de endereços utilizado nos servidores DHCP. Por
precaução, o servidor DHCP do Cisco IOS sempre confirma se um endereço não está em uso
antes de oferecê-lo a um cliente. O servidor emite um ICMP echo request, ou ping, para um
endereço do pool antes de enviar o DHCPOFFER a um cliente. Embora configurável, a
quantidade padrão de pings usada para verificar um possível conflito de endereços IP é 2.

21
1.2.5 Configurando o DHCP

Como no caso do NAT, um servidor DHCP requer que o administrador defina um pool de
endereços. O comando ip dhcp pool define quais endereços serão atribuídos aos hosts.

O primeiro comando, ip dhcp pool, cria um pool com o nome especificado e coloca o
roteador em um modo especializado de configuração do DHCP. Nesse modo, use a declaração
network para definir o intervalo de endereços a serem alugados.

Se for necessário excluir endereços específicos da rede, volte ao modo configuração global.

O comando ip dhcp excluded-address configura o roteador para excluir um determinado


endereço ou intervalo de endereços ao atribuir endereços aos clientes. O comando ip dhcp
excluded-address pode ser usado para reservar endereços que estão atribuídos
estaticamente aos hosts principais, como por exemplo, o endereço da interface do roteador.

Geralmente, um servidor DHCP é configurado para atribuir muito mais do que um endereço IP.
Outros valores de configuração IP, tais como o gateway padrão, podem ser definidos a partir
do modo de configuração do DHCP. O comando default-router define o gateway padrão.
Também é possível configurar o endereço do servidor DNS, dns-server, e do servidor WINS,
netbios-name-server. O servidor DHCP do IOS pode configurar clientes com praticamente
qualquer informação de TCP/IP.

Uma lista dos principais comandos do servidor DHCP do IOS inseridos no modo de
configuração do pool DHCP estão mostrados na figura.

22
O serviço DHCP é ativado por padrão nas versões do Cisco IOS que o suportam. Para
desativar o serviço, use o comando no service dhcp. Use o comando de configuração
global service dhcp para reativar o processo do servidor DHCP.

1.2.6 Verificando a operação do DHCP

Para verificar a operação do DHCP, pode-se usar o comando show ip dhcp binding. Ele
exibe uma lista de todas as associações criadas pelo serviço DHCP.

Para verificar se as mensagens estão sendo recebidas ou enviadas pelo roteador, use o
comando show ip dhcp server statistics. Ele exibe informações sobre a quantidade
de mensagens DHCP que foram enviadas e recebidas.

1.2.7 Solucionando problemas do DHCP

Para solucionar problemas com a operação do servidor DHCP, pode-se usar o comando
debug ip dhcp server events. Esse comando mostra que o servidor verifica
periodicamente se algum aluguel (lease) expirou. Também são exibidos os processos de
devolução e alocação de endereços.

23
1.2.8 DHCP relay

Os clientes DHCP usam broadcasts IP para encontrar o servidor DHCP do segmento. O que
acontece quando o servidor e o cliente não estão no mesmo segmento e estão separados por
um roteador? Os roteadores não encaminham esses broadcasts.

O DHCP não é o único serviço essencial que usa broadcasts. Os roteadores Cisco e outros
dispositivos podem usar broadcasts para localizar servidores TFTP. Alguns clientes podem
precisar enviar um broadcast para localizar um servidor TACACS. Um servidor TACACS é um
servidor de segurança. Normalmente, em uma rede hierárquica complexa, nem todos os
clientes residem na mesma sub-rede que os servidores principais. Tais clientes remotos
enviam broadcasts para localizar esses servidores. Entretanto, os roteadores, por padrão, não
encaminham os broadcasts dos clientes além de suas sub-redes.

Como alguns clientes não podem ser utilizados se não houver alguns serviços na rede, tais
como o DHCP, deve-se implementar uma das duas opções: ou o administrador coloca
servidores em todas as sub-redes ou usa o recurso helper-address do Cisco IOS. A execução
de serviços, tais como DHCP ou DNS, em diversos computadores, cria sobrecarga e
dificuldades administrativas, tornando a primeira opção ineficiente. Quando possível, os
administradores devem usar o comando ip helper-address para retransmitir as
solicitações de broadcast para esses importantes serviços UDP.

Usando o recurso de helper-address, um roteador pode ser configurado para aceitar uma
requisição de broadcast para um serviço UDP e encaminhá-la como unicast a um endereço IP
específico. Por padrão, o comando ip helper-address encaminha oito serviços UDP a
seguir:

• Time;
• TACACS;
• DNS;
• Servidor BOOTP/DHCP;
• Cliente BOOTP/DHCP;
• TFTP;
• Serviço de nomes NetBIOS;
• Serviço de datagramas NetBIOS.

No caso específico do DHCP, um cliente envia um pacote brodcast de DHCPDISCOVER em


seu segmento de rede local.

24
Esse pacote é capturado pelo gateway. Se houver um helper address configurado, o pacote
DHCP é encaminhado para o endereço especificado. Antes de encaminhar o pacote, o
roteador preenche o campo GIADDR do pacote com o endereço IP do roteador daquele
segmento. Esse endereço será, então, o endereço do gateway do cliente DHCP, quando ele
receber o endereço IP.

O servidor DHCP recebe o pacote DISCOVER. O servidor usa o campo GIADDR como um
índice na lista de pools de endereços em busca de um que tenha o endereço do gateway
definido com o endereço que está em GIADDR. Em seguida, esse pool é usado para fornecer
ao cliente seu endereço IP.

25
Resumo

Devem ter sido compreendidos os importantes conceitos a seguir:

• Os endereços privados são para uso privado e interno, e nunca devem ser roteados
por um roteador da Internet pública.
• O NAT altera o cabeçalho IP de um pacote, para que o endereço de destino, o
endereço de origem ou ambos sejam substituídos por outros endereços.
• O PAT usa números de porta de origem exclusivos no endereço IP global interno, para
distinguir entre as traduções.

26
• As traduções NAT podem ocorrer de maneira dinâmica ou estática e podem ser usadas
para diversas finalidades.
• PAT e NAT podem ser configurados para tradução estática, dinâmica e para overload.
• O processo de verificação da configuração do NAT e do PAT inclui os comandos
clear e show.
• O comando debug ip nat é usado para solucionar problemas de configuração do
NAT e do PAT.
• O NAT tem vantagens e desvantagens.
• O DHCP funciona em modo cliente/servidor, permitindo que os clientes obtenham
configurações IP de um servidor DHCP.
• O BOOTP é o antecessor do DHCP e ambos têm algumas características operacionais
em comum, mas o BOOTP não é dinâmico.
• Um servidor DHCP gerencia pools de endereços IP e parâmetros associados. Cada
pool destina-se a uma sub-rede IP lógica individual.
• O processo de configuração do cliente DHCP tem quatro etapas.
• Geralmente, um servidor DHCP é configurado para fazer mais do que atribuir
endereços IP.
• O comando show ip dhcp binding é usado para verificar a operação do DHCP.
• O comando debug ip dhcp server events é usado para solucionar problemas
do DHCP.
• Quando um servidor e um cliente DHCP não estão no mesmo segmento e estão
separados por um roteador, usa-se o comando ip helper-address para retransmitir
as solicitações de broadcast.

Módulo 02 - Tecnologias WAN

27
Visão Geral

Quando uma empresa cresce e passa a ter instalações em várias localidades, é necessário
interconectar as redes locais das várias filiais para formar uma rede de longa distância (WAN).
Este módulo examina algumas das opções disponíveis para essas interconexões, o hardware
necessário para implementá-las e a terminologia usada para discuti-las.

Há muitas opções disponíveis hoje em dia para implementar soluções WAN. Elas diferem em
termos de tecnologia, velocidade e custo. Familiarizar-se com essas tecnologias é uma peça
importante do projeto e da avaliação da rede.

Se todo o tráfego de dados de uma empresa está dentro de um único edifício, uma rede local
atende às necessidades dessa empresa. Prédios podem ser interconectados com enlaces de
dados de alta velocidade para formar uma rede local no campus (Campus LAN), se os dados
precisam fluir entre prédios localizados em um único campus. Entretanto, é necessário usar
uma WAN para transportar dados que precisem ser transferidos entre locais geográficos
distantes. O acesso remoto individual à rede local e a conexão da rede local à Internet são
tópicos de estudos independentes e não serão tratados aqui.

A maioria dos alunos não terá a oportunidade de projetar uma nova WAN, mas muitos
participarão de projetos de melhoria e atualização de WANs existentes e poderão aplicar as
técnicas aprendidas neste módulo.

Ao concluírem este módulo, os alunos deverão ser capazes de:

• Fazer distinção entre uma rede local e uma WAN;


• Identificar os dispositivos usados em uma WAN;
• Listar os padrões WAN;
• Descrever o encapsulamento da WAN;
• Classificar as várias opções de enlaces WAN;
• Fazer distinção entre as tecnologias WAN comutadas por pacotes e comutadas por
circuito;
• Comparar e diferenciar as tecnologias WAN atuais;
• Descrever os equipamentos envolvidos na implementação de vários serviços WAN;
• Recomendar um serviço WAN a uma organização com base em suas necessidades;
• Descrever os princípios básicos da conectividade DSL e cable modem;
• Descrever um procedimento metódico para o projeto de WANs;
• Comparar e diferenciar as topologias WAN;
• Comparar e diferenciar os modelos de projeto WAN;
• Recomendar um projeto WAN a uma organização com base em suas necessidades.

2.1 Visão geral das tecnologias WAN


2.1.1 Tecnologia WAN

Uma WAN é uma rede de comunicações de dados que opera além da abrangência geográfica
de uma rede local. Uma das principais diferenças entre uma WAN e uma rede local é que uma
empresa ou organização precisa ser assinante de um provedor de serviços WAN para poder
usar os serviços de rede da operadora. Uma WAN usa os enlaces de dados fornecidos pelas
operadoras para prover o acesso à Internet, a conexão entre as diversas localidades de uma
organização e a conexão com as redes de outras organizações, possibilitando ainda, a oferta
de serviços externos e o acesso de usuários remotos. WANs geralmente transportam vários
tipos de tráfego, como voz, dados e vídeo. Os serviços telefônicos e de dados são os serviços
WAN mais comumente usados.

Os dispositivos que ficam nas instalações do assinante são chamados CPE (customer
premises equipment).

28
O assinante é dono do CPE ou o aluga do provedor de serviços. Um cabo de cobre ou fibra
conecta o CPE à central da operadora (CO – Central Office). Esse cabeamento geralmente é
chamado de loop local ou "last mile". Uma chamada discada é conectada a outros loops locais
na mesma região através da própria central da operadora, ou a outros em regiões mais
distantes através de um tronco com uma central principal. Em seguida, ela vai até uma central
seccional e segue para uma central regional ou internacional da operadora, ao longo do trajeto
até seu destino.

Para que o loop local transporte dados, é necessário um dispositivo (por exemplo, um modem)
que prepare os dados para transmissão. Os dispositivos que colocam dados no loop local são
chamados de equipamentos de terminação do circuito de dados, ou equipamentos de
comunicações de dados (DCE – Data Communications Equipment). Os dispositivos do cliente
que passam os dados para o DCE são chamados de equipamentos terminais de dados (DTE –
Data terminal Equipment).

29
A principal função do DCE é fornecer ao DTE uma interface com o enlace de comunicação que
o conecta à nuvem WAN. A interface DTE/DCE usa vários protocolos de camada física, tais
como HSSI (High-Speed Serial Interface – Interface Serial de Alta Velocidade) e V.35. Esses
protocolos estabelecem os códigos e os parâmetros elétricos usados pelos dispositivos para se
comunicarem.

Os enlaces WAN são fornecidos em diversas velocidades, medidas em bits por segundo (bps),
quilobits por segundo (kbps ou 1000 bps), megabits por segundo (Mbps ou 1000 kbps) ou
gigabits por segundo (Gbps ou 1000 Mbps). Geralmente, os valores bps são full duplex. Isso
significa que uma linha E1 pode transportar 2 Mbps ou que uma linha T1 pode transportar 1,5
Mbps em cada direção ao mesmo tempo.

30
2.1.2 Dispositivos WAN

WANs são grupos de redes locais conectadas entre si com enlaces de comunicação de um
provedor de serviços. Como os enlaces de comunicação não podem ser conectados
diretamente à rede local, é necessário identificar os diversos equipamentos de
interfaceamento.

Os computadores baseados na rede local que tenham dados a transmitir enviam os dados a
um roteador que contém tanto interfaces de rede local quanto de WAN.

31
O roteador usa as informações de endereço da camada 3 para entregar os dados na interface
WAN adequada. Os roteadores são dispositivos de rede ativos e inteligentes, podendo, assim,
participar do gerenciamento da rede. Os roteadores gerenciam as redes fornecendo controle
dinâmico sobre os recursos e suportando as tarefas e os objetivos das mesmas. Alguns desses
objetivos são: conectividade, desempenho confiável, controle de gerenciamento e flexibilidade.

O enlace de comunicação precisa dos sinais em um formato apropriado. Para linhas digitais,
são necessárias uma unidade de serviço de canal (CSU) e uma unidade de serviço de dados
(DSU). Geralmente, as duas são combinadas em um único equipamento, chamado CSU/DSU.
O CSU/DSU também pode ser integrado à placa da interface do roteador.

Se o loop local for analógico em vez de digital, é necessário um modem.

32
Os modems transmitem dados através das linhas telefônicas de voz, modulando e
demodulando o sinal. Os sinais digitais são superpostos em um sinal de voz analógico, que é
modulado para transmissão. O sinal modulado pode ser ouvido como uma série de assobios se
o alto-falante interno do modem for ligado. Na ponta receptora, os sinais analógicos são
transformados novamente em sua forma digital, ou demodulados.

Quando se usa ISDN como enlace de comunicação, todos os equipamentos conectados ao


barramento ISDN devem ser compatíveis com essa tecnologia. Geralmente, a compatibilidade
está integrada à interface do computador, para conexões discadas diretas, ou à interface do
roteador, para conexões de rede local para WAN. Equipamentos mais antigos sem interface
ISDN precisam de um adaptador de terminal ISDN para ter compatibilidade com essa
tecnologia.

Os servidores de comunicação concentram as comunicações dos usuários por discagem de


entrada e o acesso remoto a uma rede local. Podem ter um misto de interfaces analógicas e
digitais (ISDN) e suportar centenas de usuários simultâneos.

2.1.3 Padrões WAN

WANs usam o modelo de referência OSI, mas se concentram principalmente nas camadas 1 e
2. Os padrões WAN normalmente descrevem os métodos de distribuição da camada física
como as exigências da camada de enlace de dados, incluindo o endereçamento físico, o
controle de fluxo e o encapsulamento. Os padrões WAN são definidos e gerenciados por
diversas autoridades reconhecidas.

33
Os protocolos da camada física descrevem como oferecer conexões elétricas, mecânicas,
operacionais e funcionais aos serviços oferecidos por um provedor de serviços de
comunicações. Alguns dos padrões comuns da camada física estão listados na figura

e seus conectores estão ilustrados na figura.

34
Os protocolos da camada de enlace definem a maneira como os dados são encapsulados para
transmissão para localidades remotas e os mecanismos para transferir os quadros resultantes.
São usadas diversas tecnologias diferentes, tais como ISDN, Frame Relay ou ATM
(Asynchronous Transfer Mode – Modo de Transferência Assíncrona). Esses protocolos usam o
mesmo mecanismo de enquadramento básico, o HDLC (high-level data link control), um padrão
ISO ou um de seus subconjuntos ou variantes.

2.1.4 Encapsulamento WAN

Os dados da camada de rede são passados para a camada de enlace para serem entregues
em um enlace físico, que normalmente em uma conexão WAN é ponto-a-ponto. A camada de
enlace monta um quadro em torno dos dados da camada de rede, para que seja possível
aplicar as verificações e controles necessários. Cada tipo de conexão WAN usa um protocolo
da camada 2 para encapsular o tráfego enquanto ele atravessa o enlace WAN. Para garantir a
utilização do protocolo de encapsulamento correto, deve-se configurar o tipo de
encapsulamento da camada 2 usado na interface serial de cada roteador. A escolha dos
protocolos de encapsulamento depende da tecnologia WAN e dos equipamentos utilizados. A
maioria dos enquadramentos é baseada no padrão HDLC.

O enquadramento HDLC proporciona entrega confiável dos dados através de linhas não
confiáveis e inclui sinalização para controle de fluxo e de erros.

O quadro sempre começa e termina com um campo de flag de 8 bits, cujo padrão é 01111110.
Como existe uma probabilidade de que esse padrão ocorra nos dados reais, o sistema HDLC
emissor sempre insere um bit 0 após cada cinco 1s no campo de dados; portanto, na prática, a
seqüência de flag só pode ocorrer nas extremidades do quadro. O sistema receptor remove os
bits inseridos. Quando os quadros são transmitidos consecutivamente, o flag final do primeiro
quadro é usado como flag inicial do quadro seguinte.

35
O campo de endereço não é necessário nos enlaces WAN, que são quase sempre ponto-a-
ponto. Mesmo assim, o campo de endereço está presente e pode ter um ou dois bytes de
comprimento. O campo de controle indica o tipo de quadro, que pode ser de informação,
supervisão ou não numerado:

• Os quadros não numerados (unnumbered frames) transportam mensagens de


configuração da linha.
• Os quadros de informação (information frames) transportam dados da camada de rede.
• Os quadros de supervisão (supervision frames) controlam o fluxo dos quadros de
informação e solicitam retransmissão dos dados em caso de erro.

Normalmente, o campo de controle tem 1 byte, mas pode ter 2 bytes em sistemas de janelas
deslizantes. Juntos, o campo de endereço e o campo de controle são chamados de cabeçalho
do quadro. Os dados encapsulados vêm após o campo de controle. Em seguida, uma
seqüência de verificação do quadro (FCS) usa o mecanismo de verificação de redundância
cíclica (CRC) para estabelecer um campo de dois ou quatro bytes.

São usados diversos protocolos de enlaces de dados, incluindo os subconjuntos e versões


proprietárias do HDLC.

Tanto o PPP quanto a versão do HDLC da Cisco tem um campo extra no cabeçalho para
identificar o protocolo da camada de rede dos dados encapsulados.

2.1.5 Comutação por pacotes e por circuito

As redes comutadas por pacotes foram desenvolvidas para diminuir os custos das redes
públicas comutadas por circuito e para oferecer uma tecnologia WAN mais econômica.

Quando um assinante faz uma chamada telefônica, o número discado é usado para definir os
switches nas estações de comutação ao longo da rota da chamada, para que haja um circuito
contínuo do usuário que originou a chamada até o destinatário. Por causa da operação de
comutação usada para estabelecer o circuito, o sistema telefônico é chamado de rede
comutada por circuito. Se os telefones são substituídos por modems, o circuito comutado é
capaz de transportar dados de computador.

36
O caminho interno seguido pelo circuito entre as estações de comutação é compartilhado por
várias conversas. Usa-se a multiplexação por divisão de tempo (TDM) para dar a cada
conversa uma parcela da conexão de cada vez. A TDM garante a disponibilização de uma
conexão de capacidade fixa para o assinante.

Se o circuito transportar dados de computador, o uso dessa capacidade fixa pode não ser
eficiente. Por exemplo, se o circuito for usado para acessar a Internet, haverá um pico de
atividade quando uma página da Web estiver sendo transferida. Depois disso, pode não haver
nenhuma atividade enquanto o usuário lê a página e, em seguida, outro pico de atividade
quando a próxima página for transferida. Essa variação do uso entre zero e o máximo é típica
do tráfego das redes de computadores. Como o assinante tem uso exclusivo da alocação de
capacidade fixa, geralmente os circuitos comutados são uma maneira cara de movimentar
dados.

Uma alternativa é alocar a capacidade para o tráfego somente quando isso for necessário, e
compartilhar a capacidade disponível entre muitos usuários. Com uma conexão comutada por
circuito, os bits de dados colocados no circuito são entregues automaticamente na ponta
remota, pois o circuito já está estabelecido. Se o circuito precisar ser compartilhado, deverá
haver algum mecanismo que rotule os bits para que o sistema saiba onde deve entregá-los. É
difícil rotular bits individuais, portanto eles são agrupados em grupos chamados células,
quadros ou pacotes. O pacote a ser entregue passa de uma estação comutadora para outra,
através da rede do provedor. As redes que implementam esse sistema são chamadas de redes
comutadas por pacotes.

Os enlaces que conectam os switches da rede do provedor pertencem a um assinante


individual durante a transferência dos dados, portanto, muitos assinantes podem compartilhar o
enlace. Os custos podem ser significativamente mais baixos do que em uma conexão
comutada por circuito. Os dados nas redes comutadas por pacotes estão sujeitos a atrasos
imprevisíveis quando pacotes individuais esperam que os pacotes de outro assinante sejam
transmitidos por um switch.

Os switches de uma rede comutada por pacotes determinam, a partir das informações de
endereçamento de cada pacote, o enlace para onde o pacote deve ser enviado em seguida. Há
duas abordagens para a determinação desses enlaces: sem conexão ou orientada a conexão.
Os sistemas sem conexão, como a Internet, transportam informações de endereçamento
completas em cada pacote. Cada switch deve avaliar o endereço para determinar aonde deve
enviar o pacote. Os sistemas orientados a conexão predeterminam a rota de um pacote, e cada
pacote só precisa transportar um identificador. No caso do Frame Relay, esses identificadores

37
são chamados de DLCI (Data Link Control Identifiers). O switch determina a rota a seguir
pesquisando o identificador em tabelas mantidas na memória. O conjunto de entradas das
tabelas identifica uma determinada rota ou circuito através do sistema. Se esse circuito só
existir fisicamente enquanto um pacote estiver viajando através dele, é chamado de Circuito
Virtual (VC).

As entradas das tabelas que constituem um VC podem ser estabelecidas por meio do envio de
uma solicitação de conexão através da rede. Neste caso, o circuito resultante é chamado de
Circuito Virtual Comutado (SVC - Switched Virtual Circuit). Os dados que devem viajar em
SVCs precisam esperar até que as entradas das tabelas tenham sido configuradas. Uma vez
estabelecido, o SVC pode ficar em operação durante horas, dias ou semanas. Onde for
necessário um circuito sempre disponível, será estabelecido um circuito virtual permanente
(PVC - Permanent Virtual Circuit). As entradas das tabelas são carregadas pelos switches no
momento da inicialização, para que o PVC esteja sempre disponível.

2.1.6 Opções de enlace WAN

A figura apresenta uma visão geral das opções de enlace WAN.

A comutação por circuito estabelece uma conexão física dedicada para voz ou dados entre um
emissor e um receptor. Antes que seja possível iniciar a comunicação, é necessário
estabelecer a conexão, configurando os switches. Isso é feito pelo sistema telefônico, usando-
se o número discado. O ISDN é usado tanto em linhas digitais como em linhas de voz.

Para evitar os atrasos associados ao estabelecimento de uma conexão, as prestadoras de


serviços de telefonia também oferecem circuitos permanentes. Essas linhas dedicadas ou
privadas oferecem banda mais larga do que a oferecida em um circuito comutado. Exemplos
de conexões comutadas por circuito:

• POTS (Plain Old Telephone System – Serviço Telefônico Comum);


• ISDN BRI (Basic Rate Interface – Interface de Taxa Básica);
• ISDN PRI (Primary Rate Interface – Interface de Taxa Primária).

Muitos usuários de WAN não fazem uso eficiente da largura de banda fixa disponível em
circuitos dedicados, comutados ou permanentes, pois o fluxo de dados flutua. Os provedores
de comunicações têm redes de dados disponíveis para atender esses usuários de maneira
mais apropriada. Nessas redes, os dados são transmitidos em células, quadros ou pacotes
rotulados, através de uma rede comutada por pacotes. Como os enlaces internos entre os

38
switches são compartilhados entre muitos usuários, os custos da comutação por pacotes são
mais baixos do que os da comutação por circuito. Os atrasos (latência) e a variabilidade do
atraso (jitter) são maiores em redes comutadas por pacotes do que em redes comutadas por
circuito. Isso se deve ao fato de os enlaces serem compartilhados e os pacotes precisarem ser
recebidos por inteiro em um switch antes de passarem para o próximo. Apesar da latência e do
jitter inerentes às redes compartilhadas, a tecnologia moderna permite o transporte satisfatório
de voz e até mesmo vídeo nessas redes.

As redes comutadas por pacotes podem estabelecer rotas através dos switches para
determinadas conexões ponta a ponta. As rotas estabelecidas quando os switches são
iniciados são PVCs. As rotas estabelecidas sob demanda são SVCs. Se o roteamento não for
pré-estabelecido e for determinado por cada switch para cada pacote, a rede é dita sem
conexão.

Para se conectar a uma rede comutada por pacotes, um assinante precisa de um loop local até
a localidade mais próxima onde o provedor disponibiliza o serviço. Isso é chamado de ponto de
presença (POP) do serviço. Normalmente, trata-se de uma linha privada dedicada. Essa linha é
muito mais curta que uma linha privada que seja conectada diretamente às localidades do
assinante e geralmente comporta vários VCs.

Como é provável que nem todos os VCs venham a exigir demanda máxima ao mesmo tempo,
a capacidade da linha privada pode ser menor que a soma dos VCs individuais. Exemplos de
conexões comutadas por pacotes ou células:

• Frame Relay;
• X.25;
• ATM.

2.2 Tecnologias WAN


2.2.1 Discagem analógica (Dialup)

Quando há necessidade de transferências intermitentes com baixo volume de dados, os


modems e as linhas telefônicas discadas analógicas permitem conexões comutadas dedicadas
e de baixa capacidade.

39
A telefonia tradicional usa um cabo de cobre, chamado de loop local, para conectar o aparelho
telefônico das instalações do assinante à rede telefônica pública comutada (PSTN). O sinal do
loop local durante uma chamada é um sinal eletrônico que varia continuamente, que é uma
conversão da voz do assinante.

O loop local não é adequado para o transporte direto dos dados binários de um computador,
mas um modem pode enviar esse tipo de dados através da rede telefônica de voz. O modem
modula os dados binários em um sinal analógico na origem e demodula o sinal analógico em
dados binários no destino.

As características físicas do loop local e sua conexão à PSTN limitam a taxa do sinal. O limite
superior fica em torno de 33 kbps. A taxa pode ser aumentada para até cerca de 56 kbps se o
sinal vier diretamente através de uma conexão digital.

Para pequenas empresas, isso pode ser adequado para a troca de informações, tais como
números de vendas, preços, relatórios de rotina e e-mail. O uso de discagem automática à
noite ou nos finais de semana para a transferência de arquivos grandes e backup de dados
pode aproveitar as tarifas (cobranças de pulsos) mais baixas dos horários fora de pico. As
tarifas baseiam-se na distância entre os nós, no horário e na duração da chamada.

As vantagens no uso das linhas analógicas e de modems são a simplicidade, a disponibilidade


e o baixo custo de implementação. As desvantagens são as baixas taxas de dados e o tempo
de conexão relativamente longo. O circuito dedicado proporcionado pela discagem (dialup) tem
pouco atraso ou jitter para o tráfego ponto-a-ponto, mas o tráfego de voz ou vídeo não opera
adequadamente a taxas de bits relativamente baixas.

2.2.2 ISDN

As conexões internas, ou troncos, da PSTN deixaram de transportar sinais analógicos


multiplexados por divisão de freqüência e passaram a transportar sinais digitais multiplexados
por divisão de tempo (TDM). Uma etapa seguinte óbvia é ativar o loop local para transportar
sinais digitais que resultem em conexões comutadas com maior capacidade.

O ISDN (Integrated Services Digital Network) transforma o loop local em uma conexão digital
TDM. A conexão usa canais bearer (B) que suportam 64 kbps para transportar voz ou dados e
um canal delta (D) de sinalização para o estabelecimento das chamadas e para outras
finalidades.

O ISDN BRI (Basic Rate Interface) visa às aplicações domésticas e de pequenas empresas,
oferecendo dois canais B de 64 kbps e um canal D de 16 kbps. Para instalações maiores, está
disponível o ISDN PRI (Primary Rate Interface). Na América do Norte, o PRI oferece 23 canais

40
B de 64 kbps e um canal D de 64 kbps, perfazendo uma taxa de bits total de até 1,544 Mbps.
Isso inclui ainda um tráfego adicional (overhead) para sincronização. Na Europa, na Austrália e
em outras partes do mundo, o ISDN PRI oferece 30 canais B e um canal D, perfazendo uma
taxa de bits total de até 2,048 Mbps, incluindo tráfego adicional (overhead) para sincronização.

Na América do Norte, o PRI corresponde a uma conexão T1. A taxa do PRI internacional
corresponde a uma conexão E1.

O canal D BRI é sub-utilizado, pois tem apenas dois canais B para controlar. Alguns
provedores permitem que o canal D transporte dados a baixas taxas de bits, tais como as
conexões X.25 a 9,6 kbps.

Para WANs pequenas, o ISDN BRI pode oferecer um mecanismo de conexão ideal. O BRI tem
um tempo de configuração da chamada de menos de um segundo, e seu canal B de 64 kbps
oferece capacidade maior que a de um enlace de modem analógico.

Se for necessária uma maior capacidade, um segundo canal B pode ser ativado para oferecer
um total de 128 kbps. Embora inadequado para vídeo, isso permite diversas conversas
simultâneas de voz, além do tráfego de dados.

Outra aplicação comum do ISDN é oferecer capacidade adicional conforme a necessidade em


uma conexão de linha privada. A linha privada é dimensionada para transportar cargas de
tráfego médias, enquanto o ISDN é adicionado durante períodos de pico de demanda. O ISDN
também é usado como backup em caso de falha da linha privada. As tarifas de ISDN
dependem da quantidade de canais B e são semelhantes às das conexões analógicas de voz.

41
Com o ISDN PRI, é possível conectar vários canais B entre os dois nós. Isso permite
videoconferências e conexões de dados de banda larga sem latência nem jitter. Várias
conexões podem ser muito caras quando forem de longas distâncias.

2.2.3 Linha privada

Quando há necessidade de conexões dedicadas permanentes, são usadas linhas privadas


com capacidades que chegam a 2,5 Gbps.

Um enlace ponto-a-ponto fornece um caminho de comunicação WAN preestabelecido a partir


das instalações do cliente até um destino remoto através da rede do provedor. As linhas ponto-
a-ponto geralmente são privadas de uma prestadora e são chamadas de linhas privadas. As
linhas privadas estão disponíveis em diferentes capacidades.

Esses circuitos dedicados geralmente têm seu preço baseado na largura de banda exigida e na
distância entre os dois pontos conectados. Os enlaces ponto-a-ponto geralmente são mais
caros do que os serviços compartilhados, tais como Frame Relay. O custo das soluções de
linhas privadas pode se tornar significativo quando elas são usadas para conectar várias
localidades. Há ocasiões em que o custo da linha privada é superado pelos benefícios. A
capacidade dedicada não oferece latência nem jitter entre os nós. A disponibilidade constante é
essencial para algumas aplicações, como o comércio eletrônico.

Para cada conexão de linha privada é necessária uma porta serial do roteador. Também são
necessários uma CSU/DSU e o circuito do provedor de serviços.

As linhas privadas são usadas extensivamente para criar WANs e oferecem capacidade
dedicada permanente.

42
Elas têm sido a conexão tradicionalmente mais escolhida, mas têm diversas desvantagens.
Geralmente, o tráfego da WAN é variável e as linhas privadas têm capacidade fixa. Isso faz
com que a largura de banda da linha raramente tenha o valor exato que é necessário. Além
disso, cada nó precisaria de uma interface no roteador, o que aumentaria os custos dos
equipamentos. Qualquer alteração na capacidade da linha privada geralmente exige uma visita
da prestadora à localidade.

As linhas privadas fornecem conexões ponto-a-ponto entre redes locais corporativas e


conectam as filiais a uma rede comutada por pacotes. Várias conexões podem ser
multiplexadas em uma linha privada, resultando em enlaces mais curtos e necessidade de
menos interfaces.

2.2.4 X.25

Em resposta ao preço das linhas privadas, os provedores de telecomunicações introduziram as


redes comutadas por pacotes, usando linhas compartilhadas para reduzir custos. A primeira
dessas redes comutadas por pacotes foi padronizada como o grupo de protocolos X.25. O X.25
oferece uma capacidade variável compartilhada com baixa taxa de bits, que pode ser tanto
comutada como permanente.

É um protocolo da camada de rede e os assinantes recebem um endereço de rede. É possível


estabelecer circuitos virtuais através da rede com pacotes de solicitação de chamadas para o
endereço de destino. O SVC resultante é identificado por um número de canal. Os pacotes de
dados rotulados com o número do canal são entregues no endereço correspondente. Vários
canais podem estar ativos em uma única conexão.

43
Os assinantes conectam-se à rede X.25 com linhas privadas ou com conexões discadas
(dialup). As redes X.25 também podem ter canais pré-estabelecidos entre os assinantes que
fornecerem um PVC.

Elas podem ser bastante econômicas, pois as tarifas baseiam-se na quantidade de dados
entregues, e não no tempo de conexão ou na distância. Os dados podem ser entregues a
qualquer taxa até a capacidade da conexão. Isso oferece certa flexibilidade. Geralmente, as
redes X.25 têm baixa capacidade, com um máximo de 48 kbps. Além disso, os pacotes de
dados estão sujeitos aos atrasos típicos das redes compartilhadas.

A tecnologia X.25 não está mais amplamente disponível como tecnologia WAN nos Estados
Unidos. O Frame Relay substituiu a X.25 em vários provedores de serviços.

As aplicações típicas da X.25 são as leitoras de cartões em pontos de vendas. Essas leitoras
usam X.25 no modo dialup para validar as transações em um computador central. Algumas
empresas também usam redes de valor agregado (VAN) baseadas em X.25 para transferir
faturas EDI (Electronic Data Interchange – Intercâmbio Eletrônico de Dados), conhecimentos
de cargas e outros documentos comerciais. Para essas aplicações, a pequena largura de
banda e a alta latência não são uma preocupação, pois o custo baixo torna a X.25 acessível.

2.2.5 Frame Relay

Com a crescente demanda por comutação de pacotes com maior largura de banda e latência
mais baixa, os provedores de telecomunicações introduziram o Frame Relay. Embora a
disposição física da rede pareça semelhante à da X.25, as taxas de dados disponíveis
geralmente vão até 4 Mbps, sendo que alguns provedores oferecem taxas ainda maiores.

O Frame Relay difere da X.25 em diversos aspectos. O mais importante é que se trata de um
protocolo muito mais simples, que funciona na camada de enlace e não na camada de rede.

O Frame Relay não implementa controle de erro nem de fluxo. O tratamento simplificado dos
quadros leva à redução da latência, e as medidas tomadas para evitar o aumento dos quadros
nos switches intermediários ajudam a reduzir o jitter.

A maioria das conexões Frame Relay são PVCs e não SVCs. Geralmente, a conexão à borda
da rede é realizada através de uma linha privada, mas alguns provedores disponibilizam
conexões discadas (dialup) usando linhas ISDN. O canal D do ISDN é usado para configurar
um SVC em um ou mais canais B. As tarifas do Frame Relay baseiam-se na capacidade da
porta de conexão à rede. Outros fatores são a capacidade solicitada e a taxa de informações
contratada (CIR) dos vários PVCs através da porta.

O Frame Relay oferece conectividade permanente através de um meio com largura de banda
compartilhada, que transporta tráfego tanto de voz como de dados. É ideal para conectar redes
locais corporativas. O roteador da rede local precisa somente de uma interface, mesmo quando

44
são usados vários VCs. Uma linha privada de curta distância até à borda da rede Frame Relay
permite conexões econômicas entre redes locais bastante distantes.

2.2.6 ATM

Os provedores de comunicações perceberam a necessidade de uma tecnologia de rede


compartilhada permanente que oferecesse latência e jitter muito baixos, com larguras de banda
muito maiores. A solução encontrada foi o ATM (Asynchronous Transfer Mode – Modo de
Transferência Assíncrono). O ATM tem taxas de dados superiores a 155 Mbps. Assim como as
outras tecnologias compartilhadas, tais como X.25 e Frame Relay, os diagramas de WANs
ATM são parecidos.

ATM é uma tecnologia capaz de transferir voz, vídeo e dados através de redes públicas e
privadas. Foi construído sobre uma arquitetura baseada em células, em vez de uma arquitetura
baseada em quadros. As células ATM têm sempre um comprimento fixo de 53 bytes. A célula
ATM de 53 bytes contém um cabeçalho ATM de 5 bytes seguido de 48 bytes de payload ATM.
Células pequenas de comprimento fixo são adequadas para transportar tráfego de voz e vídeo,
pois esse tráfego não tolera atrasos. O tráfego de voz e vídeo não precisa esperar por um
pacote de dados maior para ser transmitido.

A célula ATM de 53 bytes é menos eficiente que os quadros e pacotes maiores do Frame
Relay e do X.25. Além disso, a célula ATM tem pelo menos 5 bytes de tráfego adicional
(overhead) para cada payload de 48 bytes. Quando a célula está transportando pacotes da
camada de rede, o overhead é maior, pois o switch ATM deve ser capaz de remontar os
pacotes no destino. Uma linha ATM típica precisa de quase 20% a mais de largura de banda
do que o Frame Relay para transportar o mesmo volume de dados da camada de rede.

O ATM oferece tanto PVCs como SVCs, embora os PVCs sejam mais comuns em WANs.

Assim como outras tecnologias compartilhadas, o ATM permite vários circuitos virtuais em uma
única conexão de linha privada até a borda da rede.

2.2.7 DSL

A tecnologia DSL (Digital Subscriber Line – Linha Digital de Assinantes) é uma tecnologia de
banda larga que usa as linhas telefônicas existentes de par trançado para transportar dados
em banda larga para os assinantes do serviço. O serviço DSL é considerado de banda larga,
diferentemente do serviço de banda base das redes locais comuns. Banda larga refere-se a
uma técnica que usa várias freqüências dentro do mesmo meio físico para transmitir dados. O
termo xDSL abrange diversas formas semelhantes, embora concorrentes, de tecnologias DSL:

45
• ADSL (Asymmetric DSL – DSL Assimétrica);
• SDSL (Symmetric DSL – DSL Simétrica);
• HDSL (High Bit Rate DSL – DSL com Alta Taxa de Bits);
• IDSL (ISDN-like DSL – DSL tipo ISDN);
• CDSL (Consumer DSL – DSL do Consumidor), também chamada de DSL-lite ou G.lite.

A tecnologia DSL permite que o provedor de serviços ofereça serviços de rede de alta
velocidade aos clientes, utilizando as linhas de cobre do loop local instalado. A tecnologia DSL
permite que a linha do loop local seja usada para a conexão telefônica normal de voz e oferece
uma conexão permanente para conectividade instantânea à rede. Várias linhas de assinantes
DSL são multiplexadas em um nico enlace de alta capacidade, através do uso de um
DSLAM (DSL Access Multiplexer – Multiplexador de Acesso DSL) na localidade do provedor.
Os DSLAMs incorporam a tecnologia TDM para agregar muitas linhas de assinantes em um
único meio menos incômodo, geralmente uma conexão T3/DS3. As tecnologias DSL atuais
estão usando técnicas sofisticadas de codificação e modulação para atingir taxas de dados de
até 8,192 Mbps.

O canal de voz de um telefone padrão abrange o intervalo de freqüências de 330 Hz a 3,3 kHz.
Um intervalo de freqüências, ou janela, de 4 kHz é considerado a exigência para qualquer
transmissão de voz no loop local. As tecnologias DSL fazem transmissões de dados upstream
e downstream em freqüências acima dessa janela de 4 kHz. Essa técnica é o que permite que
as transmissões de voz e dados ocorram ao mesmo tempo em um serviço DSL.

Os dois tipos básicos de tecnologias DSL são assimétrica (ADSL) e simétrica (SDSL). Todas as
formas de serviço DSL são categorizadas como ADSL ou SDSL e há diversas variedades de
cada tipo. O serviço assimétrico fornece maior largura de banda para download do que para
upload ao usuário. O serviço simétrico oferece a mesma capacidade nas duas direções.

46
Nem todas as tecnologias DSL permitem o uso de um telefone. A SDSL é chamada de cobre
seco, pois não tem tom de discagem e não oferece serviço de telefonia na mesma linha.
Portanto, o serviço SDSL requer uma linha separada.

As diferentes variedades de DSL oferecem diferentes larguras de banda, com capacidades


superiores às de uma linha privada T1 ou E1. As taxas de transferência dependem do
comprimento real do loop local e do tipo e das condições do cabeamento. Para um serviço
satisfatório, o loop deve ter menos de 5,5 quilômetros. A disponibilidade da DSL está longe de
ser universal, havendo uma ampla variedade de tipos e padrões, novos e atuais. Não é uma
opção comum dos departamentos de informática das empresas oferecer suporte a
trabalhadores residenciais. Geralmente, um assinante não tem a opção de se conectar à rede
da empresa diretamente, mas deve se conectar primeiramente a um provedor de serviços de
Internet. A partir daí, é feita uma conexão IP através da Internet até a empresa. Assim, surgem
riscos de segurança. Para resolver essas questões de segurança, os serviços DSL oferecem
recursos para utilização de conexões VPN (Virtual Private Network – Rede Virtual Privada) até
um servidor VPN, que geralmente fica nas instalações da empresa.

2.2.8 Cable modem

Os cabos coaxiais são amplamente utilizados em áreas urbanas para distribuir sinais de
televisão.

Algumas redes de televisão a cabo disponibilizam acesso à rede. Isso permite maior largura de
banda do que o loop local do telefone convencional.

Cable modems aperfeiçoados permitem transmissões de dados bidirecionais de alta


velocidade, usando as mesmas linhas coaxiais que transmitem a televisão a cabo. Alguns
provedores de serviço a cabo prometem velocidades de dados até 6,5 vezes maiores que as
das linhas privadas T1. Essa velocidade torna o cabo um meio atraente para transferir grandes
quantidades de informações digitais rapidamente, como clipes de vídeo, arquivos de áudio e
grandes volumes de dados. Informações que levariam dois minutos para ser baixadas usando
ISDN BRI podem ser baixadas em dois segundos através de uma conexão com cable modem.

Os cable modems oferecem uma conexão permanente e uma instalação simples. Uma
conexão a cabo permanente significa que os computadores conectados estão vulneráveis a

47
violações de segurança o tempo todo e precisam ser protegidos adequadamente com firewalls.
Para resolver essas questões de segurança, os serviços de cable modem oferecem recursos
para utilização de conexões VPN (Virtual Private Network – Rede Virtual Privada) até um
servidor VPN, que geralmente fica nas instalações da empresa.

Um cable modem é capaz de transmitir até de 30 a 40 Mbps de dados em um único canal a


cabo de 6 MHz. Isso é quase 500 vezes mais rápido que um modem de 56 kbps.

Com um cable modem, um assinante pode continuar a receber o serviço de televisão a cabo
ao mesmo tempo em que recebe dados em um computador pessoal. Isso é feito com ajuda de
um simples divisor (splitter) um-para-dois.

Os assinantes de cable modem precisam usar o provedor de serviços de Internet associado ao


provedor do serviço. Todos os assinantes locais compartilham a mesma largura de banda do
cabo. Conforme outros usuários forem assinando o serviço, a largura de banda disponível pode
ficar abaixo da taxa esperada.

48
Uso de CMTS

Arquitetura de uma rede de dados a cabo

49
Arquitetura De Rede de Dados a Cabo

2.3 Projeto de WAN


2.3.1 Comunicação por WAN

WANs são consideradas um conjunto de enlaces de dados que conectam roteadores das redes
locais. As estações dos usuários e os servidores nas redes locais trocam dados. Os roteadores
transmitem dados entre as redes através dos enlaces de dados.

Devido ao custo e a questões legais, um provedor de comunicações ou uma prestadora


comum normalmente são donos dos enlaces de dados que compõem uma WAN. Os enlaces
são disponibilizados aos assinantes mediante o pagamento de uma taxa de uso e são
utilizados para interconectar redes locais ou para estabelecer conexões com redes remotas. A
velocidade de transferência de dados (largura de banda) em uma WAN é consideravelmente
mais lenta do que os 100 Mbps que são comuns em uma rede local. As tarifas para
fornecimento do enlace são o principal elemento do custo de uma WAN e o projeto deve
preocupar-se em fornecer o máximo de largura de banda a um custo aceitável. Com a pressão
dos usuários por mais acesso ao serviço a velocidades mais altas e com a pressão dos
gerentes para contenção de custos, determinar a configuração ótima de uma WAN não é uma
tarefa fácil.

WANs transportam vários tipos de tráfego, como voz, dados e vídeo. O projeto selecionado
deve fornecer capacidade adequada e tempos de trânsito que atendam às exigências da
empresa. Dentre outras especificações, o projeto deve considerar a topologia das conexões
entre as diversas localidades, a natureza dessas conexões e a capacidade da largura de
banda.

WANs mais antigas geralmente consistiam em enlaces de dados que conectavam diretamente
computadores mainframe remotos.

50
As WANs de hoje, porém, conectam redes locais geograficamente distantes.

Estações de usuários finais, servidores e roteadores comunicam-se através das redes locais, e
os enlaces de dados da WAN terminam nos roteadores locais. Trocando informações de
endereço da camada 3 sobre as redes locais conectadas diretamente, os roteadores
determinam o caminho mais apropriado através da rede para os fluxos de dados necessários.
Os roteadores também podem fornecer gerenciamento da qualidade do serviço (QoS), que
destina prioridades aos diferentes fluxos de tráfego.

Como a WAN é meramente um conjunto de interconexões entre roteadores baseados em


redes locais, não há serviços na WAN. As tecnologias WAN funcionam nas três camadas
inferiores do modelo de referência OSI.

51
Os roteadores determinam o destino dos dados a partir dos cabeçalhos da camada de rede e
transferem os pacotes para a conexão do enlace de dados apropriada, para serem entregues
na conexão física.

2.3.2 Etapas do projeto de uma WAN

Projetar uma WAN pode ser uma tarefa desafiadora, mas abordar o projeto de forma
sistemática pode levar a um melhor desempenho com custo reduzido. Muitas WANs evoluíram
ao longo do tempo, portanto muitas das diretrizes discutidas aqui podem não ter sido
consideradas. Toda vez que se considerar uma modificação em uma WAN existente, deve-se
seguir os passos deste módulo. As modificações em uma WAN podem ser resultado de
mudanças, tais como uma expansão da empresa servida pela WAN ou a acomodação de
novas práticas de trabalho e métodos de negócios.

As empresas instalam conectividade WAN porque existe uma necessidade de movimentar


dados de maneira ágil entre filiais externas. A função da WAN é atender às exigências da
empresa. Atender a essas exigências representa custos, por exemplo, em equipamentos e
gerenciamento dos enlaces de dados.

Ao projetar a WAN, é necessário conhecer o tráfego de dados que deve ser transportado, sua
origem e seu destino. WANs transportam diversos tipos de tráfego, com exigências variáveis
quanto a largura de banda, latência e jitter.

Para cada par de nós e para cada tipo de tráfego, é necessário ter informações sobre as
diversas características do tráfego.

52
Para determiná-las, podem ser necessários estudos extensos e consultas aos usuários da
rede. O projeto geralmente envolve atualização, expansão ou modificação de uma WAN
existente. Muitos dos dados necessários podem vir das estatísticas existentes do
gerenciamento da rede.

Conhecer os diversos nós permite selecionar uma topologia ou layout para a WAN. A topologia
será influenciada por considerações geográficas, mas também por exigências, tais como a
disponibilidade. Uma forte exigência de disponibilidade requer enlaces extras que forneçam
caminhos de dados alternativos para redundância e balanceamento de carga.

Uma vez escolhidos os nós e os enlaces, pode-se estimar a largura de banda necessária. O
tráfego nos enlaces pode ter exigências variáveis de latência e jitter. Uma vez determinada a
disponibilidade da largura de banda, deve-se selecionar as tecnologias de enlace apropriadas.

Finalmente, pode-se determinar os custos de instalação e operacionais da WAN e compará-los


com a necessidade comercial que motivou a criação da WAN.

Na prática, o processo de seguir as etapas mostradas na figura acima raramente é linear.


Várias modificações podem ser necessárias antes da finalização de um projeto. Um
monitoramento e uma reavaliação constantes também são necessários após a instalação da
WAN, a fim de manter o desempenho otimizado.

53
2.3.3 Como identificar e selecionar os recursos de rede

Projetar uma WAN consiste essencialmente no seguinte:

• Selecionar um padrão ou layout de interconexão para os enlaces entre as diversas


localidades;
• Selecionar as tecnologias para esses enlaces, a fim de atender às exigências da
empresa a um custo aceitável.

Muitas WANs usam uma topologia em estrela. Conforme a empresa cresce e novas filiais são
adicionadas, essas filiais são conectadas à matriz, produzindo uma topologia em estrela
tradicional.

Às vezes, os nós em estrela estão em conexão cruzada, criando uma topologia em malha ou
malha parcial.

Isso proporciona muitas combinações possíveis para as interconexões. Ao reprojetar, reavaliar


ou modificar uma WAN, deve-se selecionar uma topologia que atenda às exigências do projeto.

54
Ao selecionar um layout, há vários fatores a se considerar. Uma maior quantidade de enlaces
aumenta o custo dos serviços de rede e a existência de vários caminhos entre os destinos
aumenta a confiabilidade. Adicionar dispositivos de rede no caminho de dados aumenta a
latência e diminui a confiabilidade. Geralmente, cada pacote precisa ser completamente
recebido em um nó para poder ser passado para o próximo. Uma variedade de tecnologias
dedicadas com diferentes recursos está disponível para os enlaces de dados.

Tecnologias que exigem o estabelecimento de uma conexão para que os dados possam ser
transmitidos, como o telefone convencional, ISDN ou X.25, não são adequadas para WANs
que exijam tempo de resposta pequeno ou baixa latência. Uma vez estabelecidos, os serviços
ISDN e outros serviços de discagem são circuitos de baixa latência e baixo jitter. Geralmente, o
ISDN é a aplicação escolhida para conectar um pequeno escritório residencial (SOHO) à rede
da empresa, oferecendo conectividade confiável e largura de banda adaptável. Diferentemente
do cabo e da DSL, o ISDN é uma opção sempre que um serviço de telefonia moderno estiver
disponível. Ela também é útil como enlace de backup para conexões principais e para fornecer
conexões com largura de banda sob demanda em paralelo com uma conexão principal. Uma
característica dessas tecnologias é que a empresa só precisa pagar quando o circuito estiver
em uso.

As diferentes partes da empresa podem ser conectadas diretamente com linhas privadas ou
podem ser conectadas com um enlace de acesso ao ponto de presença (POP) mais próximo
de uma rede compartilhada. X.25, Frame Relay e ATM são exemplos de redes compartilhadas.
As linhas privadas geralmente são muito mais longas e, portanto, mais caras que os enlaces de
acesso, mas estão disponíveis em praticamente qualquer largura de banda. Oferecem latência
e jitter muito baixos.

As redes ATM, Frame Relay e X.25 transportam tráfego de diversos clientes nos mesmos
enlaces internos. A empresa não tem controle sobre a quantidade de enlaces ou saltos que
precisam ser percorridos pelos dados na rede compartilhada. Ela não pode controlar o tempo
que os dados precisam esperar em cada nó antes de se moverem para o enlace seguinte.
Essa incerteza quanto à latência e ao jitter tornam essas tecnologias inadequadas para alguns
tipos de tráfego de rede. Entretanto, as desvantagens de uma rede compartilhada geralmente
podem ser superadas pelo custo reduzido. Como diversos clientes estão compartilhando o
enlace, o custo para cada um deles geralmente será menor do que o custo de um enlace direto
com a mesma capacidade.

Embora o ATM seja uma rede compartilhada, ele foi projetado para produzir latência e jitter
mínimos, por meio do uso de enlaces internos de alta velocidade, enviando unidades de dados
facilmente gerenciáveis, chamadas células. As células ATM têm um comprimento fixo de 53
bytes, 48 para dados e 5 para o cabeçalho. O ATM é amplamente utilizado para transportar
tráfego sensível a atrasos. O Frame Relay também pode ser utilizado para tráfego sensível a
atrasos, freqüentemente usando mecanismos de QoS para dar prioridade aos dados mais
sensíveis.

55
Uma WAN típica usa uma combinação de tecnologias, que normalmente são escolhidas com
base no tipo e no volume do tráfego. ISDN, DSL, Frame Relay ou linhas privadas são usados
para conectar filiais individuais em uma área. Frame Relay, ATM ou linhas privadas são usados
para conectar áreas externas ao backbone. ATM ou linhas privadas formam o backbone WAN.

2.3.4 Modelo de projeto em três camadas

É necessária uma abordagem sistemática quando for preciso unir muitas localidades. Uma
solução hierárquica em três camadas oferece muitas vantagens.

Imagine uma empresa que opere em todos os países da União Européia e que tenha uma filial
em cada cidade com população superior a 10.000 habitantes. Cada filial tem uma rede local e
foi decidido que todas as filiais devem ser interconectadas. Fica claro que uma rede em malha
não é factível, pois seriam necessários cerca de 500.000 enlaces para os 900 centros. Uma
estrela simples seria muito difícil de implementar, pois necessita de um roteador com 900
interfaces no ponto de concentração (hub) ou de uma única interface que transporte 900
circuitos virtuais para uma rede comutada por pacotes.

56
Em vez disso, considere um modelo de projeto hierárquico. As redes locais de uma área são
interconectadas para formar um grupo, várias áreas são interconectadas para formar uma
região e as várias regiões são interconectadas para formar o núcleo da WAN.

A área poderia ter como base a quantidade de localidades a serem conectadas, com um limite
máximo entre 30 e 50. A área teria uma topologia em estrela, com os hubs das estrelas
conectados para formar a região.

57
As regiões poderiam ser geográficas, conectando de três a dez áreas, e o hub de cada região
poderia ser ligado ponto-a-ponto.

Esse modelo em três camadas segue o projeto hierárquico usado nos sistemas telefônicos. Os
enlaces que conectam as várias localidades de uma área que fornecem acesso à rede da
empresa são chamados de enlaces de acesso ou camada de acesso da WAN. O tráfego entre
as áreas é distribuído pelos enlaces de distribuição e é repassado para os enlaces do núcleo, a
fim de ser transferido a outras regiões, quando necessário.

Geralmente, essa hierarquia é útil quando o tráfego da rede espelha a estrutura de filiais da
empresa e é divido em regiões, áreas e filiais. Ela também é útil quando há um serviço central
ao qual todas as filiais devem ter acesso, mas os níveis de tráfego são insuficientes para
justificar uma conexão direta de uma filial ao serviço.

A rede local do centro da área pode ter servidores que ofereçam serviço local ou para a área.
Dependendo dos volumes e dos tipos de tráfego, as conexões de acesso podem ser discadas,
privadas ou Frame Relay. O Frame Relay facilita malhas para redundância, sem exigir
conexões físicas adicionais. Os enlaces de distribuição podem ser Frame Relay ou ATM e o
núcleo da rede pode ser ATM ou com linhas privadas.

2.3.5 Outros modelos de projeto em camadas

Muitas redes não exigem a complexidade de uma hierarquia completa em três camadas.

58
É possível usar hierarquias mais simples.

Uma empresa com diversas filiais relativamente pequenas, que exijam tráfego mínimo entre
elas, pode optar por um projeto com uma só camada. Historicamente, isso não foi muito
comum, devido ao comprimento das linhas privadas. O Frame Relay, em que a cobrança não
está relacionada à distância, está tornando possível essa solução de projeto.

Se houver necessidade de certa concentração geográfica, um projeto em duas camadas é


adequado. Isso produz um padrão de "estrela de estrelas". Novamente, o padrão escolhido

59
com base na tecnologia de linha privada será consideravelmente diferente do padrão baseado
na tecnologia Frame Relay.

Mesmo no planejamento de redes mais simples, o modelo em três camadas deve ser
considerado, pois pode oferecer melhor escalonabilidade da rede. O hub no centro de um
modelo em duas camadas também é um núcleo, mas sem outros roteadores de núcleo
conectados a ele. Da mesma forma, em uma solução em uma camada, o hub da área serve
como hub regional e como hub do núcleo. Isso permite um crescimento futuro fácil e rápido, já
que o projeto básico pode ser replicado para adicionar novas áreas de serviço.

2.3.6 Outras considerações sobre o projeto de WANs

Muitas WANs corporativas terão conexões com a Internet. Isso coloca problemas de
segurança, mas também oferece uma alternativa para o tráfego entre as filiais.

Parte do tráfego que precisa ser considerado durante o projeto vai para a Internet ou vem dela.
Como a Internet existe provavelmente em todo lugar onde a empresa tenha redes locais, há
duas maneiras típicas de transportar esse tráfego. Cada rede local pode ter uma conexão com
seu provedor local de serviços de Internet ou pode haver uma única conexão de um dos
roteadores do núcleo a um provedor. A vantagem do primeiro método é que o tráfego é
transportado pela Internet e não pela rede da empresa, provavelmente resultando em enlaces
WAN menores. A desvantagem de permitir vários enlaces é que toda a WAN corporativa fica
aberta a ataques oriundos da Internet. Também fica difícil monitorar e proteger os vários pontos
de conexão. Um único ponto de conexão é mais fácil de monitorar e proteger, mesmo que a
WAN corporativa passe a transportar um tráfego que, de outra maneira, teria sido transportado
através da Internet.

Se cada rede local da empresa tiver uma conexão à Internet individual, surge outra
possibilidade para a WAN corporativa. Onde os volumes de tráfego forem relativamente
pequenos, a Internet pode ser usada como WAN corporativa, com todo o tráfego entre as filiais
atravessando a Internet.

Proteger as várias redes locais passa a ser um problema, mas a economia em conexões WAN
pode pagar pela segurança.

60
Os servidores devem ser colocados o mais próximo possível dos locais que os acessarão com
maior freqüência. A replicação de servidores, com arranjo para atualizações entre servidores
fora do pico, reduz a capacidade exigida dos enlaces. A localização dos serviços acessíveis
pela Internet dependerá da natureza do serviço, do tráfego previsto e de questões de
segurança. Esse é um tópico de projeto especializado que está além do escopo deste
currículo.

Resumo

Devem ter sido compreendidos os importantes conceitos a seguir:

• Diferenças entre as áreas geográficas atendidas por WANs e pelas redes locais;
• Semelhanças entre as camadas do modelo OSI envolvidas em WANs e em redes
locais;
• Familiaridade com a terminologia WAN usada para descrever equipamentos, tais como
CPE, CO, loop local, DTE, DCE, CSU/DSU e TA;
• Familiaridade com a terminologia WAN usada para descrever serviços e padrões, tais
como ISDN, Frame Relay, ATM, T1, HDLC, PPP, POST, BRI, PRI, X.25 e DSL;
• Diferenças entre redes comutadas por pacotes e redes comutadas por circuito;
• Diferenças e semelhanças entre as tecnologias WAN atuais, tais como serviços de
discagem (dialup) analógica, ISDN, linha privada, X.25, Frame Relay e ATM;
• Vantagens e desvantagens dos serviços DSL e cable modem;
• Propriedade e custo associados aos enlaces de dados WAN;
• Exigências de capacidade e tempos de trânsito de vários tipos de tráfego WAN, tais
como voz, dados e vídeo;
• Familiaridade com topologias WAN, tais como ponto-a-ponto, estrela e malha;
• Elementos do projeto de uma WAN, como atualização, expansão e modificação de
uma WAN existente, e recomendação de um serviço WAN a uma organização
conforme suas necessidades;
• Vantagens oferecidas pelo projeto de WAN hierárquica em três camadas;
• Alternativas para o tráfego WAN entre filiais

61
Módulo 03 – PPP

Visão Geral

Este módulo apresenta uma visão geral das tecnologias WAN. Ele introduz e explica a
terminologia WAN, como, por exemplo: transmissão serial, multiplexação por divisão de tempo
(TDM), demarcação, equipamento terminal de dados (DTE) e equipamento de comunicação de
dados (DCE). São apresentados o desenvolvimento e a utilização do encapsulamento HDLC
(controle de enlace de dados de alto nível), assim como os métodos para configurar e
solucionar problemas de uma interface serial.

PPP (Point-to-Point Protocol) é o protocolo escolhido para ser implementado em uma conexão
comutada WAN serial. Ele pode tratar tanto a comunicação síncrona como assíncrona e inclui
detecção de erros. O mais importante é que ele incorpora um processo de autenticação,
usando CHAP ou PAP. PPP pode ser usado em vários meios físicos, incluindo par trançado,
linhas de fibra ótica e transmissão por satélite.

Neste módulo, são descritos os procedimentos de configuração do PPP, assim como as


opções disponíveis e os conceitos de solução de problemas. Dentre as opções disponíveis,
está a capacidade do PPP de usar autenticação PAP ou CHAP.

Ao concluírem este módulo, os alunos deverão ser capazes de:

• Explicar a comunicação serial;


• Descrever e dar um exemplo de TDM;
• Identificar o ponto de demarcação de uma WAN;
• Descrever as funções do DTE e do DCE;
• Discutir o desenvolvimento do encapsulamento HDLC;
• Usar o comando encapsulation hdlc para configurar o HDLC;
• Solucionar problemas de uma interface serial, usando os comandos show interface
e show controllers;
• Identificar as vantagens da utilização do PPP;
• Explicar as funções do LCP (Link Control Protocol) e do NCP (Network Control
Protocol), componentes do PPP;
• Descrever as partes de um quadro PPP;
• Identificar as três fases de uma sessão PPP;
• Explicar a diferença entre PAP e CHAP;
• Listar as etapas do processo de autenticação do PPP;
• Identificar as várias opções de configuração do PPP;
• Configurar o encapsulamento PPP;
• Configurar a autenticação CHAP e PAP;
• Usar show interface para verificar o encapsulamento serial;
• Solucionar qualquer problema da configuração do PPP usando debug PPP.

3.1 Links Seriais Ponto-a-Ponto


3.1.1 Introdução à comunicação serial

As tecnologias WAN baseiam-se em transmissão serial na camada física. Isso significa que os
bits de um quadro são transmitidos um de cada vez pelo meio físico.

Os bits que compõem o quadro da camada 2 são sinalizados, um a um, pelos processos da
camada física para o meio físico.

62
Os métodos de sinalização incluem NRZ-L (Nonreturn to Zero Level), HDB3 (High Density
Binary 3) e AMI (Alternative Mark Inversion). Esses são exemplos de padrões de codificação da
camada física, semelhantes à codificação Manchester para a Ethernet. Dentre outras coisas,
esses métodos de sinalização fazem distinção entre diferentes métodos de comunicação serial.
Alguns dos muitos padrões de comunicação serial são:RS-232-E.

• V.35
• HSSI (High Speed Serial Interface)

3.1.2 Multiplexação por divisão de tempo

A multiplexação por divisão de tempo (TDM) é a transmissão de diversas fontes de informação


usando um canal (ou sinal) comum e a posterior reconstrução dos fluxos originais na
extremidade remota.

No exemplo mostrado na figura acima, há três fontes de informação transportadas


alternadamente pelo canal de saída. Inicialmente, uma amostra dade informação é obtida de
cada canal de entrada. O tamanho dessa amostra pode variar, mas geralmente é um bit ou um
byte de cada vez. Dependendo da utilização de bits ou bytes, esse tipo de TDM é chamado
intercalação de bits (bit-interleaving) ou intercalação de bytes (byte-interleaving).

63
Cada um dos três canais de entrada tem sua própria capacidade. Para que o canal de saída
possa acomodar todas as informações dessas três entradas, sua capacidade deve ser maior
ou igual à soma das entradas.

Em TDM, a alocação de tempo da saída está sempre presente, mesmo que a entrada TDM
não tenha informações a transmitir. A saída TDM pode ser comparada a um trem com 32
vagões. Cada um é de propriedade de uma empresa de transporte e, todos os dias, o trem
parte com os 32 vagões. Se uma das empresas produziu para enviar, o vagão é carregado. Se
a empresa não tem nada para enviar, o vagão fica vazio, mas continua fazendo parte do trem.

TDM é um conceito da camada física; ela não tem relação com a natureza das informações
que estão sendo multiplexadas no canal de saída. A TDM é independente do protocolo de
camada 2 que foi usado pelos canais de entrada.

Um exemplo de TDM é o ISDN (Integrated Services Digital Network). A taxa básica do ISDN
(BRI) tem três canais constituídos de dois canais B de 64 kbps (B1 e B2) e um canal D de 16
kbps. A TDM tem nove alocações de tempo, que são repetidas.

Isso permite que a companhia telefônica gerencie, identifique e solucione problemas no loop
local quando o ponto de demarcação ocorrer depois da unidade de terminação da rede (NTU),
em locais onde a NT1 não faz parte do CPE.

3.1.3 Ponto de demarcação

O ponto de demarcação (ou "demarc", como também é conhecido) é o ponto da rede onde
termina a responsabilidade do provedor de serviços ou da companhia telefônica. Nos Estados
Unidos, uma companhia telefônica fornece o loop local até dentro das instalações do cliente e
este fornece os equipamentos ativos, tais como a unidade de serviço de canal/dados
(CSU/DSU), nos quais termina o loop local. Geralmente, essa terminação ocorre em um painel
de telefonia e o cliente é responsável pela manutenção, substituição e conserto desse
equipamento.

Em outros países, a unidade de terminação da rede (NTU) é fornecida e gerenciada pela


companhia telefônica. Isso permite que a companhia gerencie, identifique e solucione
problemas no loop local, com a ocorrência do ponto de demarcação depois da NTU. O cliente
conecta um dispositivo CPE (customer premises equipment), tal como um roteador ou
dispositivo de acesso frame relay, a uma NTU usando uma interface serial V.35 ou RS-232.

64
3.1.4 DTE/DCE

Uma conexão serial tem um dispositivo DTE (data terminal equipment) em um lado da conexão
e um dispositivo DCE (data communications equipment) no outro lado. A conexão entre os dois
DCEs é a rede de transmissão do provedor de serviços de WAN. O CPE, geralmente um
roteador, é o DTE. Outros exemplos de DTE podem ser um terminal, um computador, uma
impressora ou um fax. O DCE, geralmente um modem ou CSU/DSU, é o dispositivo usado para
converter os dados de usuários do DTE em uma forma aceitável para o enlace de transmissão
do provedor de serviços de WAN. Esse sinal é recebido no DCE remoto, que o decodifica
novamente em uma seqüência de bits. Em seguida, essa seqüência é sinalizada para o DTE
remoto.

Foram desenvolvidos diversos padrões que permitem que os DTEs comuniquem-se com os
DCEs. A EIA (Electronics Industry Association) e a ITU-T (International Telecommunication
Union Telecommunications Standardization Sector) têm sido as mais ativas no
desenvolvimento desses padrões.

65
A ITU-T refere-se ao DCE como equipamento de terminação do circuito de dados. A EIA refere-
se ao DCE como equipamento de comunicação de dados.

A interface DTE/DCE de um determinado padrão define as seguintes especificações:

• Mecânicas/físicas – Quantidade de pinos e tipo de conector;


• Elétricas – Definem os níveis de tensão do 0 e do 1;
• Funcionais – Especificam as funções que são realizadas, atribuindo significados a
cada linha de sinalização da interface;
• Procedimentais – Especificam a seqüência de eventos para transmissão de dados.

Se dois DTEs precisam estar conectados entre si, como dois computadores ou dois roteadores
no laboratório, é necessário um cabo especial, chamado modem nulo, para eliminar a
necessidade de um DCE. Em conexões síncronas, em que é necessário um sinal de clock,
este precisa ser gerado por um dispositivo externo ou por um dos DTEs.

A porta serial síncrona de um roteador é configurada como DTE ou DCE, dependendo do cabo
conectado, que é DTE ou DCE, de acordo com a configuração do roteador. Se a porta estiver
configurada como DTE, que é a configuração default, será necessário um sinal de clock
externo gerado pelo CSU/DSU ou por outro dispositivo DCE.

O cabo para a conexão DTE - DCE é um cabo de transição serial blindado. A extremidade do
roteador do cabo de transição serial blindado pode ser um conector DB-60, que se conecta à
porta DB-60 de uma placa de interface WAN. A outra extremidade do cabo de transição serial
está disponível com o conector apropriado para o default a ser usado. Geralmente, o provedor
de WAN ou o CSU/DSU indicam o tipo desse cabo. Os dispositivos Cisco suportam os padrões
seriais EIA/TIA-232, EIA/TIA-449, V.35, X.21 e EIA/TIA-530.

Para suportar densidades mais altas em um formato menor, a Cisco lançou um cabo Smart
Serial. A extremidade da interface do roteador do cabo Smart Serial é um conector de 26 pinos,
significativamente mais compacto do que o conector DB-60.

66
3.1.5 Encapsulamento HDLC

Inicialmente, as comunicações seriais baseavam-se em protocolos orientados a caracteres. Os


protocolos orientados a bits eram mais eficientes, mas eram proprietários. Em 1979, a ISO
definiu o HDLC como default de protocolo da camada de enlace orientado a bits, que
encapsula os dados em enlaces de dados seriais síncronos. Essa padronização levou outros
comitês a adotarem e estenderem o protocolo. Desde 1981, a ITU-T desenvolveu uma série de
protocolos derivados do HDLC. Os exemplos de protocolos derivativos a seguir são chamados
de protocolos de acesso a enlaces:

• LAPB (Link Access Procedure, Balanced) para X.25;


• LAPD (Link Access Procedure on the D channel) para ISDN;
• LAPM (Link Access Procedure for Modems) e PPP para modems;
• LAPF (Link Access Procedure for Frame Relay) para Frame Relay.

O HDLC usa transmissão serial síncrona, fornecendo comunicação livre de erros entre dois
pontos. O HDLC define uma estrutura de quadros de camada 2, que proporciona controle de
fluxo e controle de erro, usando confirmações e um esquema de janelamento. Cada quadro
tem o mesmo formato, quer seja um quadro de dados ou um quadro de controle.

O HDLC default não suporta de maneira inerente vários protocolos em um único enlace, já que
ele não tem uma forma de indicar qual protocolo está sendo transportado. A Cisco oferece uma
versão proprietária do HDLC. O quadro HDLC da Cisco usa um campo "tipo" proprietário, que
funciona como campo de protocolo. Esse campo permite que vários protocolos da camada de
rede compartilhem o mesmo enlace serial. HDLC é o protocolo default de camada 2 das
interfaces seriais dos roteadores Cisco.

O HDLC define os seguintes três tipos de quadros, cada um com um diferente formato do
campo de controle:

• Quadros de informação (I-frames) – Transportam os dados a serem transmitidos


para a estação. Adicionalmente, existe controle de fluxo e erro, e os dados podem ser
adicionados por piggybacking a um quadro de informações.

67
• Quadros de supervisão (S-frames) – Fornecem mecanismos de solicitação/resposta
quando o piggybacking não é usado.
• Quadros não-numerados (U-frames) – Fornecem funções suplementares de controle
de enlaces, tais como configuração da conexão. O campo do código identifica o tipo do
quadro não numerado.

Os primeiros um ou dois bits do campo de controle servem para identificar o tipo de quadro. No
campo de controle de um quadro de informações (I), o número da seqüência de envio refere-se
ao número do quadro a ser enviado a seguir. O número da seqüência de recebimento fornece
o número do quadro a ser recebido a seguir. Tanto o remetente quanto o destinatário mantêm
números de seqüência de envio e recebimento.

3.1.6 Configurando o encapsulamento HDLC

O método default de encapsulamento usado pelos dispositivos Cisco em linhas seriais


síncronas é o Cisco HDLC. Se a interface serial estiver configurada com outro protocolo de
encapsulamento e este precisar ser mudado para HDLC, entre no modo de configuração da
interface serial. Em seguida, digite o comando encapsulation hdlc, para especificar o
protocolo de encapsulamento da interface.

O Cisco HDLC é um protocolo ponto-a-ponto, que pode ser usado em linhas alugadas (leased
lines) entre dois dispositivos Cisco. Ao comunicar-se com um dispositivo não Cisco, o PPP
síncrono é uma opção mais viável.

3.1.7 Solucionando problemas de uma interface serial

A saída do comando show interfaces serial exibe informações específicas das


interfaces seriais. Quando o HDLC está configurado, a saída deve mostrar "Encapsulation
HDLC".

Quando o PPP está configurado, deve-se ver "Encapsulation PPP" na saída.

68
Cinco possíveis estados de problema podem ser identificados na linha de status da interface na
exibição de show interfaces serial:

69
70
71
• Serial x is down, line protocol is down – (Serial x está inativa, o protocolo de linha está
inativo)
• Serial x is up, line protocol is down – (Serial x está ativa, o protocolo de linha está
inativo)
• Serial x is up, line protocol is up (looped) – (Serial x está ativa, o protocolo de linha está
ativo (em loop))
• Serial x is up, line protocol is down (disabled) – (Serial x está ativo, o protocolo de linha
está inativo (desativado))
• Serial x is administratively down, line protocol is down – (Serial x está
administrativamente inativa, o protocolo de linha está inativo)

O comando show controllers é outra importante ferramenta de diagnóstico ao solucionar


problemas das linhas seriais. A saída de show controllers indica o estado dos canais da
interface e se um cabo está conectado a ela.

72
Na figura acima, a interface serial 0/0 tem um cabo DTE V.35 conectado a ela. A sintaxe do
comando varia, dependendo da plataforma. No caso das interfaces seriais dos roteadores
Cisco da série 7000, use o comando show controllers cbus.

Se a saída da interface elétrica for indicada por UNKNOWN (DESCONHECIDA), em vez de


V.35, EIA/TIA-449 ou algum outro tipo de interface elétrica, provavelmente o problema é um
cabo conectado de forma inadequada. Também é possível que haja um problema nos fios
internos da placa. Se a interface elétrica for desconhecida, a exibição correspondente do
comando show interfaces serial <X> mostrará que a interface e o protocolo da linha
estão inativos.

A seguir estão alguns comandos de depuração que são úteis para solucionar problemas de
WAN e seriais:

• debug serial interface – Verifica se o número de pacotes de keepalive está


aumentando. Se não estiver, existe um possível problema de temporização na placa da
interface ou na rede.
• debug arp – Indica se o roteador está enviando informações ou aprendendo sobre os
roteadores (com pacotes ARP) do outro lado da nuvem WAN. Use este comando
quando alguns nós de uma rede TCP/IP estiverem respondendo, mas outros não.
• debug frame-relay lmi – Obtém informações da LMI (Local Management
Interface), que são úteis para determinar se um switch Frame Relay e um roteador
estão enviando e recebendo pacotes LMI.
• debug frame-relay events – Determina se estão ocorrendo trocas entre um
roteador e um switch Frame Relay.
• debug ppp negotiation – Mostra os pacotes PPP (protocolo ponto-a-ponto)
transmitidos durante a inicialização do PPP, quando as opções do PPP são
negociadas.
• debug ppp packet – Mostra os pacotes PPP que estão sendo enviados e recebidos.
Este comando exibe dumps de pacotes em baixo nível.
• debug ppp – Mostra erros de PPP, tais como quadros ilegais ou malformados,
associados à negociação e à operação da conexão PPP.
• debug ppp authentication – Mostra as trocas de pacotes CHAP (Challenge
Handshake Authentication Protocol) e PAP (Password Authentication Protocol) do PPP.

73
CUIDADO:

A depuração da saída recebe alta prioridade no processo da CPU e pode tornar o sistema
inutilizável. Por essa razão, os comandos de depuração só devem ser usados para solucionar
problemas específicos ou durante as sessões de solução de problemas com o pessoal de
suporte técnico da Cisco. É uma boa prática usar os comandos de depuração durante
períodos de baixo tráfego na rede e quando a quantidade de usuários online for mínima. A
depuração durante esses períodos diminui a probabilidade de que a sobrecarga de
processamento dos comandos de depuração afete a utilização do sistema.

3.2 Autenticação PPP


3.2.1 Arquitetura em camadas do PPP

O PPP usa uma arquitetura em camadas. Uma arquitetura em camadas é um modelo, projeto
ou planta lógica que ajuda na comunicação entre camadas interconectadas. O modelo OSI
(Open System Interconnection) é a arquitetura em camadas usada em sistemas de redes. O
PPP fornece um método para encapsular datagramas multiprocolos através de um enlace
ponto-a-ponto e usa a camada de enlace para testar a conexão. Portanto, o PPP é composto
de dois sub-protocolos:

• Protocolo de controle do enlace – Usado para estabelecer o enlace ponto-a-ponto.

74
• Protocolo de controle da rede – Usado para configurar os vários protocolos de
camadas da rede.

O PPP pode ser configurado nos seguintes tipos de interfaces físicas:

• Serial assíncrona;
• Serial síncrona;
• HSSI (High-Speed Serial Interface);
• Integrated Services Digital Network (ISDN)

O PPP usa o LCP (Link Control Protocol) para negociar e configurar as opções de controle do
enlace de dados da WAN. O PPP usa o componente NCP (Network Control Protocol) para
encapsular e negociar opções para vários protocolos de camada da rede. O LCP fica por cima
da camada física e é usado para estabelecer, configurar e testar a conexão do enlace de
dados.

O PPP também usa o LCP para entrar em acordo automaticamente sobre as opções de
formato de encapsulamento, tais como:

• Autenticação – As opções de autenticação exigem que o lado do enlace que faz a


chamada insira informações para ajudar a garantir que o usuário obtenha permissão do
administrador de rede para fazer a chamada. Os roteadores adjacentes trocam
mensagens de autenticação. Duas opções de autenticação são o PAP e o CHAP.
• Compressão – As opções de compressão aumentam o throughput efetivo das
conexões PPP, reduzindo a quantidade de dados no quadro que precisam viajar
através do enlace. O protocolo descomprime o quadro no destino. Dois protocolos de
compressão disponíveis nos roteadores Cisco são o Stacker e o Predictor.
• Detecção de erros – Os mecanismos de detecção de erros com o PPP permitem que
um processo identifique condições de falha. As opções Quality e Magic Number
ajudam a garantir um enlace de dados confiável e sem loops.
• Multilink – O Cisco IOS versão 11.1 ou posterior suporta PPP multilink. Essa
alternativa oferece balanceamento de carga nas interfaces do roteador usadas pelo
PPP.
• Retorno de chamada do PPP – Para aprimorar ainda mais a segurança, o Cisco IOS
versão 11.1 oferece retorno de chamada pelo PPP. Com essa opção do LCP, um
roteador Cisco pode atuar como cliente de retorno de chamada ou como servidor de
retorno de chamada. O cliente efetua a chamada inicial, solicita que ela seja retornada
e encerra essa chamada inicial. O roteador de retorno de chamada responde à
chamada inicial e efetua a chamada de retorno para o cliente, com base nas
declarações da sua configuração.

75
O LCP também realiza o seguinte:

• Trata limites variáveis de tamanho de pacote;


• Detecta erros comuns de configuração;
• Encerra o enlace;
• Determina quando um enlace está funcionando corretamente ou quando está falhando.

O PPP permite que vários protocolos de camada de rede operem no mesmo enlace de
comunicação. Para cada protocolo de camada de rede utilizado, é fornecido um diferente NCP
(Network Control Protocol). Por exemplo, o IP (Internet Protocol) usa o IPCP (IP Control
Protocol) e o IPX (Internetwork Packet Exchange) usa o IPXCP (Novell IPX Control Protocol).
Os NCPs incluem campos funcionais que contêm códigos padronizados, para indicar o tipo de
protocolo de camada de rede encapsulado pelo PPP.

Os campos de um quadro PPP são os seguintes:

• Flag – Indica o começo ou o fim de um quadro e consiste na seqüência binária


01111110.
• Endereço – Consiste no endereço de broadcast default, que é a seqüência binária
11111111. O PPP não atribui endereços de estações individuais.
• Controle – 1 byte que consiste na seqüência binária 00000011, que requer a
transmissão de dados do usuário em um quadro sem seqüência. É oferecido um
serviço de enlace sem conexão, semelhante ao LLC (Logical Link Control) tipo 1.
• Protocolo – 2 bytes que identificam o protocolo encapsulado no campo de dados do
quadro.

• Dados – 0 ou mais bytes que contêm o datagrama do protocolo especificado no campo


de protocolo. O final do campo de dados é encontrado localizando-se a seqüência de
flags de fechamento e deixando-se 2 bytes para o campo de FCS (frame check
sequence). O tamanho máximo default do campo de dados é de 1500 bytes.
• FCS – Normalmente, 16 bits ou 2 bytes, que se referem aos caracteres extra
adicionados ao quadro para fins de controle de erros.

3.2.2 Estabelecendo uma sessão PPP

O estabelecimento de uma sessão PPP é feito em três fases. Elas são: estabelecimento de
enlace, autenticação e protocolo da camada de rede.

76
Os quadros LCP são usados para realizar o trabalho de cada uma das fases do LCP. As três
classes de quadros LCP a seguir são usadas em uma sessão PPP:

• Os quadros de estabelecimento de enlace são usados para estabelecer e configurar


um enlace;
• Os quadros de encerramento de enlace são usados para encerrar um enlace;
• Os quadros de manutenção de enlace são usados para gerenciar e depurar um enlace.

As três fases de estabelecimento de uma sessão PPP são:

• Fase de estabelecimento do enlace – Nesta fase, cada dispositivo PPP envia


quadros LCP para configurar e testar o enlace de dados. Os quadros LCP contêm um
campo de opção de configuração, que permite que os dispositivos negociem o uso de
opções, tais como MTU (Maximum Transmission Unit), compressão de determinados
campos PPP e protocolo de autenticação de enlace. Se uma opção de configuração
não estiver incluída em um pacote LCP, considera-se o valor default para essa opção
de configuração.

Antes que qualquer pacote da camada de rede possa ser trocado, o LCP deve abrir a
conexão e negociar os parâmetros de configuração. Essa fase estará concluída quando
um quadro de confirmação da configuração tiver sido enviado e recebido.

• Fase de autenticação (opcional) – Depois que o enlace tiver sido estabelecido e a


decisão sobre o protocolo de autenticação tiver sido tomada, o par pode ser
autenticado. A autenticação, se usada, ocorre antes do início da fase do protocolo da

77
camada de rede. Como parte dessa fase, o LCP também oferece um teste opcional de
determinação da qualidade do enlace. O enlace é testado para determinar se sua
qualidade é suficiente para ativar os protocolos da camada de rede.

• Fase do protocolo da camada de rede – Nesta fase, os dispositivos PPP enviam


pacotes NCP para escolher e configurar um ou mais protocolos da camada de rede,
como o IP.

Após a configuração de cada um dos protocolos da camada de rede escolhidos, os


pacotes de cada protocolo da camada de rede podem ser enviados através do enlace.
Se o LCP fechar o enlace, ele informará os protocolos da camada de rede para que
estes possam tomar a medida adequada. O comando show interfaces revela os
estados do LCP e do NCP sob a configuração do PPP.

78
O enlace do PPP permanece configurado para comunicação, até que ocorra um dos eventos a
seguir:

• Encerramento do enlace por quadros do LCP ou NCP;


• Expiração de um temporizador de inatividade;
• Intervenção de um usuário.

3.2.3 Protocolos de autenticação do PPP

A fase de autenticação de uma sessão PPP é opcional. Depois do estabelecimento do enlace e


da escolha do protocolo de autenticação, o ponto pode ser autenticado. A autenticação, se
utilizada, ocorre antes do início da fase de configuração do protocolo da camada de rede.

As opções de autenticação exigem que o lado do enlace que efetua a chamada forneça
informações de autenticação. Isso ajuda a garantir que o usuário tenha permissão do
administrador da rede para efetuar a chamada. Os roteadores adjacentes trocam mensagens
de autenticação.

Ao configurar a autenticação PPP, o administrador da rede pode selecionar o PAP (Password


Authentication Protocol) ou o CHAP (Challenge Handshake Authentication Protocol).

Em geral, o CHAP é o protocolo preferido.

79
3.2.4 PAP (Password Authentication Protocol)

O PAP fornece um método simples para que um nó remoto estabeleça sua identidade, usando
um handshake duplo.

Após a conclusão da fase de estabelecimento do enlace PPP, um par nome de usuário/senha


é enviado repetidamente pelo nó remoto através do enlace, até que a autenticação seja
confirmada ou que a conexão seja encerrada.

O PAP não é um protocolo de autenticação forte. As senhas são enviadas pelo enlace em texto
claro e não há nenhuma proteção contra reprodução ou contra ataques repetidos de tentativa e
erro. O nó remoto controla a freqüência e a temporização das tentativas de registro.

3.2.5 CHAP (Challenge Handshake Authentication Protocol)

O CHAP é usado na inicialização de um enlace e verifica periodicamente a identidade do nó


remoto usando um handshake triplo. Ele é realizado no estabelecimento inicial do enlace e é
repetido durante o tempo em que o enlace está ativo.

Após a conclusão da fase de estabelecimento do enlace PPP, o roteador local envia uma
mensagem de "desafio" ao nó remoto. O nó remoto responde com um valor calculado, usando
uma função hash de direção única, que geralmente é MD5 (Message Digest 5). Essa resposta
baseia-se na senha e na mensagem de desafio. O roteador local verifica a resposta,
comparando-a com seu próprio cálculo do valor hash esperado. Se os valores hash
coincidirem, a autenticação é confirmada; caso contrário, a conexão é encerrada
imediatamente.

O CHAP oferece proteção contra ataques de reprodução, através do uso de um valor de


desafio variável, que é exclusivo e imprevisível. Como o desafio é exclusivo e aleatório, o valor

80
hash resultante também é exclusivo e aleatório. O uso de repetidos desafios visa a limitar o
tempo de exposição a um determinado ataque. O roteador local (ou outro servidor de
autenticação) controla a freqüência e a temporização dos desafios.

3.2.6 Processo de encapsulamento e autenticação do PPP

Ao usar o comando encapsulation ppp, pode-se adicionar opcionalmente a autenticação


PAP ou CHAP. Se nenhuma autenticação for especificada, a sessão PPP é iniciada
imediatamente. Se a autenticação for exigida, o processo passa pelas seguintes etapas:

• O método de autenticação é determinado.


• O banco de dados local ou o servidor de segurança (que tem um banco de dados de
nomes de usuários e senhas) são verificados para determinar se o nome de usuário e
a senha fornecidos correspondem.
• O processo verifica a resposta de autenticação devolvida pelo banco de dados local.
Se a resposta é positiva, a sessão PPP é iniciada. Se é negativa, a sessão é
encerrada.

81
82
3.3 Configurando o PPP
3.3.1 Introdução à configuração do PPP

Os aspectos configuráveis do PPP incluem métodos de autenticação, compressão, detecção


de erros e o suporte ou não a multilink. A seção a seguir descreve as diferentes opções de
configuração do PPP.

Os roteadores Cisco que usam encapsulamento PPP podem incluir as opções de configuração
de LCP descritas na figura

83
.

3.3.2 Configurando o PPP

O exemplo a seguir ativa o encapsulamento PPP na interface serial 0/0:

Router#configure terminal
Router(config)#interface serial 0/0
Router(config-if)#encapsulation ppp

É possível configurar a compressão de software ponto-a-ponto em interfaces seriais que usam


o encapsulamento PPP. A compressão é realizada por software e pode afetar
significativamente o desempenho do sistema. A compressão não é recomendável se a maior
parte do tráfego for constituída de arquivos comprimidos.

84
Para configurar a compressão no PPP, digite os seguintes comandos:

Router(config)#interface serial 0/0


Router(config-if)#encapsulation ppp
Router(config-if)#compress [predictor | stac]

Digite o seguinte para monitorar os dados descartados no enlace e evitar o loop de quadros:

Router(config)#interface serial 0/0


Router(config-if)#encapsulation ppp
Router(config-if)#ppp quality percentage

Os comandos a seguir realizam o balanceamento de carga através de vários enlaces:

Router(config)#interface serial 0/0


Router(config-if)#encapsulation ppp
Router(config-if)#ppp multilink

3.3.3 Configurando a autenticação PPP

O procedimento descrito na tabela descreve como configurar o encapsulamento PPP e os


protocolos de autenticação PAP/CHAP.

85
Uma configuração correta é essencial, já que o PAP e o CHAP usarão esses parâmetros para
autenticação.

A figura é um exemplo de configuração de autenticação PAP de duas direções. Os dois


roteadores autenticam e são autenticados e, portanto, os comandos de autenticação PAP
espelham um ao outro. O nome do usuário e a senha do PAP enviados por um roteador devem
corresponder àqueles especificados no comando username name password passworddo
outro roteador.

O PAP fornece um método simples para que um nó remoto estabeleça sua identidade, usando
um handshake duplo. Isso é feito somente no estabelecimento inicial do enlace. O nome do
host em um roteador deve corresponder ao nome do usuário configurado no outro roteador. As
senhas também precisam coincidir.

O CHAP é usado para verificar periodicamente a identidade do nó remoto, usando um


handshake triplo. O nome do host em um roteador deve corresponder ao nome do usuário
configurado no outro roteador. As senhas também precisam coincidir. Isso é feito no momento

86
do estabelecimento inicial do enlace e pode ser repetido a qualquer momento, depois que o
enlace tiver sido estabelecido.

3.3.4 Verificando a configuração do encapsulamento PPP serial

Use o comando show interfaces serial para verificar a configuração adequada do


encapsulamento HDLC ou PPP.

A saída do comando na figura ilustra uma configuração PPP. Quando o HDLC estiver
configurado, a saída do comando show interfaces serial deve indicar "Encapsulation
HDLC". Quando o PPP estiver configurado, os estados de seus LCP e NCP podem ser
verificados com o comando show interfaces serial.

87
A figura lista os comandos usados ao ativar, configurar e verificar o PPP.

3.3.5 Solucionando problemas da configuração do encapsulamento serial

O comando debug ppp authentication exibe a seqüência de troca de autenticação.

A figura ilustra a saída do roteador esquerdo durante a autenticação CHAP com o roteador da
direita quando debug ppp authentication está ativado. Com a autenticação dupla
configurada, um roteador autentica o outro. Aparecem mensagens tanto para o processo de
autenticar como para o processo de ser autenticado. Use o comando debug ppp
authentication para exibir a seqüência de troca enquanto ela ocorre.

88
A figura destaca a saída do roteador para uma autenticação PAP dupla.

O comando debug ppp é usado para exibir informações sobre a operação do PPP. A forma
no desse comando desativa a saída da depuração.

Router#debug ppp {authentication | packet | negotiation | error |


chap}
Router#no debug ppp {authentication | packet | negotiation | error |
chap}

Resumo

Devem ter sido compreendidos os importantes conceitos a seguir:

• Multiplexação por divisão de tempo;


• Ponto de demarcação de uma WAN;
• Definição e funções do DTE e do DCE;
• Desenvolvimento do encapsulamento HDLC;
• Utilização do comando encapsulation hdlc para configurar o HDLC;
• Solução de problemas de uma interface serial, usando os comandos show
interface e show controllers;
• Vantagens da utilização do protocolo PPP;
• Funções do LCP (Link Control Protocol) e do NCP (Network Control Protocol),
componentes do PPP;
• As partes de um quadro PPP;
• As três fases de uma sessão PPP;
• Diferença entre PAP e CHAP;
• Etapas do processo de autenticação do PPP;
• As várias opções de configuração do PPP;

89
• Como configurar o encapsulamento PPP;
• Como configurar a autenticação CHAP e PAP;
• Utilização de show interface para verificar o encapsulamento serial;
• Solução de problemas da configuração do PPP, usando o comando debug ppp.

Módulo 04 – ISDN e DDR

Visão Geral

ISDN (Integrated Services Digital Network) é uma rede que fornece conectividade digital fim-a-
fim, oferecendo suporte a uma ampla gama de serviços, como voz e dados.

O ISDN permite que vários canais digitais operem simultaneamente através dos mesmos cabos
comuns de telefone usados para linhas analógicas, mas transmitindo um sinal digital em vez de
analógico. A latência em uma linha ISDN é muito mais baixa do que em uma linha analógica.

DDR (Dial-on-Demand Routing) é uma técnica desenvolvida pela Cisco, que permite a
utilização das linhas telefônicas existentes para formar uma rede de longa distância (WAN), em
vez de usar linhas dedicadas independentes. As linhas telefônicas comutadas públicas
(PSTNs) fazem parte desse processo.

DDR é usado quando não há necessidade de uma conexão constante, reduzindo, assim, os
custos. DDR define o processo para que um roteador se conecte usando uma rede de
discagem (dial-up) quando houver tráfego a ser enviado e se desconecte quando a
transferência for concluída.

Ao concluírem este módulo, os alunos deverão ser capazes de:

90
• Definir os padrões ISDN usados para endereçamento, conceitos e sinalização;
• Descrever como o ISDN usa as camadas física e de enlace;
• Listar as interfaces e os pontos de referência do ISDN;
• Configurar a interface ISDN do roteador;
• Determinar o tráfego permitido ao se configurar DDR;
• Configurar rotas estáticas para DDR;
• Escolher o tipo correto de encapsulamento para DDR;
• Determinar e aplicar uma lista de acesso que afete o tráfego DDR;
• Configurar as interfaces do discador.

4.1 Conceitos de ISDN


4.1.1 Introdução ao ISDN

Há várias tecnologias WAN usadas para fornecer acesso à rede a partir de locais remotos.
Uma dessas tecnologias é ISDN. O ISDN pode ser usado como solução para os problemas de
pequena largura de banda enfrentados por pequenos escritórios ou usuários de discagem com
os serviços telefônicos de discagem tradicionais.

PSTN tradicional baseava-se em uma conexão analógica entre as instalações do cliente e a


estação comutadora local, também chamada loop local.

Os circuitos analógicos introduzem limitações na largura de banda que pode ser obtida no loop
local. Restrições do circuito não permitem larguras de banda analógicas superiores a 3000 Hz,
aproximadamente. A tecnologia ISDN permite utilizar dados digitais no loop local, oferecendo
melhores velocidades de acesso aos usuários remotos.

91
As empresas telefônicas desenvolveram o ISDN com a intenção de criar uma rede totalmente
digital. O ISDN permite que sinais digitais sejam transmitidos através do cabeamento telefônico
existente. Isso tornou-se possível quando os switches das companhias telefônicas foram
atualizados para suportar sinais digitais. Geralmente, o ISDN é usado para telecomutar e ligar
em rede escritórios pequenos e remotos à rede local corporativa.

As companhias telefônicas desenvolveram o ISDN como parte de um esforço para padronizar


os serviços aos assinantes. Isso incluiu a UNI (User-Network Interface), mais conhecida como
loop local. Os padrões ISDN definem os esquemas de configuração de chamada e de
hardware para a conectividade digital fim-a-fim. Esses padrões ajudam a atingir o objetivo de
conectividade mundial, garantindo que as redes ISDN comuniquem-se facilmente umas com as
outras. Em uma rede ISDN, a função de digitalização é realizada na localidade do usuário e
não na companhia telefônica.

O ISDN traz a conectividade digital para as instalações locais. A lista a seguir mostra alguns
dos benefícios do ISDN:

• Transporta uma variedade de sinais de tráfego do usuário, como dados, voz e vídeo;
• Oferece configuração de chamada muito mais rápida do que as conexões por modem;
• Os canais B oferecem uma taxa de transferência de dados muito mais rápida do que as
dos modems;
• Os canais B são apropriados para enlaces negociados PPP (Point-to-Point Protocol).

O ISDN é um serviço versátil, capaz de transportar tráfego de voz, vídeo e dados. É possível
usar vários canais para transportar diferentes tipos de tráfego através de uma única conexão.

O ISDN usa sinalização fora de banda, o delta (canal D), para configuração de chamada e
sinalização. Para fazer uma chamada telefônica normal, o usuário disca o número, inserindo
um algarismo de cada vez. Quando todos os algarismos são recebidos, a chamada ao usuário
remoto pode ser efetuada. O ISDN fornece os algarismos para o switch às taxas do canal D,
reduzindo, assim, o tempo de configuração da chamada.

Ele também oferece maior largura de banda do que uma conexão discada tradicional de 56
kbps. O ISDN usa canais portadores (bearer), também chamados canais B, como caminhos
limpos para os dados. Cada canal B fornece 64 kbps de largura de banda. Com vários canais
B, o ISDN oferece maior largura de banda para as conexões WAN do que alguns serviços
alugados. Uma conexão ISDN com dois canais B fornece uma largura de banda utilizável total
de 128 kbps.

Cada canal B do ISDN pode fazer uma conexão serial independente com qualquer outra
localidade da rede ISDN. Como o PPP opera tanto nos enlaces síncronos como assíncronos,
as linhas ISDN podem ser usadas em conjunto com o encapsulamento do PPP.

92
4.1.2 Padrões e métodos de acesso do ISDN

O trabalho com os padrões para o ISDN começou no final da década de 1960. Um conjunto
abrangente de recomendações ISDN foi publicado em 1984 e é continuamente atualizado pela
ITU-T (International Telecommunication Union Telecommunications Standardization Sector),
anteriormente conhecida como CCITT (Consultative Committee for International Telegraph and
Telephone). Os padrões ISDN são um conjunto de protocolos que abrangem as comunicações
de dados e telefonia digital. A ITU-T agrupa e organiza os protocolos ISDN de acordo com os
seguintes tópicos gerais:

• Protocolos E – Recomendam padrões de rede de telefonia para o ISDN. Por exemplo,


o protocolo E.164 descreve o endereçamento internacional do ISDN.
• Protocolos I – Tratam de conceitos, terminologia e métodos gerais. A série I.100 inclui
conceitos ISDN gerais e a estrutura de outras recomendações da série I. A I.200 trata
de aspectos de serviço do ISDN. A I.300 descreve aspectos de rede. A I.400 descreve
a maneira como a UNI é fornecida.
• Protocolos Q – Abordam a maneira como a comutação e a sinalização devem operar.
O termo sinalização, neste contexto, significa o processo de estabelecer uma chamada
ISDN.

Os padrões ISDN definem dois tipos principais de canais, cada um com uma taxa de
transmissão diferente. O canal portador, ou canal B, é definido como um caminho digital limpo
de 64 kbps. É denominado limpo porque pode ser usado para transmitir qualquer tipo de dados
digitalizados em modo full-duplex. Por exemplo, uma chamada de voz digitalizada pode ser
transmitida em um único canal B. O segundo tipo de canal é conhecido como canal delta, ou
canal D. Ele pode ter 16 kbps para o BRI (Basic Rate Interface) ou 64 kbps para o PRI (Primary
Rate Interface).

93
O canal D é usado para transportar informações de controle do canal B.

Quando se estabelece uma conexão TCP, há uma troca de informações conhecida como
configuração da conexão. Essas informações são trocadas pelo caminho em que os dados
serão transmitidos. Tanto as informações de controle quanto os dados compartilham o mesmo
caminho. Isso é chamado sinalização dentro da banda. Entretanto, o ISDN usa um canal
independente para as informações de controle, o canal D. Isso é chamado sinalização fora da
banda.

O ISDN especifica dois métodos de acesso default, BRI e PRI. Uma única interface BRI ou PRI
fornece um conjunto multiplexado de canais B e D.

A BRI usa dois canais B de 64 kbps mais um canal D de 16kbps. A BRI opera em muitos
roteadores Cisco. Como ela usa dois canais B e um canal D, às vezes é conhecida como
2B+D.

Os canais B podem ser usados para transmissão de fala digitalizada. Nesse caso, são usados
métodos especializados para codificação da voz. Além disso, os canais B também podem ser
usados para o transporte de dados a velocidades relativamente altas. Neste modo, as
informações são transportadas em formato de quadro, usando HDLC ou PPP como o protocolo
da camada 2. O PPP é mais robusto que o HDLC porque fornece um mecanismo para
autenticação e negociação da configuração de enlaces e protocolos compatíveis.

O ISDN é considerado uma conexão comutada por circuito. O canal B é a unidade elementar
da comutação por circuito.

O canal D transporta mensagens de sinalização, como configuração e encerramento de


chamadas, para controlar as chamadas dos canais B. O tráfego no canal D emprega o
protocolo LAPD (Link Access Procedure on the D Channel). O LAPD é um protocolo da
camada de enlace baseado no HDLC.

Na América do Norte e no Japão, o PRI oferece 23 canais B de 64 kbps e um canal D de 64


kbps. Um PRI oferece o mesmo serviço de uma conexão T1 ou DS1. Na Europa e em
praticamente todos os outros países, o PRI oferece 30 canais B e um canal D, fornecendo o
mesmo nível de serviço de um circuito E1. O PRI usa uma DSU/CSU (Data Service
Unit/Channel Service Unit) para as conexões T1/E1.

4.1.3 Modelo em três camadas e protocolos ISDN

O ISDN utiliza um conjunto de padrões da ITU-T que abrange as camadas física, de enlace e
de rede do modelo de referência OSI:

• As especificações da camada física do ISDN BRI e PRI estão definidas em I.430 e


I.431 da ITU-T, respectivamente.
• A especificação do enlace de dados do ISDN está baseada no LAPD e está
formalmente especificada nos seguintes itens:

94
• Q.920 da ITU-T;
• Q.921 da ITU-T;
• Q.922 da ITU-T;
• Q.923 da ITU-T.
• A camada de rede do ISDN está definida no Q.930 da ITU-T, também conhecido como
I.450, e no Q.931 da ITU-T, também conhecido como I.451. Esses padrões especificam
conexões comutadas por circuito, comutadas por pacotes e de usuário para usuário.

O serviço BRI é fornecido por um loop local de cobre, que tradicionalmente transporta o serviço
telefônico analógico. Embora haja apenas um caminho físico para um BRI, há três caminhos de
informação independentes, 2B+D. As informações dos três canais são multiplexadas nesse
caminho físico único.

Os formatos dos quadros da camada física do ISDN, ou camada 1, são diferentes, dependendo
se o quadro está sendo recebido ou transmitido. Se o quadro está sendo transmitido, ele é
enviado do terminal para a rede. Quadros que estão sendo transmitidos usam o formato de
quadro TE. Se o quadro está sendo recebido, ele é enviado da rede para o terminal. Quadros
que estão sendo recebidos usam o formato de quadro TE. Se o quadro está entrando, ele é
enviado da rede para o terminal. Quadros que estão entrando usam o formato de quadro NT.

Cada quadro contém duas amostras de quadro, cada uma contendo o seguinte:

• 8 bits do canal B1;


• 8 bits do canal B2;
• 4 bits do canal D;
• 6 bits de sobrecarga (overhead).

Os quadros do ISDN BRI contêm 48 bits. 4000 quadros desse tipo são transmitidos por
segundo. Cada canal B (B1 e B2) tem uma capacidade de 2*(8*4000) = 64 kbps. O canal D tem
uma capacidade de 4*4000 = 16 kbps. Ele é responsável por 144 kbps da taxa de bits total da
interface física do ISDN BRI, que é de 192 kbps. O resto da taxa de dados são os bits de
sobrecarga (overhead) necessários para a transmissão.

Os bits de sobrecarga (overhead) de um quadro da camada física ISDN são usados da


seguinte maneira:

• Bit de enquadramento – Fornece a sincronização.


• Bit de balanceamento de carga – Ajusta o valor médio de bits.
• Eco dos bits anteriores do canal D – Usado para a resolução de disputas, quando
vários terminais de um barramento passivo disputam um canal.
• Bit de ativação – Ativa os dispositivos.

95
• Bit reserva – Não atribuído.

Observe que a taxa de bits física da interface BRI é de 48*4000 = 192 kbps. A taxa efetiva é de
144 kbps = 64 kbps + 64 kbps + 16 kbps (2B+D).

A camada 2 do canal de sinalização ISDN é LAPD. O LAPD é semelhante ao HDLC. O LAPD é


usado no canal D para garantir que as informações de controle e sinalização estejam sendo
recebidas e fluindo corretamente.

Os campos de controle e de flag do LAPD são idênticos aos do HDLC.

O campo de endereço do LAPD tem 2 bytes de comprimento. O primeiro byte do campo de


endereço contém o SAPI (Service Access Point Identifier), que identifica o portal no qual os
serviços LAPD são fornecidos à camada 3. O bit de comando/resposta (C/R) indica se o
quadro contém um comando ou uma resposta. O segundo byte contém o TEI (Terminal
Endpoint Identifier). Cada equipamento terminal nas instalações do cliente precisa de um
identificador exclusivo. O TEI pode ser atribuído estaticamente na instalação ou pode ser
atribuído dinamicamente pelo switch quando o equipamento for iniciado. Se o TEI for atribuído
estaticamente durante a instalação, ele será um número de 0 a 63. Os TEIs atribuídos
dinamicamente variam de 64 a 126. Um TEI igual a 127, ou somente 1s, indica um broadcast.

4.1.4 Funções da ISDN

Devem ocorrer várias trocas para que um roteador conecte-se a outro usando ISDN. Para
estabelecer uma chamada ISDN, usa-se o canal D entre o roteador e o switch ISDN. A
sinalização SS7 (Signal System 7) é usada entre os switches dentro da rede do provedor do
serviço.

O canal D entre o roteador e o switch ISDN está sempre ativo. O Q.921 descreve os processos
dos enlaces de dados ISDN do LAPD, que funcionam como os processos da camada 2 do
modelo de referência OSI. O canal D é usado para funções de controle de chamadas, tais
como configuração, sinalização e encerramento de chamadas. Essas funções são
implementadas no protocolo Q.931. O Q.931 especifica funções da camada 3 do modelo de
referência OSI. O default Q.931 recomenda uma conexão da camada de rede entre o nó de
extremidade terminal e o switch ISDN local, mas não impõe uma recomendação fim-a-fim.
Como alguns switches ISDN foram desenvolvidos antes que o Q.931 fosse padronizado, os
diversos provedores e switches ISDN usam diversas implementações do Q.931. Como os tipos

96
de switches não são padrão, os roteadores precisam ter comandos em suas configurações que
especifiquem o switch ISDN ao qual estão se conectando.

A seqüência de eventos a seguir ocorre durante o estabelecimento de uma chamada BRI ou


PRI:

1. O canal D é usado para enviar o número chamado ao switch ISDN local.


2. O switch local usa o protocolo de sinalização SS7 para configurar um caminho e
transmitir o número chamado ao switch ISDN remoto.
3. O switch ISDN remoto sinaliza o destino através do canal D.
4. O dispositivo NT-1 de destino do ISDN envia ao switch ISDN remoto uma mensagem
de conexão da chamada.
5. O switch ISDN remoto usa o SS7 para enviar uma mensagem de conexão da chamada
ao switch local.
6. O switch ISDN local conecta um canal B fim-a-fim, deixando o outro canal B disponível
para uma nova conversa ou transferência de dados. Os dois canais B podem ser
usados simultaneamente.

97
4.1.5 Pontos de referência do ISDN

Os padrões ISDN definem grupos funcionais, como dispositivos ou componentes de hardware,


que permitem que o usuário acesse os serviços do BRI ou PRI. Os fabricantes podem criar
hardware que suporte uma ou mais funções. As especificações ISDN definem quatro pontos de
referência que conectam um dispositivo ISDN ao outro.

Cada dispositivo de uma rede ISDN realiza uma tarefa específica para facilitar a conectividade
fim-a-fim.

Para conectar dispositivos que realizam funções específicas, a interface entre os dois
dispositivos precisa ser bem definida. Essas interfaces são conhecidas como pontos de
referência.

98
Os pontos de referência que afetam o lado do cliente da conexão ISDN são os seguintes:

• R – Faz referência à conexão entre um dispositivo TE2 (Terminal Equipment type 2)


não compatível com ISDN e um TA (Terminal Adapter), como por exemplo, uma
interface serial RS-232.
• S – Faz referência aos pontos que se conectam ao dispositivo de comutação do cliente
NT2 (Network Termination type 2) e que permitem chamadas entre os vários tipos de
equipamentos das instalações do cliente.
• T – Eletricamente idêntica à interface S, faz referência à conexão que sai da NT2 e vai
para a rede ISDN ou NT1 (Network Termination type 1).
• U – Faz referência à conexão entre a NT1 e a rede ISDN de propriedade da companhia
telefônica.

Como as referências S e T são eletricamente semelhantes, algumas interfaces são indicadas


por S/T. Embora realizem funções diferentes, a porta é eletricamente idêntica e pode ser usada
para qualquer uma das funções.

4.1.6 Determinando a interface ISDN do roteador

Nos Estados Unidos, exige-se que o cliente forneça a NT1. Na Europa e em vários outros
países, a companhia telefônica fornece a função NT1 e apresenta uma interface S/T ao cliente.
Nessas configurações, não se exige que o cliente forneça um dispositivo NT1 separado ou
função NT1 integrada no dispositivo terminal. Equipamentos, tais como módulos e interfaces
ISDN do roteador, devem ser solicitados conforme o caso.

99
Para selecionar um roteador Cisco com a interface ISDN apropriada, faça o seguinte:

1. Determine se o roteador suporta ISDN BRI. Na parte traseira do roteador, procure um


conector BRI ou uma WIC (WAN Interface Card) BRI.
2. Determine quem deve fornecer a NT1. Uma NT1 termina o loop local para a central da
operadora (CO) do provedor de serviços ISDN. Nos Estados Unidos, a NT1 é um CPE
(Customer Premise Equipment), o que significa que é de responsabilidade do cliente.
Na Europa, normalmente o provedor do serviço fornece a NT1.
3. Se a NT1 for integrada ao CPE, o roteador deve ter uma interface U. Se o roteador
tiver uma interface S/T, ele precisará de uma NT1 externa para se conectar ao
provedor ISDN.

Se o roteador tiver um conector rotulado como BRI, ele já está ativado para ISDN. Com uma
interface ISDN nativa já integrada, o roteador é um TE1 e precisará conectar-se a uma NT1. Se
o roteador tiver uma interface U, ele também terá uma NT1 integrada.

100
Se o roteador não tiver um conector rotulado como BRI e for de configuração fixa ou não
modular, ele precisará usar uma interface serial existente. Com interfaces ISDN não nativas,
tais como as interfaces seriais, deve-se conectar um dispositivo TA externo à interface serial
para oferecer conectividade BRI. Se o roteador for modular, pode ser possível atualizá-lo para
uma interface ISDN nativa, desde que ele tenha um slot disponível.

CUIDADO:

Um roteador com uma interface U nunca deve ser conectado a uma NT1, pois isso danificaria
a interface

4.1.7 Tipos de switch ISDN

Os roteadores precisam ser configurados para identificar o tipo de switch com o qual vão
comunicar-se. Os tipos de switch ISDN disponíveis variam, dependendo em parte do país no
qual o switch está sendo usado. Como conseqüência das diversas implementações do Q.931,
o protocolo de sinalização do canal D usado nos switches ISDN varia conforme o fabricante.

Os serviços oferecidos pelas prestadoras de ISDN variam consideravelmente conforme o país


ou a região.

Assim como os modems, cada tipo de switch opera de forma ligeiramente diferente e tem um
conjunto específico de requisitos de configuração de chamada. Para poder se conectar a um
serviço ISDN, o roteador precisa ser configurado para o tipo de switch usado na central. Essa
informação deve ser especificada durante a configuração do roteador, para que ele possa
comunicar-se com o switch, efetuar chamadas no âmbito da rede ISDN e enviar dados.

101
Além de conhecer o tipo de switch usado pelo provedor do serviço, também pode ser
necessário saber quais SPIDs (Service Profile Identifiers) são atribuídos pela companhia
telefônica. Um SPID é um número fornecido pela prestadora de ISDN para identificar a
configuração da linha do serviço BRI. Os SPIDs permitem que vários dispositivos ISDN, como
equipamentos de dados e voz, compartilhem o loop local. Os SPIDs são exigidos pelos
switches DMS-100 e National ISDN-1.

Os SPIDs são usados somente na América do Norte e no Japão. A prestadora de ISDN


fornece um SPID para identificar a configuração da linha do serviço ISDN. Em muitos casos, ao
configurar um roteador, será necessário inserir os SPIDs.

Cada SPID aponta para a configuração da linha e para informações de configuração. Os SPIDs
são uma série de caracteres que geralmente parecem números de telefone. Os SPIDs
identificam cada canal B para o switch da central. Uma vez identificado, o switch vincula os
serviços disponíveis à conexão. Lembre-se: normalmente, o ISDN é usada para conectividade
de discagem. Os SPIDs são processados quando o roteador conecta-se inicialmente ao switch
ISDN. Se os SPIDs forem necessários mas não estiverem configurados corretamente, a
inicialização falhará e os serviços ISDN não poderão ser usados.

4.2 Configuração do ISDN


4.2.1 Configurando o ISDN BRI

O comando isdn switch-typeswitch-type pode ser configurado no modo de


configuração global ou de interface para especificar o switch ISDN do provedor.

Se o comando isdn switch-type for executado no modo de configuração global, o tipo de


switch ISDN será definido de maneira idêntica para todas as interfaces ISDN. As interfaces
individuais podem ser configuradas após o comando de configuração global para refletir um
tipo de switch alternativo.

Quando o serviço ISDN for instalado, o provedor do serviço emitirá informações sobre o tipo de
switch e sobre os SPIDs. Os SPIDs são usados para definir os serviços disponíveis para
assinantes ISDN individuais. Dependendo do tipo de switch, pode ser necessário adicionar
esses SPIDs à configuração. Os switches ISDN National ISDN-1 e DMS-100 exigem SPIDs
para serem configurados, mas o switch AT&T 5ESS não exige. Os SPIDs devem ser
especificados ao se usar o simulador ISDN Adtran.

102
O formato dos SPIDs pode variar, dependendo do tipo de switch ISDN e das exigências
específicas do provedor. Use os comandos do modo de configuração de interface isdn
spid1 e isdn spid2 para especificar o SPID exigido pela rede ISDN quando o roteador
iniciar uma chamada para a estação comutadora ISDN local.

A configuração do ISDN BRI é um misto de comandos globais e de interface.

Para configurar o tipo de switch ISDN, use o comando isdn switch-type no modo de
configuração global:

Router(config)#isdn switch-typeswitch-type

O argumento switch-type indica o tipo do switch do provedor do serviço. Para desativar o


switch na interface ISDN, especifique isdn switch-type none. O exemplo a seguir
configura o tipo de switch National ISDN-1 no modo de configuração global:

103
Router(config)#isdn switch-type basic-ni

Para definir os SPIDs, use o comando isdn spid# no modo de configuração de interface.
Esse comando é usado para definir os números de SPIDs que foram atribuídos aos canais B:

Router(config-if)#isdn spid1spid-number [ldn]


Router(config-if)#isdn spid2spid-number [ldn]

O argumento opcional ldn define um número de catálogo de discagem local. Na maioria dos
switches, esse número deve coincidir com as informações da parte chamada, que chegam pelo
switch ISDN. Os SPIDs são especificados no modo de configuração de interface. Para entrar
no modo de configuração de interface, use o comando interface bri no modo de
configuração global:

Router(config)#interface brislot/port Router(config)#interface bri0/0


Router(config-if)#isdn spid1 51055540000001 5554000
Router(config-if)#isdn spid2 51055540010001 5554001

4.2.2 Configurando o ISDN PRI

O ISDN PRI é fornecida por meio de uma linha alugada T1 ou E1. As principais tarefas de
configuração do PRI são as seguintes:

1. Especificar o tipo correto de switch PRI que faz interface com o roteador na central do
provedor de ISDN.
2. Especificar o controlador T1/E1, o tipo de enquadramento e a codificação da linha
referentes às instalações do provedor de ISDN.
3. Definir uma alocação de tempo de grupo do PRI para as instalações T1/E1 e indicar a
velocidade utilizada.

Como os roteadores conectam-se à PRI usando T1/E1, não existe um comando "interface
pri". Em vez disso, a interface física do roteador que se conecta à linha alugada é
denominada controlador T1 (ou controlador E1, se estiver sendo usada uma linha E1). Esse
controlador precisa ser configurado adequadamente, a fim de se comunicar com a rede da
prestadora. Os canais D e B do ISDN PRI são configurados separadamente do controlador,
usando-se o comando interface serial.

Use o comando isdn switch-type para especificar o switch ISDN usado pelo provedor ao
qual o PRI conecta-se. Assim como no caso do BRI, esse comando pode ser emitido
globalmente ou no modo de configuração de interface. A tabela mostra os tipos de switch
disponíveis para configuração do ISDN PRI:

104
Router(config)#isdn switch-type primary-net5

A configuração de um controlador T1 ou E1 é feita em quatro partes:

1. No modo de configuração global, especifique o controlador e o slot/porta do roteador


onde a placa PRI está localizada:

Router(config)#controller {t1 | e1} {slot/port}

Router(config-controller)#

2. Configure o enquadramento, a codificação da linha e o clock conforme a


recomendação do provedor do serviço. O comando framing é usado para selecionar
o tipo de quadro usado pelo provedor do serviço PRI. Para T1, use a seguinte sintaxe
do comando:

Router(config-controller)#framing {sf | esf}

Para linhas E1, use o comando framing com as seguintes opções:

Router(config-controller)#framing {crc4 | no-crc4} [australia]

105
Use o comando linecode para identificar o método de sinalização da camada física
nas instalações digitais do provedor:

Router(config-controller)#linecode {ami | b8zs| hdb3}

Na América do Norte, usa-se o método de sinalização B8ZS nas instalações de


prestadoras de T1. Ele permite 64 kbps totais em cada canal ISDN. Na Europa,
geralmente é usada a codificação HDB3.

3. Configure a interface especificada para operação do PRI e a quantidade de alocações


de tempo fixas que estão definidas nas instalações digitais do provedor:

Router(config-controller)#pri-group [timeslots range]

Para a T1, o intervalo de alocações de tempo utilizado vai de 1 a 24. Para a E1, o
intervalo de alocações de tempo utilizado vai de 1 a 31.

4. Especifique uma interface para operação do canal D do PRI. A interface é uma


interface serial para uma T1/E1 no roteador:

Router(config)#interface serial{slot/port: | unit:}{23 | 15}

Dentro de uma instalação E1 ou T1, os canais começam a ser numerados a partir de 1. A


numeração vai de 1 a 31 na E1 e de 1 a 24 na T1. As interfaces seriais nos roteadores Cisco
começam a ser numeradas a partir de 0. Portanto, o canal 16, canal de sinalização da E1, é o
canal 15 da interface. O canal 24, canal de sinalização da T1, torna-se o canal 23 da interface.
Portanto, a interface serial 0/0:23 refere-se ao canal D de um PRI T1.

As sub-interfaces, geralmente usadas com Frame Relay, são designadas por um ponto. Por
exemplo, o serial 0/0.16 é uma sub-interface. Não confunda os canais de uma T1 ou E1 com as
sub-interfaces. Os canais usam dois pontos em vez de ponto para indicar o número do canal:

• S0/0.23 refere-se a uma sub-interface;


• S0/0:23 refere-se a um canal.

4.2.3 Verificando a configuração do ISDN

É possível usar vários comandos show para verificar se a configuração do ISDN foi
implementada corretamente.

Para confirmar as operações do BRI, use o comando show isdn status, que permite
inspecionar o status das interfaces do BRI. Esse comando pode ser usado após a configuração
do ISDN BRI para verificar se o TE1, ou roteador, está comunicando-se corretamente com o
switch ISDN. Na saída da figura, os TEIs foram negociados com sucesso e a camada 3 do
ISDN está pronta para fazer ou receber chamadas.

106
Verifique se o status da camada 1 é ACTIVE (ATIVO) e se o estado
MULTIPLE_FRAME_ESTABLISHED (MÚLTIPLOS QUADROS ESTABELECIDOS) aparece no
status da camada 2. Esse comando também exibe a quantidade de chamadas ativas.

O comando show isdn active exibe informações da chamada atual, dentre elas:

• Número chamado;
• Tempo até que a chamada seja desconectada;
• Aviso de cobrança;
• Unidades de cobrança utilizadas durante a chamada;
• Se as informações de aviso de cobrança são fornecidas durante as chamadas ou no
final.

O comando show dialer exibe informações sobre a interface do discador:

• Status da chamada atual;


• Valores do temporizador de discagem;
• Motivo da discagem;
• Dispositivo remoto que está conectado.

O comando show interface bri0/0 exibe estatísticas da interface BRI configurada no


roteador. Informações específicas de um canal são exibidas colocando-se o número do canal
no final do comando. Nesse caso, o comando show interface bri0/0:1 mostra o
seguinte:

• O canal B está usando encapsulamento PPP.


• O LCP fez negociações e está aberto.
• Há dois NCPs em execução, o IPCP e o CDPCP (Cisco Discovery Protocol Control
Protocol).

107
4.2.4 Solucionando problemas de configuração da ISDN

Os seguintes comandos são usados para depurar e solucionar problemas de configuração do


ISDN:

• O comando debug isdn q921 mostra mensagens da camada de enlace, ou camada


2, no canal D entre o roteador e o switch ISDN. Use este comando se o comando show
isdn status não mostrar a camada 1 como ACTIVE (ATIVA) e a camada 2 como
MULTIPLE_FRAME_ESTABLISHED (MÚLTIPLOS QUADROS ESTABELECIDOS).
• O comando debug isdn q931 mostra a troca de mensagens de configuração e
encerramento de chamadas da conexão ISDN da camada 3.
• O comando debug ppp authentication exibe as mensagens do protocolo de
autenticação PPP, incluindo as trocas de pacotes CHAP (Challenge Handshake
Authentication Protocol) e PAP (Password Authentication Protocol).
• O comando debug ppp negotiation exibe informações sobre o tráfego e sobre as
trocas PPP enquanto os componentes PPP são negociados. Isso inclui as trocas de
LCP, autenticação e NCP. Uma negociação PPP bem sucedida abre primeiro o estado
LCP, em seguida autentica e, finalmente, negocia o NCP.
• O comando debug ppp error exibe erros de protocolo e estatísticas de erro
referentes à negociação e operação da conexão PPP. Use o comando debug ppp
para solucionar problemas da camada 2 se o comando show isdn status não
indicar um problema com o ISDN.

4.3 Configuração DDR


4.3.1 Operação DDR

O roteamento de discagem por demanda (DDR) é acionado quando um tráfego que


corresponda a um conjunto predefinido de critérios é enfileirado para ser enviado por uma
interface habilitada para DDR. O tráfego que faz com que uma chamada DDR seja efetuada é
conhecido por tráfego significativo. Uma vez que o roteador tenha transmitido o tráfego
significativo, a chamada é encerrada.

A chave para uma operação eficiente DDR está na definição do tráfego significativo. O tráfego
significativo é definido com o comando dialer-list. As listas de discadores podem permitir
que todo o tráfego de um protocolo específico ative um enlace DDR, ou podem consultar uma
lista de acesso para ver quais tipos específicos de tráfego devem ativar o enlace. As listas de
discadores não filtram o tráfego em uma interface. Mesmo o tráfego que não seja significativo
será encaminhado se a conexão ao destino estiver ativa.

108
DDR é implementado nos roteadores Cisco de acordo com as seguintes etapas:

1. O roteador recebe o tráfego, realiza uma procura na tabela de roteamento para


determinar se há uma rota até o destino e identifica a interface de saída.
2. Se a interface de saída estiver configurada para DDR, o roteador faz uma procura para
determinar se o tráfego é significativo.
3. O roteador identifica as informações de discagem necessárias para fazer a chamada
usando um mapa de discadores para acessar o roteador do próximo salto.
4. Em seguida, o roteador verifica se o mapa de discadores está em uso. Se a interface
está conectada atualmente ao destino remoto desejado, o tráfego é enviado. Se a
interface não está conectada atualmente ao destino remoto, o roteador envia
informações de configuração da chamada através do BRI, usando o canal D.
5. Depois que o enlace é estabelecido, o roteador transmite tanto o tráfego significativo
quanto o tráfego não significativo. O tráfego não significativo pode incluir dados e
atualizações de roteamento.
6. O temporizador de inatividade é iniciado e permanece em funcionamento enquanto não
houver tráfego significativo durante o período-limite de inatividade e desconecta a
chamada com base na configuração do temporizador de inatividade.

A configuração do temporizador de inatividade especifica o tempo durante o qual o roteador


deve permanecer conectado se nenhum tráfego significativo é enviado. Uma vez estabelecida

109
uma conexão DDR, todo tráfego para esse destino será permitido. Entretanto, somente o
tráfego significativo reinicia o temporizador de inatividade.

4.3.2 Configurando DDR legado

DDR legado é um termo usado para definir uma configuração DDR simples, na qual um único
conjunto de parâmetros de discagem é aplicado a uma interface. Se forem necessárias várias
configurações de discadores exclusivas em uma única interface, devem ser usados perfis de
discadores.

Para configurar DDR legado, realize as seguintes etapas:

• Defina as rotas estáticas;

• Especifique o tráfego significativo;


• Configure as informações do discador.

4.3.3 Definindo rotas estáticas para DDR

Para encaminhar tráfego, os roteadores precisam saber qual rota usar para um determinado
destino. Quando se usa um protocolo de roteamento dinâmico, a interface DDR disca para a
localidade remota no caso de qualquer atualização de roteamento ou mensagem de "hello" se
esses pacotes estiverem definidos como tráfego significativo. Para evitar a ativação freqüente
ou constante do enlace DDR, configure as rotas necessárias estaticamente.

Para configurar uma rota estática para IP, use o seguinte comando:

110
Router(config)#ip routenet-prefix mask {address | interface}
[distance] [permanent]

O roteador Central tem uma rota estática até a rede 10.40.0.0 no roteador Home.

O roteador Home tem duas rotas estáticas definidas para as duas sub-redes da rede local
Central. Se a rede conectada ao roteador Home for uma rede stub, todo o tráfego não local
deve ser enviado para a Central. Uma rota default é a melhor escolha para o roteador Home
neste caso.

Home(config)#ip route 0.0.0.0 0.0.0.0 10.1.0.2

Ao configurar rotas estáticas, considere o seguinte:

• Por default, uma rota estática tem precedência sobre uma rota dinâmica, devido à sua
menor distância administrativa. Sem configuração adicional, uma rota dinâmica para
uma rede será ignorada se uma rota estática para a mesma rede estiver presente na
tabela de roteamento.
• Para reduzir a quantidade de entradas de rotas estáticas, defina uma rota estática
default ou resumida.

4.3.4 Especificando o tráfego significativo para DDR

As chamadas DDR são acionadas por tráfego significativo. Esse tráfego pode ser definido
como qualquer um dos seguintes itens:

• Tráfego IP de um determinado tipo de protocolo;


• Pacotes com um determinado endereço origem ou destino;
• Outros critérios definidos pelo administrador da rede.

Use o comando dialer-listpara identificar o tráfego significativo. A sintaxe do comando é a


seguinte:

111
Router(config)#dialer-listdialer-group-numprotocolprotocol-name
{permit | deny | listaccess-list-number}

O número dialer-group-num é um inteiro entre 1 e 10, que identifica a lista de discadores


para o roteador. O comando dialer-list 1 protocol ip permit permite que qualquer
tráfego IP acione uma chamada.

Em vez de permitir qualquer tráfego IP, uma lista de discadores pode apontar para uma lista de
acesso, a fim de especificar exatamente quais tipos de tráfego devem ativar o enlace. A
referência à lista de acesso 101 na lista de discadores 2 impede que tráfegos FTP e Telnet
ativem o enlace DDR. Qualquer outro pacote IP será considerado significativo e, portanto,
iniciará o enlace DDR.

4.3.5 Configurando informações de discadores DDR

Há diversas etapas envolvidas no processo de configuração da interface DDR. O PPP é


configurado na interface do discador, usando-se os mesmos comandos que habilitam o PPP
em uma interface serial. O HDLC é o encapsulamento default de uma interface ISDN em um
roteador Cisco, mas a maioria das redes emprega o PPP para conexões comutadas por
circuito. Devido a sua robustez, interoperabilidade e recursos adicionais, tais como
autenticação, o PPP é o protocolo de enlace de dados utilizado nos canais B da maioria dos
roteadores. Para configurar o PPP na interface DDR, use os seguintes comandos:

112
Home(config)#username Central password cisco
Home(config)#interface bri0/0
Home(config-if)#encapsulation ppp
Home(config-if)#ppp authentication chap
Home(config-if)#ip address 10.1.0.1 255.255.255.0

Uma lista de discadores especificando o tráfego significativo para essa interface DDR precisa
estar associada à interface DDR. Isso é feito por meio do comando dialer-groupgroup-
number:

Home(config-if)#dialer-group 1

Nesse comando, group-number especifica o número do grupo de discadores ao qual a


interface pertence. O número do grupo pode ser um inteiro de 1 a 10. Esse número deve
corresponder ao dialer-list group-number. Cada interface pode ter apenas um grupo de
discadores. Entretanto, a mesma lista de discadores pode ser atribuída a várias interfaces, com
o comando dialer-group.

É necessário especificar as informações de discagem corretas da interface DDR remota. Isso é


feito por meio do comando dialer map.

113
O comando dialer map mapeia o endereço do protocolo remoto para um número de
telefone. Esse comando é necessário para discar para múltiplas localidades.

Router(config-if)#dialer mapprotocol next-hop-address [namehostname]


[speed 56 | 64] [broadcast] dial-string

Se estiver discando para apenas uma localidade, use um comando dialer string
incondicional, que sempre disca o mesmo número de telefone, independentemente do destino
do tráfego. Esta etapa é exclusiva de DDR legado. Embora as informações sejam sempre
necessárias, as etapas para configurar as informações de destino são diferentes ao se usar
perfis de discador em vez de DDR legado.

O comando dialer idle-timeoutseconds pode ser usado para especificar a quantidade


de segundos de inatividade antes que uma chamada seja desconectada.

seconds representa a quantidade de segundos até que uma chamada seja desconectada
depois do envio do último pacote significativo. O default é 120.

4.3.6 Perfis de discador

DDR legado é limitado, pois a configuração é aplicada diretamente a uma interface física.
Como o endereço IP é aplicado diretamente à interface, somente as interfaces DDR
configuradas nessa sub-rede específica podem estabelecer uma conexão DDR com essa
interface. Isso significa que há uma correspondência um-a-um entre as duas interfaces DDR
em cada ponta do enlace.

Os perfis de discador removem a configuração da interface que recebe ou efetua as chamadas


e somente vinculam a configuração à interface com base nas chamadas individuais. Os perfis
de discador permitem que as interfaces físicas assumam características diferentes
dinamicamente com base nas exigências das chamadas de entrada ou saída. Os perfis de
discador podem fazer tudo o que está indicado a seguir:

• Definir encapsulamento e listas de controle de acesso;


• Determinar a quantidade mínima ou máxima de chamadas;
• Ativar ou desativar recursos.

114
Os perfis de discador ajudam no projeto e na implantação de inter-redes comutadas por circuito
mais complexas e escalonáveis, implementando um modelo DDR mais escalonável nos
roteadores Cisco e servidores de acesso. Os perfis de discador separam a parte lógica de
DDR, tais como a camada de rede, o encapsulamento e os parâmetros do discador, da
interface física que efetua ou recebe as chamadas.

Utilizando perfis de discador, é possível realizar as seguintes tarefas:

• Configurar os canais B de uma interface ISDN com diferentes sub-redes IP.


• Usar diferentes encapsulamentos nos canais B de uma interface ISDN.
• Definir diferentes parâmetros DDR para os canais B de uma interface ISDN.
• Eliminar o desperdício de canais B do ISDN, permitindo que as ISDN BRIs pertençam a
vários pools de discadores.

Um perfil de discador consiste nos seguintes elementos:

115
• Interface do discador – Uma entidade lógica que usa um perfil de discador por
destino.
• Pool de discadores – Cada interface de discador faz referência a um pool de
discadores, que é um grupo de uma ou mais interfaces físicas associadas a um perfil
de discador.
• Interfaces físicas – As interfaces de um pool de discadores são configuradas quanto
aos parâmetros de encapsulamento e para identificar os pools de discadores aos quais
a interface pertence. A autenticação PPP, o tipo de encapsulamento e o PPP multilink
são todos configurados na interface física.

Como DDR legado, os perfis de discador são ativados quando um tráfego significativo é
enfileirado para ser enviado a partir de uma interface DDR. Inicialmente, um pacote significativo
é roteado para um endereço IP DDR. Em seguida, o roteador verifica as interfaces
configuradas do discador em busca de uma que compartilhe a mesma sub-rede do endereço IP
DDR remoto. Se existir alguma, o roteador procura uma interface DDR física não utilizada no
pool de discadores. A configuração do perfil do discador é, então, aplicada à interface e o
roteador tenta criar a conexão DDR. Quando a conexão é encerrada, a interface é devolvida ao
pool de discadores para a próxima chamada.

4.3.7 Configurando perfis de discador

É possível configurar várias interfaces de discador em um roteador. Cada interface de discador


é a configuração completa para um destino. O comando interface dialercria uma interface de
discador e entra no modo de configuração da interface.

Para configurar a interface de discador, execute as seguintes tarefas:

1. Configure uma ou mais interfaces de discador, com todos os comandos DDR básicos:
• Endereço IP;
• Tipo de encapsulamento e autenticação;
• Temporizador de inatividade;
• Grupo de discadores para tráfego significativo.
2. Configure uma dialer string (cadeia de discador) e um dialer remote-name
(nome remoto de discador) para especificar o nome do roteador remoto e o número de
telefone para discar para ele. O dialer pool associa essa interface lógica a um pool
de interfaces físicas.
3. Configure as interfaces físicas e atribua-as a um pool de discadores, usando o
comando dialer pool-member. Uma interface pode ser atribuída a vários pools
de discadores, usando vários comandos dialer pool-member. Se existir mais
de uma interface física no pool, use a opção priority do comando dialer
pool-member para definir a prioridade da interface dentro de um pool de
discadores. Se for necessário efetuar várias chamadas e só houver uma interface

116
disponível, o pool de discadores com prioridade mais alta é o que fará a
discagem.

É possível usar uma combinação de qualquer uma destas interfaces com pools de discadores:

• Serial síncrona;
• Serial assíncrona;
• BRI;
• PRI.

4.3.8 Verificando a configuração DDR

O comando show dialer interface [BRI] exibe informações no mesmo formato que as
estatísticas de DDR legado sobre chamadas de entrada e de saída.

A mensagem "Dialer state is data link layer up" sugere que o discador foi ativado corretamente
e que a interface BRI 0/0:1 está vinculada ao perfil dialer1.

O comando show isdn active exibe informações sobre as chamadas ISDN ativas no
momento.

Nesta saída, a chamada ISDN está indo para um roteador remoto chamado Seattle.

O comando show isdn status exibe informações sobre as três camadas da interface BRI.

117
Nesta saída, a camada 1 do ISDN está ativa, a camada 2 do ISDN foi estabelecida com SPID1
e SPID2 validados e há uma conexão ativa na camada 3.

4.3.9 Solucionando problemas de configuração DDR

Há dois tipos principais de problemas de DDR. Ou um roteador não está discando quando
deveria ou está discando constantemente quando não deveria. É possível usar vários
comandos debug para ajudar a solucionar problemas com uma configuração DDR.

Nas linhas a seguir, o sétimo e o oitavo hexadecimais mais significativos indicam o tipo de
mensagem.

• 0x05 indica uma mensagem de configuração de chamada;


• 0x02 indica uma mensagem de andamento de chamada;
• 0x07 indica uma mensagem de conexão de chamada;
• 0x0F indica uma mensagem de confirmação (ack) de conexão.

118
O comando debug isdn q931 é útil para observar trocas de configuração de chamada, tanto
para chamadas de saída como de entrada.

O comando debug dialer [events | packets] é útil para solucionar problemas de


conectividade DDR. O comando debug dialer events envia uma mensagem para a
console, indicando quando um enlace DDR se conectou e o tráfego que fez com que ele se
conectasse.

Se um roteador não está configurado corretamente para DDR, a saída do comando geralmente
indica a origem do problema. Se não houver saída da depuração, o roteador não tem
conhecimento de nenhum tráfego significativo. Um discador ou uma lista de acesso
configurados incorretamente podem ser o motivo.

Nem todos os problemas de DDR fazem com que uma interface deixe de discar. Os protocolos
de roteamento podem fazer com que uma interface disque continuamente, mesmo que não
haja dados de usuário a enviar. Quando uma interface torna-se ativa e inativa constantemente,
diz-se que ela está oscilante. O comando debug dialer packet envia uma mensagem à
console toda vez que um pacote é enviado a partir de uma interface DDR. Use esse comando
de depuração para ver exatamente qual tráfego é responsável por uma interface DDR
oscilante.

Se um roteador não estiver conectando-se quando deveria, é possível que a causa seja um
problema de ISDN, e não um problema de DDR. O roteador remoto pode ter sido configurado
incorretamente ou pode haver um problema com a rede da prestadora ISDN. Use o comando
isdn call interface para forçar o roteador local a tentar discar para o roteador remoto.

Se os roteadores não podem comunicar-se usando esse comando, a falta de conectividade é


um problema do ISDN e não de DDR. Entretanto, se os roteadores podem comunicar-se, tanto
a rede tarifada quanto as configurações do ISDN do roteador estão funcionando corretamente.

119
Neste caso, é muito provável que o problema seja um erro na configuração DDR de algum dos
roteadores.

Em alguns casos, é recomendável reiniciar a conexão entre o roteador e o switch ISDN local. O
comando clear interface bri limpa as conexões estabelecidas atualmente na interface e
reinicia a interface com o switch ISDN. Esse comando força o roteador a renegociar seus
SPIDs com o switch ISDN, sendo, às vezes, necessário depois de mudanças nos comandos
isdn spid1 e isdn spid2 de uma interface.

Resumo

ISDN refere-se a um conjunto de protocolos de comunicação proposto pelas companhias


telefônicas para permitir que as redes telefônicas transportem serviços integrados de voz,
vídeo e dados. O ISDN permite a comunicação através de canais de comunicação digitais de
alta velocidade e alta qualidade.

DDR é usado para reduzir os custos de uma linha WAN dedicada para organizações e
empresas que não precisam de uma conexão permanente. Também pode ser usado como
backup por organizações que usam a linha dedicada para aplicações críticas.

Devem ter sido compreendidos os importantes conceitos a seguir:

• O ISDN transporta dados, voz e vídeo;


• O ISDN usa padrões para endereçamento, conceitos e sinalização;
• O ISDN usa as camadas física e de enlace;
• Interfaces e pontos de referência para o ISDN;
• Configuração de roteadores para o ISDN;
• Qual tráfego é permitido ao se configurar DDR;
• Rotas estáticas para DDR;
• O tipo correto de encapsulamento para DDR;
• Listas de acesso que afetam o tráfego DDR;
• Interfaces do discador.

120
MODULO 05 – Frame Relay
Visão Geral

O Frame Relay foi originalmente desenvolvido como uma extensão do ISDN. Ele foi
projetado para possibilitar que a tecnologia de circuitos comutados seja transportada em
uma rede com comutação de pacotes. A tecnologia tornou-se uma maneira independente
e econômica para criar uma WAN.

Os comutadores de Frame Relay criam circuitos virtuais para conectar redes locais a
uma WAN. A rede Frame Relay existe entre um dispositivo de borda de uma rede local,
normalmente um roteador, e o switch do portador. A tecnologia usada pelo portador
para transportar os dados entre os switches não é importante para o Frame Relay.

A sofisticação da tecnologia exige um conhecimento completo dos termos usados para


descrever o funcionamento do Frame Relay. Sem um entendimento firme do Frame
Relay, é difícil resolver problemas com o seu desempenho.

O Frame Relay já se tornou um dos protocolos de WAN mais largamente utilizados.


Uma razão da sua popularidade é que ele é econômico quando comparado com linhas
alugadas. Outro motivo da popularidade do Frame Relay é que a configuração dos
equipamentos dos usuários em uma rede Frame Relay é muito simples.

Este módulo explica como configurar o Frame Relay em um roteador Cisco. As


conexões do Frame Relay são criadas pela configuração dos roteadores ou outros
dispositivos, para que se comuniquem com o switch Frame Relay. O provedor de
serviços geralmente configura o switch Frame Relay. Isto ajuda a manter ao mínimo as
tarefas de configuração para o usuário final.

Ao concluírem este módulo, os alunos deverão ser capazes de:

• Explicar a abrangência e a finalidade do Frame Relay


• Discutir a tecnologia do Frame Relay
• Comparar as topologias ponto-a-ponto e ponto-a-multiponto
• Examinar a topologia de uma rede Frame Relay
• Configurar um Circuito Virtual Permanente (PVC) para Frame Relay
• Criar um Mapa de Frame Relay em uma rede remota
• Explicar as considerações de uma rede de multiacesso e sem broadcast
• Descrever a necessidade de sub-interfaces e como configurá-las
• Verificar e resolver problemas com uma conexão Frame Relay

121
5.1 Conceitos do Frame Relay
5.1.1 Introdução ao Frame Relay

O Frame Relay é um padrão ITU-T (International Telecommunication Union


Telecommunications Standardization Sector) e ANSI (American National Standards
Institute) O Frame Relay é um serviço WAN orientado a conexões com comutação de
pacotes. Ele opera na camada de enlace de dados do modelo OSI. O Frame Relay usa
um subconjunto do protocolo HDCL (high-level data-link control) denominado LAPF
(Link Access Procedure for Frame Relay). Os quadros transportam dados entre
dispositivos de usuários denominados DTE (equipamentos terminal de dados) e os
equipamentos DCE (equipamentos de comunicação de dados) na borda da WAN.

Originalmente, o Frame Relay foi projetado para permitir que os equipamentos ISDN
tivessem acesso aos serviços de comutação de pacotes em um canal B. No entanto, o
Frame Relay é agora uma tecnologia independente.

Uma rede Frame Relay pode ser de propriedade privada, mas é mais freqüentemente
oferecida como um serviço de um provedor público. Tipicamente, ela consiste em
vários switches Frame Relay geograficamente espalhados e interligados por linhas de
tronco.

122
O Frame Relay freqüentemente é usado para a interconexão de redes locais. Quando
esse for o caso, um roteador em cada rede local será o DTE. Uma conexão serial, tal
como uma linha alugada T1/E1, ligará o roteador a um switch Frame Relay do provedor
no seu ponto de presença mais próximo. O switch Frame Relay é um dispositivo DCE.
Os quadros de um DTE serão transportados através da rede e entregues a outros DTEs
através dos DCEs.

Equipamentos de computação que não estão na rede local também podem enviar dados
através de uma rede Frame Relay. Tais equipamentos de computação usarão um
dispositivo de acesso ao Frame Relay (FRAD), como DTE.

5.1.2 Terminologia do Frame Relay

A conexão através da rede Frame Relay entre dois DTEs é chamada circuito virtual
(VC). Os circuitos virtuais podem ser estabelecidas dinamicamente pelo envio de
mensagens de sinalização à rede. Em tal caso, eles são denominados circuitos virtuais
comutados (SVCs). No entanto, os SVCs não são muito comuns. Geralmente são
utilizados circuitos virtuais permanentes (PVCs), que foram pré-configurados pelo
provedor. Um VC é criado pelo armazenamento de um mapeamento de porta de entrada
para porta de saída na memória de cada switch e, assim, um switch é ligado ao outro até
que se identifique um caminho contínuo de uma extremidade do circuito até a outra.

Por ter sido projetado para operar em linhas digitais de alta qualidade, o Frame Relay
não oferece nenhum mecanismo de recuperação de erros. Se houver um erro em um
quadro, conforme detectado por qualquer nó, o quadro será descartado sem notificação.

O FRAD ou roteador conectado à rede Frame Relay poderá possuir vários circuitos
virtuais ligando-o a vários pontos finais. Por este motivo, ele é uma alternativa muito
econômica para uma malha de linhas de acesso. Com esta configuração, cada ponto
final só precisa de uma única linha de acesso e uma interface. Surgem mais economias,
já que a capacidade da linha de acesso baseia-se na média dos requisitos de largura de
banda dos circuitos virtuais, e não no requisito máximo.

Os vários circuitos virtuais em uma só linha de acesso podem ser distinguidos porque
cada VC possui seu próprio Identificador de Canal de Enlace de Dados (DLCI). O
DLCI é armazenado no campo de endereço de cada quadro transmitido. O DCLI
normalmente tem apenas significado local e pode ser diferente em cada extremidade de
um VC

123
5.1.3 Suporte em camadas da pilha do Frame Relay

O Frame Relay funciona ao realizar o seguinte:

• Aceita pacotes de dados de um protocolo de camada de uma rede, tal como IP ou IPX
• Encapsula-os como os dados de um quadro Frame Relay
• Passa-os até a camada física para entrega no fio

A camada física é tipicamente EIA/TIA-232, 449 ou 530, V.35 ou X.21. O quadro Frame Relay
é um subconjunto do quadro tipo HDLC. Como tal, ele é delimitado com campos de flags. O

124
flag de 1 byte utiliza o padrão de dígitos 01111110. Se a FCS (Frame Check Sequence,
seqüência de verificação de quadro) não corresponder aos campos de endereço e de dados na
extremidade de recepção, o quadro será descartado sem notificação.

Alternativa (Recomendada)

A FCS (Frame Check Sequence, seqüência de verificação de quadro) é usada para determinar
se ocorreram erros no campo de endereço da camada 2 durante a transmissão. A FCS é
calculada antes da transmissão e o resultado é inserido no campo FCS. Na outra extremidade,
outro valor para FCS é calculado e comparado com a FCS dentro do quadro. Se o resultado for
idêntico, o quadro será processado. Se houver uma diferença, o quadro será descartado.
Nenhuma notificação será enviada à origem quando um quadro for descartado. O controle de
erros é deixado para as camadas superiores do modelo OSI.

5.1.4 Largura de banda e controle de fluxo do Frame Relay

A conexão serial ou link de acesso a uma rede Frame Relay é normalmente uma linha alugada.
A velocidade da linha será a velocidade de acesso ou a velocidade da porta. A velocidade das
portas é tipicamente de 64 Kbps a 4 Mbps. Alguns provedores oferecem velocidades de até 45
Mbps.

Normalmente, há vários PVCs operando no link de acesso, onde cada VC dispõe de uma
largura de banda dedicada. Isso é conhecido como CIR (Taxa de Informação Contratada). A
CIR é a taxa à qual o provedor de serviços promete aceitar bits no VC.

As CIRs individuais normalmente são inferiores à velocidade da porta. No entanto, a soma das
CIRs normalmente será superior à velocidade da porta. Às vezes, este é um fator de 2 ou 3. A
multiplexação estatística acomoda a natureza intermitente das comunicações entre
computadores, já que é raro que todos os canais estejam à taxa máxima de dados
simultaneamente.

Durante a transmissão de um quadro, cada bit será enviado à velocidade da porta. Por essa
razão, é necessário que haja um espaço entre quadros em um VC se a taxa de bits tiver que
ser igual à CIR.

O switch aceitará quadros dos DTE a velocidades superiores à CIR. Isso efetivamente
proporcionará a cada canal uma largura de banda sob demanda de até o máximo da
velocidade da porta. Alguns provedores de serviço impõem um limite para os VCs inferior à
velocidade da porta. A diferença entre a CIR e o máximo, seja este igual à velocidade da porta
ou inferior, é denominada de EIR (Excess Information Rate).

O intervalo de tempo sobre o qual as taxas são calculadas é denominado tempo contratado
(committed time - Tc). O número de bits prometidos em Tcé a rajada contratada (committed
burst - Bc). O número de bits em excesso à rajada contratada, até a velocidade máxima do link
de acesso, é a rajada em excesso (excess burst – Be).

125
Embora o switch aceite quadros em excesso da CIR, cada quadro em excesso é marcado no
switch pela introdução do valor "1" no bit Elegível para Descarte (DE) dentro do campo do
endereço.

O switch mantém um contador de bits para cada VC. Um quadro de entrada é marcado como
DE se a sua entrada coloca o contador acima de Bc. Um quadro é descartado se a sua entrada
coloca o contador acima de Bc + Be. Ao final de cada Tc segundos, o contador é zerado. O
contador não pode ter um valor negativo, de modo que o tempo de inatividade não pode ser
acumulado.

Os quadros que chegam a um switch são enfileirados ou colocados em buffer antes de serem
encaminhados. Como em qualquer sistema de filas, é possível que haja um acúmulo excessivo
de quadros em um switch. Isso causa atrasos. Os atrasos ocasionam retransmissões
desnecessárias, que ocorrem quando os protocolos de nível mais alto não recebem

126
reconhecimento dentro de um prazo determinado. Em casos graves, isso pode causar quedas
tremendas no desempenho da rede.

Para evitar este problema, os switches de Frame Relay incorporam uma política de descartar
quadros da fila para manter as filas curtas. Os quadros cujo bit DE está marcado serão os
primeiros a serem descartados.

Quando um switch percebe que sua fila está aumentando, ele tenta reduzir o fluxo de quadros
para ela. Isso é realizado mediante a notificação dos DTEs sobre o problema, marcando os bits
ECN (Explicit Congestion Notification) nos campos de endereço dos quadros.

O bit FECN (Forward ECN) é marcado em cada quadro recebido pelo switch no link
congestionado. O bit BECN (Backward ECN) é marcado em cada quadro colocado pelo switch
no link congestionado. Os DTEs que recebem quadros com os bits ECN marcados devem
tentar reduzir o fluxo de quadros, até que o congestionamento seja aliviado.

Se o congestionamento ocorrer em um tronco interno, os DTEs podem receber notificação,


embora estes não sejam a causa do congestionamento.

Os bits DE, FECN e BECN fazem parte do campo de endereço no quadro LAPF.

5.1.5 Mapeamento de endereços e topologia do Frame Relay

Para a interligação de duas instalações, é necessário considerar à topologia das conexões


entre elas.

Não é provável que o Frame Relay seja econômico quando duas instalações estão interligadas
com uma conexão ponto-a-ponto. O Frame Relay é mais econômico onde é necessário
interligar várias instalações.

As WANs freqüentemente são interligadas como topologia em estrela. Os serviços primários


residem em instalações centrais, que se ligam a cada local remoto que precisa ter acesso aos
serviços.

127
Em uma topologia de hub e spoke, o local do hub é escolhido para resultar em despesas
mínimas de linha alugada. Ao implementar uma topologia em estrela com o Frame Relay, cada
instalação remota possui um link de acesso à nuvem de Frame Relay através de um só VC. O
ponto central possui um link de acesso com vários VCs, um para cada local remoto.

Pelo fato de as tarifas de Frame Relay não serem afetadas pela distância, o ponto central não
precisa estar no centro geográfico da rede.

Uma topologia de malha completa é escolhida quando os serviços a serem acessados


encontram-se geograficamente dispersos e quando é necessário que o acesso a eles seja
altamente confiável. Com malha completa, cada local é ligado a cada um dos demais locais. Ao
contrário das interconexões de linha alugada, isso pode ser realizado no Frame Relay sem
hardwares adicionais.

128
É necessário configurar VCs adicionais nos links existentes para atualizar a topologia em
estrela para malha completa. Vários VCs em um link de acesso geralmente têm melhor
aproveitamento do Frame Relay do que um único VC. Isso se deve à sua utilização de
multiplexação estatística incorporada.

Para redes grandes, uma topologia de malha completa raramente é econômica. Isso se deve
ao fato de que o número de links necessários para uma topologia de malha completa cresce a
quase o quadrado do número de locais. Embora não haja nenhum problema quanto a
equipamentos para Frame Relay, existe um limite de menos de 1000 VCs por link. Na prática, o
limite é inferior a isso, e redes maiores geralmente apresentam uma topologia de malha parcial
(partial mesh). Para a malha parcial, há mais interconexões do que para um arranjo em estrela,
mas não tantas quanto para malha completa. O padrão final depende muito dos requisitos de
fluxo dos dados.

Em qualquer topologia de Frame Relay, quando uma só interface é usada para interligar vários
locais, pode haver questões de alcançabilidade. Isso se deve à natureza NBMA (nonbroadcast
multiaccess) do Frame Relay. O Split horizon é uma técnica usada pelos protocolos de
roteamento para prevenir loops de roteamento. O Split horizon não permite que as atualizações
de roteamento sejam enviadas à mesma interface que originou as informações de roteamento.
Isso pode causar problemas com atualizações de roteamento em um ambiente de Frame
Relay, onde vários PVCs existem em uma só interface física.

Qualquer que seja a topologia subjacente de uma rede física, é necessário um mapeamento
em cada FRAD ou roteador entre um endereço de Frame Relay na camada do enlace de
dados e o endereço na camada de rede, tal como um endereço IP. Essencialmente, o roteador

129
precisa saber quais redes são alcançáveis além de uma interface em particular. O mesmo
problema existe se uma linha alugada normal estiver conectada a uma interface. A diferença é
que a extremidade remota de uma linha alugada é conectada diretamente a um só roteador. Os
quadros do DTE são transportados através de uma linha alugada até um switch de rede, onde
podem espalhar-se em leque para até 1000 roteadores. O DLCI para cada VC precisa estar
associado ao endereço de rede de seu roteador remoto. Estas informações podem ser
configuradas manualmente, por meio dos comandos de mapeamento (map). O DLCI também
pode ser configurado automaticamente, mediante ARP inverso. Esse processo é tratado com
maiores detalhes em outra seção.

5.1.6 LMI de Frame Relay

O Frame Relay foi projetado para proporcionar transferência de dados com comutação de
pacotes com um mínimo de atraso fim-a-fim. Qualquer coisa que pudesse contribuir para o
atraso foi omitida. Quando os fornecedores implementaram o Frame Relay como tecnologia
independente em vez de como um componente de ISDN, decidiram que havia a necessidade
dos DTEs adquirirem dinamicamente informações sobre o status da rede. Este recurso não
fazia parte do projeto original. As extensões para essa transferência de status denominam-se
Local Management Interface (LMI).

The campo DLCI de 10 bits aceita os identificadores de VCs entre 0 e 1023. As extensões da
LMI reservam alguns desses identificadores. Isso reduz o número permitido de VCs. São
trocadas mensagens de LMI entre os DTEs e os DCEs, usando-se esses DLCIs reservados.

As extensões LMI incluem o seguinte:

• O mecanismo keepalive, que verifica a operacionalidade do VC


• O mecanismo multicast
• O controle de fluxo
• A capacidade de dar significado global aos DLCIs
• O mecanismo de status do VC

Existem vários tipos de LMI, cada uma incompatível com as demais. O tipo da LMI configurada
no roteador precisa corresponder ao tipo usado pelo provedor de serviço. Três tipos de LMIs
são suportadas pelos roteadores Cisco:

• Cisco – As extensões LMI originais


• ANSI – Correspondente ao padrão ANSI T1.617 Anexo D
• q933a – Correspondente ao padrão ITU Q933 Anexo A

As mensagens LMI são carregadas em uma variante dos quadros LAPF. Esta variante inclui
quatro campos adicionais no cabeçalho, para que eles sejam compatíveis com os quadros
LAPD usados em ISDN. O campo de endereço carrega um dos DLCIs reservados. Em
seguida, vêm os campos de controle, discriminador de protocolos e referência de chamada,
que não mudam. O quarto campo indica o tipo de mensagem LMI.

130
Existem um ou mais elementos de informação (IE) após o cabeçalho. Cada IE consiste no
seguinte:

• Um identificador de IE de um byte
• Um campo de comprimento do IE
• Um ou mais bytes, que contêm dados reais que tipicamente incluem o status do DLCI

As mensagens de status ajudam a verificar a integridade dos links lógicos e físicos. Essas
informações são críticas em um ambiente de roteamento, porque os protocolos de roteamento
tomam decisões com base na integridade dos links.

5.1.7 Etapas de uma operação de ARP Inverso e de LMI

A combinação de mensagens de status LMI e mensagens ARP permite que um roteador faça a
associação de endereços da camada de rede com os da camada de enlace de dados.

Quando se inicia um roteador conectado a uma rede Frame Relay, ele envia uma mensagem
de pesquisa de status LMI para a rede. A rede responde com uma mensagem de status LMI,
contendo detalhes sobre cada VC configurado no link de acesso.

131
Periodicamente, o roteador repete a pesquisa de status, mas as respostas subseqüentes
incluem apenas alterações de status. Após um número determinado de tais respostas
abreviadas, a rede enviará uma mensagem de status completa.

Se o roteador precisar mapear os VCs para endereços da camada de rede, ele enviará uma
mensagem ARP Inversa em cada VC. A mensagem ARP Inversa inclui o endereço da camada
de rede do roteador, de modo que o DTE remoto, ou roteador, também possa realizar o
mapeamento. A resposta ARP inversa permite que o roteador faça as entradas necessárias de
mapeamento na sua tabela de mapeamento de endereços para DLCI. Se forem suportados
vários protocolos de camada de rede no link, mensagens ARP Inversas serão enviadas para
cada um.

5.2 Configurando Frame Relay


5.2.1 Configurando Frame Relay básico

Esta seção explica como configurar um PVC de Frame Relay básico.

132
O Frame Relay é configurado em uma interface serial. O tipo padrão de encapsulamento é a
versão do HDLC proprietária da Cisco. Para mudar o encapsulamento para Frame Relay, use o
comando encapsulation frame-relay [cisco | ietf].

cisco Utiliza o encapsulamento Frame Relay proprietário da Cisco. Use esta opção se for
para conectar a outro roteador Cisco. Vários dispositivos não Cisco também suportam
esse tipo de encapsulamento. Esse é o padrão.
ietf Define o método de encapsulamento para cumprir o padrão IETF (Internet Engineering
Task Force) RFC 1490. Selecione esta opção se estiver conectando-se a um roteador
não Cisco.

O encapsulamento Frame Relay proprietário da Cisco utiliza um cabeçalho de 4 bytes, com 2


bytes para identificar o identificador de conexão de enlace de dados (DLCI) e 2 bytes para
identificar o tipo de pacote.

Defina um endereço IP na interface, por meio do comando ip address. Defina a largura de


banda da interface serial, por meio do comando bandwidth. A largura de banda é
especificada em kilobits por segundo (kbps). Esse comando é usado para notificar o protocolo
de roteamento de que a largura de banda está configurada estaticamente no link. O valor da
largura de banda é usado pelo IGRP (Interior Gateway Routing Protocol), pelo EIGRP
(Enhanced Interior Gateway Routing Protocol) e pelo OSPF (Open Shortest Path First) para
determinar a métrica do link.

A conexão LMI é estabelecida e configurada pelo comando frame-relay lmi-type [ansi


| cisco | q933a]. Este comando é necessário somente ao se utilizar o Cisco IOS versão
11.1 ou anterior. Com o IOS Versão 11.2 ou posterior, a LMI é detectada automaticamente e
não é necessário configurá-la. A LMI padrão é Cisco. O tipo da LMI é definido para cada
interface e aparece na saída do comando show interfaces.

Essas etapas de configuração são idênticas, independentemente dos protocolos da camada de


rede em operação através da rede.

133
5.2.2 Configurando um mapa estático de Frame Relay

O DLCI local precisa ser mapeado estaticamente ao endereço da camada de rede do roteador
remoto quando este não suporta ARP Inverso. Esse também é o caso quando o tráfego de
broadcast e de multicast através do PVC precisa ser controlado. Essas entradas estáticas de
Frame Relay são conhecidas como mapas estáticos.

Use o comando frame-relay mapprotocol protocol-address dlci[broadcast]


para mapear estaticamente o endereço remoto de camada de rede para o DLCI local.

5.2.3 Questões de alcançabilidade com atualizações de roteamentos no


ambiente NBMA

Por padrão, uma rede Frame Relay proporciona conectividade NBMA (non-broadcast multi-
access) entre instalações remotas. Um ambiente NBMA é considerado como outros ambientes
de meios de multiacesso como Ethernet, onde todos os roteadores estão na mesma sub-rede.
No entanto, para reduzir os custos, as nuvens NBMA normalmente são montadas em uma
topologia hub-and-spoke (semelhante a estrela). Com uma topologia hub-and-spoke, a
topologia física não oferece as mesmas capacidades de multiacesso da Ethernet.

134
A topologia física consiste em vários PVCs.

Uma topologia NBMA para Frame Relay pode causar dois problemas:

• Questões de alcançabilidade com relação a atualizações de roteamento


• A necessidade de replicar broadcasts em cada PVC quando uma interface física
contiver mais de um PVC

A atualização do split horizon reduz os loops de roteamento, não permitindo que uma
atualização de roteamento recebida em uma interface física seja encaminhada através da
mesma interface. Se o Roteador B, um roteador spoke (de raio), enviar uma atualização de
roteamento por broadcast para o Roteador A, um roteador hub (de fuso), e se o Roteador A
possuir vários PVCs sobre uma única interface física, então o Roteador A não poderá
encaminhar essa atualização de roteamento através da mesma interface física a outros
roteadores spoke remotos. Se o split horizon for desativado, subseqüentemente a atualização
de roteamento poderá ser encaminhada através da mesma interface física na qual chegou. O
split horizon não é problema quando há só um PVC em uma interface física. Essa seria uma
conexão Frame Relay ponto-a-ponto.

Os roteadores que permitem várias conexões sobre uma única interface física possuem vários
PVCs que terminam em um único roteador. Esse roteador precisa replicar pacotes de
broadcast, tais como broadcasts de atualização de roteamento em cada PVC, para os

135
roteadores remotos. Os pacotes de broadcast replicados podem consumir largura de banda e
causar latência considerável no tráfego dos usuários. Poderá parecer lógico desativar o split
horizon para resolver as questões de alcançabilidade causadas por ele. No entanto, nem todos
os protocolos da camada de rede permitem a desativação do split horizon e a sua desativação
aumenta as chances de loops de roteamento em qualquer rede.

Uma maneira de resolver os problemas do split horizon é utilizar uma topologia de malha
completa. Entretanto, isso aumenta os custos, porque será necessário haver mais PVCs. A
solução preferida é a utilização de sub-interfaces.

5.2.4 Sub-interfaces de Frame Relay

Para permitir o encaminhamento de atualização de roteamento por broadcast em uma


topologia hub-and-spoke para Frame Relay, configure o roteador central (hub) com interfaces
logicamente designadas. Essas interfaces são denominadas sub-interfaces. As sub-interfaces
são subdivisões lógicas de uma interface física.

Nos ambientes de roteamento split horizon, as atualizações de roteamento recebidas em uma


sub-interface podem ser enviadas em outra sub-interface. Em uma configuração de sub-
interfaces, cada circuito virtual pode ser configurado como conexão ponto-a-ponto. Isso permite
que cada sub-interface funcione semelhante a uma linha alugada. Usando uma sub-interface
ponto-a-ponto Frame Relay, cada par de roteadores ponto-a-ponto está em sua própria sub-
rede.

As sub-interfaces Frame Relay podem ser configuradas no modo ponto-a-ponto ou no modo


multiponto:

• Ponto-a-ponto – Uma única sub-interface é usada para estabelecer uma conexão


PVC com outra interface ou sub-interface física em um roteador remoto. Nesse caso,
cada par de roteadores ponto-a-ponto existe em sua própria sub-rede e cada sub-
interface ponto-a-ponto tem um só DLCI. Em um ambiente ponto-a-ponto, cada sub-
interface age como interface ponto-a-ponto. Assim, o tráfego de atualização de
roteamento não está sujeito à regra do split horizon.
• Multiponto – Uma única sub-interface é usada para estabelecer várias conexões PVC
com várias interfaces ou sub-interfaces físicas em roteadores remotos. Todas as
interfaces participantes estariam na mesma sub-rede. As sub-interfaces agem como
interface NBMA Frame Relay de modo que o tráfego de atualização de roteamento
está sujeito à regra do split-horizon.

O comando encapsulation frame-relay é designado à interface física. Os demais itens


de configuração, tais como o endereço da camada de rede e os DLCIs, são designados à sub-
interface.

As configurações multiponto podem ser usadas para conservar endereços que podem ser
especialmente úteis se não estiver sendo usado o VLSM (Variable Length Subnet Masking).
Entretanto, as configurações multiporta podem não funcionar corretamente devido a

136
considerações de tráfego broadcast e de split horizon. A opção de sub-interface ponto-a-ponto
foi criada para evitar estes problemas.

5.2.5 Configurando Sub-interfaces de Frame Relay

O provedor de serviços de Frame Relay designará os números DLCI. Esses números variam
entre 16 e 992, e geralmente possuem significado apenas local. DLCIs podem ter significado
global em certas circunstâncias. Essa faixa de números poderá variar conforme as LMIs
utilizadas.

Na figura, o Roteador A possui duas sub-interfaces ponto-a-ponto. A sub-interface s0/0.110 faz


conexão com o roteador B e a sub-interface s0/0.120 faz conexão com o roteador C. Cada sub-
interface existe sobre uma sub-rede diferente. Para configurar sub-interfaces em uma interface
física, é necessário realizar as seguintes etapas:

• Configure o encapsulamento Frame Relay na interface física, usando o comando


encapsulation frame-relay.
• Para cada um dos PVCs definidos, crie uma sub-interface lógica

137
router(config-if)#interface serialnumber.subinterface-number
[multipoint | point-to-point]

Para criar uma sub-interface, use o comando interface serial. Especifique o número da
porta, seguido de ponto (.) e, em seguida, o número da sub-interface. Normalmente, o número
da sub-interface é escolhido para ser idêntico ao do DLCI. Isso facilita a resolução de
problemas. O último parâmetro exigido é a declaração de que a sub-interface seja uma
interface ponto-a-ponto ou ponto-a-multiponto. É necessário fornecer a palavra-chave
multipoint ou point-to-point. Não existe padrão. Os seguintes comandos criam a sub-
interface para o PVC para o roteador B:

routerA(config-if)#interface serial 0/0.110 point-to-point

Se a sub-interface é configurada como ponto-a-ponto, o DLCI local para a sub-interface


também precisa ser configurado para poder distingui-lo da interface física. O DLCI também é
necessário para sub-interfaces multiponto para as quais ARP Inverso é ativado. Não é exigido
que as sub-interfaces sejam configuradas com mapas de rota estáticos. O comando frame-
relay interface-dlci é usado para configurar o DLCI local na sub-interface.

router(config-subif)#frame-relay interface-dlcidlci-number

5.2.6 Verificando a configuração do Frame Relay

O comando show interfaces exibe informações com relação ao encapsulamento e ao


status das Camadas 1 e 2. Também exibe informações sobre o seguinte:

• O tipo de LMI
• O DLCI da LMI
• O tipo de equipamento terminal de dados/equipamento terminal de circuito de dados
(DTE/DCE)

Normalmente, o roteador é considerado como dispositivo de equipamento terminal de dados


(DTE). Entretanto, um roteador Cisco pode ser configurado como switch de Frame Relay. O

138
roteador torna-se equipamento terminal de circuito de dados (DCE) quando é configurado
como switch de Frame Relay.

Use o comando show frame-relay lmi para exibir estatísticas do tráfego LMI.

Por exemplo, esse comando demonstra o número de mensagens de status trocadas entre o
roteador local e o switch local de Frame Relay.

Use o comando show frame-relay pvc [interfaceinterface] [dlci] para exibir o


status de cada PVC configurado, assim como estatísticas de tráfego.

Esse comando é útil também para examinar o número de pacotes BECN e FECN recebidos
pelo roteador. O status do PVC pode ser ativo, inativo ou excluído.

139
O comando show frame-relay pvc exibe o status de todos os PVCs configurados no
roteador. Especificar um PVC individual exibe o status só daquele PVC. Na Figura mostrada
acima, o comando show frame-relay pvc 100 exibe o status somente do PVC 100.

Use o comando show frame-relay map para exibir as entradas atuais do mapa e as
informações sobre as conexões. As seguintes informações interpretam a saída do comando
show frame-relay map que aparece na Figura:

• 10.140.1.1 é o endereço IP do roteador remoto, aprendido dinamicamente através do


processo ARP Inverso
• 100 é o valor decimal do número do DLCI local.
• 0x64 é a conversão em hexadecimal do número do DLCI, 0x64 = 100 decimal
• 0x1840 é o valor que apareceria no fio devido à maneira como os bits do DLCI
espalham-se no campo do endereço do quadro Frame Relay
• Broadcast/multicast está ativado no PVC
• O status do PVC é ativo

Para limpar os mapas de Frame Relay criados dinamicamente, pela utilização do ARP Inverso,
use o comando clear frame-relay-inarp.

5.2.7 Resolvendo problemas com a configuração do Frame Relay

Use o comando debug frame-relay lmi para determinar se o roteador e o switch Frame
Relay estão enviando e recebendo corretamente os pacotes LMI.

140
O "out" é uma mensagem de status LMI enviada pelo roteador. O "in" é uma mensagem
recebida do switch Frame Relay. Uma mensagem de status LMI completa é um "type 0". Um
intercâmbio LMI é um "type 1". O "dlci 100, status 0x2" significa que o status do DLCI 100 é
ativo. Os possíveis valores do campo status são os seguintes:

• 0x0 – Added/inactive significa que o switch tem esse DLCI programado mas, por uma
razão ou outra, ele não pode ser utilizado. A razão poderia ser que a outra extremidade
do PVC está inativa.
• 0x2 – Added/active significa que o switch Frame Relay tem o DLCI e tudo está
operacional.
• 0x4 – Deleted significa que o switch Frame Relay não tem este DLCI programado para
o roteador, mas que foi programado em algum momento no passado. Isso também
pode ser causado pela reversão do DLCI no roteador, ou pela exclusão do PVC pelo
provedor de serviços dentro da nuvem do Frame Relay.

141
Resumo

Devem ter sido compreendidos os importantes conceitos a seguir:

• A abrangência e a finalidade de Frame Relay


• A tecnologia de Frame Relay
• As topologias ponto-a-ponto e ponto-a-multiponto
• A topologia de uma rede Frame Relay
• Como configurar um Circuito Virtual Permanente (PVC) para Frame Relay
• Como criar um Mapa de Frame Relay em uma rede remota
• Potenciais problemas com o roteamento em uma rede não broadcast de multiacesso.
• Por que as sub-interfaces são necessárias e como são configuradas
• Como verificar e resolver problemas com uma conexão Frame Relay

142
Módulo 6 - Introdução à Administração de Redes

Visão Geral

Os primeiros PCs foram criados como desktops independentes. O software do sistema


operacional permitia que um usuário por vez acessasse arquivos e recursos do sistema. O
usuário tinha acesso físico ao PC. Com a popularização das redes de computadores baseadas
em PCs no local de trabalho, as empresas de software desenvolveram Sistemas Operacionais
de Rede especializados. Os desenvolvedores criaram os Sistemas Operacionaia de Rede para
proporcionar segurança de arquivos, privilégios de usuários e compartilhamento de recursos
entre vários usuários. O crescimento explosivo da Internet obrigou os desenvolvedores a
construir os Sistemas Operacionais de Rede atuais em torno de tecnologias e serviços
relacionados à Internet, tais como a World Wide Web (WWW).

A conectividade de rede é hoje essencial à computação de desktop. A distinção entre os


modernos sistemas operacionais de desktop, hoje carregados com recursos e serviços de
rede, e seus Sistemas Operacionais de Rede correspondentes tornou-se confusa. Hoje, os
sistemas operacionais mais populares como, por exemplo, Microsoft Windows 2000 e Linux,
são encontrados em servidores de rede de alta capacidade e nos desktops de usuários finais.

O conhecimento de diferentes sistemas operacionais garantirá a seleção do sistema


operacional correto para oferecer todos os serviços necessários. UNIX, Linux, Mac OS X e
vários sistemas operacionais Windows serão apresentados.

O gerenciamento eficiente de redes locais e WANs é o elemento-chave para a manutenção de


um ambiente produtivo no mundo das redes. Com a disponibilização de mais serviços para
mais usuários, o desempenho das redes é afetado. Os administradores de rede, através do
monitoramento constante, devem identificar e ser capazes de corrigir problemas antes que eles
sejam perceptíveis aos usuários finais.

Várias ferramentas e protocolos estão disponíveis para monitorar a rede em termos locais e
remotos. Uma compreensão abrangente dessas ferramentas é crucial para um gerenciamento
eficiente de rede.

Ao concluírem este módulo, os alunos deverão ser capazes de:

• Identificar várias tarefas potenciais executadas por uma estação de trabalho


• Identificar várias funções potenciais de um servidor
• Descrever as funções de equipamentos em um ambiente cliente/servidor
• Descrever as diferenças entre um Sistema Operacional de Rede e um sistema
operacional de desktop
• Listar vários sistemas operacionais Windows e suas características
• Listar várias alternativas aos sistemas operacionais Windows e suas características
• Identificar ferramentas de gerenciamento de rede
• Identificar os pontos básicos que direcionam o gerenciamento de rede
• Descrever os modelos OSI e de gerenciamento de rede
• Descrever o SNMP (simple network management protocol, protocolo de gerenciamento
de rede comum) e o CMIP (common management information protocol, protocolo de
informações de gerenciamento de rede)
• Descrever como o software de gerenciamento coleta informações e registra problemas

6.1 Estações de Trabalho e Servidores


6.1.1 Estações de trabalho

Uma estação de trabalho é um computador cliente usado para executar aplicativos, conectado
a um servidor do qual obtém dados compartilhados com outros computadores. Um servidor é
um computador que executa um Sistema Operacional de Rede. Uma estação de trabalho usa

143
software especial como, por exemplo, um programa shell de redes para executar as seguintes
tarefas:

• Interceptar dados do usuário e comandos de aplicações


• Decidir se o comando é relativo ao sistema operacional local ou ao Sistema
Operacional de Rede.
• Direcionar o comando ao sistema operacional local ou à placa de rede para
processamento e transmissão na rede
• Entregar transmissões da rede à aplicação em execução na estação de trabalho

Alguns sistemas operacionais Windows podem ser instalados em estações de trabalho e em


servidores. As versões NT/2000/XP do software Windows proporcionam recursos de servidores
de redes. As versões do Windows 9x e ME oferecem apenas suporte a estações de trabalho.

UNIX ou Linux pode funcionar como sistema operacional de desktop mas, normalmente, é
encontrado em computadores de alto desempenho. Essas estações de trabalho são
empregadas em aplicações científicas e de engenharia, que exigem computadores dedicados
de alto desempenho. Algumas das aplicações específicas freqüentemente executadas em
estações de trabalho UNIX estão incluídas na lista a seguir:

• CAD (Computer-aided design, projeto auxiliado por computador)


• Projeto de circuitos eletrônicos
• Análise de dados meteorológicos
• Animação gráfica por computador
• Gerenciamento de equipamentos de telecomunicações

A maioria dos sistemas operacionais de desktop atuais inclui recursos de rede e suporta
acesso de vários usuários. Por esse motivo, está ficando mais comum classificar computadores
e sistemas operacionais com base nos tipos de aplicação executados no computador. Essa
classificação baseia-se na função desempenhada pelo computador como, por exemplo,
estação de trabalho ou servidor. Aplicações típicas de desktop ou de estações de trabalho de
baixo desempenho podem incluir processamento de texto, planilhas e gerenciamento
financeiro. Em estações de trabalho de alto desempenho, as aplicações podem incluir projetos
gráficos ou gerenciamento de equipamentos e outros tipos, conforme listado acima.

Uma estação de trabalho sem disco é um tipo especial de computador criado para funcionar
em rede. Como o nome sugere, ela não possui unidades de disco, mas possui monitor, teclado,
memória, instruções de inicialização em ROM e uma placa de rede. O software usado para
estabelecer a conexão de rede é carregado do chip de ROM inicializável localizado na placa de
rede.

Como uma estação de trabalho sem disco não possui unidades de disco, não é possível usá-la
para fazer upload ou download de dados de qualquer espécie. Uma estação de trabalho sem
disco não pode transmitir vírus à rede nem pode ser usada para obter dados da rede via cópia
dessas informações em uma unidade de disco. Assim, as estações de trabalho sem disco
oferecem maior segurança do que as comuns. Por esse motivo, essas estações de trabalho
são usadas em redes nas quais a segurança é aspecto absolutamente primordial.

Os laptops também podem funcionar como estações de trabalho em uma rede local e podem
ser conectados via docking station, adaptador externo de rede (adaptador LAN) ou placa
PCMCIA (Personal Computer Memory Card International Association). Uma docking station é
um dispositivo adicional que transforma o laptop em desktop.

144
6.1.2 Servidores

Em um ambiente de sistema operacional de rede, muitos sistemas clientes acessam e


compartilham os recursos de um ou mais servidores. Os sistemas clientes de desktop são
equipados com seus próprios dispositivos periféricos e de memória, tais como teclado, monitor
e unidade de disco. Os sistemas de servidor devem ser equipados para suportar vários
usuários simultâneos e várias tarefas, à medida que os clientes solicitem recursos remotos ao
servidor.

Os Sistemas Operacionais de Rede têm ferramentas e recursos adicionais de gerenciamento


de rede criados para suportar o acesso simultâneo de grande número de usuários. Em todas
as redes, exceto nas menores, os Sistemas Operacionais de Rede são instalados em
servidores potentes. Muitos usuários, conhecidos como clientes, compartilham esses
servidores. Os servidores normalmente têm unidades de disco com alta capacidade e alta
velocidade, grandes quantidades de RAM, placas de rede de alta velocidade e, em alguns
casos, várias CPUs. Esses servidores são normalmente configurados para usar a família de
protocolos Internet, TCP/IP e para oferecer um ou mais serviços TCP/IP.

Os servidores que executam Sistemas Operacionais de Rede também são usados para
autenticar usuários e fornecer acesso a recursos compartilhados. Esses servidores são
projetados para processar simultaneamente solicitações de vários clientes. Antes que um
cliente possa acessar os recursos do servidor, ele precisa ser identificado e autorizado a usá-
los. A identificação e a autorização são obtidas atribuindo-se a cada cliente uma conta e uma
senha. A conta e a senha são, então, verificados por um serviço de autenticação para permitir
ou negar acesso à rede. Com a centralização das contas, da segurança e do controle de
acesso do usuário, as redes baseadas em servidor simplificam o trabalho de administração de
redes.

Os servidores são, normalmente, sistemas maiores do que as estações de trabalho e têm


memória adicional para suportar várias tarefas simultaneamente ativas ou residentes na
memória. Também é necessário espaço adicional em disco nos servidores para manter
arquivos compartilhados e para funcionar como extensão da memória interna do sistema. Além
disso, os servidores normalmente exigem slots de expansão extras em suas placas de sistema
para conectar dispositivos compartilhados, tais como impressoras e várias interfaces de rede.

Outra característica dos sistemas capazes de funcionar como servidores é a potência de


processamento. Normalmente, os computadores têm uma única CPU, que executa as
instruções que compõem determinada tarefa ou processo. Para trabalhar com eficiência e
fornecer respostas rápidas às solicitações dos clientes, um servidor de Sistema Operacional de
Rede exige uma CPU potente para executar suas tarefas ou programas. Os sistemas com um
único processador e uma CPU podem atender às necessidades da maioria dos servidores, se

145
a CPU tiver a velocidade necessária. Para alcançar maiores velocidades de execução, alguns
sistemas são equipados com mais de um processador. Esses sistemas são chamados de
multiprocessadores. Os sistemas multiprocessadores são capazes de executar várias tarefas
paralelamente, atribuindo cada uma delas a um processador diferente. O volume de trabalho
agregado que o servidor pode executar em um determinado tempo é muito maior em sistemas
multiprocessadores.

Como os servidores atuam como repositórios centrais vitais para a operação dos sistemas
clientes, eles devem ser eficientes e robustos. O termo "robusto" indica que os sistemas do
servidor são capazes de funcionar com eficiência sob cargas pesadas. Significa também que
os sistemas são capazes de sobreviver à falha de um ou mais processos ou componentes sem
sofrer falha geral do sistema. Esse objetivo é alcançado com a geração de redundância nos
sistemas de servidor. Redundância é a inclusão de componentes de hardware adicionais, que
podem assumir as tarefas em caso de falha de outros componentes. Redundância é um
recurso de sistemas com tolerância a falhas, criados para sobreviver a falhas e que podem ser
reparados sem interrupção enquanto os sistemas estão em funcionamento. Como um Sistema
Operacional de Rede depende da operação contínua do seu servidor, os componentes extras
de hardware justificam a despesa adicional.

As aplicações e funções dos servidores incluem serviços de Web com o uso de http (Hypertext
Transfer Protocol, protocolo de transporte de hipertexto), FTP (File Transfer Protocol, protocolo
de transferência de arquivos) e DNS (Domain Name System, sistema de nomes de domínio).
Os protocolos padrão de correio eletrônico suportados por servidores de rede incluem SMTP
(Simple Mail Transfer Protocol, protocolo de transferência de correspondência simples), POP3
(Post Office Protocol 3, protocolo de correio) e IMAP (Internet Messaging Access Protocol,
protocolo de acesso a mensagens de internet). Os protocolos de compartilhamento de arquivos
incluem NFS (Network File System, sistema de arquivos de rede), da Sun Microsystems, e
SMB (Server Message Block, bloco de mensagens do servidor), da Microsoft .

146
Os servidores de rede freqüentemente fornecem serviços de impressão. Um servidor também
pode fornecer DHCP (Dynamic Host Configuration Protocol), que aloca automaticamente
endereços IP a estações de trabalho clientes. Além de executar serviços para os clientes na
rede, os servidores podem ser configurados para funcionar como um firewall básico para a
rede. Isso é obtido com o uso de proxy ou de NAT (Network Address Translation, conversão de
endereços de rede); ambos ocultam da Internet os endereços da rede privada interna.

147
Um servidor que esteja executando um Sistema Operacional de Rede pode trabalhar bem ao
atender apenas alguns clientes. Entretanto, a maioria das organizações deve implantar vários
servidores para alcançar um desempenho aceitável. Um projeto típico separa os serviços de
modo que um servidor responda pelo correio eletrônico, outro pelo compartilhamento de
arquivos e um outro pelo FTP.

A concentração dos recursos de rede como arquivos, impressoras e aplicações nos servidores
também facilita o backup e a manutenção dos dados gerados. Em vez de se ter esses recursos
espalhados em máquinas individuais, eles podem ser localizados em servidores especializados
e dedicados, para acesso e backup mais fáceis.

6.1.3 Relação cliente-servidor

O modelo de computação cliente-servidor distribui o processamento por vários computadores.


O processamento distribuído permite o acesso a sistemas remotos, com a finalidade de
compartilhar informações e recursos de rede. Em um ambiente cliente-servidor, o cliente e o
servidor compartilham ou distribuem responsabilidades de processamento. A maioria dos
sistemas operacionais é projetada em torno do modelo cliente-servidor para fornecer serviços
de rede aos usuários. Um computador em uma rede pode ser chamado de host, estação de
trabalho, cliente ou servidor. Um computador que execute TCP/IP, seja uma estação de
trabalho ou um servidor, é considerado um computador host.

Definições de outros termos comumente usados:

• Host local – A máquina na qual o usuário está trabalhando no momento.


• Host remoto – Um sistema que está sendo acessado por um usuário a partir de outro
sistema.
• Servidor – Fornece recursos a um ou mais clientes através de uma rede.
• Cliente – Uma máquina que usa os serviços de um ou mais servidores em uma rede.

Um exemplo de relação cliente-servidor é uma sessão de FTP. O FTP é um método universal


de transferência de arquivos de um computador para o outro. Para o cliente transferir um
arquivo do servidor, este deverá estar executando o daemon ou serviço do FTP. Nesse caso, o
cliente solicita que o arquivo seja transferido. O servidor fornece os serviços necessários para
receber ou enviar o arquivo.

148
A Internet também é um bom exemplo de relação de computação cliente-servidor com
processamento distribuído. O cliente ou front end normalmente controla as funções de
apresentação do usuário, tais como formatação em tela, formulários de entrada e edição de
dados. Isso é feito com um navegador como, por exemplo, o Netscape ou o Internet Explorer.
Os navegadores da Web enviam solicitações a servidores da Web. Quando o navegador
solicita dados do servidor, este responde e o programa do navegador recebe uma resposta do
servidor da Web. O navegador, então, exibe os dados de HTTP recebidos. O servidor ou back
end controla as solicitações de páginas da Web por parte dos clientes e fornece serviços de
HTTP ou de WWW.

Outro exemplo de relação cliente-servidor é um servidor de banco de dados e uma entrada de


dados ou consulta do cliente em uma rede local. O cliente ou front end pode estar executando
uma aplicação escrita em linguagem C ou Java e o servidor ou back end pode estar
executando um software de gerenciamento de banco de dados Oracle ou algum outro. Nesse
caso, o cliente controlaria as tarefas de formatação e de apresentação para o usuário. O
servidor forneceria serviços de armazenamento em banco de dados e de recuperação de
dados para o usuário.

Em um ambiente típico de servidor de arquivos, o cliente pode precisar recuperar grandes


volumes de arquivos do banco de dados para processá-los localmente. Essa recuperação dos
arquivos do banco de dados pode causar excesso de tráfego. Com o modelo cliente-servidor, o
cliente apresenta uma solicitação ao servidor e o mecanismo de banco de dados do servidor
pode processar 100.000 registros e retornar apenas alguns ao cliente para atender à
solicitação. Os servidores são normalmente muito mais potentes do que os computadores
clientes e são mais adaptados ao processamento de grandes volumes de dados. Com a
computação cliente-servidor, o grande banco de dados é armazenado e o processamento
ocorre no servidor. O cliente tem que lidar apenas com a criação da consulta. Um volume
relativamente pequeno de dados ou resultados pode ser transmitido através da rede. Isso
satisfaz a consulta do cliente e resulta em menos uso da largura de banda da rede. O gráfico
mostra um exemplo de computação cliente-servidor. Observe que a estação de trabalho e o
servidor normalmente seriam conectados à rede local por um hub ou por um switch.

A distribuição das funções em redes cliente/servidor traz consideráveis vantagens, mas


também acarreta alguns custos. Embora a agregação de recursos aos sistemas de servidor
traga maior segurança, um acesso mais simples e controle coordenado, o servidor apresenta
um único ponto de falha na rede. Sem um servidor operacional, a rede não pode funcionar.
Além disso, a administração e a manutenção dos servidores exigem pessoal treinado e
especializado, o que aumenta a despesa de execução da rede. Os sistemas de servidor
exigem hardware adicional e softwares especializados, o que aumenta o custo.

149
6.1.4 Introdução ao Sistema Operacional de Rede

Um Sistema Operacional é a base de software sobre a qual aplicações e serviços de


computadores são executados em uma estação de trabalho. Da mesma forma, um Sistema
Operacional de Rede permite a comunicação entre vários dispositivos e o compartilhamento de
recursos em uma rede. Um Sistema Operacional de Rede opera em servidores de rede UNIX,
Microsoft Windows NT ou Windows 2000.

Funções comuns de um Sistema Operacional em uma estação de trabalho incluem o controle


do hardware do computador, a execução de programas e o fornecimento de uma interface do
usuário. O Sistema Operacional executa essas funções para um único usuário. Vários usuários
podem compartilhar a máquina, mas não podem fazer login simultâneo. Ao contrário, um
Sistema Operacional de Rede distribui funções por diversos computadores conectados em
rede. Um Sistema Operacional de Rede depende dos serviços do Sistema Operacional nativo
em cada computador individual. O Sistema Operacional de Rede, então, adiciona funções que
permitem acesso simultâneo a recursos compartilhados por parte de diversos usuários.

Em um ambiente de Sistema Operacional de Rede, as estações de trabalho funcionam como


clientes. Quando uma estação de trabalho torna-se cliente em um ambiente de Sistema
Operacional de Rede, componentes adicionais de software especializado permitem ao usuário
local acessar recursos não locais ou remotos como se esses recursos fossem parte do sistema
local. O Sistema Operacional de Rede aprimora o alcance da estação de trabalho cliente,
disponibilizando serviços remotos como extensões do sistema operacional local.

Um sistema capaz de operar como servidor de Sistema Operacional de Rede deve poder
suportar vários usuários simultaneamente. O administrador da rede cria uma conta para cada
usuário, permitindo que o usuário faça login e efetue conexão com o sistema do servidor. A
conta do usuário no servidor permite que este autentique o usuário e aloque os recursos que
ele tem permissão para acessar. Os sistemas que fornecem esse recurso são chamados de
sistemas multiusuário.

Um servidor de Sistema Operacional de Rede é um sistema multitarefa, capaz de executar


várias tarefas ou processos simultaneamente. O software de programação do Sistema
Operacional de Rede aloca tempo do processador interno, memória e outros elementos do
sistema a diferentes tarefas, de modo a permitir que elas compartilhem os recursos do sistema.
Cada usuário do sistema multiusuário é suportado por uma tarefa ou processo separado
internamente no servidor. Essas tarefas internas são criadas dinamicamente à medida que os
usuários efetuam conexão com o sistema e excluídas quando esses usuários encerram a
conexão.

As principais características a considerar ao selecionar um Sistema Operacional de Rede são


desempenho, ferramentas de gerenciamento e de monitoramento, segurança, escalabilidade e
robustez ou tolerância a falhas. A seção a seguir define resumidamente cada uma dessas
características.

150
Desempenho
Um Sistema Operacional de Rede deve ter bom desempenho ao ler e gravar arquivos na rede
entre clientes e servidores. Ele deve ser capaz de manter a rapidez de desempenho sob
cargas pesadas, quando muitos clientes estiverem fazendo solicitações. Desempenho
consistente sob alta demanda é um padrão importante para um Sistema Operacional de Rede.

Gerenciamento e monitoramento
A interface de gerenciamento no servidor de Sistema Operacional de Rede fornece
ferramentas para o monitoramento de servidores, administração de clientes, impressão de
arquivos e gerenciamento do armazenamento em disco. A interface de gerenciamento fornece
ferramentas para a instalação e a configuração de novos serviços. Além disso, os servidores
exigem monitoramento e ajustes regulares.

Segurança
Um Sistema Operacional de Rede deve proteger os recursos compartilhados sob seu controle.
A segurança inclui a autenticação do acesso do usuário aos serviços, para impedir o acesso
não autorizado aos recursos da rede. Segurança também significa executar criptografia para
proteger informações, à medida que elas trafegam entre clientes e servidores.

Escalabilidade
Escalabilidade é a capacidade de um Sistema Operacional de Rede de crescer sem sofrer
degradação em seu desempenho. O Sistema Operacional de Rede deve ser capaz de
sustentar o desempenho à medida que novos usuários passem a integrar a rede e novos
servidores sejam adicionados para suportá-los.

Robustez/tolerância a falhas
Um indicador de robustez é a capacidade de oferecer serviços de forma consistente sob carga
pesada e sustentar seus serviços em caso de falha dos componentes ou dos processos. O uso
de dispositivos de disco redundantes e o balanceamento da carga de trabalho através de
vários servidores pode aumentar a robustez de um Sistema Operacional de Rede.

6.1.5 Microsoft NT, 2000 e NET

Desde o lançamento do Windows 1.0 em novembro de 1985, a Microsoft produziu muitas


versões dos sistemas operacionais Windows, com aprimoramentos e alterações para suportar
diversos tipos de usuários e finalidades.

151
A Figura resume o Sistema Operacional Windows atual.

O NT 4 foi criado para fornecer um ambiente para assuntos de missão crítica que seria mais
estável do que os sistemas operacionais Microsoft convencionais. Ele está disponível para
desktops (NT 4.0 Workstation) e servidores (NT 4.0 Server). Uma vantagem do NT sobre os
Sistemas Operacionais Microsoft anteriores é que os programas em DOS e outros mais antigos
do Windows podem ser executados em máquinas virtuais (VMs). As falhas de programação
são isoladas e não exigem que o sistema seja reinicializado.

O Windows NT fornece uma estrutura de domínio para controlar o acesso de usuários e de


clientes aos recursos do servidor. Ele é administrado através da aplicação Gerenciador de
usuários para domínios no controlador de domínio. Cada domínio NT exige um controlador de
domínio primário individual, que detém o banco de dados SAM (Security Accounts
Management, gerenciamento de contas de segurança) e que pode ter um ou mais
controladores de domínio backup, cada um dos quais contém uma cópia apenas de leitura do
SAM. Quando um usuário tenta efetuar login, as informações da conta são enviadas ao banco
de dados SAM. Se as informações relativas a essa conta estiverem armazenadas no banco de
dados, o usuário será autenticado para o domínio e terá acesso à estação de trabalho e aos
recursos da rede.

Com base no kernel NT, o Windows 2000 mais recente tem versões para desktop e para
servidor. O Windows 2000 suporta tecnologia "plug-and-play", permitindo a instalação de novos
dispositivos sem a necessidade de reinicializar o sistema. O Windows 2000 também inclui um
sistema de criptografia de arquivos para a segurança dos dados no disco rígido.

O Windows 2000 permite que objetos, tais como usuários e recursos, sejam colocados em
objetos container chamados de OUs (organizational units, unidades organizacionais). A
autoridade administrativa sobre cada OU pode ser delegada a um usuário ou a um grupo. Essa
característica permite controle mais específico do que é possível com o Windows NT 4.0.

O Windows 2000 Professional não foi criado para ser um Sistema Operacional de Rede
completo. Ele não fornece controlador de domínio, servidor DNS, servidor DHCP nem presta
qualquer dos serviços que podem ser implementados com o Windows 2000 Server. A
finalidade principal do Windows 2000 Professional é ser parte de um domínio como sistema
operacional do lado do cliente. O tipo de hardware que pode ser instalado no sistema é
limitado. O Windows 2000 Professional pode fornecer recursos limitados de servidor para redes
pequenas e ponto-a-ponto. Esses recursos podem ser um servidor de arquivos, de impressão,
de FTP e um servidor da Web, mas eles suportarão apenas um máximo de dez conexões
simultâneas.

O Windows 2000 Server acrescenta aos recursos do Windows 2000 Professional muitas novas
funções específicas de servidor. Ele também pode operar como servidor de arquivos, de
impressão, de Web e de aplicações. O recurso Active Directory Services do Windows 2000
Server funciona como o ponto centralizado de gerenciamento de usuários, grupos, serviços de
segurança e recursos de rede. Ele inclui os recursos multipropósito exigidos para grupos de

152
trabalho e filiais, como também para implementações em departamentos de servidores de
arquivos, de impressão, de aplicações, de Web e de comunicação.

O Windows 2000 Server foi criado para uso em ambientes de empresas de pequeno a médio
porte. Ele proporciona conectividade integrada com sistemas Novell NetWare, UNIX e
AppleTalk. Ele também pode ser configurado como um servidor de comunicações, para
fornecer serviços de rede de discagem para usuários móveis. O Windows 2000 Advanced
Server fornece o suporte adicional de hardware e de software necessário para empresas e
redes extremamente grandes.

O Windows .NET Server foi construído com base no kernel Windows 2000 Server, mas
adaptado para oferecer um sistema seguro e confiável para a execução de sites da Web e de
FTP em nível empresarial, a fim de competir com os sistemas operacionais de servidores Linux
e UNIX. O Windows .NET Server oferece o XML Web Services a empresas que executam de
médio a alto volume de tráfego da Web.

6.1.6 UNIX, Sun, HP e LINUX

Origens do UNIX
UNIX é um grupo de sistemas operacionais que teve origem em 1969 na Bell Labs. Desde o
início, o UNIX foi destinado a suportar vários usuários e tarefas. O UNIX também foi um dos
primeiros sistemas operacionais a incluir suporte para protocolos de rede de Internet. A história
do UNIX, que ultrapassa 30 anos, é complicada porque muitas empresas e organizações
contribuíram para o seu desenvolvimento.

153
O UNIX foi escrito primeiramente em linguagem assembly, um conjunto primitivo de instruções
que controla as instruções internas de um computador. Entretanto, o UNIX podia ser executado
apenas em um tipo específico de computador. Em 1971, Dennis Ritchie criou a linguagem C.
Em 1973, Ritchie, juntamente com seu colega programador da Bell Labs, Ken Thompson,
reescreveu os programas do sistema UNIX em linguagem C. Como a linguagem C é de nível
mais elevado, o UNIX podia ser movido ou levado para outro computador com muito menor
esforço de programação. A decisão de desenvolver esse sistema operacional portátil mostrou
ser a chave do sucesso do UNIX. Nos anos 70, o UNIX evoluiu através do trabalho de
desenvolvimento de programadores da Bell Labs e de várias universidades, notadamente a
University of California, em Berkeley.

Quando o UNIX começou a ser comercializado, nos anos 80, foi usado para ser executado em
potentes servidores de rede, mas não em computadores desktop. Hoje, há dezenas de
diferentes versões do UNIX, inclusive as seguintes:

• Hewlett Packard UNIX (HP-UX)


• Berkeley Software Design, Inc. (BSD UNIX), que produziu derivações como o FreeBSD
• Santa Cruz Operation (SCO) UNIX
• Sun Solaris
• IBM UNIX (AIX)

O UNIX, em suas várias formas, continua a se firmar como um Sistema Operacional confiável,
seguro, a ser escolhido para aplicações críticas, cruciais para a operação de um negócio ou de
outra organização. O UNIX também tem integração estreita com o TCP/IP. O TCP/IP
basicamente desenvolveu-se a partir do UNIX, devido à necessidade de comunicações de rede
local e WAN.

O Sun Microsystems Solaris Operating Environment, com seu Sistema Operacional principal, o
SunOS, é uma implementação de 64 bits versátil, de alto desempenho, do UNIX. O Solaris é
executado em uma ampla variedade de computadores, desde computadores baseados em
Intel até potentes mainframes e supercomputadores. O Solaris é hoje a versão mais
amplamente usada do UNIX no mundo para grandes redes e sites da Web na Internet. A Sun
também é a empresa que desenvolveu a tecnologia Java "Write Once, Run Anywhere".

Apesar da popularidade do Microsoft Windows em redes locais corporativas, grande parte da


Internet é executada em potentes sistemas UNIX. Embora o UNIX seja normalmente associado
a hardware dispendioso e não seja amigável, desenvolvimentos recentes, inclusive a criação
do Linux, mudaram essa imagem.

Origens do Linux
Em 1991, um estudante finlandês chamado Linus Torvalds começou a trabalhar em um
sistema operacional para um computador baseado em Intel 80386. Torvalds ficou frustrado
com o estado de sistemas operacionais de desktop como, por exemplo, o DOS, e com a
despesa e os problemas de licenciamento associados ao UNIX comercial. Ele partiu, então,
para o desenvolvimento de um sistema operacional semelhante ao UNIX na operação, porém
usando código de software aberto e completamente gratuito para todos os usuários.

154
Seu trabalho levou a um esforço de colaboração mundial para o desenvolvimento do Linux, um
sistema operacional de origem aberta, com aparência e comportamento semelhantes aos do
UNIX. No final dos anos 90, o Linux tornou-se uma alternativa viável ao UNIX em servidores e
ao Windows no desktop. A popularidade do Linux em PCs desktop também contribuiu para o
interesse no uso de distribuições do UNIX como, por exemplo, FreeBSD e Sun Solaris em
desktop. Versões do Linux podem ser executadas hoje em quase todos os processadores de
32 bits, inclusive os chips Intel 80386, Motorola 68000, Alpha e PowerPC.

Como ocorre com o UNIX, há diversas versões do Linux. Algumas são downloads gratuitos da
Web; outras são distribuídas comercialmente. Veja a seguir algumas das mais populares
versões do Linux:

• Red Hat Linux – distribuído pela Red Hat Software


• OpenLinux – distribuído pela Caldera
• Corel Linux
• Slackware
• Debian GNU/Linux
• SuSE Linux

O Linux é hoje um dos sistemas operacionais mais potentes e confiáveis do mundo. Por isso, já
fez incursões como plataforma para usuários avançados e no campo dos servidores
empresariais. O Linux é implementado menos freqüentemente como sistema operacional de
desktops corporativos. Embora haja GUIs (graphical user interfaces, interfaces gráficas de
usuário) disponíveis para torná-lo mais amigável, a maioria dos usuários iniciantes considera
mais difícil usar o Linux do que o Mac OS ou o Windows. Atualmente, muitas empresas como,
por exemplo, Red Hat, SuSE, Corel e Caldera, empenham-se em viabilizar o Linux como
sistema operacional de desktops.

O suporte a aplicações deve ser considerado quando o Linux for implementado em um sistema
de desktop. O número de aplicações de produtividade empresarial é limitado em comparação
com o Windows. Entretanto, alguns fornecedores fornecem software de emulação de Windows
como, por exemplo, WABI e WINE, o que permite que muitas aplicativos Windows sejam
executadas no Linux. Além disso, empresas, tais como a Corel, estão fazendo versões Linux
de seus conjuntos para escritório e de outros conhecidos pacotes de software.

Conexão em rede com o Linux


Distribuições recentes do Linux têm componentes de rede incorporados para conexão com
uma rede local, estabelecendo uma conexão discada com a Internet ou com outra rede remota.
Na verdade, o TCP/IP é integrado ao kernel Linux, em vez de ser implementado como
subsistema separado.

Algumas vantagens do Linux como sistema operacional de desktops e clientes de rede


incluem:

• Ele é um verdadeiro sistema operacional de 32 bits.


• Ele suporta multitarefas preemptivas e memória virtual.
• O código é de origem aberta e, assim, está disponível para ser aperfeiçoado por
qualquer pessoa.

6.1.7 Apple

Os computadores Apple Macintosh foram criados para proporcionar fácil conexão de rede em
situações de grupos de trabalho ponto-a-ponto. As interfaces de rede incluem-se como parte
do hardware e os componentes de rede são incorporados ao sistema operacional Macintosh.
Os adaptadores de rede Ethernet e Token Ring estão disponíveis para o Macintosh.

155
O Macintosh, ou Mac, é popular em muitas instituições educacionais e departamentos gráficos
corporativos. Os Macs podem ser conectados um ao outro em grupos de trabalho e podem
acessar servidores de arquivos AppleShare. Eles também podem ser conectados a redes
locais de PCs que incluem servidores Microsoft, NetWare ou UNIX.

Mac OS X (10)
O sistema operacional Macintosh, Mac OS X, é às vezes chamado de Apple System 10.

Algumas das características do Mac OS X estão na GUI chamada Aqua. A GUI Aqua lembra
uma mistura da GUI do Microsoft Windows XP e a do Linux X-windows. O Mac OS X foi criado
para proporcionar recursos para o computador doméstico como, por exemplo, navegação na
Internet, edição de vídeo e de fotos e jogos, embora proporcione recursos que oferecem
ferramentas potentes e personalizáveis necessárias em um sistema operacional para os
profissionais de IT (tecnologia de informação).

O Mac OS X é totalmente compatível com versões anteriores dos sistemas operacionais Mac.
O Mac OS X fornece um novo recurso que permite conectividade pra AppleTalk e Windows. O
principal sistema operacional Mac OS X é chamado de Darwin. Darwin é um sistema potente,
baseado em UNIX, que proporciona estabilidade e desempenho. Esses aprimoramentos
fornecem ao Mac OS X suporte para memória protegida, multitarefas preemptivas,
gerenciamento avançado de memória e multiprocessamento simétrico. Isso torna o Mac OS X
um forte competidor entre os sistemas operacionais.

6.1.8 Conceito de serviço em servidores

Os Sistemas Operacionais de Rede foram criados para fornecer processos de rede aos
clientes. Os serviços de rede incluem a WWW, compartilhamento de arquivos, correio
eletrônico, serviços de diretório, de impressão e gerenciamento remoto. O gerenciamento
remoto é um serviço eficaz, que permite que os administradores configurem sistemas de rede a
quilômetros de distância. É importante compreender que esses processos de rede são
chamados de serviços no Windows 2000 e de daemons no UNIX e no Linux. Os processos de
rede oferecem todos as mesmas funções, mas o modo como esses processos são carregados
e interagem com o Sistema Operacional de Rede é diferente em cada sistema operacional.

Dependendo do Sistema Operacional de Rede, alguns desses processos-chave de rede


podem ser ativados durante uma instalação padrão. A maioria dos processos de rede tem por
base o conjunto de protocolos TCP/IP. Como o TCP/IP é um conjunto de protocolos aberto,
bem conhecido, os serviços baseados em TCP/IP são vulneráveis a varreduras não
autorizadas e a ataques maliciosos. Os ataques de DoS (denial of service, negativa de
serviço), vírus de computador e worms rapidamente disseminados pela Internet forçaram os
criadores do Sistema Operacional de Rede a reconsiderar quais serviços de rede são iniciados
automaticamente.

156
Versões recentes de Sistema Operacional de Redes populares como, por exemplo, Windows
2000 e Red Hat Linux 7, restringem o número de serviços de rede ativos por padrão. Quando
um Sistema Operacional de Rede é implementado, serviços-chave de rede precisarão ser
ativados manualmente.

Quando um usuário decide imprimir em um ambiente de impressão em rede, o trabalho é


enviado à fila apropriada para a impressora selecionada. As filas de impressão empilham os
trabalhos de impressão recebidos e os atendem na ordem FIFO (first-in, first-out, primeiro a
entrar, primeiro a sair). Quando um trabalho é adicionado à fila, ele é colocado no final da fila
de espera e impresso por último. O tempo de espera pela impressão pode, às vezes, ser longo,
dependendo do tamanho dos trabalhos que estejam na frente. Um serviço de impressão em
rede fornecerá aos administradores do sistema as ferramentas necessárias para gerenciar o
grande número de trabalhos de impressão roteados em toda a rede. Isso inclui a capacidade
de priorizar, interromper e até mesmo excluir trabalhos de impressão que estejam aguardando
execução.

Compartilhamento de arquivos
A capacidade de compartilhar arquivos em rede é um serviço de rede importante. Há muitos
protocolos e aplicativos de compartilhamento de arquivos em uso atualmente. Em uma rede
corporativa ou doméstica, os arquivos normalmente são compartilhados com o uso do
Windows File Sharing ou do protocolo NFS. Nesses ambientes, um usuário final pode nem
mesmo saber se determinado arquivo está em um disco local ou em um servidor remoto. Com
o Windows File Sharing e o NFS, os usuários podem facilmente movimentar, criar e excluir
arquivos em diretórios remotos.

FTP
Muitas organizações disponibilizam arquivos para funcionários que se encontram em locais
remotos, para clientes e para o público em geral usando o FTP. Os serviços de FTP são
disponibilizados para o público em conjunto com os serviços de Web. Por exemplo, um usuário
pode navegar em um site da Web, ler sobre uma atualização de software em uma página da
Web e, em seguida, fazer a atualização usando o FTP. Empresas menores podem usar um
único servidor para fornecer serviços de FTP e de HTTP, enquanto empresas maiores podem
optar por usar servidores FTP dedicados.

Embora os clientes de FTP devam efetuar login, muitos servidores FTP são configurados para
permitir acesso anônimo. Quando os usuários acessam um servidor anonimamente, não
precisam ter uma conta de usuário no sistema. O protocolo FTP também permite que os
usuários façam upload, renomeiem e excluam arquivos; por isso, os administradores devem ter
cautela ao configurar um servidor FTP para controlar os níveis de acesso.

O FTP é um protocolo orientado a sessões. Os clientes devem abrir uma sessão da camada de
aplicação com o servidor, efetuar a autenticação e executar uma ação como, por exemplo,
download ou upload. Se a sessão do cliente ficar inativa durante um certo período, ele será
desconectado pelo servidor. Esse período de inatividade é chamado de tempo limite de
inatividade. O tempo limite de inatividade de um servidor FTP varia, dependendo do software.

Serviços de Web
A World Wide Web é hoje o serviço de rede mais visível. Em menos de uma década, a World
Wide Web tornou-se uma rede global de informação, comércio, educação e entretenimento.
Milhões de empresas, organizações e indivíduos mantêm sites da web na Internet. Os sites da
web são coleções de páginas da web armazenadas em um servidor ou em um grupo de
servidores.

A World Wide Web baseia-se no modelo cliente-servidor. Os clientes tentam estabelecer


sessões TCP com servidores da Web. Uma vez estabelecida uma sessão, um cliente pode
solicitar dados do servidor. O HTTP normalmente controla solicitações dos clientes e
transferências dos servidores. O software cliente da Web inclui navegadores da Web com GUI
como, por exemplo, o Netscape Navigator e o Internet Explorer.

157
As páginas da Web são hospedadas em computadores que executam software de serviços da
Web. Os dois pacotes de software de servidor da Web mais comuns são o Microsoft Internet
Information Services (IIS) e o Apache Web Server. O Microsoft IIS é executado em plataforma
Windows e o Apache Web Server é executado em plataformas UNIX e Linux. Um pacote de
software de serviços de Web está disponível para praticamente todos os sistemas operacionais
atualmente em produção.

DNS
O protocolo DNS traduz um nome de Internet como, por exemplo, www.cisco.com, para um
endereço IP. Muitos aplicativos baseiam-se nos serviços de diretório fornecidos pelo DNS para
fazer esse trabalho. Os navegadores da Web, programas de correio eletrônico e de
transferência de arquivos usam os nomes de sistemas remotos. O protocolo DNS permite que
esses clientes façam solicitações aos servidores DNS na rede para a tradução de nomes para
endereços IP. Os aplicativos podem, então, usar os endereços para enviar suas mensagens.
Sem esse serviço de pesquisa de diretórios, seria quase impossível usar a Internet.

DHCP
O propósito do DHCP é permitir que computadores individuais em uma rede IP aprendem suas
configurações TCP/IP do(s) servidor(es) DHCP. Os servidores DHCP não têm informações
sobre os computadores individuais até que as informações sejam solicitadas. O propósito geral
disso é reduzir o trabalho necessário para administrar uma grande rede IP. A informação mais
significativa distribuída desse modo é o endereço IP que identifica o host na rede. O DHCP
também permite a recuperação e a capacidade de renovar endereços IP através de um
mecanismo de aluguel. Esse mecanismo aloca um endereço IP por um período específico,
libera-o e atribui um novo endereço IP. O DHCP permite que tudo isso seja feito por um
servidor DHCP, o que poupa ao administrador um tempo considerável.

6.2 Gerenciamento de Redes

6.2.1 Introdução ao gerenciamento de rede

À medida que uma rede evolui e cresce, ela torna-se um recurso mais crucial e indispensável à
organização.

158
Com a disponibilização de mais recursos de rede para os usuários, a rede torna-se mais
complexa e sua manutenção, mais complicada. A perda de recursos da rede e o desempenho
deficiente são resultados da complexidade crescente e não são bem aceitos pelos usuários.

O administrador da rede deve gerenciar a rede ativamente, diagnosticar problemas, impedir a


ocorrência de situações e proporcionar o melhor desempenho da rede para os usuários. Em
algum momento, as redes tornam-se muito grandes para serem gerenciadas sem ferramentas
de gerenciamento automatizado de rede.

O Gerenciamento de Rede inclui as seguintes tarefas:

• Monitoramento da disponibilidade da rede


• Melhoria da automação
• Monitoramento do tempo de resposta
• Fornecimento de recursos de segurança
• Re-roteamento do tráfego
• Restauração de capacidades
• Registro de usuários

Os pontos básicos que direcionam o gerenciamento de rede são mostrados e explicados


abaixo:

• Controle do patrimônio corporativo – Se os recursos de rede não forem controlados


com eficiência, eles não fornecerão os resultados solicitados pela administração.
• Controle da complexidade – Com o crescimento maciço do número de componentes,
usuários, interfaces, protocolos e fornecedores de serviços de rede, a perda de
controle da rede e de seus recursos ameaça o gerenciamento.
• Serviço aprimorado – Os usuários esperam que o nível do serviço seja mantido ou
melhorado com o crescimento da rede e a maior distribuição dos recursos.
• Equilíbrio de várias necessidades – Os usuários devem receber vários aplicativos
em um determinado nível de suporte, com solicitações específicas nas áreas de
desempenho, disponibilidade e segurança.
• Redução do tempo de inatividade – Garantir a alta disponibilidade de recursos,
através de um projeto redundante adequado.
• Controle de custos – Monitorar e controlar a utilização de recursos, para que as
necessidades dos usuários possam ser atendidas a um custo razoável.

Alguns termos básicos de gerenciamento de rede são apresentados na Figura.

159
6.2.2 OSI e modelo de gerenciamento de rede

A ISO (International Standards Organization) criou uma comissão para produzir um modelo de
gerenciamento de rede sob a direção do grupo OSI.

Esse modelo tem quatro partes:

• Organização
• Informação
• Comunicação
• Funcional

Essa é uma visão de gerenciamento de rede de cima para baixo, dividida em quatro
submodelos e reconhecida pelo padrão OSI.

O modelo de Organização descreve os componentes do gerenciamento de rede como, por


exemplo, gerente, agente, etc. e sua relação. A organização desses componentes leva a
diferentes tipos de arquitetura, que serão discutidos adiante.

O modelo de Informação trata da estrutura e do armazenamento de informações de


gerenciamento de rede.

160
Essas informações ficam armazenadas em um banco de dados chamado de MIB (management
information base, base de informações de gerenciamento). A ISO definiu a SMI (structure of
management information, estrutura das informações de gerenciamento) para definir a sintaxe e
a semântica das informações de gerenciamento armazenadas na MIB. As MIBs e a SMI serão
abordadas mais profundamente adiante.

O modelo de Comunicação refere-se ao modo como os dados de gerenciamento são


comunicados entre o agente e o processo de gerenciamento.

Ele trata do protocolo de transporte, do protocolo de aplicação e de comandos e respostas


entre os pontos.

O modelo Funcional lida com os aplicativos de gerenciamento de rede residentes na Estação


de Gerenciamento de rede.

O modelo de gerenciamento de rede OSI classifica cinco áreas de funcionamento, às vezes


chamadas de modelo FCAPS:

• Falha
• Configuração
• Contabilidade
• Desempenho
• Segurança

Esse modelo de gerenciamento de rede ganhou ampla aceitação por parte dos fabricantes
como um modo útil de descrever os requisitos de qualquer sistema de gerenciamento de rede.

161
6.2.3 Padrões SNMP e CMIP

Para permitir a interoperabilidade do gerenciamento em muitas plataformas de rede diferentes,


são necessários padrões de gerenciamento de rede para que os fabricantes possam
implementar e aderir a esses padrões. Surgiram dois padrões principais:

• Simple Network Management Protocol – comunidade IETF


• Common Management Information Protocol – Comunidade de telecomunicações

O SNMP refere-se, na verdade, a um conjunto de padrões para gerenciamento de rede,


incluindo um protocolo, uma especificação de estrutura de banco de dados e um conjunto de
objetos de dados. O SNMP foi adotado como padrão para internets TCP/IP em 1989 e tornou-
se muito popular. Uma atualização, conhecida como SNMP versão 2c (SNMPv2c), foi adotada
em 1993. O SNMPv2c fornece suporte para estratégias de gerenciamento de rede
centralizadas e distribuídas e incluiu aprimoramentos na SMI (structure of management
information, estrutura das informações de gerenciamento), nas operações do protocolo, na
arquitetura de gerenciamento e na segurança. Ele foi criado para ser executado em redes
baseadas em OSI e também em TCP/IP. Desde então, o SNMPv3 foi liberado. Para solucionar
as deficiências de segurança do SNMPv1 e do SNMPv2c, o SNMPv3 fornece acesso seguro
às MIBs via autenticação e criptografia de pacotes através da rede. O CMIP é um protocolo de
gerenciamento de rede OSI criado e padronizado pela ISO, para o monitoramento e controle de
redes heterogêneas.

6.2.4 Operação do SNMP

O SNMP é um protocolo de camada de aplicação criado para facilitar a troca de informações


de gerenciamento entre dispositivos de rede. Usando o SNMP para acessar dados de
informação de gerenciamento tais como pacotes por segundo enviados em uma interface ou
número de conexões TCP abertas, os administradores de rede podem administrar mais
facilmente o desempenho da rede para localizar e solucionar problemas ali existentes.

Hoje, o SNMP é o protocolo mais popular para o gerenciamento de diversas internetworks


comerciais, universitárias e de pesquisa.

A atividade de padronização é contínua, à medida que os fabricantes desenvolvem e lançam a


última palavra em aplicativos de gerenciamento baseados em SNMP. O SNMP é um protocolo
simples, embora seu conjunto de recursos seja suficientemente potente para lidar com os
difíceis problemas que envolvem o gerenciamento de redes heterogêneas.

O modelo organizacional para o gerenciamento de redes baseado em SNMP inclui quatro


elementos:

162
• Estação de gerenciamento
• Agente de gerenciamento
• Base de informações de gerenciamento
• Protocolo de gerenciamento de rede

A Estação de Gerenciamento de rede normalmente é uma estação de trabalho isolada, mas ela
pode ser implementada em vários sistemas. Isso inclui um conjunto de software chamado de
Aplicativo de Gerenciamento de rede. O Aplicativo de Gerenciamento de rede inclui uma
interface do usuário para permitir que os gerentes de rede autorizados gerenciem a rede. Ele
responde aos comandos dos usuário e a comandos enviados para gerenciar agentes em toda
a rede. Os agentes de gerenciamento são plataformas e dispositivos-chave de rede, outros
hosts, roteadores, pontes e hubs, equipados com SNMP para que possam ser gerenciados.
Eles respondem a solicitações de informações e de ações da Estação de Gerenciamento de
rede como, por exemplo, pesquisa, e podem fornecer à Estação de Gerenciamento de rede
informações importantes mas não solicitadas como, por exemplo, armadilhas. Todas as
informações de gerenciamento de um agente específico são armazenadas na base de
informações de gerenciamento, na área destinada a esse agente. Um agente pode controlar os
seguintes itens:

• Número e estado de seus circuitos virtuais


• Número de determinados tipos de mensagens de erro recebidas
• Número de bytes e de pacotes recebidos e enviados no dispositivo
• Tamanho máximo da fila de saída, para roteadores e outros dispositivos de
internetworking
• Mensagens de broadcast enviadas e recebidas
• Ativação e desativação de interfaces de rede

A Estação de Gerenciamento de rede executa uma função de monitoramento, recuperando os


valores da MIB. Ela pode fazer com que uma ação seja executada em um agente. A
comunicação entre o gerenciador e o agente é feita por um protocolo de gerenciamento de
rede da camada de aplicação. O SNMP usa UDP (User Datagram Protocol, protocolo de
datagrama de usuário) e comunica-se através das portas 161 e 162. Ele baseia-se na troca de
mensagens. Há três tipos de mensagens comuns:

• Get (obter) – Permite que a estação de gerenciamento recupere o valor de objetos


MIB do agente.
• Set (definir) – Permite que a estação de gerenciamento defina o valor de objetos MIB
do agente.
• Trap (amadilha) – Permite que o agente notifique a estação de gerenciamento sobre
eventos significativos.

Esse modelo é chamado de modelo de duas camadas.

163
Entretanto, ele presume que todos os elementos de rede sejam gerenciáveis pelo SNMP. Isso
nem sempre ocorre, pois alguns dispositivos têm uma interface de gerenciamento proprietária.
Nesses casos, é necessário um modelo de três camadas.

Um gerente de rede que queira obter informações ou controlar esse nó proprietário comunica-
se com um agente proxy. O agente proxy traduz a solicitação SNMP do gerente para uma
forma apropriada ao sistema de destino e usa um protocolo de gerenciamento proprietário
apropriado para comunicar-se com o sistema de destino. As respostas do destino ao proxy são
traduzidas para mensagens SNMP e comunicadas de volta ao gerente.

Os aplicativos de gerenciamento de rede freqüentemente delegam alguma funcionalidade de


gerenciamento de rede em uma sonda de um RMON (remote monitor, monitor remoto). A
sonda RMON coleta informações de gerenciamento localmente e o gerente de rede recupera
periodicamente um resumo desses dados.

A Estação de Gerenciamento de rede é uma estação de trabalho comum, que executa um


sistema operacional típico.

164
Ela tem uma grande quantidade de RAM, para manter todos os aplicativos de gerenciamento
em execução ao mesmo tempo. O gerenciador executa uma pilha de protocolos de rede típica
como, por exemplo, TCP/IP. Os aplicativos de gerenciamento de rede baseiam-se no sistema
operacional do host e na arquitetura de comunicação. Exemplos de aplicativos de
gerenciamento de rede são o Ciscoworks2000, o HP Openview e o SNMPv2c.

Como já foi discutido, o gerenciador pode ser uma estação de trabalho isolada, centralizada,
que envia consultas a todos os agentes, independentemente da sua localização.

165
Em uma rede distribuída, uma arquitetura descentralizada é mais apropriada, com uma
Estação de Gerenciamento de rede local em cada ponto. Essa Estação de Gerenciamento de
rede pode atuar em uma arquitetura cliente-servidor, na qual uma Estação de Gerenciamento
de rede atua como servidor principal e as outras, como clientes. Os clientes enviam seus dados
ao servidor principal para armazenamento centralizado.

Uma alternativa é que todas as Estações de Gerenciamento de rede distribuídas tenham igual
responsabilidade, cada uma com seus próprios bancos de dados de gerenciamento, para que
as informações de gerenciamento sejam distribuídas nas Estações de Gerenciamento de rede
correspondentes.

166
6.2.5 Estrutura de informações de gerenciamento e de MIBs

Uma MIB é usada para armazenar as informações estruturadas que representam elementos de
rede e seus atributos. A estrutura propriamente dita é definida em um padrão chamado SMI,
que define os tipos de dados que podem ser usados para armazenar um objeto, como esses
objetos são chamados e como são codificados para transmissão em uma rede.

As MIBs são depósitos altamente estruturados de informações sobre um dispositivo. Há muitas


MIBs padrão, mas há mais MIBs proprietárias para gerenciar exclusivamente os dispositivos de
diferentes fabricantes. A SMI MIB original foi classificada em oito grupos diferentes, totalizando
114 objetos gerenciados. Mais grupos foram acrescentados para definir a MIB-II, que hoje
substitui a MIB-I.

Todos os objetos gerenciados no ambiente SNMP são organizados em uma estrutura


hierárquica ou de árvore. Os objetos-folha da árvore, que são os elementos que aparecem na
parte inferior do diagrama, são os objetos gerenciados. Cada objeto gerenciado representa
algum recurso, atividade ou informação relacionada que deve ser gerenciada. Um identificador
de objetos exclusivo, que é um número em notação de pontos, identifica cada objeto de
gerenciamento. Cada identificador de objeto é descrito com o uso de ASN.1 (abstract syntax
notation, notação de sintaxe abstrata).

167
O SNMP usa esses identificadores de objetos para identificar as variáveis MIB a recuperar ou
modificar. Os objetos que se encontram no domínio público são descritos em MIBs introduzidas
nas RFCs (Request for Comments, solicitação de comentários). Eles são facilmente
accessíveis no endereço: http://www.ietf.org

Todos os fabricantes são incentivados a divulgar suas definições de MIB. Uma vez atribuído
um valor corporativo, o fabricante será responsável por criar e manter subárvores.

6.2.6 Protocolo SNMP

O agente é uma função de software incorporada na maioria dos dispositivos conectados em


rede como, por exemplo, roteadores, switches, hubs gerenciados, impressoras e servidores.

168
Ele é responsável por processar solicitações SNMP do gerente. É responsável também pela
execução de rotinas que mantêm variáveis conforme definidas nas várias MIBs suportadas.

A interação entre o gerenciador e o agente é facilitada pelo SNMP. O termo "simples" vem do
número restrito de tipos de mensagens que integram a especificação de protocolo inicial. A
estratégia foi criada para facilitar aos desenvolvedores a construção de recursos de
gerenciamento em dispositivos de rede. A especificação de protocolo inicial é chamada de
SNMPv1 (versão 1).

Há três tipos de mensagens SNMP enviadas em nome de uma Estação de Gerenciamento de


rede. São eles: GetRequest, GetNextRequest e SetRequest.

Todas as três mensagens são confirmadas pelo agente na forma de uma mensagem
GetResponse. Um agente podem enviar uma mensagem de Armadilha em resposta a um
evento que afete a MIB e os recursos subjacentes.

O desenvolvimento do SNMPv2c enfocou as limitações do SNMPv1. Os aprimoramentos mais


perceptíveis foram a introdução do tipo de mensagem GetBulkRequest e a adição de
contadores de 64 bits à MIB. A recuperação de informações com o GetRequest e o
GetNextRequest foi um método ineficiente de coletar informações. Apenas uma variável por
vez poderia ser solicitada com o SNMPv1. O GetBulkRequest ataca essa deficiência,
recebendo mais informações com uma única solicitação. Em segundo lugar, os contadores de
64 bits atacaram o problema do rollover muito rápido, especialmente com links de velocidade
mais alta como, por exemplo, o Gigabit Ethernet.

A entidade de gerenciamento também é chamada de gerenciador ou Estação de


Gerenciamento de rede.

169
Ela é responsável por solicitar informações do agente. As solicitações baseiam-se em outras
solicitações muito específicas. O gerenciador processa as informações recuperadas de
diversas formas. As informações recuperadas podem ser registradas para análise posterior,
exibidas com o uso de um utilitário gráfico ou comparadas com valores pré-configurados para
testar se condições específicas foram atendidas.

Nem todas as funções do gerenciador baseiam-se na recuperação de dados. Há também a


capacidade de usar alterações de um valor no dispositivo gerenciado. Esse recurso permite
que um administrador configure um dispositivo gerenciado usando SNMP.

A interação entre o gerenciador e o dispositivo gerenciado introduz tráfego na rede. Deve-se ter
cautela ao introduzir gerenciadores na rede. Estratégias agressivas de monitoramento podem
afetar negativamente o desempenho da rede. As utilizações de largura de banda aumentarão,
o que pode ser um problema para ambientes de WAN. Além disso, o monitoramento tem um
impacto sobre o desempenho dos dispositivos que estão sendo monitorados, pois eles são
solicitados a processar as solicitações do gerenciador. Este processamento não deve ter
precedência sobre os serviços de produção.

Uma regra geral é que um volume mínimo de informações deve ser pesquisado com a menor
freqüência possível. Determine que dispositivos e links são mais críticos e que tipos de dados
são solicitados.

O SNMP usa UDP (user diagram protocol, protocolo de diagrama de usuário) como protocolo
de transporte. Como o UDP é sem conexão e não confiável, é possível que o SNMP perca
mensagens. O SNMP em si não garante a entrega; assim, é opção do aplicativo que o utiliza
enfrentar o problema das mensagens perdidas.

Cada mensagem SNMP contém uma string em texto claro, chamada de community string. A
community string é usada como senha para restringir o acesso a dispositivos gerenciados.

O SNMPv3 atacou os problemas de segurança surgidos com a transmissão da community


string em texto claro.

170
Um exemplo da aparência da mensagem SNMPv2c é ilustrado na Figura.

Uma apresentação detalhada do protocolo pode ser encontrada no padrão de Internet


RFC1905.

O fato de a community string estar em texto claro não surpreende ninguém que tenha estudado
o conjunto de protocolos IP (Internet Protocol, protocolo de internet). Todos os campos
especificados no conjunto de protocolos estão em texto claro, com exceção das especificações
de autenticação de segurança e de criptografia.

A community string foi essencialmente um espaço reservado de segurança até que o grupo de
trabalho do SNMPv2 pudesse ratificar os mecanismos de segurança. Os esforços foram
deferidos para o grupo de trabalho do SNMPv3. Todos os aplicativos de gerenciamento
baseados em SNMP precisam ser configurados para usar as seqüências de caracteres de
comunidade. Algumas organizações freqüentemente alteram os valores das seqüências de
caracteres de comunidade para reduzir o risco de atividade maliciosa gerada com o uso não
autorizado do serviço SNMP.

Apesar da deficiência associada à autenticação baseada em comunidade, as estratégias de


gerenciamento ainda se baseiam em SNMPv1. Os dispositivos Cisco suportam tipos de
mensagens SNMPv3 e os recursos de maior capacidade de segurança, mas a maioria dos
aplicativos de software de gerenciamento não suporta o SNMPv3.

171
O SNMPv3 suporta a existência simultânea de vários modelos de segurança.

172
6.2.7 Configuração do SNMP

Para que a Estação de Gerenciamento de rede possa comunicar-se com dispositivos


conectados em rede, o dispositivo deverá ter SNMP ativado e as seqüências de caracteres de
comunidade SNMP configuradas. Esses dispositivos são configurados com o uso da sintaxe de
linha de comando descrita nos parágrafos abaixo.

Mais de uma seqüência de caracteres apenas de leitura é suportada. O padrão na maioria dos
sistemas para esta community string é público. Não é aconselhável usar o valor padrão em
redes corporativas. Para definir a community string apenas de leitura usada pelo agente, use o
comando a seguir:

Router(config)#snmp-server communitystringro

• String – Community string que funciona como senha e permite acesso ao protocolo
SNMP
• ro – (Opcional) Especifica acesso apenas de leitura. As estações de gerenciamento
autorizadas podem apenas recuperar objetos MIB.

Mais de uma seqüência de caracteres de leitura-gravação é suportada. Todos os objetos


SNMP estão disponíveis para acesso de gravação. O padrão na maioria dos sistemas para
esta community string é privado. Não é aconselhável usar este valor padrão em uma rede
corporativa. Para definir a community string de leitura e gravação usada pelo agente, use o
comando a seguir:

Router(config)#snmp-server communitystringrw

• rw – (Opcional) Especifica acesso de leitura e gravação. As estações de


gerenciamento autorizadas podem recuperar e modificar objetos MIB

Há várias seqüências de caracteres que podem ser usadas para especificar a localização do
dispositivo gerenciado e o contato principal do sistema para o dispositivo.

Router(config)#snmp-server locationtext Router(config)#snmp-server


contacttext

• text– Seqüência de caracteres que descreve informações de localização do sistema

Esses valores são armazenados nos objetos MIB sysLocation e sysContact.

173
6.2.8 RMON

O RMON é um importante avanço no gerenciamento de internetworks. Ele define um MIB de


monitoramento remoto que complementa o MIB-II e oferece ao gerente da rede informações
vitais sobre a rede. A característica marcante do RMON é que, embora seja simplesmente uma
especificação de um MIB, sem alterações no protocolo SNMP subjacente, ele proporciona uma
expansão significativa na funcionalidade SNMP.

Com o MIB-II, o gerente da rede pode obter informações puramente locais dos dispositivos
individuais.Considere uma rede local com diversos dispositivos, cada um com um agente
SNMP. Um gerenciador SNMP pode memorizar o volume de tráfego de entrada e de saída de
cada dispositivo mas, com o MIB-II, ele não pode memorizar facilmente o tráfego de toda a
rede local.

O gerenciamento de rede em um ambiente de internetwork normalmente exige um monitor por


sub-rede.

O padrão RMON originalmente criado como IETF RFC 1271, hoje RFC 1757, foi projetado para
prover monitoramento e diagnóstico proativos para redes locais distribuídas. Os dispositivos de
gerenciamento, chamados de agentes ou sondas, permitem que, em segmentos críticos de
rede, sejam criados alarmes definidos pelo usuário e que seja reunido um grande número de
estatísticas vitais através da análise de todos os quadros de um segmento.

174
O padrão RMON divide as funções de monitoramento em nove grupos para suportar topologias
Ethernet e adiciona um décimo grupo no RFC 1513 para parâmetros exclusivos de TokenRing.
O padrão RMON foi elaborado para ser implementado como uma arquitetura de computação
distribuída, em que os agentes e sondas comunicam-se com uma estação de gerenciamento
central, um cliente, usando SNMP. Esses agentes definiram estruturas SNMP MIB para todos
os nove ou dez grupos RMON Ethernet ou TokenRing, permitindo a interoperabilidade entre
fabricantes de ferramentas de diagnóstico baseadas em RMON. Os grupos RMON são
definidos como:

• Grupo Estatísticas – Mantém estatísticas de utilização e erro para a sub-rede ou


segmento que está sendo monitorado. Exemplos são a utilização de largura de banda,
broadcast, multicast, alinhamento CRC, fragmentos, etc.
• Grupo Histórico – Mantém amostras estatísticas periódicas com base no grupo de
estatísticas e os armazena para recuperação posterior. Exemplos são a utilização e a
contagem de erros e de pacotes.
• Grupo Alarmes – Permite que o administrador defina um intervalo de amostragem e o
limite para cada item registrado pelo agente. Exemplos são valores absolutos ou
relativos e limites ascendentes ou descendentes.
• Grupo Hosts – Define a medição de vários tipos de tráfego para e dos hosts
conectados à rede. Exemplos são pacotes e bytes enviados ou recebidos, erros e
pacotes de broadcast e de multicast.
• Grupo Hosts TopN – Fornece um relatório de hosts TopN com base nas estatísticas
de grupos de hosts.
• Grupo Matriz de Tráfego – Armazena estatísticas de erro e de utilização para pares
de nós de comunicação da rede. Exemplos são os erros, bytes e pacotes.
• Grupo Filtros – Um mecanismo de filtro que gera um fluxo de pacotes de quadros que
correspondem ao padrão especificado pelo usuário.
• Grupo Captura de pacotes – Define como os pacotes que atendem aos critérios do
filtro são armazenados internamente.
• Grupo Eventos – Permite o registro de eventos, também chamados de armadilhas
geradas, juntamente com data e hora, para o gerente. Exemplos são os relatórios
personalizados com base no tipo de alarme.

6.2.9 Syslog

O utilitário de registro syslog da Cisco baseia-se no utilitário syslog da UNIX. Os eventos do


sistema são normalmente registrados no console do sistema, a menos que este esteja
desativado. O utilitário syslog é um mecanismo para que aplicativos, processos e o sistema
operacional de dispositivos Cisco relatem atividades e condições de erro. O protocolo syslog é
usado para permitir que os dispositivos Cisco enviem essas mensagens não solicitadas a uma
estação de gerenciamento de rede.

Todas as mensagens do syslog registradas são associadas a uma mensagem de timestamp,


de instalação, de gravidade e de registro textual. Essas mensagens são, às vezes, o único
meio para se obter subsídios sobre problemas de comportamento de algum dispositivo.

175
O nível de gravidade indica a natureza crítica da mensagem de erro. Há oito níveis de
gravidade: 0-7, sendo o nível 0 (zero) o mais crítico e o nível 7, o menos crítico. Os níveis são:

0 Emergências
1 Alertas
2 Críticos
3 Erros
4 Avisos
5 Notificações
6 Informativo
7 Depuração

Os campos de instalação e de nível de gravidade são usados para o processamento de


mensagens. Os níveis de 0 (zero) a 7 são tipos de instalação fornecidos para o processamento
de mensagens de registro do cliente. O Cisco IOS adota como padrão o nível de gravidade 6.
Esta definição é configurável.

Para que a Estação de Gerenciamento de rede receba e registre mensagens do sistema de um


dispositivo, esse dispositivo deve ter o syslog configurado.

Veja abaixo uma revisão da sintaxe de linha de comando relativa à configuração desses
dispositivos.

176
Para permitir o registro em todos os destinos suportados:

Router(config)#logging on

Para enviar mensagens de registro a um host do servidor syslog como, por exemplo, o
CiscoWorks2000:

Router(config)#logginghostname | ip address

Para definir o nível de gravidade como 6 (Informativo):

Router(config)#logging trap informational

Para incluir timestamp com mensagem do syslog:

Router(config)#service timestamps log datetime

Resumo

Devem ter sido compreendidos os importantes conceitos a seguir:

• As funções de uma estação de trabalho e de um servidor


• As funções de vários equipamentos em um ambiente cliente/servidor
• O desenvolvimento de Sistema Operacionais de Rede
• Uma visão geral das várias plataformas Windows
• Uma visão geral das alternativas aos sistemas operacionais Windows
• Motivos para o gerenciamento de rede
• As camadas do modelo OSI e de gerenciamento de rede
• O tipo e a aplicação de ferramentas de gerenciamento de rede
• A função desempenhada pelo SNMP e pelo CMIP no monitoramento de rede
• Como o software de gerenciamento coleta informações e registra problemas
• Como reunir relatórios sobre o desempenho de rede

177
Estudo de Caso: WANs

Este estudo de caso permitirá construir e configurar uma rede complexa utilizando as técnicas
obtidas através do curso.

178

You might also like