You are on page 1of 284

Metodologa Top Down

Marcos Huerta S.
18
METODOLOGIA DE DISEO DE RED TOP DOWN
Historia de la Metodologa TOP DOWN
El diseo de red top-down es una disciplina que creci del xito de la programacin
de software estructurado y el anlisis de sistemas estructurados. El objetivo principal
del anlisis de sistemas estructurado es representar ms exacto las necesidades de
los usuarios, que a menudo son lamentablemente ignoradas. Otro objetivo es hacer
el proyecto manejable dividindolo en mdulos que pueden ser ms fcil de
mantener y cambiar.

El diseo de red top-down es una metodologa para disear redes que comienza en
las capas superiores del modelo de referencia de OSI antes de mover a las capas
inferiores. Esto se concentra en aplicaciones, sesiones, y transporte de datos antes
de la seleccin de routers, switches, y medios que funcionan en las capas inferiores.

El proceso de diseo de red top-down incluye exploracin divisional y estructuras
de grupo para encontrar la gente para quien la red proporcionar servicios y de
quien usted debera conseguir la informacin valiosa para hacer que el diseo tenga
xito.

El diseo de red top-down es tambin iterativo. Para evitar ser atascado en detalles
demasiado rpido, es importante conseguir primero una vista total de los
requerimientos de un cliente. Ms tarde, ms detalle puede ser juntado en
comportamiento de protocolo, exigencias de escalabilidad, preferencias de
tecnologa, etctera. El diseo de red top-down reconoce que el modelo lgico y el
diseo fsico pueden cambiarse cuando ms informacin es juntada.

Como la metodologa top-down es iterativa, un acercamiento top-down deja a un
diseador de red ponerse "en un cuadro grande" primero y luego moverse en
espiral hacia abajo segun exigencias tcnicas detalladas y especificaciones.

Los Sistemas de Cisco recomiendan un acercamiento modular con su modelo
jerrquico de tres capas. Este modelo divide redes en nucleo, distribucin, y capas
de acceso. La Arquitectura Segura de Cisco para Empresas (SAFE) y compuesto de
un Modelo de Red de Empresa, son tambin aproximaciones modulares para el
diseo de la red.

Con un acercamiento estructurado diseamos la red, cada mdulo es diseado por
separado, an con relacin a otros mdulos. Todos los mdulos son diseados
usando un acercamiento top-down que se concentra en los requerimientos,
Metodologa Top Down

Marcos Huerta S.
19
aplicaciones, y una estructura lgica antes de la seleccin de dispositivos fsicos y
productos que se implementara en el diseo.

Fase I: Identificando objetivos y necesidades del cliente
Parte 1. Anlisis de los objetivos y limitaciones del negocio
Los objetivos y limitaciones incluyen la capacidad de correr las aplicaciones de red
que reune los objetivos comerciales corporativos, y la necesidad de trabajar dentro
de restricciones comerciales, como paquete, personal limitado que esta conectado a
una red, y mrgenes de tiempo cortos.

El comprender los objetivos comerciales y sus restricciones de sus clientes es un
aspecto crtico del diseo de red. Armado con un anlisis cuidadoso de los objetivos
comerciales de su cliente, usted puede proponer un diseo de red que contara con
la aprobacin de su cliente.

El entendimiento de la estructura corporativa tambin le ayudar a reconocer la
jerarqua de direccin. Uno de sus primeros objetivos en las etapas tempranas del
diseo de un proyecto de red debe determinar quines son los funcionarios con
poder de decisin. Quin tendr las autoridades para aceptar o rechazar su
propuesta de diseo de red?

Adems del anlisis de objetivos comerciales y determinacin de la necesidad de su
cliente de apoyar aplicaciones nuevas y existentes, es importante analizar cualquier
restriccin comercial que afectar su diseo de red.

Si usted tiene en mente cambios de estrategias comerciales y gestin de redes de
empresa discutido en las secciones anteriores, se hace posible poner una lista de
los objetivos comerciales en el diseo de alguna red tpica:
Aumento de ingresos y ganancia.
Aumento de Cuota de mercado.
Expansin de nuevos mercados.
Aumente ventajas competitivas sobre compaas en el mismo mercado.
Reduzca gastos.
Aumente la productividad de empleado.
Acorte ciclos de desarrollo de producto.
Use la fabricacin justo a tiempo.
Plan alrededor de escaseces componentes.
Ofrezca nuevos servicios de cliente.
Ofrezca el mejor soporte de cliente.
Metodologa Top Down

Marcos Huerta S.
20
Abra la red a componentes claves (perspectivas, inversionistas, clientes, socios de
negocio, proveedores, y empleados).
Construya relaciones y accesibilidad de informacin a un nuevo nivel, como una
base para un modelo organizacional de red.
Evite la interrupcin comercial causada por problemas de seguridad de red.
Evite la interrupcin comercial causada por desastres naturales y poco naturales.
Modernice tecnologas anticuadas.
Reduzca los gastos de telecomunicaciones y red , incluso elevado asociado con
redes separadas para voz, datos, y vdeo

Parte 2. Anlisis de los objetivos y limitaciones tcnicas
En este parte trata de dar algunos alcances para analizar las metas tcnicas de los
clientes para implementar una nueva red o actualizar una existente. Conociendo las
metas tcnicas de nuestros clientes podremos recomendar nuevas tecnologas que al
implementarlas cumplan con sus expectativas.

Los tpicos objetivos tcnicos son adaptabilidad, disponibilidad, funcionalidad, seguridad,
manejabilidad, utilidad, adaptabilidad, y factibilidad.

Uno de los principales objetivos de este capitulo es poder conversar con sus clientes en
trminos que ambos puedan entender.

Escalabilidad
La escalabilidad se refiere de cuanto es capaz de dar soporte al crecimiento del diseo
de la red. Uno de los principales objetivos para muchas empresas es que su red sea
altamente escalable, especialmente las empresas grandes que normalmente tienen un
crecimiento rpido tanto en usuarios, aplicaciones y conexiones de red. El diseo de red
que usted propone a un cliente debera ser capaz de adaptarse a aumentos del uso de
red y el alcance.

Disponibilidad
La disponibilidad se refiere a todo el tiempo que una red est disponible a usuarios y es
a menudo una meta difcil de alcanzar para los que disean la red, sta puede ser
expresada en porcentajes por ao, mes, semana, da u hora comparado con tiempo total
del periodo.

La palabra disponibilidad puede ser mal entendida por los usuarios para lo que se debe
ser muy cuidadoso en explicar en que consiste la disponibilidad de la red para ello se
puede usar la palabra fiabilidad que se refiere a varios factores, como la exactitud,
Metodologa Top Down

Marcos Huerta S.
21
rangos de error, estabilidad, y la cantidad de tiempo entre fracasos lo que refleja la
disponibilidad de la red.

Disponibilidad tambin lo asocian con la redundancia que no es un objetivo para el
diseo de red, mas bien es una solucin, se refiere que se duplica los enlaces a la red
para reducir tiempos lo que permite continuidad despus de fallas o desastres.

Disponibilidad esta asociada tambin con la resistencia que significa cuanto estrs
puede manejar la red con rapidez, que la red pueda manejar los problemas incluyendo
los de seguridad, brechas, desastres naturales y no naturales, errores humanos, fallas
del hardware o software.

Performance
Cuando se analiza los requerimientos tcnicos para el diseo de la red, se puede
convencer a los clientes para aceptar la performance de la red, incluyendo rendimiento,
exactitud, eficacia, tardanza, y tiempo de respuesta.

Analizar el estado actual de la red puede ayudar a ver que cambios se podran realizar
para que mejore la performance de la red. Las metas de la performance de la red estn
bastante ligada con las metas de la escalabilidad.

Seguridad
El diseo de la seguridad es uno de los aspectos ms importantes en el diseo de red
empresarial. Al incrementar las amenazas tanto dentro como fuera de la red de la
empresa se debe tener reglas y tecnologas de seguridad actualizadas e incorruptibles.
Las metas ms deseadas de muchas empresas es que los problemas de seguridad no
afecten a la habilidad de conducir los negocios de la empresa, osea que si se presentara
algn tipo de problema la empresa debe ser capaz de seguir con sus actividades
normales.

La primera tarea para el diseo de la seguridad es planificar. Lo que significa que
debemos reconocer las partes ms vulnerables de la red, analizando los riesgos y
encontrando requerimientos.

Como es el caso de la mayora de las exigencias tcnicas de diseo, alcanzando
objetivos de seguridad significa hacer compensaciones. Las puestas en prctica de
seguridad pueden aumentar el costo de despliegue y funcionamiento de la red, tambin
puede afectar la productividad de usuarios, sobre todo si se dificulta el modo de trabajo
para proteger recursos y datos. La Seguridad tambin puede afectar la redundancia del
diseo de red por ejemplo si el trfico pasa por dispositivos de cifrado.
Metodologa Top Down

Marcos Huerta S.
22
Manejabilidad (Administracin)
Cada cliente tiene objetivos y una forma de administrar la red diferente. Algunos clientes
tienen metas claras de cmo administrar la red y otras metas menos especficas. Si su
cliente tiene proyectos definidos, debe asegurarse que se documenten, porque usted
tendr que referirse a los proyectos seleccionando el equipo. En algunos casos, el
equipo tiene que ser excluido porque esto no soporta la administracin de funciones que
el cliente requiere.

La administracin de la red debe ser simplificada. Simplificarlos en paquetes de
funciones de administracin se entienden fcilmente y usados por administradores de
red. Durante la reunin de inicial de exigencias tcnicas para el diseo o actualizacin
de una red, se puede usar la terminologa ISO para simplificar la discusin de las metas
de los administradores de red con sus clientes, de la siguiente manera:

Administracin de funcionamiento. Analizar el trfico y el comportamiento de
aplicacin para optimizar una red, quedar en acuerdos de nivel de servicio, y el plan
para la extensin
Administracin de defecto. Descubrir, aislar y corregir de problemas; reportando los
problemas a usuarios finales y gerentes.
Administracin de configuracin. Control, funcionamiento, identificacin, y recolectar
datos de dispositivos de administracin
Administracin de Seguridad. Supervisin y pruebas de seguridad y poltica de
proteccin, manteniendo y distribuyendo contraseas y otra autenticacin e
informacin de autorizacin, llaves de cifrado directivas, y adhesin de revisin a
poltica de seguridad.
Administracin de la contabilidad. Contabilizar el uso de la red para asignar gastos
para conectar una red a usuarios y/o plan para cambios de exigencias de capacidad

Parte 3. Graficando la Red Existente
Esto se basa en una ejecucin en un mapa de una red y aprendiendo la localizacin de
la mayora de los dispositivos y segmentos en el trabajo de la red y identificando algunos
mtodos establecidos para el direccionamiento y nombramiento y tambin archivando,
investigando los cables fsicos, reservas que son muy importante en la caracterstica de
la infraestructura de la red.

Ejecucin de un Mapa de Red
Para la mayora de los diseadores de red; la interconexin de dispositivos y segmentar
de la red es un buen camino para comenzar la compresin del flujo circulatorio.

Metodologa Top Down

Marcos Huerta S.
23
El objetivo es obtener un mapa ya implementado de la red, algunos diseos de los
clientes pueden tener mapas para un nuevo y mejor diseo de la red.

Herramientas para la Ejecucin de un Mapa de Red
Para ejecutar un mapa de la existencia de la red, deberamos invertir en una buena
herramienta de diagrama de red. Tales como:
Visio Corporations.
Visio Profesional.
Visio Profesional Ships.

Algunas compaas ofrecen esquematizar automticamente el descubrimiento de la red
existente, usando el siguiente software:
Pinpoint Softwares ClickNet Professional.
NetSuite Development.
Net Suite Advanced Professional Design.
NetSuite Professional Audit (similar ClickNet).

Que debera Incluir en un Mapa de Red?
Usando las herramientas mencionadas deber desarrollar un mapa de red en la cual
deber contener lo siguiente:
Conexiones WAN entre pases y ciudades.
Edificios y pisos, y posibilidades cuartos y casetas.
Conexiones WAN y LAN entre edificios y entre campos.
Una indicacin de la capa de datos (WAN, LANS).
El Nmero de servicios proveedor de WANS.
La localizacin de las lneas y interruptores, aunque no es necesario en el eje y
centro.
La localizacin y alcance de redes virtuales (VPNs), que conecta los servicios
de los proveedor WAN.
La localizacin de las principales estructuras.
La localizacin de las mayores estaciones de ejecucin de la red.
La localizacin y alcance de algunas LANs Virtuales (VLANs).
La topologa de algunos sistemas de seguridad Firewall.
La localizacin de algunos sistemas de dial- in y dial out.
Algunas indicaciones de donde residen algunas estaciones de trabajo, aunque
no necesariamente la localizacin explicita de cada estacin de trabajo.




Metodologa Top Down

Marcos Huerta S.
24
Caracterizando el Direccionamiento y el Nombramiento de la Red
La infraestructura lgica de la red envuelve documentar cualquier estrategia que su
cliente tiene para el direccionamiento y nombramiento de la red.
Cuando dibuje los detalles de los mapas de la red, deber incluir los sites, routers,
segmentos de la red y servicios.

Usted tiene que investigar el direccionamiento de la capa de red que usa, el esquema de
direccionamiento que usa su cliente puede influenciar en la habilidad de adaptar su
nuevo diseo de red a los objetivos, aqu definir el mejor mtodo de direccionamiento
que se pueda usar para su diseo de red. Entre los cuales tenemos:
Subnetting.
Variable Lenght Subnet Masking (VLSM).
Supernetting o Aggregations.
Summarization.
Estos mtodos se explicaran ms adelante cuando se seleccione el protocolo y
direccionamiento de red.

Caracterizando el Cableado y el Medio
Es importante comprender el cableado y la instalacin elctricos del diseo de la red con
el objetivo de identificar posibles y potenciales problemas. Si es posible usted deber
documentar el tipo de cableado que usa, la distancia ya que esta informacin ayudara a
determinar la Tecnologa de la capa de enlace basado en las restricciones de distancia.

Cuando el diseo del cableado esta en exploracin, determine cuales son los equipos y
los cables que estn etiquetado en la red existente.

Por ejemplo: la red de un edificio debera archivar las conexiones de un nmero de
cable y el tipo de instalacin que esta en uso en la red.

Probablemente la instalacin entre los edificios es unos de los sgtes:
Single mode fiber
Multi mode fiber
Shielded twisted pair (STP)
UTP categora 5
Cable coaxial
Microondas
Radiofrecuencia.
Lser
Infrarrojo

Metodologa Top Down

Marcos Huerta S.
25
Supervisando la Arquitectura Ambiental y Restricciones
Cuando esta investigando el cableado hay que poner mucha atencin en los problemas
ambientales con la posibilidad de que el cableado podra pasar muy cerca donde haya
lugares propensos a inundarse, cerca de las carreteras donde el trfico de los vehculos
podra quebrar los cables, calefacciones, etc.

Este seguro que no tenga ningn problema legal a la hora de tender un cableado, por
ejemplo al cruzar un cableado por una calle donde tenga que romper pistas.

Cuando construya preste atencin a la arquitectura si este afecta la implementacin de
su diseo, este seguro que la arquitectura puede soportar el diseo tales como:
Aire acondicionado.
Calefaccin.
Ventilacin.
Proteccin de interferencias electromagnticas.
Puertas que no estn cerradas, etc.

Supervisando el buen Funcionamiento de la Red existente
Estudiar el performance de una red existente te da una lnea bsica dimensional para
poder medir y compara el performance del nuevo diseo de red propuesto el cual le
ayudara a demostrar a su cliente cuan mejor es su diseo en performance una vez
implementado.

Si la red es muy grande para estudiar todos sus segmentos, preste mayor atencin en
la red de backbone antigua y las nuevas reas que se conectan as como redes que se
integran al backbone.

Por ejemplo capturar la circulacin la red con un analizador de protocolo como parte de
tu anlisis de la lnea bsica, podra identificar cuales de los protocolos estn realmente
trabajando en la red y no contar con la creencia de los clientes (ethereal).

Analizando la Performance precisa de la Red
Poder identificar la performance precisa de una red no es tarea fcil. Una de las tareas
es seleccionar el tiempo para hacer estos anlisis para poder determinar el momento
exacto para poder realizarlo y determinar los problemas que presenta la red durante los
periodos altos de trfico, etc.

Los problemas de la red no son usualmente causados por los envos de malas
estructuras de tramas. En el caso token ring (La red Token-Ring es una implementacin
del standard IEEE 802.5, en el cual se distingue ms por su mtodo de transmitir la
Metodologa Top Down

Marcos Huerta S.
26
informacin que por la forma en que se conectan las computadoras., el problema
usualmente esta por estacin y problema de cable, en el caso de ethernet, es un difcil
precisar la causa del problema.

Algunos clientes no reconocen el valor de estudiar las redes existentes antes del diseo
y la implementacin. Los clientes generalmente se avocan por un diseo rpido por lo
cual puede hacer difcil poder dar marcha atrs y insistir en tiempo para desarrollar la
performance precisa de la red existente. Un buen entendimiento de los objetivos
tcnicos y de negocio del cliente pueden ayudar a decidir que cantidad de trfico deber
analizar en la red.

Analizando la Disponibilidad de la Red
Para documentar caractersticas de disponibilidad de la red existente, junte cualquier
estadstica que el cliente tiene durante el tiempo medio entre fallas (MTBF) y tiempo
medio de reparacin (MTTR) para las redes en conjunto as como segmentos de red
principales. Compare estas estadsticas con la informacin en la que usted se ha
juntado en MTBF y objetivos MTTR, Espera el cliente que su nuevo diseo aumente
MTBF y disminuya MTTR? Son los objetivos del cliente consideracin realista del
estado corriente de la red?

Dirjase a los ingenieros de red y tcnicos sobre las causas de los perodos ms
recientes y ms perjudiciales del tiempo de indisponibilidad.

Interpretando como un investigador forense, trate de conseguir muchos lados a la
historia. A veces los mitos se desarrollan sobre lo que caus una interrupcin de red.
(Usted puede conseguir por lo general una vista ms exacta de causas de problema de
ingenieros y tcnicos que de usuarios y gerentes.)
Puede usar esta Tabla Nro. 01 para documentar.

Tabla Nro. 01 Caracterizar la Disponibilidad de la Red




Metodologa Top Down

Marcos Huerta S.
27
Analizando la Utilizacin de la Red
Utilizacin de red es una medida de cuanta ancho de banda est en el uso durante un
intervalo de tiempo especfico. La utilizacin es comnmente especificada como un
porcentaje de capacidad. Si un instrumento que supervisa la red dice que la utilizacin
de red en un segmento de Fast Ethernet es el 70%, por ejemplo, este significa que el
70% de la capacidad 100-Mbps est en el uso, hecho un promedio sobre un margen de
tiempo especificado o ventana.

Diferentes instrumentos usan diferente promedio de ventanas para calcular la utilizacin
de red. Algunos instrumentos dejan al usuario cambiar la ventana. La utilizacin de un
intervalo largo puede ser til para reducir la cantidad de datos estadsticos que deben
ser analizados, pero la granularidad es sacrificada.

Figura Nro. 09. Analizando la Utilizacin de la Red

Utilizacin del Ancho de Banda por Protocolo
El desarrollo de una performance preciso de la performance de red tambin debera
incluir la utilizacin de medicin del trfico de broadcast contra el trfico unicast, y por
cada protocolo principal. Algunos protocolos envan excesivo trfico de broadcast, que
puede degradar seriamente la performance, sobre todo en redes switchadas.

Para medir la utilizacin del ancho de banda por protocolo, coloque un analizador de
protocolo en cada segmento de la red principal y llena una tabla como la mostrada en la
figura. Si el analizador soporta porcentajes relativos y absolutos, especifique el ancho de
banda usada por protocolos en comparacin al total de ancho de banda en uso. Uso
relativo especifica cuanto ancho de banda es usada por protocolo en comparacin con
el ancho de banda total actualmente en uso en el segmento. Uso absoluto especifica
cuanta ancho de banda es usada por protocolo en comparacin con la capacidad total
del segmento (por ejemplo, en comparacin con 100 Mbps en Fast Ethernet).
Metodologa Top Down

Marcos Huerta S.
28
Tabla Nro. 02 Utilizacin del Ancho de Banda por Protocolo


Anlisis de la Exactitud de Red
Usted puede usar a un probador BER (tambin llamado BERT) en lneas seriales para
probar el nmero de bits daados comparados a los totales de bits.

Con redes por paquete switchados, hace ms sentido de medir el paquete (packer) de
errores porque un paquete entero es considerado malo si un solo bit es cambiado o
descartado. En redes por paquete switchados, una estacin de envo calcula un ciclo de
redundancia CRC basado en los bits del paquete. La estacin de envo reemplaza el
valor del CRC en el paquete. Una estacin de recepcin determina si el bit ha sido
cambiado entonces descarta el paquete y vuelve a calcular el CRC otra vez y
comparando el resultado con el CRC del paquete. Un paquete con CRC malo es
descartado y debe ser transmitido de nuevo por el remitente. Por lo general un protocolo
de capa superior tiene el trabajo de transmitir de nuevo los paquetes que no se ha
reconocidos.

Un analizador de protocolo puede comprobar el CRC en los paquetes recibidos. Como
la parte de su anlisis de performance preciso, usted debera rastrear el nmero de
paquetes recibidos con CRC malo cada hora o cada dos das. Como es normal los
errores aumentan con la utilizacin, errores de documento como una funcin del nmero
de bytes vistos por el instrumento de escucha. Un umbral de regla bsica bueno para
considerar errores malsanos es que una red no debera tener ms de un paquete malo
por megabyte de datos. (Errores calculados este camino le deja simular una serie BERT.
Simplemente el clculo de un porcentaje de paquetes malos comparados con paquetes
buenos nos explica el tamao de paquete y de ah no da una indicacin buena de
cuantos trozos realmente se han daados).

Adems del rastreo de errores de capa de enlace de datos, como errores CRC, un
anlisis del performance preciso debera incluir la informacin en problemas de capa
superior. Un analizador de protocolo que incluye un sistema experto, como WildPackets
EtherPeek NX analizador de red, se apresura la identificacin de problemas de capa
Metodologa Top Down

Marcos Huerta S.
29
superior por automticamente generando diagnsticos y sntomas para conversaciones
de red y aplicaciones.

La exactitud tambin debera incluir una medida de paquetes perdidos. Usted puede
medir paquetes perdidos midiendo el tiempo de respuesta.

Enviando paquetes para medir cuanto tiempo este toma para recibir una respuesta,
documente cualquier paquete que no recibe una respuesta, probablemente porque la
peticin o la respuesta fue perdido. Correlacione la informacin sobre paquetes perdidos
con otras medidas de interpretacin para determinar si los paquetes perdidos indican
una necesidad de aumentar el ancho de banda, para disminuir errores CRC, o mejorar
dispositivos de funcionamiento entre redes. Usted tambin puede medir paquetes
perdidos mirando la estadstica guardada por gestores de trfico en el nmero de
paquetes descartados de colas de salida o entrada.

Analizando la Eficiencia de la Red
La utilizacin de ancho de banda es optimizada para la eficacia cuando las aplicaciones
y los protocolos son configurados para enviar cantidades grandes de datos por paquete,
as minimizando el nmero de paquete y tardanzas de ida y vuelta requeridas para una
transaccin. El nmero de paquetes por transaccin tambin puede ser minimizado si el
receptor es configurado con una ventana grande que lo permite aceptar paquetes
mltiples antes de que esto debiera enviar un reconocimiento.

Cambiando la transmisin y recepcin del tamao de buffer- paquete de los clientes y
los servidores pueden causar la eficacia mejorada por paquete recibido en la ventana. El
aumento de la unidad de transmisin mxima (MTU) en interfaces del router tambin
puede mejorar la eficacia.

Por otra parte, el aumento del MTU es a veces necesario en interfaces del router de
aquellos que usan tneles. Los problemas pueden ocurrir cuando una cabecera
suplementario es aadido por el tnel hace que el paquete sean ms grandes que falta
MTU. Un sntoma tpico de este problema es que los usuarios pueden ping y Telnet,
pero no usar el Protocolo de Transferencia de Hipertexto (HTTP), FTP, y otros
protocolos que usan los paquetes grandes. Una solucin es aumentar el MTU en el
interfaz del router.

Para determinar si los objetivos de su cliente para la eficacia de red son realistas, usted
debera usar un analizador de protocolo para examinar los tamaos de los paquetes que
se usa en la red. Muchos analizadores de protocolo le dejan tabla de salida como el que
se especifica en la figura 3.7
Metodologa Top Down

Marcos Huerta S.
30
Figura Nro. 10. Graficando el Tamao de los Paquetes del Backbone


Analizar la Tardanza y Tiempo de Respuesta
Para verificar que la performance de un nuevo diseo de red se encuentra dentro de las
exigencias de un cliente, es importante medir el tiempo de respuesta entre dispositivos
de red antes y despus de que un nuevo diseo de red es puesto en prctica. El tiempo
de respuesta puede ser medido por muchos caminos. Usando un analizador de
protocolo, usted puede mirar la cantidad de tiempo entre paquetes y conseguir una
estimacin del tiempo de respuesta en la capa de enlace de datos, capa de transporte, y
capa de aplicacin. (Este es una estimacin porque los tiempos de llegada de paquete
en un analizador slo pueden acercarse tiempos de llegada de paquete en estaciones
finales.)
Un modo ms comn de medir tiempo de respuesta es enviar paquetes de ping y medir
el tiempo de ida y vuelta (RTT) para enviar una peticin y recibir una respuesta.
Midiendo RTT, usted tambin puede medir la variacin RTT. Medidas las variaciones
son importantes para aplicaciones que no pueden tolerar muchas variaciones (por
ejemplo, voz y aplicaciones de vdeo). Usted tambin puede documentar cualquier
prdida de paquetes.
Usted puede usar una tabla para documentar estas medidas ver figura:

Tabla Nro. 03 Medida del Tiempo de Respuesta




Metodologa Top Down

Marcos Huerta S.
31
El Chequeo del estado de los Routers principales, Switches, y Firewalls
El paso final en la caracterizacin de las redes existentes debe comprobar el
comportamiento de los dispositivos de funcionamiento entre redes en las redes. Este
incluye routers e switches que unen capas de una topologa jerrquica, routers de
backbone e switches, y firewalls que tendrn los papeles ms significativos en su nuevo
diseo de red. No es necesario comprobar cada switch de LAN, slo los switches
principales, routers, y firewalls.

La comprobacin del comportamiento y la salud de un dispositivo de funcionamiento
entre redes incluye la determinacin que ocupado el dispositivo es (utilizacin de CPU),
cuantos paquetes esto ha tratado, cuantos paquetes esto se ha perdido, y el estado de
los buffer y colas. Su mtodo para tasar la salud de un dispositivo de funcionamiento
entre redes depende del vendedor y la arquitectura del dispositivo.

Parte 4. Caracterizando un diseo de trafico de red
Este seccin describe las tcnicas para caracterizar el flujo de trfico, el volumen de
trfico, y el comportamiento de protocolo. Las tcnicas incluyen el reconocimiento de
trfico fuente y almacenaje de datos, documentar las aplicaciones y uso el de protocolo,
y evaluar del trfico de red causado por protocolos comunes.

El la seccin anterior se habl de la caracterizacin de la red existente en trminos de
su estructura e interpretacin. Como el anlisis de la situacin existente es un paso
importante en un acercamiento de anlisis de sistemas para disear, este seccin se
habla de la caracterizacin de la red existente en trminos de flujo de trfico. Esta
seccin tambin cubre nuevas exigencias de diseo de red, aadiendo los dos primeras
secciones que cubrieron objetivos de diseo comerciales y tcnicos. Esta seccin
reenfoca en exigencias de diseo y describe exigencias en trminos de flujo de trfico,
carga, y comportamiento; y calidad de servicio (QoS) exigencias.

Caracterizando el Flujo de Trafico
La caracterizacin del flujo de trfico implica identificar fuentes y destinos del trfico de
red y analizar la direccin y la simetra de datos que viajan entre fuentes y destinos. En
algunas aplicaciones, el flujo es bidireccional y simtrico. (Ambos finales del flujo envan
el trfico en aproximadamente el mismo precio.) En otras aplicaciones, el flujo es
bidireccional y asimtrico. Las estaciones de cliente envan pequeas preguntas y los
servidores envan grandes corrientes de datos. Los broadcast de una aplicacin, el flujo
es unidireccional y asimtrico. Esta seccin habla de la caracterizacin de la direccin y
Metodologa Top Down

Marcos Huerta S.
32
la simetra del flujo de trfico en una red existente y anlisis del flujo para nuevas
aplicaciones de red.
La Identificacin de las Principales Fuentes de Trfico y Almacenamiento
Para entender el flujo de trfico de red, usted debera identificar primero comunidades
de usuario y almacenamiento de datos para las aplicaciones existentes.

A comunidad de usuario es un grupo de trabajadores que usan una aplicacin particular
o un grupo de aplicaciones. Una comunidad de usuario puede ser un departamento
corporativo o un grupo de departamentos. Sin embargo, en muchos ambientes, el uso
de aplicacin cruza muchos departamentos. Cuando ms corporaciones usan la
direccin de la matriz y forman equipos virtuales para completar un proyecto, se hace
ms necesario caracterizar comunidades de usuario por aplicacin y uso de protocolo
ms bien que por el lmite de departamentos.

Para documentar comunidades de usuario, pida a su cliente ayudarle a llenar un
formulario de Comunidades de Usuario mostrada en la Tabla Nro. 04. Para la columna
de posicin de la figura, los nombres de posicin de uso que usted ya document en un
mapa. Para aplicaciones, nombres de aplicacin de uso en los cuales usted ya
document en los formularios de Aplicaciones de Red.

Tabla Nro. 04 Comunidades de Usuarios


Adems de la documentacin de comunidades de usuario, caracterizando el flujo de
trfico tambin requiere que usted documente los principales almacenamiento de datos.
Un almacenamiento de datos (a veces llamaba a colector de datos) es un rea en una
red donde los datos de capa de aplicacin residen. Un almacenamiento de datos puede
ser un servidor, un grupo de servidores, una red de rea de almacenaje (SAN), un
ordenador central, una unidad de reserva de cinta, una biblioteca de vdeo digital, o
cualquier dispositivo o componente de un red donde las cantidades grandes de datos
son almacenadas. Para ayudarle a documentar los principales almacenamiento de
datos, pida a su cliente ayudarle a llenar el siguiente formulario. Para la Posicin, la
Aplicacin, y las columnas de Comunidad de Usuario, usa nombres que usted ya
document en un mapa y otras cartas.
Metodologa Top Down

Marcos Huerta S.
33
Tabla Nro. 05 Formulario de Almacenamiento de Datos


Documentar el Flujo de Trfico en la Red Existente
La documentacin del flujo de trfico implica identificar y caracterizar flujos de trfico
individuales entre fuentes de trfico y almacenes. Los flujos de trfico se han hecho
recientemente un tema caliente para la discusin en la comunidad de Internet. Mucho
progreso est siendo hecho en la definicin de flujos, medicin de comportamiento de
flujo, y permiso de una estacin final de especificar los requerimientos de performance
por flujo.

Para entender mejor el comportamiento de flujo de trfico, usted puede leer la Peticin
de Comentarios (RFC) 2722, "Medida de Flujo de Trfico: Arquitectura." El RFC 2722
describe una arquitectura para la medida y reportaje de flujos de trfico de red, y habla
como la arquitectura est relacionada con una arquitectura de flujo de trfico total para
el intranet y el Internet.

La medicin del comportamiento de flujo de trfico puede ayudar a un diseador de red
a determinar qu trafico de routers deberan ser peer en los protocolos de
encaminamiento que usan un sistema peering, como el Border Gateway Protocol (BGP).
La medicin del comportamiento de flujo de trfico tambin puede ayudar a los
diseadores de la red y debran hacer lo siguiente:
Caracterice el comportamiento de redes existentes.
Plan de desarrollo y extensin de la red.
Cuantifique la performance de la red.
Verifice la calidad del servicio de red.
Asigne el uso de aplicaciones y usuarios de la red .

Un flujo individual de trfico de red puede ser definido como protocolo e informacin de
aplicacin transmitida entre entidades que se comunican durante una sesin sola. Un
flujo tiene atributos como direccin, simetra, caminos de enrutamiento, opciones de
enrutamiento, nmero de paquetes, nmero de bytes, y se dirige el flujo hacia una
direccin final. Una entidad que se comunica puede ser un sistema de final (host), una
red, o un sistema autnomo.

Metodologa Top Down

Marcos Huerta S.
34
El mtodo ms simple para caracterizar el tamao de un flujo es medir el nmero de
Kilobytes o Mbytes por segundo entre entidades que se comunican. Para caracterizar el
tamao de un flujo, use un analizador de protocolo o conecte a la red el sistema de
direccin para registrar la carga entre fuentes importantes y destinos. Los instrumentos
de Cisco para caracterizar flujos de trfico incluyen Cisco FlowCollector y el Analizador
de Datos, que estn basados en el Cisco NetFlow la tecnologa.

Usted puede usar el formulario siguiente descirto para documentar informacin sobre la
direccin y volumen de flujos de trfico. El objetivo es documentar los Kilobytes o
Mbytes por segundo entre pares de sistemas autnomos, redes, hosts, y aplicaciones.

Para conseguir la informacin para llenar los formularios, coloque un dispositivo que
monitoree el core de la red y djele coleccionar datos por uno o dos das. Para
conseguir la informacin para llenar la columna de Path, usted puede encender la
opcin de grabar-ruta de registro en una red de IP. La opcin de ruta de registro tiene
algunas desventajas, sin embargo. Esto no apoya redes muy grandes y es a menudo
minusvlido para razones de seguridad. Usted tambin puede estimar el path mirando la
tabla de encaminamiento y anlizando el trfico de red en multiples segmentos.

Tabla Nro. 06 Flujo de Trfico en la Red Existente


La Caracterizacin de Tipos de Flujo de Trfico para Nuevas Aplicaciones de Red
Como mencionado, un flujo de red puede ser caracterizado por su direccin y simetra.
La direccin especifica si los datos viajan en ambas direcciones o en slo una direccin.
La direccin tambin especifica el camino que un flujo toma cuando esto viaja de la
fuente al destino por una de las redes. La simetra describe si el flujo tiende a tener alta
performance o requerimientos de QoS en una direccin que en la otra direccin. Muchas
aplicaciones de red tienen requerimientos diferentes en cada direccin. Algunas
tecnologas de transmisin como la Lnea de Suscriptor Digital Asimtrica (ADSL), son
fundamentalmente asimtricas.

Una tcnica buena para caracterizar flujo de trfico de red debe clasificar aplicaciones
que soportan una de los tipos de flujo conocidos:
Metodologa Top Down

Marcos Huerta S.
35
Flujo de trfico de terminal/host.
Flujo de trfico de cliente/servidor.
Flujo de trfico Punto a Punto.
Flujo de trfico de servidor/servidor.
Flujo de trfico de clculo distribuido.

En su libro Anlisis de Red, Arquitectura, y Diseo, Segunda Edicin, James D.
McCabe hace un trabajo excelente de caracterizacin de los distintos modelos de flujo.

Flujo de Trfico de Terminal/host
El trfico de terminal/host es por lo general asimtrico. El terminal enva unos caracteres
y el host enva muchos caracteres. El Telnet es un ejemplo de una aplicacin que
genera el trfico de terminal/host. Por defecto detrs de Telnet consiste en que el
terminal enva un simple paquete cada vez que el usuario escribe un carcter. El host
devuelve caracteres mltiples, segn lo que el usuario escribi. Como una ilustracin,
considere el principio de una sesin Telnet que comienza con el usuario que escribe su
nombre. Una vez que el host recibe cada paquete para los caracteres del nombre, el
host devuelve un paquete de mensaje de regreso (como la Contrasea Requerida).

Flujo de Trfico de Cliente/Servidor
El trfico de cliente/servidor es el mejor tipo de flujo conocido y el ms extensamente
usado. Los servidores son generalmente poderosas computadoras dedicadas a
administrar el almacenaje de disco, impresoras, u otros recursos de red. Los clientes
son ordenadores personales o estaciones de trabajo en las cuales los usuarios dirigen
aplicaciones. Los clientes confan en servidores para el acceso a recursos, como
almacenaje, perifricos, software de aplicacin, y poder de procesamiento.

Los clientes envan preguntas y peticiones a un servidor. El servidor responde con datos
o el permiso para el cliente para enviar datos. El flujo es por lo general bidireccional y
asimtrico. Las peticiones del cliente son tpicamente pequeos paquetes, excepto
cuando escribe datos al servidor, en cuyo caso ellos son ms grandes. Las respuestas
del servidor son de un rango de 64 bytes a 1500 bytes o ms, dependiendo del tamao
maximo del paquete.

En un ambiente TCP/IP, muchas aplicaciones son puestas en prctica de una manera
de cliente/servidor, aunque las aplicaciones fueran inventadas antes de que el modelo
de cliente/servidor fuera inventado. Por ejemplo, el Protocolo de Transferencia de
Archivos (FTP) tiene un lado de servidor y cliente. Los clientes de FTP usan
aplicaciones de FTP para dirigirse a servidores de FTP.
Estos das, el Protocolo de Transferencia de Hipertexto (HTTP) es probablemente el
protocolo de cliente/servidor el ms extensamente usado. Los clientes usan una
Metodologa Top Down

Marcos Huerta S.
36
aplicacin de navegador de web, como Netscape, para poder conectarse con el servidor
web. El flujo es bidireccional y asimtrico. Cada sesin a menudo dura slo unos
segundos porque los usuarios tienden a saltar de un sitio Web al otro.

Flujo de Trfico Punto a Punto
Con el flujo trfico punto a punto, el flujo es por lo general bidireccional y simtrico. Las
entidades que se comunican transmiten cantidades aproximadamente iguales de la
informacin. No hay ninguna jerarqua.

Cada dispositivo es considerado tan importante el uno como el otro, y ningn dispositivo
tiene considerablemente ms datos que el otro dispositivo. En pequeos ambientes de
LAN, loa administradores de red a menudo establecen las configuraciones con los
ordenadores personales en un punto a punto de modo que cada uno pueda tener
acceso a datos de cada uno e impresoras. No hay ningn servidor de archivo central o
servidor de impresora. Otro ejemplo de punto a punto el ambiente es preparado para
multiusuarios UNIX o host donde los usuarios establecen FTP, Telnet, HTTP, y sesiones
de Sistema de Archivos de Red entre host.

Cada host acta tanto como cliente y como servidor. Hay muchos flujos en ambas
direcciones.

Recientemente las aplicaciones punto a punto para descargar msica, videos, y
software han ganado la popularidad. Cada usuario publica la msica u otro material y
permite que otros usuarios en el Internet descarguen los datos. Este es considerado
trfico punto a punto porque cada usuario acta tanto como distribuidor y consumidor de
datos. El flujo de trfico es bidireccional y simtrico. La mayor parte de empresas y
muchas redes de universidad rechazan este tipo de trfico punto a punto por dos
motivos. Primero, esto puede causar una cantidad excesiva del trfico, y, segundo, el
material publicado es a menudo copyright por alguien adems de la persona que lo
publica.

Un otro ejemplo de aplicacin punto a punto es una reunin de negocios entre la gente
de una empresa en sitios remotos usando equipos de videoconferencia. En una reunin,
cada asistente puede comunicar tantos datos como son necesarios en cualquier
momento. Todos los sitios tienen las mismas exigencias QoS. Una reunin es diferente
para cada situacin donde la videoconferencia es usada para diseminar la informacin.
Con la diseminacin de informacin, como una clase de formacin o un discurso por un
presidente corporativo a empleados, la mayor parte de los datos fluyen del sitio central.
Unas preguntas son permitidas de los sitios remotos. La diseminacin de informacin es
por lo general puesta en prctica usando un modelo de cliente/servidor.
Metodologa Top Down

Marcos Huerta S.
37
Flujo de Trfico de Servidor/Servidor
El trfico de servidor/servidor incluye transmisiones entre servidores y transmisiones
entre manejo de aplicaciones. Los servidores se dirigen a otros servidores para
implementar los servicios de directorio, una cahe pesadamente usa datos, los mirrow de
datos para equilibrio de carga y redundancia, backup de datos, y disponibilidad de
broadcast de servicio.

Los servidores manejan las aplicaciones por algunos mismos motivos, sino tambin
hacer cumplir polticas de seguridad y actualizar datos de direccin de red.
Con el trfico de red de servidor/servidor, el flujo es generalmente bidireccional. La
simetra del flujo depende de la aplicacin. Con la mayor parte de aplicaciones de
servidor/servidor, el flujo es simtrico, pero en algunos casos esto es heredado de
servidores, con algunos servidores que envan y y almacenan ms datos que otros.

Flujo de Trfico de Clculo Distribuido
La informtica distribuida se refiere a aplicaciones que requieren mltiples nodos que
trabajan y realizan clculos juntos para completar un trabajo.

Algunas tareas de modelos complejos no pueden ser llevadas a cabo en un margen de
tiempo razonable a menos que mltiples computadoras traten datos y dirijan algoritmos
simultneamente. Los efectos especiales para pelculas a menudo son desarrollados y
calculados en un ambiente distribuido. La informtica distribuida tambin es usada en la
industria de semiconductor para calcular las necesidades extremas del diseo y
verificacin de un microchip, y en la industria de defensa para proporcionar ingeniera y
simulaciones militares.

Con algunas aplicaciones de clculo distribuidas, el manejador de tarea dice a los nodos
de clculo que hacer en una base infrecuente, causando poco flujo de trfico. Con otras
aplicaciones, hay comunicacin frecuente entre el manejador de tarea y los nodos de
clculo.

La Documentacin de Flujo de Trfico para Aplicaciones Nuevas y Existentes de
la Red
Para documentar el flujo de trfico para nuevo (y existentes) de aplicaciones de red,
caracterice el tipo de flujo para cada aplicacin y ponga las comunidades de usuario en
una lista y los almacenes de datos que tienen que ver con aplicaciones. Usted puede
usar este formulario:



Metodologa Top Down

Marcos Huerta S.
38
Tabla Nro. 07 Flujo de Trfico para Aplicaciones Nuevas y Existentes

Caracterizacin de Carga de Trfico
Para seleccionar topologas apropiadas y tecnologas para encontrar los objetivos de un
cliente, es importante caracterizar la carga de trfico con el flujo de trfico. La
caracterizacin de la carga de trfico puede ayudarle a disear redes con la capacidad
de uso local suficiente y flujos de redes.

A causa de muchos factores implicados en la caracterizacin del trfico de red, las
estimaciones de carga de trfico con poca probabilidad sern precisas. El objetivo es
evitar simplemente un diseo que tiene cualquier cuello de botella crtico. Para evitar
cuellos de botella, usted puede investigar modelos de uso de aplicacin, tiempos
ociosos entre paquetes y sesiones, tamaos de paquetes, y otros patrones de trfico
behaviorsticos para protocolos de sistema y aplicacin.

Otro acercamiento a la evitacin de cuellos de botella debe lanzar simplemente
cantidades grandes de ancho de banda en el problema. Una interpretacin estricta de
principios de anlisis de sistemas no aprobara tal acercamiento, pero el ancho de
banda es barato estos das. El ancho de banda de LAN es muy barato. No hay
simplemente ninguna excusa para no usar Fast Ethernet (o mejor) en todas las nuevas
estaciones de trabajo e switches, y la mayor parte de organizaciones tambin pueden
permitirse a usar Gigabit Ethernet en switch a switch y switch a servidor. El ancho de
banda WAN es todava cara en algunas partes del mundo, incluso reas rurales de los
Estados Unidos. Pero en muchas partes de los Estados Unidos y el resto del mundo, el
ancho de banda ha sido sobre aprovisionada y no est hasta cerca de ser sobre
utilizado.

El Clculo de Carga de Trfico Terica
La carga de trfico (a veces llamado carga ofrecida) es la suma de todos los nodos de
red de datos que estan listo para transmitir en un tiempo particular. Un objetivo general
para la mayor parte de diseos de red es que la capacidad de red debera ser ms que
Metodologa Top Down

Marcos Huerta S.
39
adecuada de manejar la carga de trfico. El desafo debe determinar si la capacidad
propuesta para un nuevo diseo de red es suficiente para manejar la carga potencial.

En su libro Redes de rea Locales y Metropolitanas, Guillermo Stallings proporciona
algunos clculos atrs el-desarrollo para la carga de trfico calculadora. El Stallings
indica que usted puede hacer un clculo elemental basado simplemente en el nmero
de la transmisin de estaciones, como rpidamente cada estacin genera mensajes, y el
tamao de mensajes. Por ejemplo, para una red con una capacidad propuesta de 1
Mbps, si 1000 estaciones envan paquetes de 1000 bits cada segundo, entonces la
carga ofrecida iguala la capacidad. Aunque Stallings se refiriera a la capacidad de un
LAN, capacidad podra referirse a la capacidad de una WAN, una entera red o las partes
de una rede, o la el trafico de la placa madre de un switch o router.

En general, para contar si la capacidad es suficiente, slo unos parmetros son
necesarios:
El nmero de estaciones.
El tiempo medio que una estacin es ociosa entre el envo de paquetes.
El tiempo requerido transmitir un mensaje una vez el acceso medio es ganado.

Estudiando tiempos ociosos y tamao de los paquetes con un analizador de protocolo, y
estimando el nmero de estaciones, usted puede determinar si la capacidad propuesta
es suficiente.

Si usted investiga tipos de flujo de trfico, como hablado antes en este captulo, usted
puede desarrollar estimaciones ms precisas de la carga.

En vez de asumir que todas las estaciones tienen calidades similares que generan
carga, usted puede asumir que las estaciones usando una aplicacin particular tienen
calidades similares que generan carga. Las asunciones pueden ser hechas sobre
tamao de paquete y tiempo ocioso para una aplicacin despus de que usted ha
clasificado el tipo de flujo y ha identificado los protocolos usado por la aplicacin.

Para una aplicacin de cliente/servidor, el tiempo ocioso para el servidor depende del
nmero de clientes que usan al servidor, y la arquitectura y las caractersticas de
interpretacin del servidor (velocidad de acceso de disco, velocidad de acceso de RAM,
caching mecanismos, etctera).

Estudiando el trfico de red de servidores con un analizador de protocolo, usted puede
estimar un tiempo ocioso medio.

Metodologa Top Down

Marcos Huerta S.
40
El tiempo ocioso en el lado de cliente depende en parte de la accin de usuario, el que
significa que es imposible predecir exactamente el tiempo ocioso. Sin embargo, usted
puede hacer estimaciones del tiempo ocioso estudiando el trfico con un analizador de
protocolo y usando escrituras para simular acciones de usuario en el peor de los caso, o
usando un instrumento de modelado de red.

Despus de que usted ha identificado la carga de trfico aproximada para un flujo de
aplicacin, usted puede estimar la carga total para una aplicacin multiplicando la carga
para el flujo por el nmero de dispositivos que usan la aplicacin. La investigacin que
usted hace en el tamao de comunidades de usuario y el nmero (de servidores) de
almacen de datos puede ayudarle a calcular una exigencia del ancho de banda
agregada aproximada para cada aplicacin.

La documentacin de la posicin de comunidades de usuario y almacenes de datos, en
las cuales usted hizo el formulario, puede ayudarle a entender la cantidad de trfico que
fluir de un segmento al otro. Este puede ayudar en la seleccin de tecnologas de
columna vertebral y dispositivos de funcionamiento entre redes.

Estimando la carga de trfico, adems de la investigacin de tiempos ociosos entre
paquetes, tamaos de paquetes, y comportamiento de flujo, usted tambin debera
investigar modelos de uso de aplicacin y exigencias QoS. Algunas aplicaciones son
usadas con poca frecuencia, pero requieren una cantidad grande del ancho de banda
cuando ellos son usados.

Documentacin de Patrones de uso de Aplicacin
El primer paso en la documentacin de modelos de uso de aplicacin debe identificar
comunidades de usuario, el nmero de usuarios en las comunidades, y las aplicaciones
que emplean los usuarios. Este paso, que fue cubierto ya antes en esta seccin, puede
ayudarle a identificar el nmero total de usuarios para cada aplicacin.

Adems de la identificacin del nmero total de usuarios para cada aplicacin, usted
tambin debera documentar la informacin siguiente:
La frecuencia de sesiones de aplicacin (el nmero de sesiones por da, semana,
mes o independientemente del perodo de tiempo es apropiado).
La longitud de una sesin de aplicacin media.
El nmero de usuarios simultneo de una aplicacin.

Armado con la informacin en la frecuencia y la longitud de sesiones, y el nmero de
sesiones simultneas, usted puede predecir ms exactamente la exigencia de ancho de
Metodologa Top Down

Marcos Huerta S.
41
banda agregada para todos los usuarios de una aplicacin. Si no es prctico investigar
estos detalles, usted puede hacer algunas conclusiones:
Usted puede asumir que el nmero de usuarios de una aplicacin es igual al nmero
de usuarios simultneos.
Usted puede asumir que todas las aplicaciones son usadas todo el tiempo de modo
que su clculo de ancho de banda sea un caso pico de estimacin (mxima).
Usted puede asumir que cada usuario abre slo una sesin y que una sesin dura
todo el da hasta que el usuario cierre la aplicacin al final de da.

Refinando Estimaciones de Carga de Trfico causada por Aplicaciones
Para refinar la estimacin de requerimientos de aplicacin ancho de banda, usted tiene
que investigar el tamao de objetos de datos enviados por aplicaciones, la sobrecarga
causada por capas de protocolo, y cualquier carga adicional causada por la inicializacin
de aplicacin. (Algunas aplicaciones envan mucho ms trfico durante la inicializacin
que durante la operacin estable.)

Como las aplicaciones y los usuarios varan extensamente en el comportamiento, es
difcil estimar exactamente el tamao medio de objetos de datos que los usuarios
transfieren el uno al otro y a servidores. (La respuesta de ingeniera verdadera a la
mayor parte de preguntas relacionadas para conectar a la red trfico es "esto depende.")
el cuadro siguiente proporciona algunas estimaciones para tamaos de objeto que
usted puede usar haciendo clculos atrs de la carga de trfico de aplicacin, pero
recordar que el cuadro proporcionado no toma el lugar de un anlisis cuidadoso del
comportamiento de aplicacin actual.

Tabla Nro. 08 Tamao Aproximado de Objetos de Transferencia de Aplicaciones a
travs de redes



Metodologa Top Down

Marcos Huerta S.
42
La Estimacin de Sobrecarga de Trfico para Varios Protocolos
La seccin anterior habl de la caracterizacin de la carga de trfico de aplicacin
mirando el tamao de objetos de datos que las aplicaciones transfieren a travs de
redes. Para caracterizar completamente el comportamiento de aplicacin, usted debera
investigar qu protocolos usa una aplicacin. Una vez que usted sabe los protocolos,
usted puede calcular la carga de trfico ms exactamente aadiendo el tamao de
cabecera de protocolo al tamao de objetos de datos.

Tabla Nro. 09 de Sobrecarga de Trfico para varios Protocolos


La Estimacin de Carga de Trfico Causada por Inicializacin de Sesin y
Estacin de Trabajo
Segn las aplicaciones y protocolos que usa una estacin de trabajo, la inicializacin de
estacin de trabajo puede causar una carga en redes debido al nmero de paquetes y,
en algunos casos, el nmero de paquetes de broadcast. Aunque este se haga menos de
un problema cuando el ancho de banda de red se ha hecho con estaciones de trabajo
con CPUs rpidas y baratas, que har de modo que el procesamiento transmitido no sea
una preocupacin.

La Estimacin de Carga de Trfico Causada por Protocolos de Enrutamiento
En este punto en el proceso de diseo de red, usted no podra haber seleccionado
protocolos de encaminamiento para el nuevo diseo de red, pero usted debera haber
identificado protocolos de encaminamiento que corren en la red existente. Ayudarle a
caracterizar trfico de red causado por protocolos de enrutamiento, Tabla le mostrara la
Metodologa Top Down

Marcos Huerta S.
43
cantidad de ancho de banda usada por herencia de protocolos de enrutamiento vector-
distancia.

Tabla Nro. 10 Ancho de banda Usada por Herencia de Protocolos de enrutamiento


Un router enva largas tablas de enrutamiento de vector-distancia que cada minuto
puede usar un porcentaje significativo del ancho de banda de la WAN. Como el
protocolo de encaminamiento limita el nmero de rutas por paquete, en redes grandes,
un router de trfico enva paquetes mltiples para enviar la tabla entera.

Los nuevos protocolos de encaminamiento, como OSPF y EIGRP, usan ancho de banda
muy pequea. En caso de OSPF, su preocupacin principal debera ser la cantidad de
ancho de banda consumida por los paquetes de sincronizacin de base de datos que los
routers de trfico envan cada 30 minutos. Subdividiendo una red de OSPF en reas y
usando la ruta sumarizada, este trfico puede ser minimizado. Otro trfico de
sincronizacin de base de datos, es el nico trfico que OSPF enva despus de la
inicializacin es pequeo paquete Hello cada 10 segundos.

El EIGRP tambin enva paquetes Hello, pero con ms frecuencia que OSPF (cada 5
segundos). Por otra parte, EIGRP no enva ninguna actualizacin de ruta peridica o
paquetes de sincronizacin de base de datos. Esto slo enva actualizaciones de ruta
cuando hay cambios en la topologa.

Caracterizacin del Comportamiento del Trfico
Seleccionar una apropiada solucin de diseo de red, usted tiene que entender el
protocolo y el comportamiento de las aplicaciones adems de flujos de trfico y carga.
Por ejemplo, para seleccionar topologas apropiada de LAN, usted tiene que investigar
el nivel del trfico de broadcast en la LAN. Para aprovisionar la capacidad adecuada
para LAN y WAN, usted tiene que chequear la utilizacin extra de ancho de banda
causada por protocolos ineficientes y tamaos de paquetes no ptimos o retransmisin
de temporizadores.



Metodologa Top Down

Marcos Huerta S.
44
Comportamiento de Broadcast/Multicast
Un paquete de broadcast que va a todas las estaciones de red en un LAN. En la capa
de enlace de datos, la direccin de destino de un paquete de broadcast es
FF:FF:FF:FF:FF:FF (todos 1s en el binario). A paquete de multicast es un paquete que
va a un subconjunto de estaciones. Por ejemplo, un paquete destinado a
01:00:0C:CC:CC:CC va a routers de trfico Cisco e switches que dirigen el Protocolo de
Descubrimiento Cisco (CDP) en un LAN.

Los dispositivos de capa 2 , como switches y bridge, envian los paquetes de broadcast y
multicast a todos los puertos. El envi de paquetes de broadcast y multicast puede ser
un problema de escalabilidad para grandes edificaciones de (switches o bridge) redes.
Un router no envia trfico de broadcast o multicast. Todos los dispositivos en un lado de
un router son considerados la parte de un solo dominio de bradcast.

Adems de la inclusin de routers en el diseo de una red disminuira el transporte de
broadcast, usted tambin puede limitar el tamao de un dominio de broadcast poniendo
en prctica LAN virtuales (VLANs). Tecnologa de VLAN, que en la seccin, "El diseo
de una Topologa de Red," habla ms detalladamente, permite que un administrador de
red subdivida a usuarios en subredes asociando puertos del switch con uno o varios
VLANs. Aunque un VLAN pueda atravesar muchos switches, el trfico de broadcast
dentro de un VLAN no es transmitido fuera del VLAN.

Demasiados paquetes de broadcast pueden abrumar estaciones finales, switches, y
routers. Es importante que usted investigue el nivel del trfico de broadcast en su diseo
propuesto y limite el nmero de estaciones en un simple dominio de broadcast. El
trmino radiacin de broadcast a menudo es usado para describir el efecto de broadcast
que se extienden del remitente a todos los dispositivos en un dominio de broadcast. La
radiacin de broadcast puede degradar la performance en estaciones de red.

La tarjeta de interfaz de red (NIC) con una estacin de red pasa broadcast y multicast
relevantes a la CPU de la estacin. Algunos NICs pasan todas las multicast a la CPU,
aun cuando las multicast no son relevantes, porque las NICs no tienen el software de
conductor que es ms selectivo. El software de conductor inteligente puede decir una
NIC que multicast pasa a la CPU. Lamentablemente, no todos los conductores tienen
esta inteligencia. Las CPUs en las estaciones de red se hacen abrumadas tratando de
procesar niveles altos de broadcast y multicast. Si ms del 20 por ciento del trfico de
red es broadcast o multicast, la red tiene que ser segmentada usando routers o VLANs.

Otra causa posible del pesado trfico de broadcast es la tormenta de broadcast causada
por intermitencias en la red o estaciones de red cadas. Por ejemplo, una mscara de
Metodologa Top Down

Marcos Huerta S.
45
subred de mal asignada puede hacer que una estacin enve paquetes de ARP
innecesariamente porque la estacin no se distingue correctamente entre estacin y
direcciones de broadcast, hacindolo enviar ARPs para direcciones de broadcast.

En general, sin embargo, el trfico de broadcast es necesario e inevitable. El
encaminamiento y la conmutacin de protocolos usan broadcast y multicast para
compartir la informacin sobre la topologa de la red. Los servidores envan broadcast y
multicast para anunciar sus servicios. Los protocolos de escritorio como AppleTalk,
NetWare, NetBIOS, y TCP/IP requieren de paquetes de broadcast y multicast para
encontrar los servicios y chequear para la autenticarse de direcciones y nombres.

Cuando diseamos una topologa de red, se cubrir en secciones mas adelante mas
detalladamente, mostramos una tabla de recomendaciones para limitar el nmero de
estaciones en un dominio de broadcast solo basada en el protocolo (s) de escritorio en
uso.

Tabla Nro. 11 Tamao Mximo en un Dominio de Broadcast


Eficacia de Red
La caracterizacin del comportamiento de trfico de red requiere la ganancia de un
entendimiento de la eficacia de las nuevas aplicaciones de red. Eficacia se refiere a si
las aplicaciones y los protocolos usan el ancho de banda con eficacia. La eficacia es
afectada por el tamao del paquete, la interaccin de protocolos usados por una
aplicacin, windowing y control de flujo, y mecanismos de recuperacin de error.

Tamao del Paquete
Usando un tamao de paquete que es el mximo apoyo para el medio en uso tiene un
impacto positivo en la performance de red para aplicaciones de bulk. Para aplicaciones
de transferencia de archivo, en particular, usted debera usar la unidad mxima de
transmisin ms grande posible (MTU). Segn las pilas de protocolo que su cliente
Metodologa Top Down

Marcos Huerta S.
46
usar en el nuevo diseo de red, el MTU puede ser configurado para algunas
aplicaciones.

En un ambiente IP, usted debera evitar aumentar el MTU ms de lo soportado, evitar la
fragmentacin y reensamblacin de paquetes. Cuando los dispositivos al final de los
nodos o routers tienen que fragmentar y volver a reensamblar paquetes, la performance
se degrada.

Los sistemas operativos modernos soportan el descubrimiento del MTU. Con el
descubrimiento MTU, el software puede descubrir dinmicamente y usar el tamao ms
grande del paquete que cruzar la red sin requerir la fragmentacin. El descubrimiento
de MTU generalmente trabaja, pero hay algunos problemas con ello como mencionamos
en el "Anlisis de Eficacia de Red".

Interaccin de Protocolo
La ineficiencia en redes no es causada slo por pequeos tamaos de paquetes. La
ineficiencia tambin es causada por la interaccin de protocolos y la no correcta
configuracin de temporizadores de reconocimiento y otros parmetros.

Windowing y Control de Flujo
Para entender realmente el trfico de red, usted tiene que entender el control de flujo y
windowing. Un dispositivo TCP/IP, por ejemplo, enva segmentos (paquetes) de datos
en secuencia rpida, sin esperar un reconocimiento, hasta que su envo de ventana ha
sido agotado. Una estacin enva la ventana est basado en el recipiente que reciba la
ventana. El estado del recipiente en cada paquete TCP determina cuantos datos est
listo para recibir. Este total puede variar de unos bytes hasta 65,535 bytes. El recipiente
de ventana est basado en cuanta memoria el receptor tiene y que tan rpido procesa
los datos recibidos. Usted puede optimizar la eficacia de red aumentando la memoria y
el poder de CPU en las estaciones finales, el cual pueden causar ventanas de recipiente
grande.

Algunas aplicaciones TCP/IP corren encima de UDP, y no TCP. En este caso, no
hay ningn control de flujo o el control de flujo es manejado en la sesin o capa
de aplicacin. Mostramos una lista para determinar qu protocolos estn basados
en TCP y qu protocolos estn basados en UDP:
Protocolo de transferencia de archivos (FTP): Puerto de TCP 20 (datos) y puerto
TCP 21 (control).
Telnet: Puerto de TCP 23.
Protocolo de Transferencia Postal Simple (SMTP): Puerto de TCP 25.
Metodologa Top Down

Marcos Huerta S.
47
Protocolo de Transferencia de Hipertexto (HTTP): Puerto de TCP 80.
Protocolo de Direccin de Red Simple (SNMP): Puertos de UDP 161 y 162.
Sistema de Nombre de Esfera (DNS): Puerto de UDP 53.
Protocolo de Transferencia de Archivos Trivial (TFTP): Puerto de UDP 69.
Servidor de DHCP: Puerto de UDP 67.
Cliente de DHCP: Puerto de UDP 68.
Llamada de Procedimiento Remota (RPC): Puerto de UDP 111

Mecanismos de Recuperacin de error
Los mecanismos de recuperacin de error mal diseados pueden gastar el ancho de
banda. Por ejemplo, si un protocolo retransmite de nuevo datos muy rpidamente sin
esperar un periodo de tiempo para recibir un reconocimiento, este puede causar la
degradacin del performance para el resto de la red debido al ancho de banda usada.

Los protocolos de baja conexin por lo general no ponen en prctica la recuperacin de
error. Mayormente en la capa de enlace de datos y los protocolos de capa de red son de
baja conexin. Algunos protocolos de capa de transporte, como UDP, son de baja
conexin.

Los mecanismos de recuperacin de error para protocolos orientados por conexin
varan. TCP implementa un algoritmo de nuevo de retransmisin adaptable, el que
significa que el ratio de nuevas retransmisiones se reduce cuando la red esta
congestionada, el cual optimiza el uso del ancho de banda.

Las nuevos implementaciones TCP tambin ponen en prctica ACK selectivo (SACK),
esta descrito en el RFC 2018. Sin el SACK, esta predispuesto al error, los altos caminos
de tardanza pueden experimentar que el rendimiento baje debido al camino que TCP
reconoce datos. Los reconocimientos de TCP (ACKs) son acumulativos hasta el punto
donde un problema ocurre. Si los segmentos pierden el nmero de ACK es uno ms que
el nmero del ltimo byte que fue recibido antes de la prdida, aun si ms segmentos
llegaran despus de la prdida. No hay ningn camino para el receptor para recibir
algn reporte de un agujero en los datos recibidos. Este hace que el remitente espere un
tiempo de ida y vuelta para averiguar sobre cada segmento perdido, o retransmita de
nuevo innecesariamente segmentos que el recipiente puede haber recibido
correctamente.

Con el mecanismo de SACK, el recipiente TCP rellena el campo de opcin de SACK en
la cabecera TCP para informar al remitente de los bloques no contiguos de datos que
han sido recibidos. El remitente puede retransmitir de nuevo entonces slo los
segmentos ausentes. RFC 2018 define una opcin TCP para rellenar los nmeros de
Metodologa Top Down

Marcos Huerta S.
48
secuencia recibida para bloques y otra opcin TCP para informar al recipiente durante el
apretn de manos de tres caminos que el host soporta SACK.

Caracterizando los Requerimientos de Calidad de Servicio
El anlisis de los requerimientos de trfico de red no es completamente tan simple como
identificando flujos, midiendo la carga para flujos, y caracterizando el comportamiento de
trfico como de broadcast y de comportamiento error. Usted tambin tiene que
caracterizar los requerimientos QoS para aplicaciones.

Slo conociendo los requerimientos de carga (ancho de banda) para una aplicacin no
es suficiente. Usted tambin tiene que conocer si los requerimientos son flexibles o
inflexibles. Algunas aplicaciones siguen trabajando (aunque despacio) cuando el ancho
de banda no es suficiente. Otras aplicaciones, como voz y aplicaciones de vdeo, son
dadas intiles si un cierto nivel del ancho de banda no est disponible. Adems, si usted
tiene una mezcla de aplicaciones flexibles e inflexibles en una red, usted tiene que
determinar si es prctico tomar prestada el ancho de banda de la aplicacin flexible para
guardar el funcionamiento de aplicacin inflexible.

La voz es tambin inflexible en cuanto a la tardanza. La voz es tambin sensible a la
prdida de paquete, que resulta en recorte de peridico de voz y se salta. Sin la
configuracin apropiada en toda la red de QoS, la prdida puede ocurrir debido a
enlaces congestionados y un pobre buffer de paquetes y manejo de direccin de cola
en los routers.

Siguiendo esta seccin siguiente que analiza los requerimientos de QoS usando ATM e
Internet la tcnica Engineering Task Force (IETF). El objetivo de estas secciones es
introducirle en la terminologa del ATM y IETF que los ingenieros usan para clasificar el
trfico y especificar los requerimientos de QoS por clases de trfico. Aunque el material
sea muy altamente tcnico y detallado, esto debera darle alguna idea fundamental
sobre la clasificacin de los tipos de aplicaciones que jugarn una parte en su diseo de
red y estar preparado para futuros captulos que cubren estrategias de diseo y
optimizacin de redes que pueden encontrar las necesidades de varias aplicaciones.

Calidad de ATM de Especificaciones de Servicio
En su documento "Especificacin del Manejo de Trafico la Versin 4.1 el Forum de
ATM hace un trabajo excelente de clasificar los tipos de servicio que una red puede
ofrecer para soportar diferentes clases de aplicaciones. Incluso si su cliente no tiene
ningunos proyectos de usar la tecnologa del Modo de Transferencia Asincrnico (ATM),
la terminologa del Foro de ATM es todava provechosa porque esto identifica los
diferentes parmetros que las clases de aplicaciones deben especificar para solicitar un
Metodologa Top Down

Marcos Huerta S.
49
cierto tipo del servicio de red. Estos parmetros incluyen tardanza y variacin del
tamao de tardanza, prdida de datos, y picos de trfico mximo, sostenible, y mnimos.
Aunque usted debiera sustituir la palabra celda con paquete en algunos casos, las
definiciones de Foro de ATM pueden ayudarle a clasificar aplicaciones en cualquier red,
hasta redes que no son ATM.

El Foro de ATM define seis categoras de servicio, cada uno de las cuales es descrito
ms detalladamente en esta seccin:
Velocidad binaria constante (CBR)
Velocidad binaria variable de tiempo real (rt-VBR)
Velocidad binaria variable no tiempo real (nrt-VBR)
Velocidad binaria no especificada (UBR)
Velocidad binaria disponible (ABR)
Precio de marco garantizado (GFR)

Para cada categora de servicio, el Foro de ATM especifica un juego de parmetros para
describir tanto trfico presente en la red como el QoS requerido de la red. El Foro de
ATM tambin define mecanismos de control de trfico que la red puede usar para
encontrar objetivos QoS. La red puede implementar tales mecanismos de conexin de
control de admisin y asignacin de recurso diferentes para cada categora de servicio.

Las categoras de servicio son distinguidas al comienzo siendo tiempo real o tiempo no
real. El CBR y rt-VBR son categoras de servicio de tiempo real. Las aplicaciones de
tiempo real, como voz y aplicaciones de vdeo, requieren la variacin de tardanza y
tardanza fuertemente obligada. Las aplicaciones en tiempo no real, como
cliente/servidor y aplicaciones de datos de terminal/host, no requieren la tardanza
fuertemente obligada y retrasan la variacin. El Nrt-VBR, UBR, ABR, y GFR son
categoras de servicio tiempo no real.

Categora de Servicio de Velocidad Binaria Constante
Cuando CBR es usado, unos recursos de reservas de red del final del sistema de la
fuente y pregunta por una garanta QoS negociado es asegurado a todas las celdas
mientras las celdas se conforman a las pruebas de conformidad relevantes. La fuente
puede emitir celdas en el pico de celda mximo (PCR) en cualquier momento y para
cualquier duracin y los compromisos QoS deberan pertenecer. El CBR es usado por
aplicaciones que necesitan la capacidad de solicitar que una cantidad esttica del ancho
de banda estuviera continuamente disponible durante una conexin de por vida. La
cantidad de ancho de banda que una conexin requiere es especificada por el valor de
PCR.

Metodologa Top Down

Marcos Huerta S.
50
El servicio de CBR intenta soportar aplicaciones de tiempo real que requieren la
variacin de tardanza fuertemente obligada (por ejemplo, la voz, el vdeo, y la emulacin
de circuitos), pero no es restringido a estas aplicaciones. La fuente puede emitir celdas
debajo de PCR negociado o ser silenciosa durante perodos del tiempo. Se asume que
celdas que son retrasadas ms all del valor especificado por la tardanza de
transferencia de parmetros de celdas mxima (maxCTD) son del valor
considerablemente reducido a la aplicacin.

Categora de Servicio de Velocidad Binaria Variable Tiempo no real
La categora de servicio nrt-VBR es requerida para aplicaciones de tiempo no real que
tienen caractersticas de trfico bursty. El servicio es caracterizado en trminos de PCR,
SCR, y MBS. Para celdas que son transferidas dentro del contrato de trfico, la
aplicacin espera una proporcin baja de prdida de celdas (CLR). El servicio de nrt-
VBR puede

Servicio de Control de Carga
El Servicio de control-Carga es definido en RFC 2211 y provee a un cliente un flujo de
datos con QoS que se aproxima al QoS este mismo flujo recibira una descarga en la
red. El control de admisin es aplicado a los requisitos de servicio solicitado y es
recibido aun cuando la red esta sobrecargada.

El Servicio de Control-Carga es requerido para aplicaciones que son muy sensibles a
condiciones sobrecargadas, como aplicaciones de tiempo real.

Estas aplicaciones trabajan bien en redes descargadas, pero degradan rpidamente en
redes sobrecargadas. Un servicio, como el Control-Carga que imita redes descargadas
sirve estos tipos de aplicaciones bien.

Asumiendo que la red funciona correctamente, un servicio de control-carga esta
solicitando de la aplicacin puede asumir lo siguiente:
Un alto porcentaje de paquetes transmitidos ser recepcionados con xito al final
de los nodos de la red. (El porcentaje de paquetes que no es entregado con xito
debe aproximarse al ndice de errores de paquete bsico del medio de transmisin.)
La tardanza de trnsito experimentada por un porcentaje muy alto de los paquetes
entregados no exceder el mnimo transmitido en la tardanza experimentada por
cualquier paquete con xito entregado. (Esta tardanza de trnsito mnima incluye la
tardanza de velocidad de luz ms el tiempo de procesamiento fijo en routers y otros
dispositivos de comunicaciones a lo largo del camino.)

Metodologa Top Down

Marcos Huerta S.
51
El servicio de control-carga no acepta o hace el uso de valores objetivo especficos para
parmetros como tardanza o prdida. En cambio, la aceptacin de una peticin del
servicio de control-carga implica un compromiso por el nodo de red para proveer el
requester del servicio estrechamente equivalente con esto proporcionado a incontrolado
(mejor esfuerzo) trfico en condiciones ligeramente cargadas.

Un nodo de red que acepta una peticin del servicio de control-carga debe usar
funciones de control de admisin para asegurar que los recursos adecuados estn
disponibles para manejar el nivel solicitado del trfico, como definido por las solicitudes
TSpec . Los recursos incluyen el ancho de banda del, router o el espacio del bufer-
puerto del switch, y la capacidad computacional del motor que avanza el paquete.

Servicio Garantizado
El RFC 2212 describe el comportamiento requerido del nodo de red llamado a entregar
un servicio garantizado esta caractersticas garantiza tanto la tardanza como ancho de
banda. El servicio garantizado proporciona la firma (matemticamente probable) en la
tardanzas de punta a punta que hacen cola paquete. Esto no intenta minimizar la
inquietud y no est preocupado por reparar la tardanza, como la tardanza de
transmisin. (Reparar la tardanza es una propiedad del camino elegido, que es
determinado por el mecanismo de sistema, como RSVP.)

El servicio garantizado garantiza que los paquetes llegarn dentro del plazo de entrega
garantizado y no sern descartado debidos a desbordamientos, condicin de que el
trfico del flujo es conformado por TSpec. Una serie de nodos de red que ponen en
prctica la implementacin del RFC 2212 esta asegura un nivel de ancho de banda,
cuando es usado por un flujo regulado, produce un servicio salto-tardanza sin la prdida
de cola (asumiendo que no falla ningn componentes de red o cambios de la
encaminamiento durante la vida del flujo).

El servicio garantizado es requerido para aplicaciones que necesitan una garanta que
un paquete no llegar ms tarde que un cierto tiempo despus de que fue transmitido
por su fuente. Por ejemplo, algunas aplicaciones de repeticin de audio y de vdeo son
intolerantes de un paquete que llega despus de su tiempo de repeticin esperado. Las
aplicaciones que tienen exigencias de tiempo real tambin pueden usar el servicio
garantizado.

El ratio es medido en bytes de datagramas IP por segundo, y puede extenderse de 1
byte por segundo a tan grande como 40 TB por segundo (el ancho de banda terica
mxima de solo un hilo de fibra). El tamao del paquete puede extenderse de 1 byte a
250 GB. El rango de valores es intencionadamente grande para tener en cuenta futuras
Metodologa Top Down

Marcos Huerta S.
52
anchos de banda. El rango no intenta implicar tanto a un nodo de red tiene que soportar
el rango de la red entera.

La expectativa del grupo de funcionamiento de Servicios Integrado consiste en que un
revelador de software puede usar RFCs relevante para desarrollar aplicaciones
inteligentes que pueden poner exactamente el ratio de paquete y el tamao. Una
aplicacin por lo general puede estimar exactamente la tardanza esperada que hace
cola que el servicio garantizado proporcionar. Si la tardanza es ms grande que
esperado, la aplicacin puede modificar su paquete simblico para conseguir una
tardanza inferior.

Como un diseador de red, no le visitarn generalmente para estimar ratios de paquete
simblico y tamaos. Por otra parte, usted debera reconocer qu necesidad de
aplicaciones garantizada el servicio y tienen alguna idea de su comportamiento de falta
y si una reconfiguracin del comportamiento de falta es posible. Si una aplicacin puede
solicitar el ancho de banda de terabytes por segundo, usted tiene que saber este debido
al efecto negativo que esto podra tener en otras aplicaciones.

Documentacin Requerimientos de QoS
Usted debera trabajar con su cliente para clasificar cada aplicacin de red en una
categora de servicio. Una vez que usted ha clasificado la aplicacin, usted debera
rellenar "la columna" de Requerimientos de QoS en la Tabla Nro. 07

Si su cliente tiene aplicaciones que pueden ser caracterizadas como necesitando la
controla-carga o el servicio garantizado, usted puede usar aquellos trminos rellenando
"la columna" de Requerimientos de QoS. Si su cliente planea usar el ATM, usted puede
usar la terminologa del Foro de ATM para categoras de servicio. Incluso si su cliente no
planea usar el ATM o IETF QoS, usted todava puede usar el Foro de ATM o la
terminologa de grupo de funcionamiento de Servicios Integrada. Otra alternativa debe
usar simplemente los trminos inflexible y flexible. Inflexible es una palabra genrica
para describir cualquier aplicacin que tiene exigencias especficas para ancho de
banda constante, tardanza, variacin de tardanza, exactitud, y rendimiento. Flexible, por
otra parte, es un trmino genrico para aplicaciones que simplemente esperan que la
red haga el un mejor esfuerzo para encontrar los requerimientos. Muchas aplicaciones
no multimedia tienen requerimientos de QoS flexibles.

Para aplicaciones de voz, usted debera hacer ms de una entrada en Tabla Nro. 07
debido a los requerimientos diferentes de flujo de control de llamada y la corriente de
audio. El flujo de control de llamada, se usa para establecer llamadas perdidas, no tiene
coacciones de tardanza estrictas, pero esto requiere una alta disponibilidad de red y
Metodologa Top Down

Marcos Huerta S.
53
puede haber un requerimiento GoS que debera ser especificada. Para la corriente de
voz, la clasificacin QoS debera ser puesta en una lista usando el trmino de ATM o el
trmino de IETF servicio garantizado.

Resumen de Identificando objetivos y necesidades del cliente
En este punto en el proceso de diseo de red, usted ha identificado las aplicaciones de
red de un cliente y los requerimientos tcnicas para un diseo de red que puede apoyar
las aplicaciones.

Este resume, "Identificando las Necesidades de Su Cliente y Objetivos." La Fase de
anlisis de requerimientos es la fase ms importante en el diseo red de la metodologa
top down. La ganancia de un entendimiento slido de los requerimientos de su cliente le
ayuda a seleccionar tecnologas que encuentran los criterios de un cliente para el xito.

Usted debera ser capaz ahora de analizar los objetivos comerciales y tcnicos de un
cliente y estar listo a comenzar a desarrollar un diseo de red lgico y fsico. "Diseo de
Red Lgico," que disean una topologa de red lgica, desarrollando el direccionamiento
de capa de red y nombramiento del modelo, seleccin de switches y de protocolos de
enrutamiento, y planificacin de seguridad de red y estrategias de direccin.

Fase II: Diseo de una Red Lgica

Parte 5. Diseo de una topologa de red
En este captulo, usted aprender tcnicas para desarrollar una topologa de red. A
topologa es un mapa de la red que indican segmentos de red, puntos de interconexin,
y comunidades de usuario. Adems los sitios geogrficos puedan aparecer en el mapa,
el objetivo del mapa es mostrar la geometra de la red, no la geografa fsica o
implementacin tcnica. El mapa es una vista panormica del alto nivel de la red,
anloga a un dibujo arquitectnico que muestra la posicin y el tamao de cuartos para
un edificio, pero no los materiales de construccin para fabricar los cuartos.

El diseo de una topologa de red es el primer paso en la fase de diseo lgica de la
metodologa de diseo de red Top Down. Para encontrar los objetivos de un cliente para
escalabilidad y adaptabilidad, es importante para el arquitecto una topologa lgica antes
de seleccionar productos fsicos o tecnologas. Durante la fase de diseo de topologa,
usted identifica redes y puntos de interconexin, el tamao y alcance de redes, y los
tipos de dispositivos de funcionamiento entre redes que sern requeridos, pero no los
dispositivos actuales.

Metodologa Top Down

Marcos Huerta S.
54
Este captulo proporciona tips tanto para diseo de redes WAN de campus como
empresariales, y se concentra en el diseo de red jerrquico, que es una tcnica para
disear campus escalable y redes WAN usando un modelo modular por capas. Adems
del diseo de red jerrquico, en esta seccin tambin cubre topologas de diseo de red
redundantes y topologas con objetivos de seguridad. (La seguridad es cubierta ms
detalladamente en la Parte 8, "Desarrollo de la Seguridad de Red.") Este captulo
tambin cubre el Modelo de Red Empresarial Compuesta, que es la parte de la
Arquitectura Segura Empresarial de Cisco (SAFE).

Diseo de Red Jerrquica
Para encontrar los objetivos comerciales y tcnicos de un cliente para un diseo de red
corporativo, usted podra tener que recomendar que una topologa de red que consiste
en muchos interrelacionara componentes. Esta tarea es hecha ms fcil si usted puede
"dividir y triunfar" el trabajo y desarrollar el diseo en capas.

Cada capa puede ser enfocada en funciones especficas, permitindole elegir los
correctos sistemas y caracteristicas para la capa. Por ejemplo, en La figura 11, routers
WAN de alto velocidad puede llevar el trfico a travs del backbone WAN de la
empresa, los routers de velocidad media pueden unir edificios en cada campus, y los
switches pueden conectar dispositivos de usuario y servidores dentro de edificios.

Figura Nro. 11. Topologa Jerrquica



Una topologa jerrquica tpica esta dividida por tres capas:
Una Capa Core de routers y switches de alta velocidad que son optimizados para
disponibilidad e performance.
Una Capa de distribucin routers y switches para la implementacin de polticas.
Metodologa Top Down

Marcos Huerta S.
55
Una Capa de Acceso que une en la parte inferior a usuarios va switches y puntos
de acceso inalmbricos.

Por qu Usar un Modelo de Diseo de Red Jerrquico?
Las redes crecen desatendidas sin ningn plan y tienden a desarrollarse en un formato
no estructurado. Doctor Peter Welcher, el autor de diseo de redes y artculos de
tecnologa para el Mundo de Cisco y otras publicaciones, se refiere a redes inesperadas
como redes de pelota-piel.

Welcher explica las desventajas de una topologa de pelota-piel indicando los problemas
que demasiadas adyacencias de CPU causan. Cuando los dispositivos de red se
comunican con muchos otros dispositivos, la carga de trabajo requerida de las CPUs en
los dispositivos puede ser pesada. Por ejemplo, en un apartamento grande (Switched) la
red, los paquetes de broadcast son pesados. Un paquete de broadcast interrumpe la
CPU en cada dispositivo dentro del dominio de broadcast, y demanda procesamiento de
tiempo en cada dispositivo para el cual un protocolo que entiende para aquellos
broadcast instalado. Este incluye routers, estaciones de trabajo, y servidores.

Otro problema potencial con redes no jerrquicas, adems de los paquetes de
broadcast, es la carga de trabajo de CPU requerida para los routers para comunicarse
con muchos otros routers y tratar la numerosa publicacin de ruta. Una metodologa de
diseo de red jerrquica le deja disear una topologa modular que limita el nmero de
routers que se comunican.

La utilizacin de un modelo jerrquico puede ayudarle a minimizar gastos. Usted puede
comprar los dispositivos apropiados de funcionamiento entre redes para cada capa
jerrquica, as evitando gastos de dinero en caractersticas innecesarios para una capa.
Tambin, la naturaleza modular del modelo de diseo jerrquico permite la planificacin
de capacidad exacta de cada capa jerrquica, logrando reducir el ancho de banda
perdido innecesariamente. La responsabilidad del manejo de los sistemas de la red
pueden ser distribuidos a las diferentes capas de una arquitectura de red modular para
controlar gastos de direccin.

La modularidad le deja guardar cada elemento de diseo simple y fcil de entender. La
simplicidad minimiza la necesidad de la formacin extensa para el personal de
operaciones de red y acelera la realizacin de un diseo. Las pruebas de un diseo de
red son hechas fciles porque hay funcionalidad clara en cada capa. El aislamiento de
fallas es mejorado porque los tcnicos de red pueden reconocer fcilmente los puntos
de transicin en la red y le ayudara a aislar puntos de fallas posibles.

Metodologa Top Down

Marcos Huerta S.
56
El diseo jerrquico facilita cambios. Cuando los elementos en una red requieren el
cambio, el coste de hacer una mejora est contenido a un pequeo subconjunto de la
red total. En cambio las grandes arquitecturas de red, los cambios tienden a afectar un
nmero grande de sistemas. La sustitucin de un dispositivo puede afectar numerosas
redes debido a las interconexiones complejas.

Cmo puede Usted Contar Cuando Usted Tiene un Diseo Bueno?
Aqu estn algunas respuestas sabias de Peter Welcher que estn basadas en los
principios del diseo de red jerrquico, modular:
Cuando usted ya sabe aadir un nuevo edificio, piso, enlaces WAN, sitio remoto,
servicio de e-comercio, etctera.
Cuando las nuevas adiciones causan el cambio local solo a los dispositivos
directamente relacionados.
Cuando su red puede doblarse o triplicarse en el tamao sin cambios de diseo
principales.
Cuando los problemas es fcil porque no hay ningunas interacciones de complejos
protocolo.

Topologa Plana Contra Jerrquicas
Una topologa de red plana es adecuada para redes muy pequeas. Con un diseo de
red plano, no hay ninguna jerarqua. Cada dispositivo de la red tiene esencialmente el
mismo trabajo, y la red no es dividida en capas o mdulos. Una topologa de red plana
es fcil para disear, de implementar y mantener, mientras permanezca como una red
pequea.
Cuando la red crece, sin embargo, una red plana es indeseable. La carencia de
jerarqua hace los problemas ms difcil. En vez de ser capaz de concentrar esfuerzos
para la solucin del problema en una sola una rea de la red, usted puede tener que
inspeccionar la red entera.

Topologa WAN Plana
Una red de rea amplia (WAN) para una pequea compaa puede consistir en unos
sitios conectados en un loop. Cada sitio tiene un router WAN que se une a otros dos
sitios adyacentes va enlaces de punto a punto, como es mostrado en la figura nro. 12.
Mientras la WAN es pequeo (en sitios pequeos), los protocolos de enrutamiento
puede convergir rpidamente, y la comunicacin con cualquier otro sitio puede
recuperarse cuando un enlaces falla. (Mientras slo un enlaces falla, la comunicacin
se recupera. Cuando ms de un enlaces falla, algunos sitios son aislados de otros.)



Metodologa Top Down

Marcos Huerta S.
57
Figura Nro. 12


Figura Nro. 13. Topologa Redundante Jerrquica

Una topologa de loop plana no es generalmente recomendada para redes con muchos
sitios, sin embargo. Una topologa de loop plana puede significar que hay muchos saltos
entre routers en lados opuestos del loop, causando la tardanza significativa y una alta
probabilidad de fracaso. Si su anlisis del flujo de trfico indica que los routers en los
lados opuestos de una topologa de loop cambian mucho el trfico, usted debera
recomendar una topologa jerrquica en vez de una de loop. Para evitar cualquier punto
falle, los routers redundantes o los switches pueden ser colocados en capas superiores
de la jerarqua, como mostrado en la figura 12.

La topologa de loop plana mostrada en la figura 12 encuentra objetivos para bajos de
costo y disponibilidad razonablemente buena. La topologa redundante jerrquica
mostrada en la figura 13 encuentra objetivos para escalabilidad, disponibilidad alta, y
bajo retardo.

Topologas de LAN Plana
A principios de los aos 1990, un tpico diseo para un LAN era ordenadores personales
y servidores atados a uno o varios hub en una topologa plana. Los ordenadores
Metodologa Top Down

Marcos Huerta S.
58
personales y los servidores se implemento un proceso de control de acceso de medios,
como pas de token o Acceso Mltiple con Escucha de Portadora y Deteccin de
Colisiones (CSMA/CD) para control de acceso al ancho de banda compartida. Los
dispositivos eran todo parte del mismo dominio de ancho de banda y tenan la habilidad
de afectar negativamente la tardanza y el rendimiento para otros dispositivos.

En estos das, los diseadores de red recomiendan conectar ordenadores personales y
servidores a la capa de enlace de datos (Capa 2) switches en vez de hubs. En este
caso, la red es segmentada en pequeas dominios de ancho de banda de modo que un
nmero limitado de dispositivos compita por el ancho de banda en cualquier tiempo. (Sin
embargo, los dispositivos compiten realmente por el servicio de conmutacin de
hardware y software, entonces es importante entender las caractersticas de
performance de los candidato del switches, como se habla en El captulo 10,
"Seleccionando Tecnologas y Dispositivos para Redes de Campus.")

Como se ha discutido en el captulo 4, "Caracterizando el Trfico de Red," los
dispositivos switches o bridge conectados en una red son la parte del misma dominio de
broadcast. Los switches expiden paquetes de broadcast a todos los puertos. Los
routers, por otra parte, segmentan redes en dominios de broadcast separados. Un
documentado en la Tabla 4-8, un simple dominio de broadcast solo debera ser limitado
con unos cientos de dispositivos de modo que los dispositivos no sean abrumados por la
tarea de tratar el trfico de broadcast. Introduciendo la jerarqua en un diseo de red
aadiendo routers, la radiacin de broadcast es reducida.

Con un diseo jerrquico, los dispositivos de redes pueden ser desplegados para hacer
el trabajo que ellos hacen mejor. Los routers pueden ser aadidos a un diseo de red de
campus para aislar el trfico de broadcast. Los switches de alta capacidad se pueden
desplegar para maximizar el ancho de banda para aplicaciones de trfico alto, y los
switches finales de baja capacidad se pueden usar cuando, el acceso barato es
requerido. Maximizar la performance total por modularizacin las tareas requeridas de
los dispositivos de red es una de las muchas ventajas de usar un modelo de diseo
jerrquico.

Topologa Malla Contra Malla Jerrquica
Los diseadores de red a menudo recomiendan a una topologa de malla por encontrar
requerimientos de disponibilidad. En la topologa de malla completa, cada routers o o
switch estn conectados con otro routers o switch. Una red de malla completa
proporciona redundancia completa, y ofrece una buena performance porque solo hay
una tardanza de un simple enlaces entre dos sitio cualquiera. A red de malla parcial
Metodologa Top Down

Marcos Huerta S.
59
tiene menos conexiones. Alcanzar otro router o switch en una red de malla parcial
podra requerir enlaces intermedios que cruzar, como mostrado en la figura 14
Figura Nro. 14

En una topologa de malla completa, cada router o switch est conectado otro routers o
switch. El nmero de enlaces en una topologa de malla completa es como sigue:
(N * (N 1)) / 2
El N es el nmero de routers o switches.

Aunque las redes de malla presenten una buena fiabilidad, ellos tienen muchas
desventajas si ellos no son diseados con cuidado. Las redes de malla pueden ser
caras de desplegar y mantener. (Una red de malla completa es sobre todo cara.) las
redes de Malla tambin pueden ser difciles de optimizar, resolver fallas, y actualizar, a
menos que ellos sean diseados usando un modelo simple, jerrquico. En una topologa
de malla no jerrquica, los dispositivos de redes no son optimizados para funciones
especficas. Contener problemas de red es difcil debido a la carencia de modularidad.
Las mejoras de red son problemticas porque es difcil mejorar slo una parte de una
red.

Las redes de malla tienen lmites de escalabilidad para grupos de routers que transmiten
encaminamiento de broadcast o publicacin de servicio. Como el nmero de CPU de
routers aumenta las adyacencias, la cantidad de ancho de banda y recursos de CPU
dedicados a procesamiento de actualizaciones tambin aumenta.

Una buena regla bsica es que usted debera aplicar es el trfico de broadcast este en
menos del 20 % en cada enlace. Esta regla limita el nmero de routers adyacentes que
pueden cambiar las tablas de encaminamiento y publicacin de servicio. Esta limitacin
no es un problema, sin embargo, si usted sigue las pautas para el diseo jerrquico. Un
diseo jerrquico, en su misma naturaleza, limita el nmero de adyacencias de routers.
Metodologa Top Down

Marcos Huerta S.
60

Con los protocolos de encaminamiento, como OSPF y EIGRP, el problema no es con el
trfico de broadcast/multicast y recursos de CPU usados para el encaminamiento
cotidiano.

El problema es la cantidad de trabajo y ancho de banda requerida restablecer el
encaminamiento despus de una interrupcin. Procure no dejar a su red convertirse en
una malla complicada slo porque esta todava trabaja. Habr probablemente una
interrupcin un da y luego usted puede aprender el camino mas difcil de perdiciones
asociadas con

La figura 14 muestra un diseo empresarial clsico jerrquico y redundante. El diseo
usa una jerarqua de malla parcial ms bien que una malla completa. La figura muestra
una red de router empresarial, pero la topologa podra ser usada para switches de
campus de red tambin.

Figura Nro. 15. Diseo de una Red Parcial Jerrquica

Para compaas de tamao medio y pequeas, el modelo jerrquico a menudo es
implementado como a la topologa "hub y spoke" con poco o ningn malla. La oficina
central corporativa o un centro de datos forman el hub. Los enlacess a oficinas remotas
y casas de las telecomunicaciones forman el spokes como se muestra en la figura 16.









Metodologa Top Down

Marcos Huerta S.
61

Figura Nro. 16 Hub y Spoke para Compaas Medianas y Pequeas



El Clsico Modelo Jerrquico de Tres Capas
La literatura publicada por el Cisco Systems, Inc habla de un clsico modelo jerrquico
de tres capas para topologas de diseo de red. El modelo de tres capas permite la
agregacin de trfico y filtrando en tres encaminamiento sucesivo o conmutacin de
niveles. Este hace el modelo jerrquico de tres capas escalable a redes internacionales
grandes.

Aunque el modelo fuera desarrollado a la vez cuando los routers delinearon capas, el
modelo puede ser usado para redes conmutadas as como redes ruteadas. Las
topologas jerrquicas de tres capas son mostradas en la figura 12 y La figura 15.
Cada capa del modelo jerrquico tiene un papel especfico. La capa core proporciona el
transporte ptimo entre sitios. La capa de distribucin conecta servicios de red a la capa
de acceso, y implementa polticas de seguridad, carga de trfico, y encaminamiento. En
un diseo WAN, la capa de acceso consiste en routers de borde de las redes de
campus. En una red de campus, la capa de acceso proporciona switches o hubs para el
acceso de usuario final

La Capa Core
El capa core de una topologa jerrquica de tres capas es la columna vertebral rpida de
las redes. Como la capa core es crtica para la interconectividad, usted debera disear
la capa core con componentes redundantes. La capa core debera ser muy confiable y
debera adaptarse a cambios rpidamente.
Metodologa Top Down

Marcos Huerta S.
62

Cuando Configure routers en la capa core, usted debera usar caractersticas de
encaminamiento que optimicen el rendimiento del paquete. Usted debera evitar usar
filtros de paquete u otra caracterstica que hacen ms lenta la manipulacin de
paquetes. Usted debera optimizar el core durante la baja latencia y buena
manejabilidad.

El core debera tener un dimetro limitado y consistente. Los routers de trfico de capa
de distribucin (o switches) y clientes LANs pueden ser aadidos al modelo sin
aumentar el dimetro del core. La limitacin del dimetro del core proporciona un
previsible performance y la facilidad de la solucin de problemas.

Para clientes que tienen que conectarse a otras empresas va un extranet o el Internet,
la topologa core debera incluir uno o varios enlacess a las redes externas. Los
administradores de red corporativos deberan desplegarse regionalmente y
administradores de oficinas sucursales de planear su propio extranets o conexiones al
Internet. La centralizacin de estas funciones en la capa core reduce la complejidad y el
potencial para lo problemas de enrutamiento, y es esencial reducir al mnimo lo que
concierne a seguridad.

La introduccin de enlacess de socio de negocio con la sucursal donde la colaboracin
ocurre puede parecer lgica, pero esto significa que usted tiene que permitir el trfico del
compaero en la sucursal, pero no ms all de lo necesario. Con el tiempo, usted
terminar con una mezcolanza de listas de control de acceso distribuidas y firewalls, que
complica la aplicacin de poltica. Esto tambin es enormemente alto en gastos si usted
desea usar sistemas de deteccin de intrusin (IDSs) y otras tecnologas de seguridad.

Del mismo modo, algunas oficinas remotas con IPSec conectividad de VPN cambian
lejos del acceso en los sitios remotos donde los usuarios tienen el acceso local a
Internet adems del acceso de IPSec remoto a la oficina central corporativa. A pesar del
gasto de ancho de banda, obligando todo el acceso externo a pasar por el core de los
medios de red que tienen slo una seguridad estructurada para administrar, que es un
modo bueno de evitar problemas de seguridad.

La Capa de Distribucin
La capa de distribucin de la red es el punto de demarcacin entre el acceso y las capas
core de la red. La capa de distribucin tiene muchos roles, incluso el control del acceso
a recursos por razones de seguridad, y control del trfico de red que cruza el core por
motivos de performance. La capa de distribucin es a menudo la capa que delinea el
dominio de broadcast, (aunque este pueda ser hecho en la capa de acceso tambin). En
Metodologa Top Down

Marcos Huerta S.
63
diseos de red que incluyen LANs virtuales (VLANs), la capa de distribucin puede ser
configurada para rutear entre VLANs.

La capa de distribucin permite que la capa core conecte los sites que corren en
diferentes protocolos manteniendo un alto performance. Para mantener un buen
performance en el core, la capa de distribucin puede redistribuir entre la capa de
acceso el intenso ancho de banda de protocolo de encaminamiento y optimizar los
protocolos de encaminamiento del core. Por ejemplo, quizs un site en la capa de
acceso todava dirige un protocolo ms viejo, como IGRP. La capa de distribucin puede
redistribuir entre IGRP en la capa de acceso e EIGRP realzado en la capa core.

Para mejorar el performance de los protocolo de enrutamiento, la capa de distribucin
puede sumarizarse las rutas de la capa de acceso. Para algunas redes, la capa de
distribucin ofrece una ruta por defecto hacia los routers de la capa de acceso y slo
corre protocolos de enrutamiento dinmicos comunicando con los routers del core.

Para maximizar la jerarqua, la modularidad, y la performance, la capa de distribucin
debera esconder la informacin de topologa detallada sobre la capa de acceso de
routers principales. La capa de distribucin debera resumir numerosos destinos de capa
de acceso en una publicacin en el core. Igualmente, la capa de distribucin debera
esconder la informacin de topologa detallada sobre la capa core de la capa de acceso
resumiendo a una pequeo sumarizacin de publicaciones o slo a una ruta por defecto
de ser posible. La capa de distribucin puede proveer a la capa de acceso de una ruta al
router de capa de distribucin ms cercano que tiene el acceso al core.

La Capa de Acceso
La capa de acceso proporciona a usuarios locales de segmento el acceso a las redes.
La capa de acceso puede incluir routers, switches, puentes, hubs para compartir-
medios, y puntos de acceso inalmbricos. Como mencionado, los switches a
frecuentemente son implementado en la capa de acceso en redes de campus para
dividir los dominios de ancho de banda para encontrar las demandas de aplicaciones
que necesitan mucho ancho de banda o no pueden resistir la tardanza variable
caracterizada por el ancho de banda compartida.

Para redes que incluyen pequeas sucursales y corporaciones de telecomunicaciones,
la capa de acceso puede proporcionar el acceso en las redes corporativas usando
tecnologas de rea amplia como ISDN, Frame Relay, arrend lneas digitales, y lneas
de mdem anlogas. Usted puede implementar caractersticas de enrutamiento, como
el enrutamiento de marcado a peticin (DDR) y enrutamiento esttico, controlar la
utilizacin de ancho de banda y minimizar el costo en la capa de acceso enlacess
Metodologa Top Down

Marcos Huerta S.
64
remotos. (DDR guarda un enlace inactivo menos cuando el trfico especificado tiene
que ser enviado.)

Pautas para el Diseo de Red Jerrquico
Esta seccin brevemente describe algunas pautas para el diseo de red jerrquico.
Despus de estas pautas simples le ayudar a disear redes que aprovechan las
ventajas del diseo jerrquico.

La primera pauta es que usted debera controlar el dimetro de una topologa de red de
empresa jerrquica. En la mayor parte de casos, tres capas principales son suficientes
(como se mostrado en La figura 15):
La capa core
La capa de distribucin
La capa de acceso

El control del dimetro de red proporciona la latencia baja y previsible. Esto tambin le
ayuda a predecir caminos de enrutamiento, flujos de trfico, y requerimientos de
capacidad. Un dimetro de red controlado tambin hace la solucin y la documentacin
de red ms fcil.

El control estricto de la topologa de red en la capa de acceso debera ser mantenido. La
capa de acceso es la ms susceptible a violaciones de pautas de diseo de red
jerrquicas. Los usuarios en la capa de acceso tienen una tendencia de aadir redes a
las redes inapropiadamente. Por ejemplo, un administrador de red en una sucursal
podra conectar la rama de la red a otra rama, aadiendo una cuarta capa. Este es un
error de diseo de red comn que es conocido como adicin de una cadena. La figura
17 muestra una cadena.

Figura Nro. 17. Una Cadena y Puerta trasera en la Capa de Acceso


Metodologa Top Down

Marcos Huerta S.
65
Adems de la evitacin de cadenas, usted debera evitar puertas traseras. Las puertas
traseras es una unin entre dispositivos en la misma capa, que mostrado en La figura
17. Una puerta trasera puede ser un router suplementario, puente, o switch aadido
para unir dos redes. Las puertas traseras deberan ser evitadas porque ellos causan la
enrutamiento inesperado y problemas de conmutacin y hacen la documentacin de red
y la solucin ms difcil.

Finalmente, otra pauta para el diseo de red jerrquico es que usted debera disear la
capa de acceso primero, seguido de la capa de distribucin, y luego finalmente la capa
core. Comenzando con la capa de acceso, usted puede realizar ms exactamente la
planificacin de performance para la capa de distribucin y core. Usted tambin puede
reconocer las tcnicas de optimizacin que usted necesitar para la capa de distribucin
y core.

Usted debera disear cada capa usando tcnicas modulares y jerrquicas y luego
planear las interconexiones entre capas basadas en su anlisis de carga de trfico, flujo,
y comportamiento. Para entender mejor caractersticas de trfico de red usted puede
examinar los conceptos cubiertos en la Fase II. Cuando usted selecciona tecnologas
para cada capa, descrito en La Fase III de, "Diseo de Red Fsico," usted podra tener
que volver y recordar el diseo para otras capas. Recuerde que el diseo de red es un
proceso iterativo.

Topologas de Diseo de Red Redundante
Los diseos de red redundantes le dejan encontrar requerimientos para la disponibilidad
de red duplicando elementos en una red. La redundancia intenta eliminar cualquier
simple punto que falle en la red. El objetivo es duplicar cualquier componente requerido
cuya falla podra incapacitar aplicaciones crticas. El componente podra ser un router
core, un switch, un enlaces entre dos switches, un unidad de canal de servicio (CSU), un
suministro de energa, un enlace WAN, conectividad de Internet, etctera.

Para permitir el negocio survivencia despus de un desastre y ofrecer beneficios de
performance de carga compartida, algunas organizaciones tienen centros de datos
completamente redundantes. Otras organizaciones tratan de realizar gastos
operacionales usando menos - el nivel completo de redundancia en la red.
La redundancia puede ser implementada en redes interiores de campus individuales y
entre capas del modelo jerrquico. La implementacin de redundancia en redes de
campus puede ayudarle a encontrar objetivos de disponibilidad para usuarios que tienen
acceso a servicios locales. La Redundancia tambin puede ser implementada en el
borde de la red de empresarial para asegurar la alta disponibilidad por Internet, extranet,
y red de acceso privada virtual (VPN).
Metodologa Top Down

Marcos Huerta S.
66
Antes de que usted seleccione soluciones de diseo redundantes, usted debera
analizar primero los objetivos comerciales y tcnicos de su cliente, como hablado en
Fase I de esta tesis, "La Identificacin de las Necesidades de Su Cliente y Objetivos.
"Asegrese que usted puede identificar aplicaciones crticas, sistemas, dispositivos de
funcionamiento entre redes, y enlacess. Analice la tolerancia de su cliente por el riesgo y
las consecuencias de no implementar redundancia. Asegrese para hablar con su
cliente de las consecuencias redundancia contra bajos costos, y simplicidad contra la
complejidad. La Redundancia aade la complejidad a la topologa de red y
direccionamiento y enrutamiento a la red.

Caminos de Reserva
Para mantener la interconectividad aun cuando uno o varios enlacess estn cados,
diseamos la red redundante que incluye un camino de reserva para paquetes para
viajar cuando hay problemas en el camino primario. A camino de reserva consiste en
individuales routers e switches y enlacess de reserva entre routers e switches, que
duplican dispositivos y enlacess en el camino primario.

Cuando estima la performance de la red para un diseo de red redundante, usted
debera tener dos aspectos en cuenta del camino de reserva:
Cunta capacidad apoya el camino de reserva?
Cmo rpidamente comenzar la red a usar el camino de reserva?

Usted puede usar un instrumento que modela red para predecir la performance de la red
cuando el camino de reserva est en el uso. A veces la performance es peor que el
camino primario, pero todava aceptable.


Es completamente comn para un camino de reserva tener menos capacidad que un
camino primario. Los enlacess de reserva individuales frecuentemente usan tecnologas
diferentes. Por ejemplo, una lnea arrendada puede estar en la paralela con una reserva
dialup la lnea o el circuito ISDN. Diseando un camino de reserva que tiene la misma
capacidad que el camino primario puede ser caro y es slo apropiado si los
requerimientos comerciales del cliente dictan un camino de reserva con las mismas
caractersticas de performance que el camino primario.

Cambiando al camino de reserva requiere la reconfiguracin manual de cualquier
componente, entonces los usuarios notarn la interrupcin. Para aplicaciones crticas de
perdida, la interrupcin no es probablemente aceptable. Un automtico switcheo es
necesario para aplicaciones crticas de perdidas. Usando diseo de redundancia, parcial
Metodologa Top Down

Marcos Huerta S.
67
en la red de malla parcial, usted puede automatizar el tiempo de recuperacin cuando
un enlace falla.

Otra consideracin importante con los caminos de reserva consiste en que ellos deben
ser probados. A veces los diseadores de red desarrollan soluciones de reserva que
nunca son probadas hasta que una catstrofe pase. Cuando la catstrofe ocurre, los
enlacess de reserva no trabajan. En algunos diseos de red, los enlacess de reserva
son usados para compartir carga que redundancia. Este tiene la ventaja que el camino
de reserva es una solucin probada que es con regularidad usada y supervisada como
una parte de operaciones cotidianas. Hablan de la carga que comparte ms
detalladamente en la siguiente seccin.

Carga Compartida
El objetivo primario de la redundancia es encontrar los requerimientos de disponibilidad.
Un segundo objetivo es mejorar la performance soportando la carga compartida a travs
de enlacess paralelos. La carga compartida, algunas veces llamado el equilibrio de
carga, permite que dos o ms interfaces o caminos compartan la carga de trfico.

La carga compartida debe ser planeada y en algunos casos configurados. Algunos
protocolos no soportan la carga compartida por defecto. Por ejemplo, cuando corre el
Protocolo de Novells (RIP), un Intercambio de Paquete de redes (IPX) el router puede
recordar slo una ruta a una red remota. Usted puede cambiar este comportamiento en
un router Cisco usando el comando ipx maximum-paths.

En ambientes ISDN, usted puede facilitar la carga compartida configurando un canal de
agregacin. Agregacin de canal significa que un router puede brincar automticamente
ISDN mltiple B canales como el aumento de los requerimientos de ancho de banda

Diseo de Red Modular
El diseo de red Top Down le deja perforar abajo a los componentes del diseo de red,
y aplicar principios de diseo fundamentales a los componentes as como al diseo total.
La jerarqua y redundancia, como mencionado en las secciones anteriores, son
conceptos de diseo de red fundamentales.

Otro concepto fundamental relacionado con la jerarqua es la modularidad. Los
proyectos de diseo de red grandes y las redes grandes en general consisten en reas
diferentes y mdulos. Cada rea debera ser diseada usando un acercamiento
sistemtico, top down, aplicando la jerarqua y redundancia donde es apropiado. Las
soluciones de red y los servicios pueden ser seleccionados en una base por mdulo,
pero validados como la parte del diseo de red total. Los Sistemas de Cisco usan el
Metodologa Top Down

Marcos Huerta S.
68
Modelo de Red de Empresarial Compuesto para describir los diferentes componentes o
mdulos de una red tipica Empresarial. La siguiente seccin describe brevemente el
modelo, que es la parte de la Arquitectura Segura de Cisco para Empresas (SAFE).

Modelo de Red Compuesto Empresarial
El Modelo de Red Compuesto Empresarial es un modelo que los diseadores de red
pueden usar para simplificar la complejidad de redes grandes. El diseo del modelo le
deja aplicar un acercamiento modular, jerrquico para aproximarse a la red. Con el
Modelo de Red Compuesto Empresarial, usted puede analizar la funcionalidad, lgicos,
y componentes fsicos de una red, y as simplificar el proceso de disear una red de
empresarial total.

El Modelo de Red Compuesto Empresarial comprende tres reas principales, que
pueden ser cada uno arregladas de mdulos ms pequeos:
Campus de empresa. El campus de empresa incluye los mdulos requeridos
construir una red de campus robusta que proporciona la alta disponibilidad, la
escalabilidad, y la flexibilidad. Esta rea contiene todos los elementos para la
operacin independiente de la red dentro de una posicin de campus. Una empresa
puede tener ms de un campus.
Borde de empresa. El borde de empresa agrega la conectividad de varios elementos
en el borde de una red de empresa. El borde de empresa rea funcional filtra el
trfico de los mdulos de borde y rutas en el campus de la empresa. El borde de
empresa contiene todos los elementos de red para la comunicacin eficiente y
segura entre el campus de empresa y localizaciones remotas, socios de negocio,
usuarios mviles, y Internet.
Borde abastecedor de servicio. Los mdulos en esta rea funcional no son puestos
en prctica por la empresa. Los mdulos de borde abastecedor de servicio son
incluidos para habilitar la comunicacin con otras redes usando tecnologas WAN
diferentes y Proveedores de Internet (ISPs).

Cada rea del Modelo de Red Compuesto Empresarial es dividida en mdulos
adicionales. Por ejemplo, un rea de campus puede incluir un backbone de campus, una
granja de servidores, construyendo acceso y mdulos de distribucin, y un mdulo de
manejo de red. El borde de empresa puede incluir WAN, VPN, acceso de Internet, y
mdulos de e-comercio. Para conseguir la escalabilidad, los mdulos pueden ser
aadidos si es necesario. Adems, los mdulos pueden tener submdulos. La figura 5-7
muestra las reas principales y mdulos en el Modelo de Red Compuesto Empresarial.



Metodologa Top Down

Marcos Huerta S.
69
Figura Nro. 17. Modelo de Red Compuesto Empresarial


El diseo de una Topologa de Diseo de Red de Campus
Las topologas de diseo de red de campus deberan encontrar los objetivos de un
cliente para disponibilidad e performance presentando pequeas caractersticas de
dominio de ancho de banda, pequeos dominios de broadcast, redundancia, servidores
mirrow, y mltiples caminos para una estacin de trabajo para alcanzar un ruta para
comunicaciones off-net. Las redes de campus deberan ser diseadas usando un
acercamiento jerrquico, modular de modo que la red ofrezca una buena performance,
mantenibilidad, y la escalabilidad.

La mayor caracterstica de las redes de campus presentan un alto performance,
backbone conmutados, llamada el backbone de campus, esto conecta edificios y
diferentes partes del campus. Una alta capacidad, la granja de servidores centralizados
se conecta al backbone y proporciona recursos de servidor internos a usuarios, por
ejemplo, aplicacin, archivo, impresiones, correo electrnico, y Servicio de Sistema de
Nombre de Dominio (DNS). El manejo de la red es un componente importante en un
diseo de red de campus. Un backbone de campus debe proporcionar el acceso a
dispositivos de manejo que soporta monitoreo, registro, solucin de problemas,
seguridad, y otras funciones de manejo comn.

Segn el Modelo de Red Compuesto Empresarial, un campus consiste en el mdulo de
infraestructura de campus, una granja de servidores, un mdulo de manejo de red, y un
mdulo de distribucin de borde que proporciona la conectividad entre el campus y el
resto de las redes. La figura 17 muestra estos mdulos e ilustran esta infraestructura de
mdulos de campus que tienen tres submdulos:

Edificio de submdulo de acceso. Localizado dentro de un edificio de campus, este
submdulo contiene estaciones de trabajo de usuario final y telfonos de IP
Metodologa Top Down

Marcos Huerta S.
70
conectados a los switches o puntos de acceso inalmbricos. Los switches finales
ms alto proporcionan upenlacess al mdulo de distribucin del edificio. Los
servicios ofrecidos por este mdulo incluyen el acceso de red, control de broadcast,
filtracin de protocolo, y la marcado de paquetes para caractersticas de QoS.
Edificio de submdulo de distribucin. El trabajo de este submdulo debe agregar
cableado a los armarios dentro de un edificio y proporcionar la conectividad al
backbone de campus va routers (o switches con modulos de enrutamiento). Este
submdulo proporciona enrutamiento, QoS, y mtodos de control de acceso para
encontrar seguridad y requerimientos de performance. Redundancia y la carga
compartida son recomendados para este submdulo. Por ejemplo, cada submdulo
de distribucin de edificio debera tener dos caminos de costo igual en el backbone
de campus.
Backbone de campus. Backbone de campus es la capa core de la infraestructura de
campus. El backbone interconecta el acceso y distribucin de submodulos del
edificio con la granja de servidores, manejo de red, y mdulos de distribucin de
borde. El backbone de campus proporciona la conectividad redundante y rpido
conectividad de convergencia. Estas rutas y trfico conmutan tan rpidamente como
es posible de un mdulo al otro. Este mdulo por lo general usa routers de alta
velocidad (o switches con la capacidad de enrutamiento) y proporciona
caractersticas de seguridad y QoS.

El Protocolo Spanning Tree
La topologa de cada mdulo y submdulo de un diseo de red de campus es
parcialmente determinada por el Protocolo de Spanning Tree (STP). El STP es un
protocolo y el algoritmo, documentado en la IEEE 802.1D, para dinmicamente "pruning"
una topologa arbitraria conectada a la Capa 2 switches en spanning tree. La topologa
esta resuelta con spans la de dominios conmutados enteros y es formada como un rbol
matemtico, con ramas que se extienden de un tallo sin formar loop o polgonos. El
diseador de red fsicamente conecta los switches en una malla, de topologa de
redundancia, pero STP crea un rbol lgico con no redundancia.

El spanning tree que atraviesa tiene un puente de raz y un juego de puertos en otros
switches que envan el trfico hacia el puente de raz. El protocolo dinmicamente
selecciona puertos del switch para incluir en la topologa de spanning tree para
determinar los caminos de costo ms bajo al puente de raz. Los puertos del switch que
no son la parte del rbol son deshabilitados de modo que haya un y slo un camino
activo entre cualquier dos estacin. El camino de costo ms bajo es por lo general el
camino de ancho de banda ms alta, aunque el costo sea configurable.
Los switches envan la Unidad de Datos de Protocolo de Puente (BPDU) de paquetes de
uno al otro para construir y mantener el spanning tree. Los switches envan mensajes de
Metodologa Top Down

Marcos Huerta S.
71
cambio de topologa BPDUs cuando los puertos de switch cambian el estado. Los switch
envan mensajes de BPDUs con direcciones multicast cada dos segundos para
mantener el spanning tree. La cantidad de trfico causado por los paquetes de BPDU
puede parecer excesiva cuando usted primero usa un analizador de protocolo en una
red conmutada, pero BPDUs realmente no usa mucho ancho de banda en la mayor
parte de redes, y el temporizador corto para enviar BPDUs es importante para el
proceso de convergencia.

Convergencia de STP
Los switches siguen cuatro pasos para convergir la topologa en spanning tree:
1. Los switches seleccionan un solo switch como el puente de raz.
2. Los switches seleccionan un puerto en cada switch (conocido como el puerto de
raz) que proporciona el camino de costo ms bajo al puente de raz.
3. Para cada segmento de LAN, los switches deciden un puente designado y un puerto
designado en cada switch. El puerto designado es un puerto en el segmento de LAN
que tiene el camino de costo ms bajo al puente de raz. El puerto designado enva
los paquetes del segmento de LAN hacia el puente de raz. (Todos los puertos en el
puente de raz son puertos designados.)
4. Finalmente, los switches determinan cual puertos del switch deben ser incluido en la
topologa de spanning tree. Los puertos seleccionados son los puertos de raz y
puertos designados. Estos puertos envan el trfico. Los otros puertos bloquean el
trfico.

Cuando primero inicializa, los switches asumen que ellos son la raz y transmiten los
mensajes de BPDUs en cada puerto con su puente ID en el campo de Puente de Raz.
Los switches ponen el costo de cero a la raz. Adems del envo de BPDUs, cada switch
recibe BPDUs en cada uno de sus puertos. El switch determina qu mensaje es el mejor
evaluando BPDUs recibido en el puerto as como el BPDU que esto enviara por el
puerto. Si un nuevo BPDU (o BPDU en la localidad generado) es mejor, entonces el
viejo mensaje es sustituido.

Para determinar mejor BPDU, el switch comprueba cuatro criterios,. Los cuatro criterios
son como sigue:
1. El puente de raz ms bajo ID.
2. El costo de camino ms bajo al puente de raz.
3. El ID del puente de remitente ms bajo.
4. El puerto ms bajo ID.

Despus de que la raz ha sido determinada, cada switch de no raz determina cual de
sus puertos es el ms cercano al puente de raz. Aquel puerto se hace el puerto de raz.
Metodologa Top Down

Marcos Huerta S.
72
Los switches usan el concepto de costo para juzgar la proximidad a la raz. Los switches
rastrean un costo acumulativo de todos los enlacess al puente de raz. Cada segmento
de LAN tiene un costo. Tabla 12 muestra el valor por defecto de costo para enlacess de
velocidades diferentes.

Tabla Nro. 12. Valores de Costo por Defecto IEEE 802.1D

Cuando un switch se inicializa participa en el proceso de convergencia STP para
determinar cual de sus puertos ser raz o puertos designados, y qu puertos deben
bloquear el flujo de trfico. Durante el proceso de convergencia, cada puerto del switch
pasa por cuatro estados de STP, en el orden presentado en la lista siguiente:
Bloqueo. Recibe BPDUs slo.
Escucha. Construye el spanning tree.
Aprendizaje. Construye la tabla de conmutacin (puenteando).
Envi. Enva y recibe datos de usuario.

Seleccin del Puente de Raz
Esto es una buena prctica para controlar qu switch se hace el puente de raz. El
puente de raz debera ser un switch confiable, rpido en el centro de la topologa
conmutada. Si usted deja a switches decidir la raz solos, usted tiene un poco de control
de la direccin del flujo de trfico y la cantidad de la tardanza en enviar un paquete de
su red. Si usted no tiene cuidado, un puente lento puede hacerse el puente de raz.
Tambin, los puertos rpidos pueden ser por casualidad quitados del spanning tree por
diferencia a velocidad baja de puertos que son ms cercanos al puente de raz.

El puente de raz es el switch con el ID del puente ms bajo. El ID del puente tiene dos
partes, un campo de prioridad y la direccin de MAC del switch. Si todas las prioridades
son dejadas en su valor por defecto, el switch o el puente con la direccin de MAC ms
baja se hacen la raz. Este podra ser fcilmente uno de los productos ms tempranos
de Cisco, porque Cisco tena a un vendedor ID tan bajo. (El vendedor ID arregla los
primeros 3 bytes de una direccin de MAC, y el vendedor original de Cisco ID era
00:00:0C.)

Metodologa Top Down

Marcos Huerta S.
73
El control manual del proceso de seleccin de puente de raz es crtico al mantenimiento
del rendimiento alto en redes conmutadas. Este puede ser llevado a cabo asegurando
que un switch particular tiene el ID puente ms bajo. Esto no es recomendado (o hasta
posible en algunos switches) para cambiar la parte de direccin de MAC de un ID
puente. En cambio, para controlar el ID puente, setee la prioridad de puente. En los
switches de Cisco, usted puede usar el juego spantree prioridad o el comando spantree-
plantilla 1 prioridad. Usted debera dar una rpida velocidad central, localizado en el
switch de prioridad ms baja de modo que esto se haga el puente de raz. Usted
tambin debera bajar la prioridad en el otro switch backup, de modo que esto se haga la
raz si la raz primaria falla. Generalmente estos dos switches son switches de capa de
distribucin.

Cisco de Alta cualidad cambia tambin el soporte de seteo spantree raz macro. Este
macro hace que el switch mire la prioridad actuando del puente de raz. Si la prioridad
en el puente de raz existente es ms alta que 8,192, el macro automticamente pone la
prioridad local con 8,192. Si el puente de raz existente tiene una prioridad menos de
8,192, el macro pone la prioridad local con uno menos. Para configurar una raz de
reserva, use el juego spantree raz secundaria macro.

Guardia de Raz
Cisco tambin soporta las caracteristicas llamado la Guardia de Raz que protege su red
de un switch de velocidad baja secuestrando el trabajo del puente de raz. Un puerto de
switch configurado para la Guardia de Raz no puede hacerse un puerto de raz. En
cambio el puerto se hace un puerto designado para su segmento de LAN. Si hay mejor
BPDU recibido en el puerto, la Guardia de Raz incapacita el puerto, ms bien que toma
las BPDU en cuenta y reanudar la eleccin del puente de raz. Tienen que habilitar la
Guardia de raz en todos los puertos en todos los switches que no deberan hacerse el
puente de raz.

El Proceso de Cambio de Topologa STP
Despus que el spanning tree ha sido creado, STP todava necesita adaptarse a
cualquier problema de capa fsica o reconfiguraciones rpida como es posible sin
introducir cualquier loop. Hay muchas fallas posibles y reconfiguraciones. Algunos de
ellos causan interrumpir el trfico durante 30 segundos (temporizador de Tardanza
Avanzado * 2) y unos causan interrumpir el trfico durante 50 segundos (Mximo
Envejecen el temporizador + (temporizador de Tardanza Avanzado * 2)). El
temporizador de Edad Mximo controla el tiempo mximo que un puerto de switch salva
la informacin configuracin de BPDU. El valor por defecto de la Edad Mxima es 20
segundos.

Metodologa Top Down

Marcos Huerta S.
74
Si el puente de raz falla, otro switch espera hasta que su temporizador de Edad Mximo
expire y luego comience el proceso de asumir como el puente de raz. Si el puente de
raz no falla, pero un camino al puente de raz falla, el proceso es ligeramente diferente.
Si un camino alterno existe, un puerto bloqueado de switch entra en transiciones,
escucha, aprende, y transporta despus de que su temporizador de Edad Mximo
expira. Si un puerto de raz falla, otro puerto en el switch donde el falla ocurri la
transicin se pone directamente escucha y aprende sin esperar que el temporizador de
Edad Mximo a expirar.

Aunque haya situaciones donde las ramas enteras del spanning tree no son afectadas,
hay tambin muchas situaciones ms donde muchas ramas son afectadas y la
reconvergencia toma entre 30 y 50 segundos. Esta cantidad del tiempo puede ser ms
larga que los valores de intervalo de espera de sesin de capa superior. Las estaciones
de final pueden tener que reconectarse de nuevo a sus servidores o los host de
aplicaciones.

Escalamiento que Atraviesa el Protocolo Spanning Tree
El STP trabaja mejor cuando la red cambiada es guardada relativamente pequea y los
switches tienen CPU suficiente y la poder de RAM para hacer su trabajo con eficacia. En
una red de gran tamao con switches que tienen poca CPU, las BPDUs no puede ser
enviado y recibido correctamente, causando loop. Un switch con la RAM insuficiente o
problemas de software tambin podra dejar caer las BPDUs. Adems, una red
congestionada podra causar problemas para la transmisin de BPDUs.

El STP confa en la recepcin oportuna de BPDUs. El Cisco llama a esta caracterstica
BPDU Sesgue Descubrimiento esto permite que un switch mantenga la pista de los
arribos tarde de BPDUs y notifica al administrador por medio de mensajes syslog. Esta
caracterstica es realmente ms que una solucin. Un mejor plan es disear una red
conmutada con el cuidado.

Basado en asunciones sobre los temporizadores STP y la propagacin del retardo de
envi de BPDUs, esto es recomendado para una topologa de red conmutada no ms de
siete switches. En otras palabras, dos switches en la red no deberan estar ms de siete
saltos lejos del uno del otro. La parte de esta restriccin viene del campo de Edad de
Mensaje que la BPDUs lleva. Cuando un BPDU es propagado del puente de raz hacia
las hojas del rbol, el campo de Edad de Mensaje es incrementado cada vez que esto
va a un switch. Finalmente, cuando la Edad de Mensaje va ms all de la Edad Mxima,
el BPDU es desechado. Tpicamente, esto ocurre si la raz est demasiado lejos de
algn switch en la red. El problema hace que STP converja de nuevo con mucha ms
frecuencia que esto debera.
Metodologa Top Down

Marcos Huerta S.
75
Aunque algunos temporizadores STP puedan ser cambiados, un mejor acercamiento
debe planear en el diseo de red de campus con cuidado de modo que los routers y los
protocolos de enrutamiento sean introducidos para limitar la topologa del LAN
conmutada. Los routers tienen ventajas comparadas a switches en su capacidad de
implementar polticas de seguridad, carga compartida, y caracteristicas de QoS.
Tambin, los protocolos tienden a convergir mucho ms rpidamente que STP. Sin
embargo, tanto el IEEE como los vendedores siguen mejorando la performance de STP.
Una mejora es el IEEE 802.1w Rapid Spanning Tree (RSTP), cubierto en la siguiente
seccin.

Rpida Reconfiguracin del Spanning Tree
IEEE 802.1w, "la Reconfiguracin Rpida de Spanning Treee complementa el estndar
802.1 de 1998 IEEE y define los cambios necesarios en switches para proporcionar la
convergencia rpida de spanning tree. El objetivo del 802.1w el comit debera
estandarizar un modo mejor de la operacin del switch que reduce el tiempo que STP
toma para configurar de nuevo y restaurar el servicio despus de que falla un enlace,
reteniendo las ventajas de plug-and-play de STP.

El RSTP proporciona la convergencia rpida del spanning tree asignando roles de
puerto y determinando la topologa activa. El RSTP construye sobre STP para
seleccionar el switch con el switch de prioridad de ms alta como el puente de raz y
luego asigna roles de puerto (raz, designada, suplente, backup, y deshabilitado) a los
puertos individuales. Estos roles asisten en la convergencia rpida, que puede ser muy
rpida (dentro de un segundo) debido al mejor conocimiento de la topologa.

LANs virtuales
Una red de campus debera ser diseada usando pequeo ancho de banda y pequeas
dominios de broadcast. Un dominio de ancho de banda es un juego de dispositivos que
comparten el ancho de banda y compiten por el acceso al ancho de banda. Una
tradicional topologa bus o Ethernet a base de hub, por ejemplo, es un simple dominio
de ancho de banda. Un switch divide en domino de ancho de banda y a menudo es
usado para conectar cada dispositivo de modo que la red consista en muchos, muy
pequeas dominios de ancho de banda. Con switches, a diferencia de hubs, los
dominos de ancho de banda consiste en el puerto del switch y el dispositivo que lo
conecta. Si el modo de transmisin usado es full dplex, una domino de ancho de banda
se hace an ms pequea y consiste en slo el puerto o el dispositivo.

Un dominio de broadcast es un juego de dispositivos que pueden orcada uno de
todos los paquetes de broadcast. Un paquete de broadcast es un paquete que es
enviado a FF:FF:FF:FF:FF:FF de direccin de MAC. En ausencia, los switches no
Metodologa Top Down

Marcos Huerta S.
76
dividen dominos de broadcast. Segn Cisco, el mdulo de acceso de edificio del
Modelo de Red Compuesto Empresarial debera usar switches y proporcionar el control
de broadcast, sin embargo. Para llevar a cabo este, los LANes virtuales son necesarios.

Una LAN Virtual (VLAN) es una emulacin de un LAN estndar que permite que la
transferencia de datos ocurra sin las restricciones fsicas tradicionales colocadas en una
red. Un VLAN es un juego de dispositivos de LAN que pertenecen a un grupo
administrativo. El grupo administrativo est basado en parmetros de configuracin y
polticas administrativas ms bien que posicin fsica. Los miembros de un VLAN
comunican el uno con el otro como si ellos estuvieran en el mismo linea o hub, cuando
de hecho ellos pueden ser localizados en segmentos de LAN fsicos diferentes. Los
miembros de un VLAN se comunican con miembros de dierentes VLAN como si ellos
estuvieran en segmentos diferentes de LAN, aun cuando ellos son localizados en el
mismo switch. Como VLANs estn basados en conexiones lgico en vez de fsicas, ellos
son muy flexibles.

En los primeros das de VLANs a mediados de los aos 1990, haba mucha
conversacin sobre la utilizacin de VLANs a grupos de usuarios que trabajan en un
proyecto juntos, aunque ellos no fueran fsicamente localizados juntos. Con VLANs, la
posicin fsica de un usuario no importa. Un administrador de red puede asignar a un
usuario a una VLAN sin tener en cuenta la posicin del usuario. En la teora, la
asignacin de VLAN puede estar basada en aplicaciones, protocolos, requerimientos de
performance, requerimientos de seguridad, caractersticas de carga- trfico, u otros
factores.

Haba tambin mucha conversacin sobre VLANs la simplificacin de movimientos,
aade, y se cambia de una red de campus. La teora era que con VLANs, los
administradores de red pueden quedarse sentados en sus oficinas o en el armario de
cableado cuando un usuario final se mueve a una nueva oficina o cubculo. Si un
usuario en el departamento de comercializacin, por ejemplo, se mueve a una nueva
oficina que es fsicamente localizada entre ingenieros, la persona de mercadotecnia no
podra tener las habilidades de configurar IP por la compatibilidad con la nueva posicin.
La peticin de los ingenieros para ayuda no podra trabajar porque a los ingenieros no
les gustan proveedores, y pedir del administrador de red de venir a la oficina y hacer el
cambio podra tardar mucho porque los administradores estn tan ocupados. En cambio,
el administrador de red puede configurar el puerto de interruptor para el dispositivo
movido para ser la parte de la mercadotecnia VLAN. Los cambios adicionales pueden
ser necesarios para asegurarse que los otros switches aprenden que la mercadotecnia
VLAN se ha ampliado en una nueva rea. Sin embargo, ningn cambio es requerido en
la computadora del proveedor.
Metodologa Top Down

Marcos Huerta S.
77
En redes modernas, VLANs no a menudo usan este camino. Manualmente la
configuracin de la IP no es comn ya que DHCP se ha hecho tan popular. Tambin,
cuando un VLAN es dispersado a travs de muchas redes fsicas, el trfico debe fluir a
cada una de aquellas redes, que afecta la performance de las redes y aade a los
requerimientos de capacidad de enlaces que conecta VLANs. Las redes con VLANs que
emigran por todas partes de la topologa de campus son difciles de manejar y optimizar.

En redes modernas, en vez de tener la extensin en cuenta de un LAN lgico o grupo
administrativo a travs de muchas LANs fsicas, un VLAN se ha hecho un mtodo de
subdividir LANs a base de switches fsicos en muchos LANs lgicas. Los VLANs
permiten que una red grande, plana, a base de switch sea dividida en separados
dominio de broadcast. En vez de inundar todas los dominios cada puerto, un switch
VLAN-habilitado inunda con broadcast slo los puertos que son la parte de mismo VLAN
que la estacin de envo.

Cuando los primeros switches se hicieron populares a mediados de los aos 1990,
muchas compaas implementaron redes de campus conmutadas grandes con pocos
routers. Los objetivos eran contener gastos usando switches en vez de routers, y
proporcionar una buena performance porque probablemente los switches eran ms
rpidos que routers. Sin la capacidad del router de contener trfico de broadcast, sin
embargo, las compaas necesitaron VLANs. Los VLANs permiten que la red plana
grande sea dividida en dominos de broadcast. Un router (o un enrutamiento dentro de
un mdulo de switch) todava es necesario para la comunicacin inter-VLAN.

En redes IP basadas en campus, un VLAN es por lo general su propia subred de IP,
debido al trabajo del camino el Protocolo de Resolucin de Direccin (ARP). Cuando un
host de IP en una subred tiene que alcanzar a otro host en la misma subred, esto enva
un mensaje ARP para determinar el Control de Acceso de Medios (MAC) la direccin del
host que trata de alcanzar. El mensaje ARP es enviado como un broadcast. Todos los
dispositivos que encuentran el uno al otro este camino tienen que estar en la misma
VLAN. As, en una red de IP, VLANs son implementadas por separado como subredes
de IP. Un router (o un enrutamiento dentro de un mdulo de switch) proporciona la
comunicacin inter-subnet como lo haceen una interconexion real (no virtual) de LANs.

Diseos de VLAN fundamentales
Para comprender VLANs, esto ayudara a pensar acerca de las primeras VLANs reales
(no virtuales). Imagine dos switches que no estn relacionados el uno con el otro de
ningn modo. El Switch A conecta estaciones en la Red A e el Switch B conecta
estaciones en la Red B, como mostrado en La figura Nro. 18.

Metodologa Top Down

Marcos Huerta S.
78
Figura Nro. 18 Dos Switches con estaciones Conectadas

Cuando Estacin A1 en La figura nro.19 enva un broadcast la, Estacin A2 y
Estacin A3 reciben el broadcast, pero ninguna de las estaciones en la Red B
recibe el broadcast, porque los dos switches no estn conectados. Esta misma
configuracin puede ser implementada por opciones de configuracin en un solo
switch, con el resultado mostado en La figura 19

Figura Nro 19.Un Simple Switch Conectados con estaciones de la Red A y Red B

Por la configuracin del switch hay ahora dos LANs virtuales implementadas en un solo
switch, en vez de dos LANs fsicos separados. Este es la belleza de VLANs. Los
broadcast, multicast, y el trfico de destino-desconocido que origina con cualquier
miembro de VLAN A son enviados a todos otros miembros de VLAN A, y no a un
miembro de VLAN B. El VLAN A tiene las mismas propiedades que un LAN fsica
separada por un routers. El comportamiento del protocolo en La figura 18 es
exactamente el mismo como el comportamiento del protocolo en La figura 19.





Metodologa Top Down

Marcos Huerta S.
79
Figura Nro. 20 VLAN A y VLAN B separada por dos Switches

Las VLANs pueden atravesar mltiples switches. En La figura nro. 20, ambos switches
contienen estaciones que son miembros de VLAN A y VLAN B. Este diseo introduce un
nuevo problema, la solucin a la cual es especificado en el estandar IEEE 802.1Q y el
protocolo de enlace Inter-Switch patentado por Cisco (ISL). El problema tiene que ver
con el envio de broadcast, multicast, o paquetes de destino desconocido de un miembro
de una VLAN en un switch a los miembros de la misma VLAN en el otro switch.

En la Figura Nro 20, todos los paquetes que van del switch A para el switch B toman el
mismo camino de interconexin. El 802.1Q el estndar y el Cisco ISL protocolo definen
un mtodo para el switch B para reconocer si un paquete entrante pertenece a VLAN A
o a VLAN B. Cuando un paquete deja el switch A, una especial cabecera es aadido al
paquete, llamado etiqueta de VLAN. La etiqueta de VLAN contiene un identificador
VLAN (ID) que especifica a cual VLAN el paquete pertenece.

Como ambos switches han sido configurados para reconocer VLAN A y VLAN B, ellos
pueden intercambiar paquetes a travs del enlace de interconexin, y el switch de
recipiente puede determinar de cual VLAN aquellos paquetes deben ser enviados
examinando la etiqueta de la VLAN. El enlace entre los dos switches es a veces llamado
enlace-troncal o simplemente un troncal.

Los enlaces troncales permiten que el diseador de red junte cosas de las VLANs que
atraviesan multiples switches. Una consideracin de diseo principal determina el
alcance de cada VLAN y cuantos switches esto debera atravesar. Como mencionado
antes, la mayor parte de diseadores tratan de mantener pequeo el alcance. Cada
VLAN es un dominio de broadcast, y por recomendaciones especificadas en el captulo
anterior (ver Tabla 11), un domino de broadcast debera ser limitado con unos cientos de
estaciones de trabajo (u otros dispositivos, como telfonos de IP).

Otra consideracin principal de diseo es la capacidad del enlace troncal. La utilizacin
de mtodos se habl en la parte 4, usted debera estudiar el trfico de red para
determinar si usa Fast Ethernet, Gigabit Ethernet, o los mltiplos de la Fast Ethernet o
Metodologa Top Down

Marcos Huerta S.
80
Gigabit ser requeridos para los enlaces troncales. Aunque Cisco soporta troncales de
Ethernet 10-Mbps en algn equipo, 10 Mbps es por lo general suficiente slo para
troncales que apoyan muy pequeas redes o para redes de laboratorio usadas para
aprender y probar objetivos.

LANs inalmbricos
Como hemos hablado en Fase I de esta tesis, la movilidad de usuario se ha hecho un
objetivo importante para muchas empresas. En un diseo de red de campus, una o
varios LANs inalmbricas (WLANs) pueden encontrar con este objetivo para ofrecer
intranet y acceso de Internet en reas abiertas en el campus y en reas de alta densidad
como auditorios, salas de conferencias, y cafeteras. La tecnologa de WLAN tambin
permite el despliegue de LANs en oficinas u otras partes de edificios donde puede no
ser rentable o prctico para instalar el tendido de cables.

Un WLAN consiste en puntos de acceso que se comunican usando la radiofrecuencia
(RF) con clientes inalmbricos. El rea que un punto de acceso solo puede cubrir a
menudo es llamada a celda inalmbrica. El diseo de una topologa WLAN requiere que
un diseador determine el rea de cobertura de cada celda inalmbrica y se decida
cuantas celdas sern requeridas para encontrar necesidades de cobertura totales. Los
factores que afectan la cobertura de un punto de acceso solo incluyen la velocidad de
transferencia de datos, el nivel de poder, la opcin de antena, y la colocacin de antena.
Las caractersticas arquitectnicas del sitio inalmbrico tambin afectan la cobertura,
como descrito en el "La comprobacin de un Sitio para una Instalacin Inalmbrica
seccin en la parte 3, "Caracterizando las redes Existentes."

La colocacin de un Punto de Acceso para Cobertura Mxima
La mayor parte de los puntos de acceso usan una antena isotropic, el que significa que
la fuerza de seal es tericamente el mismo cuando es medido a lo largo de los axes en
todas las direcciones. Si usted suspende un punto de acceso en el espacio, la cobertura
debera parecerse a la de una esfera tridimensional con el punto de acceso en su
centro. En realidad, las limitaciones del diseo de antena por lo general causan menos -
cobertura uniforme, sin embargo. El tipo ms comn de la antena de punto de acceso es
omnidireccional, que no es realmente "omni" o "iso". En vez de una esfera, la cobertura
se parece ms bien a una donut o un anillo de espuma.

Una antena omnidireccional es por lo general un 4-a 6 pulgadas que transmiten el
elemento, a menudo atado al giro o pivot posisionable. La seal que se propaga de una
antena omnidireccional es la ms fuerte en una direccin perpendicular al eje de antena
y la ms dbil en la misma direccin que el eje de antena. Recordar este puede ayudarle
Metodologa Top Down

Marcos Huerta S.
81
a colocar sus antenas para la cobertura mxima (y aydarle a decidirse si usted puede
necesitar una antena direccional en vez de una antena omnidireccional).

Los puntos de acceso pueden ser montados en una posicin horizontal o vertical. Es
importante asegurarse que una antena omnidireccional seala directamente. Adems de
la antena de punto de acceso, tambin considere la antena en la recepcin de
estaciones, por lo general notebook. Cada NIC inalmbrica y computadora son
diferentes. Algunos ordenadores porttiles tienen antenas largas que se extienden de la
tarjeta por la espalda del ordenador porttil, detrs de la pantalla. Otras computadoras
pueden no tener una antena incorporada y deben confiar en una antena ms pequea
en el NIC. Usted debera probar su diseo de WLAN con una variedad de computadoras
y otros dispositivos que los usuarios actuales usarn.

Para una velocidad de transferencia de datos dada, usted puede cambiar el nivel de
poder o elegir una antena diferente para cambiar el rea de cobertura y la forma de
cobertura. Un tamao de celda grande puede causar a demasiados clientes que
comparten la amplitud de banda disponible. (IEEE 802.11 WLANs son redes
compartidas, con todos los dispositivos en el mismo dominio de ancho de banda.)
Reduciendo el punto de acceso seala el poder o la ganancia de antena, usted puede
reducir el tamao de celda y compartir el ancho de banda con menos clientes. Este
causar ms puntos de acceso para un rea de cobertura dada, pero proporcionar la
mejor performance para clientes

WLANs y VLANs
Usted puede colocar multiples puntos de acceso en todas partes de una instalacin para
dar a usuarios la capacidad de navegar libremente en todas partes de un rea ampliada
manteniendo el acceso ininterrumpido para conectar a los recursos de la red. El mtodo
ms fcil para usuarios que se aseguran puede navegar debe poner a todos los
usuarios en la misma subred de IP y mismo VLAN. Por otra parte, los dispositivos que
se mueven de la subred para subred deben adquirir una nueva direccin de IP y pueden
perder paquetes que podran haber sido transmitidos mientras ellos adquiran una
direccin.

Siempre que posible, un WLAN debera ser una subred separada para simplificar la
direccin de conexion y tambin mejorar el manejo de la seguridad. El cuidado de todos
los clientes inalmbricos en su propia subred hace ms fcil para establecer filtros de
trfico para proteger a los clientes de un ataque lanzado a la WLAN.



Metodologa Top Down

Marcos Huerta S.
82
Puntos de Acceso Inalmbricos Redundantes
Tanto en arquitecturas LAN de campus cableadas como en inalmbricas, la redundancia
es por lo general deseable para asegurar una alta la disponibilidad. Ya que con el
campus se conecta con la red con WLANs que es la misin mas crtica, Cisco hace
llamar una caracterstica punto-acceso reserva caliente esto soporta dos puntos de
acceso configurados para usar el mismo canal en un rea de una sola cobertura. Slo
uno de los puntos de acceso esta activo. El punto de acceso de reserva pasivamente
monitorea la red y el punto de acceso primario. Si el punto de acceso primario falla, el
punto de acceso secundario asume para proporcionar la cobertura.

Usted debera colocar el punto de acceso de reserva cerca del punto de acceso esto
supervisar y le dar la misma configuracin (excepto una direccin de IP diferente). El
punto acceso de reserva asociados con el punto de acceso monitoreado de un cliente el
punto de acceso supervisado con regularidad es tanto por el interfaz de Ethernet como
por el interfaz de RF. Si el punto de acceso monitoreado deja de responder, el punto de
acceso de reserva se hace activo, y toma el lugar del punto de acceso supervisado en la
red.

Tan pronto como el primer punto de acceso que fallo es detectado nuevamente, la
intervencin del usuario es requerida. El usuario debera retornar el punto de acceso de
reserva al modo de reserva. La falla de reinicializar el punto de acceso de reserva causa
que tanto el punto de acceso primario como el de reserva funcionen simultneamente en
el mismo canal cuando el primer punto de acceso vuelve en lnea.

Despido y Carga que Comparte en LANes Conectados
En redes de campus cableadas, es comun en la prctica comn disear enlaces
redundantes entre LAN conmutadas. La mayor parte de LAN conmutadas implementan
el algoritmo spanning tree IEEE 802.1 para evitar loop en la red. El estandar 802.1 es
una solucin buena para la redundancia, pero no para la carga compartida, porque slo
un camino es activo. Algunos vendedores de switches, incluso Cisco, le dejan tener un
spanning tree por VLAN, que puede ser usado para implementar la redundancia. Un
switch puede actuar como el puente raz para una VLAN y como un backup para el
puente raz de otra VLAN.

Cisco Por VLAN Spanning tree + (PVST +) construye por separado una topologa de
rbol lgico para cada VLAN. El PVST + permite la carga compartida teniendo diferentes
caminos por VLAN. El PVST + es menos escalable que el mtodo clsico 802.1, donde
hay slo una raz y rbol, porque se requiere que el tiempo de CPU es requeridoen las
BPDUs para cada VLAN. Cisco venci esta limitacin con el Protocolo de Multi-Instance
Metodologa Top Down

Marcos Huerta S.
83
Sapnning Tree (MISTP), que permite que un grupo de VLANs sea agrupado en un
simple spanning tree.

El IEEE tambin ha realzado el algoritmo de spanning-tree original con sus estandar
Multiples Spanning-Tree (MST), que es documentado en IEEE 802.1s. Protocolo de
Multiples Spanning Tree (MSTP) usa RSTP para la convergencia rpida, pero mejora la
escalabilidad RSTP agregando un grupo de rboles VLAN-base que atraviesan en
distintos casos, y dirigiendo slo un algoritmo de spanning tree por caso (rpido). Esta
arquitectura proporciona multiples caminos para el trfico de datos, permite la carga
compartida, y reduce el nmero de spanning tree requeridos para soportar un nmero
grande de VLANs.

Si usted usa VLANs en un diseo de red de campus con switches que apoyan 802.1s,
PVST + o MISTP, los enlaces redundantes pueden ofrecer la carga compartida como
adicin para la tolerancia critica. La figura nro. 21 muestra un diseo redundante de LAN
de campus que usa el algoritmo de spanning-tree y VLANs.

Figura Nro. 21. Una Topologia de Campus Redundante Jerrquica



El diseo en la figura nro. 21 aprovecha el concepto de spanning tree por VLAN. El
switch A actua como el puente raz para las VLANs 2, 4, y 6. (Switch B puede hacerse el
puente raz para aquellos VLANs si el Switch A falla.) Switch B actua como el puente
raz para las VLANs 3, 5, y 7. (Switch A se hace el puente de raz para aquellos VLANs
si el Switch B falla.) el resultado es que ambos enlaces de capa de acceso conmutada
llevan el trfico, y failover a un nuevo puente raz pasa automticamente si uno de los
switches de capa de distribucin falla. Tanto la carga compartida como la tolerancia de
falta es conseguida.
Metodologa Top Down

Marcos Huerta S.
84
El diseo en La figura nro. 21 puede escalar a una red de campus muy grande. El
diseo ha sido probado en una red que tiene a 8000 usuarios, y 80 switches de capa de
acceso, 14 switches de capa de distribucin, y 4 routers core de campus (no contando
los routers que van a la WAN).

Servidor Redundante
Esta seccin cubre pautas para servidor redundante en un diseo de red de campus. El
archivo, la web, Protocolo de Configuracin de Host Dinmico (DHCP), nombre, y
servidores de base de datos es todos los candidatos para un diseo redundante de
campus, segn los reuqerimientos de un cliente. En una red que soporta la Voz sobre IP
(VoIP), los servidores que proporcionan el mapeo entre un nmero de telfono y una
direccin de IP y el procesamiento de llamada de debera ser aprovisionado en una
manera redundante. El software de CallManager de Cisco, por ejemplo, soporta un
grupo de redundancia donde los servidores estan asignados a roles del servidor
primario, secundario, o terciario.

Una vez que un LAN ha sido emigrado a la utilizacin de servidores de DHCP para la
direccin de IP de sistemas final, los servidores DHCP se hacen crticos. A causa de
esto, usted debera recomendar servidores DHCP redundantes. Los servidores deberan
sostener copias (mirrored) redundantes de la base de datos DHCP de la informacin de
configuracin IP.

Los servidores de DHCP pueden ser colocados en la capa de distribucin o acceso. En
pequeas redes, los servidores DHCP redundantes a menudo son colocados en la capa
de distribucin. Para redes ms grandes, los servidores DHCP redundantes son por lo
general colocados en la capa de acceso. Este evita el trfico excesivo entre el acceso y
capas de distribucin, y permite que cada servidor DHCP sirva un porcentaje ms
pequeo de la poblacin de usuario.

En redes de campus grandes, el servidor DHCP a menudo es colocado en un segmento
de red diferente que los sistemas finales usan. Si el servidor est al otro lado de un
router, el router puede ser configurado para enviar broadcast de DHCP del sistemas
final. El router adelante los broadcast a una direccin de servidor configurada va el
comando ip helper address en un router Cisco. El router inserta la direccin de la
interfaz que recibi la peticin en el campo de giaddr de la peticin de DHCP. El servidor
usa el campo de giaddr para determinar de cual el pool de direcciones elegira una
direccin.

Los servidores de nombre son menos crticos que servidores DHCP porque los usuarios
pueden alcanzar servicios por la direccin en vez del nombre si el servidor de nombre
Metodologa Top Down

Marcos Huerta S.
85
falla; porque muchos usuarios no realizan esto, sin embargo, esto es una idea buena de
planear para servidores de nombre redundantes. Implemente servidores de nombre el
Sistema de Dominio de Nombre de Internet (DNS), el Servicio de Nombramiento de
Internet de Windows (WINS), y el Servicio de Nombre de NetBIOS (NBNS). Los
servidores de nombre pueden ser colocados en la capa de distribucin o el acceso.

En cualquier aplicacin donde el costo de tiempo de indisponibilidad para servidores de
archivo es una preocupacin principal, deberan recomendar a servidores de archivo
mirrored. Por ejemplo, en una firma de corretaje donde los brokerage tienen acceso a
datos para comprar y vender acciones, los datos pueden ser replicados en dos o ms
servidores de archivo mirrored. Los servidores de archivo mirrored mantienen datos
idnticos. Las actualizaciones de los datos son sincronizadas a travs de los servidores.
Los servidores deberan estar en redes diferentes y con suministros de energa para
maximizar la disponibilidad.

Si el servidor de redundancia completa no es factible debido a consideraciones de
costos, reflejando o duplicando los discos duros del servidor de archivo es una idea
buena. (Duplicando es lo mismo como reflejando con el rasgo adicional que los dos
discos duros son controlados por diferentes controladores de disco.) la implementacin
de una red de rea de almacenaje (SAN) es otra opcin. Los SANs se hacen
rpidamente una solucin popular para organizaciones que buscan el acceso muy
confiable, ininterrumpido a cantidades grandes de la informacin almacenada. Las SANs
no son cubiertos en este libro debido a su naturaleza especializada, pero aprender ms
sobre SANs, vea en Cisco el artculo titulado "La estrategia y justificacin Financiera de
Redes de rea de Almacenaje." Est disponible enla pagina:
http://www.cisco.com/en/US/products/hw/ps4159/ps4358/products_white_paper09186a0
0800c464f.shtml.
La redundancia tiene tantas ventajas de performance como disponibilidad. Con
servidores de archivo mirrored, es posible compartir la carga de trabajo entre servidores.
Usando una red contenida en entrega (CDN) y dispositivos contenidos en servicios
contentos, los usuarios pueden ser dirigidos de uno a muchos servidores mirrored todo
estos tienen los mismos datos.

La redundancia tambin puede ser conseguida aadiendo alguna sofisticacin al DNS.
Cuando un cliente solicita el acceso a un recurso por su nombre de DNS, un servidor
DNS puede devolver direcciones de host mltiples en su respuesta. Si este proveer
una buena redundancia depende del software del host. Algunas implementaciones
intentan direcciones adicionales si el primero no responde.

Metodologa Top Down

Marcos Huerta S.
86
Otra posibilidad es una caracteristica llamada el retorno al punto de origen de DNS,
donde el servidor e una lista de direcciones por ciclos. El servidor entrega una direccin
diferente con cada peticin, pasando por su lista de direcciones. Cuando se pone al final
de la lista, este ciclos regresa al principio de la lista. Debido a DNS caching, donde los
clientes y otros servidores DNS recuerdan una correlacin de nombre para direcciones
de mapeo, el DNS retorno al punto de origen de DNS no es perfecto, pero puede ser
completamente simple de implementar y configurar en un servidor tipico DNS.

La redundancia y el equilibrio de carga con DNS tambin pueden trabajar con multiples
servidores DNS. Asumiendo que los clientes tienen acceso a diferentes servidores DNS,
un servidor puede responder con una direccin, mientras otros servidores responden
con direcciones diferentes. Otra vez, DNS el caching puede limitar la eficacia de este
mtodo.

Estaciones-para-Router Redundantes
Las estaciones de trabajo en una red de campus deben tener el acceso a un router para
alcanzar servicios remotos. Como la comunicacin de estacin de trabajo a router es
crtica en la mayor parte de diseos, usted debera pensar en implementar redundancia
para esta funcin.

Una estacin de trabajo tiene muchos modos posibles de descubrir un router en su red,
dependiendo del protocolo que esta corriendo y tambin la implementacin del
protocolo. En las siguientes secciones describen mtodos para estaciones de trabajo
para aprender sobre routero, y caracteristicas de redundancia que garantizan que una
estacin de trabajo puede alcanzar un router.

Aunque AppleTalk y Novell NetWare estn siendo divididas en fases fuera de muchas
redes, esto todava es usado para aprender como los desarrolladores de aquellos
protocolos solucionaron el problema de la comunicacin de estacin de trabajo a router.
Esta seccin comienza con una discusin de aquellos protocolos y luego se mueve a la
comunicacin IP de estacin de trabajo para router.

Comunicacin de Apple Talk de Estacin de trabajo a router
Una estacin de trabajo AppleTalk recuerda la direccin del router que envi el paquete
RTMP ms reciente. Aunque la estacin de trabajo no participe en el proceso de
enrutamiento del protocolo, esto escucha realmente paquetes de broadcast de RTMP y
copia en la memoria la direccin del router que envi el broadcast. Mientras hay al
menos un router en la red de la estacin de trabajo, la estacin de trabajo puede
alcanzar dispositivos remotos. Si hay routers mltiples en la red de una estacin de
trabajo, la estacin de trabajo muy rpidamente aprende un nuevo modo de alcanzar
Metodologa Top Down

Marcos Huerta S.
87
estaciones remotas cuando un router falla, porque los router AppleTalk envan a
paquetes RTMP cada 10 segundos.

Para minimizar memoria y requerimientos de procesamiento en un dispositivo
AppleTalk, la especificacin AppleTalk declara que una estacin de trabajo recuerda la
direccin de slo un router (el router ms recientemente que envi un paquete RTMP).
Recuerde que AppleTalk fue diseado para correr en 128 KILOBYTES de RAM de
Macintosh y fue optimizado para la simplicidad. El resultado es que una estacin de
trabajo no siempre usa el mtodo ms oportuno de alcanzar una estacin remota. La
estacin de trabajo puede seleccionar un camino que incluye un salto extra. La figura
nro. 22 muestra el problema de salto-extra.

Figura Nro 22. Problema de Estacin de trabajo al router salto-extra

Comunicacin Novell de Estacin de trabajo a router de NetWare
Comunicacin Novell de estacin de trabajo a router de NetWare es muy simple.
Cuando una estacin de trabajo NetWare determina que un paquete es destinado a un
destino remoto, la estacin de trabajo envia un broadcast y encuentra el nmero de red
requeridopara encontrar la ruta al destino. Los router en la red de la estacin de trabajo
responden a la peticin. La estacin de trabajo usa el primer router que responde para
enviar paquetes al destino. Si la estacin de trabajo determina que no puede alcanzar ya
el destino, esto automticamente enva la peticin de nmero de red de hallazgo otra
vez. Si un router falla, mientras hay otro router en la red de la estacin de trabajo, la
estacin de trabajo descubre el otro router y la sesin continua.

Comunicacin de Estacin de trabajo IP a router
Las implemetaciones IP varan en como ellos implementan la comunicacin de estacin
de trabajo a router. Algunas estaciones de trabajo IP envan un paquete de Protocolo de
Resolucin de Direccin (ARP) para encontrar una estacin remota. Un router que corre
proxy ARP puede responder a la peticin de ARP con la direccin de la capa de enlace
de datos del router. Los routers de Cisco corren proxy ARP por defecto.
Metodologa Top Down

Marcos Huerta S.
88
La ventaja de depender de proxy ARP para alcanzar estaciones remotas consiste en
que una estacin de trabajo no tiene que ser configurada con la direccin de un router.
Sin embargo, porque proxy ARP nunca ha sido estandarizado, la mayor parte de
administradores de red no dependen de ello. Tambin, muchos expertos de seguridad
recomiendan por apagarlo porque lo hace ms fcil para un atacante para alcanzar otra
red. En cambio, las estaciones de trabajo de IP son dadas la direccin de un router por
defecto. Este puede ser manualmente configurado o suministrado por el DHCP. Un
router por defecto es la direccin de un router en el segmento local que una estacin de
trabajo usa para alcanzar servicios remotos. (El router por defecto es por lo general
llamado default gateway por motivos histricos.)

Como era el caso con AppleTalk, a veces usando el default gateway no es el camino
ms oportuno al destino. (Ver La figura nor. 22.) Para ponerse alrededor del problema
de extra-salto y agregar la redundancia, alguna estacin de trabajo IP implementan y
permiten que un administrador de red aada rutas estticas en un archivo de
configuracin o configura la estacin de trabajo para correr un protocolo de
enrutamiento.

Protocolo de router de Reserva Caliente
El Protocolo de router de Reserva Caliente de Cisco (HSRP) proporciona un camino
para una estacin de trabajo IP para seguir comunicando en las redes aun si su entrada
de default gateway no esta disponible. En RFC 2338, el IETF estandariz un protocolo
similar llamado el Protocolo Virtual de Router Redundantes (VRRP). Los router en el
core, distribucin, o capa de acceso pueden dirigir HSRP o VRRP. El diseo de campus
mostrado en La figura nro 23 caracteristicas HSRP en la capa core.

El HSRP trabaja creando un router virtual, tambin llamado a router fantasma, como es
mostrado en La figura nro. 23. El router virtual tiene su propio IP y direcciones de MAC.
Cada estacin de trabajo es configurada para usar el router virtual como default
gateway. Cuando una estacin de trabajo transmite un paquete de broadcast ARP para
encontrar el default gateway, el router HSRP activo responde con la direccin de MAC
del router virtual. Si el router activo se desactiva, un router de reserva asume como el
router activo, sigue entregando los paquetes de la estacin de trabajo. Este cambio es
transparente a la estacin de trabajo.






Metodologa Top Down

Marcos Huerta S.
89
Figura Nro 23. Protocolo de router de Reserva Caliente (HSRP)


Protocolo de Balanceo de Carga Gateway
Para conseguir carga compartida junto con redundancia, Cisco tambin tiene un
protocolo nuevo llamado Protocolo de Balanceo de Carga Gateway (GLBP). El GLBP es
similar, pero no idntico, a HSRP y VRRP. Con HSRP y VRRP, los routers de reserva
en un grupo son superflujos hasta que el router activo falle. Estos routers de reserva
pueden tener el acceso al ancho de banda que es gastada hasta que un problema
levante. Aunque grupos de multiples routers virtuales puedan ser configurados para el
mismo juego de routers, que es perdida menos, los hosts pueden ser configurados por
diferentes default gateway, que resulta una carga administrativa suplementaria. El GLBP
proporciona el balanceo de carga sobre multiples routers usando una simple direccin
de IP virtual y direcciones multiples de MAC virtuales. Cada host es configurado con la
misma direccin de IP virtual, y todos los routers en el grupo de router virtual participan
en el transporte de paquetes.

Los miembros de un grupo GLBP eligen un router para ser gateway virtual activa (AVG)
para aquel grupo. Otros miembros de grupo proporcionan la reserva para el AVG en
caso de que el AVG no este disponible. El AVG asigna una direccin de MAC virtual a
cada miembro del grupo GLBP. Cada entrada asume la responsabilidad de mandar
paquetes enviados a la direccin de MAC virtual asignada a ello por el AVG. Estas
entradas son conocidas como promotores virtuales activos (AVFs) para su direccin de
MAC virtual. El AVG es responsable de contestar peticiones de ARP de la direccin de
IP virtual. La carga compartida es conseguida por el AVG que contesta a las peticiones
de ARP con direcciones de MAC virtuales diferentes.

El diseo de la Topologa de Borde Empresarial
Segn los objetivos de un cliente para disponibilidad, performance, y accesibilidad, el
diseo de red de borde empresarial debera presentar caracteristicas de segmentos
redundantes WAN en la intranet, y mltiples caminos a extranets y el Internet. El VPNs
Metodologa Top Down

Marcos Huerta S.
90
tambin puede ser usado para conectarse a sitios privados empresariales va proveedor
de servicio pblico WAN o el Internet. Esta seccin cubre topologas de borde
empresarial que incluyen segmentos WAN redundantes, conexiones mltiples al
Internet, y VPNs. La seccin tambin incluye algunos comentarios sobre proveedor de
servicio de borde.

Segmentos redundantes WAN
Como los enlaces WAN pueden ser piezas crticas de unas redes empresarial, los
enlaces WAN (backup) redundantes a menudo son incluidos en una topologa de red de
borde de empresarial. Una red WAN puede ser diseada como una malla llena o una
malla parcial. Una topologa de malla llena proporciona completo redundancia. Esto
tambin proporciona una buena performance porque hay slo un solo enlace de
tardanza entre dos sitio cualquiera. Sin embargo, como ya hemos discutido en este
captulo, una malla llena es costosa para implementar, mantener, mejorar, y resolver
problemas. Una topologa de malla parcial jerrquica, como mostrado antes en La figura
nro. 15, es por lo general suficiente.

Diversidad de Recorrido
Aprovisionando enlaces WAN de reserva, usted debera aprender tanto como sea
posible sobre el enrutamiento de recorrido fsica actual. Los diferentes portadores a
veces usan las mismas instalaciones, queriendo decir que su camino de reserva es
susceptible a los mismos fracasos que su camino primario. Usted debera hacer un poco
de trabajo investigador para asegurar que su reserva realmente es una reserva. Los
ingenieros de red usan la diversidad de recorrido de trmino para referirse a la situacin
ptima del recorrido usando caminos diferentes.

Como los portadores arriendan la capacidad el uno al otro y usan compaas de tercero
que proporcionan la capacidad a multiples portadores, se hace ms difcil para
garantizar la diversidad de recorrido. Tambin, los portadores a menudo combinan el
uno con el otro y mezclan su recorrido despus de la fusin. Cuando los portadores
cada vez ms usan tcnicas automatizadas para el reencaminamiento de recorrido
fsico, se hace an ms difcil planear la diversidad porque el reencaminamiento es
dinmico.

Sin embargo, usted debera trabajar con los proveedores de sus enlaces WAN para
ganar un entendimiento del nivel de la diversidad de recorrido en su diseo de red. Los
portadores por lo general quieren trabajar con clientes para proporcionar la informacin
sobre el enrutamiento de recorrido fsica. (Est consciente, sin embargo, que portadores
a veces proporcionan la informacin inexacta, basada en bases de datos que no son
Metodologa Top Down

Marcos Huerta S.
91
guardadas corrientes.) Tratan de escribir contratos de compromisos de diversidad de
recorrido con sus proveedores.

Cuando este analizando diversidad de recorrido, debe estar seguro de analizar su
tendido de cables local adems de los servicios de su portador. Quizs usted ha
diseado un enlace de ISDN para sostener un enlace de Frame relay. Usan ambos de
estos enlaces el mismo tendido de cables para ponerse al punto de demarcacin en su
red de edificio? Qu tendido de cables usan los enlaces para ponerse a su portador?
El tendido de cables que va de su edificio al portador es a menudo el enlace ms dbil
en una red. Puede ser afectado por construccin, inundacin, tormentas de hielo,
camiones que golpean postes telefnicos, y otros factores.

Las Conexiones Multihoming de Internet
Generalmente el significado de multihoming debe "proporcionar ms de una conexin
para un sistema para tener acceso y ofrecer servicios de red." El trmino multihoming es
usado de muchos modos especficos tambin. Se dice que un servidor, por ejemplo, es
multihomed si esto tiene ms de una direccin de capa de red. Las redes pueden
entregar aplicaciones multihome de la capa de datos y servicioy servicios.

El trmino multihoming es usado cada vez ms para referirse a la prctica de proveer a
la red empresarial ms de una entrada en el Internet. Las entradas redundantes en el
Internet proporcionan la tolerancia de falta por aplicaciones que requieren el acceso de
Internet. Una red empresarial puede ser multihomed al Internet de muchos modos
diferentes, segn los objetivos de un cliente. La figura nro 22 y Tabla nro 13 que
describe algunos mtodos para multihoming de conexin de Internet.















Metodologa Top Down

Marcos Huerta S.
92
Figura Nro. 22. Opciones para Multihoming de conexin de Internet


Tabla Nro. 13. Descripcin de Opciones para Multihoming de conexin de Internet

Metodologa Top Down

Marcos Huerta S.
93
En el caso de Opciones C y D, el objetivo podra ser de mejorar la performance de la red
permitiendo a sitios empresarial europeos tener acceso al Internet usando el router de
Paris y sitios Norteamericanos para usar el router de Nueva York. Este puede ser
llevado a cabo correctamente configurando un default gateway en las estaciones finales
y una ruta por defecto en routers de la empresa en Europa y Norteamrica. (Una ruta
por defecto especifica donde un paquete debera ir si no hay ninguna entrada explcita
para la red de destino en la tabla de enrutamiento de un router. La ruta por defecto
tambin es a veces llamada gateway de ltimo recurso.)

Su cliente podra tener objetivos ms complejos que el objetivo simple en el prrafo
anterior. Quizs su cliente quiere garantizar que los sitios de empresa europeos tengan
acceso a sitios de Internet Norteamericanos va el router de Nueva York. Un objetivo
paralelo es que los sitios de empresa Norteamericanos tienen acceso a sitios de Internet
europeos va el router de Paris. Este podra ser un objetivo razonable cuando una
constante, de baja latencia es requerida para una aplicacin. La latencia es ms
previsible si la primera parte del camino es a travs de la intranet de empresa en vez del
Internet. Este objetivo es ms difcil de encontrarse que el primer objetivo, sin embargo.
Esto requiere que los routers de empresa entiendan rutas del ISP y pongan preferencias
en aquellas rutas.

Un objetivo relacionado es usar "la mejor ruta" a travs del Internet a los sitios en los
cuales los usuarios de empresa ms confan. A menos que una empresa se contraiga (y
pagas) para manejar la calidad de punta a punta del servicio (QoS), este objetivo no
puede ser encontrado. El protocolo de enrutamiento usado en el Internet, BGP, no
ofrece la ruta optima. Su nico objetivo es proporcionar la accesibilidad y la estabilidad
en el sistema de enrutamiento global. Proveedores intermedios con quien una empresa
tiene relacin comercial no se preocupe si el trfico de la empresa sigue rutas ptimas,
tampoco ellos tienen algun incentivo para hacerlo asi.

Otro objetivo ms complejo es garantizar que el trfico entrante del Internet destinado a
sitios de empresa europeas usen el router de Paris y el trfico entrante para sitios de
empresa Norteamericanos usa el router de Nueva York. Este objetivo requiere que los
routers de empresa hagan publicidad a las rutas de Internet a sitios de empresa. Las
rutas deben incluir la mtrica de modo que los routers en el Internet sepan el camino
preferido a sitios en el intranet de empresa.

Una otra advertencia cuando una red de empresa es multihomed es el potencial para
hacerse una red de trnsito que proporciona interconexiones para otras redes. Mirar la
La figura 5-14, considera que el router empresarial aprende rutas del ISP. Si el router
empresarial aprende estas rutas cultas, entonces este arriesgo de permitir que la red de
Metodologa Top Down

Marcos Huerta S.
94
empresarial se hiciera una red de trnsito y fuera cargado por el trfico externo
involuntario. Cuando una red empresarial se hace una red de trnsito, los routers en el
Internet aprenden que ellos pueden alcanzar otros routers en el Internet va la red
empresarial. Para evitar esta situacin, los routers empresarial deberan anunciar slo
sus propias rutas. (Alternativamente ellos no pueden corre un protocolo de enrutamiento
y dependeran de un enrutamiento esttica por defecto.)

En general, multihoming la conexin de Internet puede ser desafiante si los objetivos de
un cliente son complejos. Anime a sus clientes a simplificar sus objetivos para asegurar
la implementacin facil, escalabilidad, disponibilidad, y accesibilidad financiera. Si el
objetivo principal es la alta disponibilidad, no asuma que este significa que ms
redundancia es requerido. Segn Howard Berkowitz en su libro la Gua de
Supervivencia WAN, "los aumentos Incontrolados de redundancia ayuda a aumentos
incontrolados de la complejidad, y realmente pueden disminuir la disponibilidad".

Redes Privadas Virtuales
Las redes privadas virtuales (VPNs) usan la encriptacin avanzada y tuneles para
permitir a organizaciones establecer conexiones privadas de red seguras, de punto a
punto, sobre una red de tercero. La red de tercero puede ser una red de proveedor de
servicio privada o el Internet pblico. Una organizacin puede conectarse a la red de
tercero usando una variedad de WAN y tecnologas de acceso remoto, incluso lneas
arrendadas, Frame relay, mdems de cable, lnea de suscriptor digital (DSL), mdems
anlogos, ISDN, etctera. Las organizaciones tambin pueden usar VPNs para
conectarse a usuarios exteriores, como socios de negocio, clientes, revendedores, y
proveedores. Las VPNs tambin soportan a usuarios mviles y teleconmutacin.

La conectividad de punto a punto a travs de la red de tercero es tpicamente
proporcionada por un protocolo que construye un tnel. La construccin de un tnel es
una tcnica para encapsular paquetes de un protocolo dentro de otro protocolo. Por
ejemplo, un tnel puede llevar paquetes IPv4 a travs de redes que soportan slo IPv6.
En el contexto de un VPN, la construccin de un tnel es usada para encapsular
mensajes privados y aplicar algoritmos de encriptacin de pagos.

Los tneles proporcionan una unin lgico, de punto a punto a travs de una red IP
connectionless, permitiendo la aplicacin de caracteristicas de seguridad avanzados. La
encriptacin es aplicada a la conexin del tunel para revolver datos, as haciendo legible
los datos slo a sistemas autorizados. En aplicaciones donde la seguridad y la
privacidad son menos de una preocupacin, los tneles pueden ser usados sin la
encriptacin para proporcionar el soporte de multiprotocolo.

Metodologa Top Down

Marcos Huerta S.
95
Los mtodos que construye tuneles de capa 2 se encapsula en la capa de enlace de
datos del modelo de OSI. Los ejemplos incluyen el Punto a punto que Protocolo de
Tuneles (PPTP), Capa 2 Transporte (L2F), MPLS VPNs, y Protocolo de Tuneles de
Capa 2 (L2TP) que Construye un tnel. El L2TP es un estndar IETF (RFC 2661) que
muchos vendedores soportan para sus soluciones VPN, incluso Cisco y Microsoft. El
IETF tambin desarrolla una nueva versin de L2TP, llamado L2TPv3. El L2TPv3 surge
como una ligera solucin an robusto para la Capa 2 de construccin de un tnel.

La capa 3 tnel encapsula en la capa de red. Dos ejemplos son IPSec y el generico
enrutamiento de Cisco (GRE). Si slo los paquetes de IP-unicast estn siendo
tunelados, IPSec es la mejor opcin. El GRE es usado cuando multicast, broadcast, y
los paquetes Non-IP tienen que ser tunelados.

Las aplicaciones de VPN para redes empresariales pueden ser divididas en dos
categoras principales: sites to sites y acceso remoto. Sites to sites VPNs se concentran
en la conexin de oficinas geogrficamente dispersadas y son una extensin de la
empresa clsica WAN. VPN de sites to sites tambin puede agregar interconexiones
entre multiples organizaciones, en cuyo caso es llamado algn da un extranet VPN.
VPNs de acceso remoto se concentran en usuarios remotos y socios de negocio que
tienen acceso a la red en un comun- base necesaria.

Site-to-Site VPNs
El Sites to sites VPNs ha surgido como un camino relativamente barato para una
compaa para conectar sucursales geogrficamente dispersadas y oficinas principales
va un proveedor de servicio o el Internet, a diferencia del mantenimiento caro de una
WAN privada. Los datos privados de la compaa pueden ser encriptados para
enrutarlos por la red del proveedor de servicio o el Internet. Tradicionalmente, los
negocios confiaron en las lneas arrendadas de T1 1.544-Mbps privadas para conectar
oficinas remotas juntas. Las lneas arrendadas son caras de instalar y mantener. Para
muchas compaas, una lnea arrendada provee ms ancho de banda que es necesaria
en un precio demasiado alto. Un sites a sites VPN es una solucin ms rentable y
manejable.

Diseando la topologa de una red de sites to sites, usted debera considerar las mismas
necesidades para una WAN privada, incluso la necesidad de la alta disponibilidad con
failover automtico, performance, seguridad, y escalabilidad. Las topologas ms
comunes para un sites to sites VPN son como sigue:
Topologa "hub and spoke"
Topologa de malla
Topologa de red jerrquica
Metodologa Top Down

Marcos Huerta S.
96
La topologa "hub and spoke" es usado cuando hay un a simple oficina central o regional
con muchas oficinas remotas, y la mayor parte de trfico est entre los sitios remotos y
la posicin regional o oficina central. Este diseo minimiza la complejidad de
configuracin teniendo una simple conexin IPSec o un simple tnel GRE de cada
posicin remota detrs de la posicin regional o posicin de oficina central. Este diseo
no es apropiado cuando hay un nivel alto del trfico entre sitios remotos o cuando hay
una necesidad de redundancia y failover automtico. Un realce al diseo debe incluir
multiples routers VPN en la oficina central para proporcionar la mejor redundancia.

Los diseos de malla VPN pueden ser o totalmente malla, proporcionando la
conectividad "alguno a alguno", o malla parcial, proporcionando la conectividad "unos a
unos", segn los requerimientos del cliente. La topologa malla es un diseo bueno para
usar cuando hay un pequeo nmero de localizaciones totales (regional, oficina central,
o posiciones remotas), con una cantidad grande del trfico que fluye entre unos (malla
parcial) o todos (malla llena) de los sitios. En un diseo malla llena, la prdida de una
sola localizacin slo afecta el trfico de aquella posicin. Todas otras posiciones
permanecen no afectadas. Este diseo no escala bien cuando hay numerosos sitios,
debido al nmero grande de conexiones IPSec o tneles GRE con IPSec que tienen que
ser configurados en cada dispositivo.

Una topologa VPN jerrquica es una topologa hbrida para una compaa grande que
tiene muchas oficinas centrales y oficinas regionales con mucho trfico que fluye entre
ellos, y muchas oficinas remotas, con un poco de interaccin entre ellos. La topologa
consiste en un lleno - o malla parcial core, con sitios perifricos que se conectan en el
core usando un diseo "hub and spoke". Un diseo jerrquico es el ms complejo de los
diseos en trminos de configuracin, y puede tener una combinacin de IPSec y
tneles GRE.

Acceso remoto VPNs
El Acceso remoto VPNs permitido por demanda tienen acceso a las redes de una
organizacin, va seguras, encriptadas. Los usuarios mviles o remotos, y las sucursales
que no tienen que estar siempre conectadas, pueden tener acceso a sus redes
corporativas va una red de tercero, como la red del proveedor de servicio o el Internet.
Las empresas usan el acceso remoto VPNs para reducir gastos de comunicaciones por
leveraging las infraestructuras locales de los proveedores de servicio que soportan
dialup, ISDN, cable de mdem, DSL, o el acceso inalmbrico al Internet o la red privada
del proveedor.

Cuando implementen una arquitectura de acceso remoto de VPN, una consideracin
importante es donde iniciar la construccin de un tnel y la encriptacin. Debera el
Metodologa Top Down

Marcos Huerta S.
97
tnel iniciar en el ordenador personal de cliente o en una red de acceso al servidor
(NAS) operado por el proveedor de servicio VPN? En un modelo iniciado por cliente, el
tnel encriptado es establecido por el software de cliente usando IPSec, L2TP, o PPTP,
as haciendo la red del proveedor de servicio nicamente un medio de transporte a la
red corporativa. Una ventaja de un modelo iniciado por cliente consiste en que "la ltima
milla" red de acceso del proveedor de servicio es usada para tener acceso al punto del
proveedor de presencia (POP) asegurada. Una desventaja del modelo iniciado por
cliente es la necesidad de manejar el software en mquinas de cliente.

En un modelo NAS-iniciado, un usuario remoto tiene acceso a la POP del proveedor de
servicio, es autenticado por el proveedor de servicio, y, por su parte, inicia un tnel
seguro a la red corporativa de los POP con una arquitectura NAS-iniciada, la VPN
inteligentes reside en la red del proveedor de servicio. No hay ningn software de cliente
de usuario final para organizar un mantenenimiento, as eliminando cuestiones de
manejo de cliente asociadas con el acceso remoto. Los inconvenientes, sin embargo,
son la carencia de la seguridad en la red de acceso local que conecta del cliente a la red
de proveedor de servicio y la necesidad de interfuncionar con servidores del proveedor.
La figura nro.23 muestra a una topologia de acceso remoto de VPN para una compaa
de venta al pblico. La compaa usa tanto tneles iniciados por cliente como NAS-
iniciados.

Figura Nro.23 Un Acceso Remoto VPN para una Compaa de Venta al Pblico


El Borde del Proveedor de Servicio
Aunque el foco de este captulo disee una topologa lgica para una red de empresa,
una rapida discusin del proveedor de servicio es garantizada en este punto. El Modelo
de Red Compuesto Empresa incluye el mdulo de borde del proveedor de servicio, y,
Metodologa Top Down

Marcos Huerta S.
98
aunque no se espere que usted disee este mdulo como un diseador de red de
empresa, usted necesita que tener algn entendimiento de ello y ser capaz de
seleccionar al proveedor apropiado (o proveedores) para sus clientes en el diseo. La
seleccin de un proveedor de servicio es algo que usted debera considerar durante la
fase de diseo lgica, que es el foco de esta parte (Fase II) de la metodologia. La Fase
III se dirige al tema otra vez porque durante aquella fase usted debera hacer algunas
selecciones definidas de tecnologas WAN, dispositivos, y proveedores.

En los primeros das de comunicaciones de datos, alli haba compaas telefnicas
regionales o nacionales y sus clientes, y nada ms. La opcin de un cliente del
proveedor fue dictada por la posicin. El nivel de servicio y fijacin de precios fue
dictado por el proveedor. Hoy, hay una amplia variedad de proveedores de servicio. Los
niveles de servicio y la fijacin de precios son ms negociables.

Encontrar un proveedor que empareja con las necesidades y requerimientos de una
empresa requiere un entendimiento bueno de estas necesidades y cultura de empresa y
proveedor potencial. Muchos ISPs comienzan pequeos que ofrecen dialup y el servicio
de mdem a usuarios finales. Estos ISPs pueden no tener la esperiencia de soportar
una empresa grande, aunque ellos puedan ser apropiados para usuarios de casa que
tienen acceso a la red corporativa usando el software de VPN. Algn foco de ISPs sobre
todo en la recepcin de servidores y no apoya a usuarios finales. Algunos ISPs son
realmente proveedores de servicio de red (NSPs), el que significa que su negocio
principal se conecta otro ISPs ms bien que empresas o usuarios finales. La seleccin
de proveedores para su diseo de red requiere que usted entienda cul de estos tipos
de servicios usted realmente necesita.

El ISPs y NSPs son a veces clasificados como la Capa 1 hasta Capa 5. Aunque estas
categoras no tengan el significado universal, si un proveedor llama a esto proveedor
Capa 1 y usted busca a un proveedor barato para conectar una pequea oficina o a
casa, entonces usted sabe mirar en otra parte. La Capa 1 ISPs son grandes e
internacionales proveedores, mientras que la Capa 5 ISPs es pequea, proveedores
especializados, a veces localizados en una ciudad o rea rural. Un proveedor de Capa 5
podra ser tan pequeo como una cafetera de Internet.

Una diferencia importante entre las capas tiene que ver con la relacin que un proveedor
tiene con otro ISPs. Usando una definicin econmica del punto (ms bien que la
definicin BGP), una relacin de punto significa que dos ISPs no cobran el uno al otro
para llevar el trfico de cada uno. Ellos son tanto del mismo tamao como es su mutua
ventaja para dejar a sus clientes tener el acceso el uno al otro, sin preocuparse de la
facturacin. Este se diferencia de la otra relacin ISP comn, que es un proveedor-
Metodologa Top Down

Marcos Huerta S.
99
cliente, donde ISP ms pequeo paga al ISP ms grande por el privilegio de enviar el
trfico por la red del ISP ms grande. Este a menudo es llamado comprando el trnsito.

Un proveedor de Capa 1 no compra el trnsito. Un proveedor de Capa 1 tiene un centro
de operaciones de red de 24/7 y un backbone nacional o internacional con al menos la
conectividad de DS-3, y ms como OC-3 a OC-48. El proveedor consigue todas sus
rutas bilateral mirando detenidamente arreglos. Sus clientes son principalmente otros
proveedores, por esto puede soportar una empresa grande tambin. Los ejemplos de
los proveedores de Capa 1 incluyen UUNet, Cable & Wireless (C&W), Sprint, Qwest,
Verio, Level 3, and AT&T. Los proveedores de Capa 2 tambin tienen backbone de alto
ancho de banda y operaciones 24/7, pero ellos son limitados con una presencia regional
o nacional y ellos compran el trnsito (a menudo en un descuento por paquete) de un
proveedor de Capa 1 el trfico que va fuera de la regin. Un proveedor de Capa 2
consigue todas sus rutas regionales por mirar detenidamente arreglos. Los ejemplos de
los proveedores de Capa 2 incluyen SBC, Earthenlaces, y AOL.

Un proveedor de Capa 3 es tpicamente un proveedor regional para una regin pequea
o de tamao medio. Por ejemplo, el Inicio de Sesin de Amrica es un proveedor de
Capa 3 en la regin de Noreste de los Estados Unidos. Un proveedor de Capa 3 compra
el trnsito de mltiple proveedores y dirige por defecto tres tabla de enrutamiento por
defeecto. No hay ninguna definicin general de Capa 4 o Capa 5, pero la Capa 4 podra
ser un proveedor metropolitano que es multihomed a dos proveedores regionales, y la
Capa 5 podra ser un proveedor pequeo, solo-homed que conecta a usuarios finales
va dialup, mdem, o servicio inalmbrico.

En este punto del proceso de diseo, usted debera haber analizado requerimientos y
topologas al grado que usted tiene una idea buena de la capa que usted necesitar.
Durante la fase de diseo lgico, usted debera comenzar a hacer una lista de criterios
para seleccionar a los proveedores y desarrollar un plan y poner el estndar para
evaluar a candidatos. Investigue la disponibilidad de proveedores de servicio en las
regiones relevantes y comience a pedir informes. Est especfico en sus peticiones de la
informacin de candidatos. Priorice que la informacin solicitada y indique que tan
rpidamente usted necesita una respuesta. Usted tambin puede querer pedir
referencias y comenzar a hacer preguntas sobre el proveedor de otros usuarios en la
regin. Ver el "La seleccin de un Proveedor de Servicio WAN" seccin de la
metodologia la parte 11, "Seleccionando Tecnologas y Dispositivos para Redes de
Empresa," para ms informacin en este tema.



Metodologa Top Down

Marcos Huerta S.
100
Diseo de Topologas de Red Seguras
Esta seccin habla de la seguridad de red con relacin a topologas de red. La parte 8
se habla mas detalladamente como se implementa la seguridad a la red. El foco de
esta seccin es topologas lgicas, pero la seguridad fsica tambin es brevemente
mencionada.

La planificacin para la Seguridad Fsica
Cuando desarrolle la topologa lgica de una red, usted debera comenzar a conseguir
una idea de donde el equipo ser instalado. Usted debera comenzar a trabajar con su
cliente de diseo en seguida para asegurarse que el equipo crtico ser instalado en
cuartos de computadora que tienen la proteccin de acceso no autorizado, robo,
vandalismo, y catstrofes como inundaciones, fuegos, tormentas, y terremotos. La
seguridad fsica no es realmente un aspecto del diseo de red lgico, pero es
mencionado aqu porque su topologa lgica podra tener un impacto en ello, y porque la
planificacin para la seguridad fsica debera comenzar en seguida, por si haya mas
adelante tiempo para construir o instalar mecanismos de seguridad.

Reuniendo Objetivos de Seguridad con Topologas de Firewall
Un firewall es un dispositivo que funciona como cortafuegos entre redes, permitiendo o
denegando las transmisiones de una red a la otra. Un firewall puede ser un router con
listas de control de acceso (ACLs), una caja de hardware dedicada, o software que corre
en un ordenador personal o sistema UNIX. Un firewall debera ser colocado en la
topologa de red de modo que todo el trfico desde fuera de la red protegida debiera
pasar por el firewall. Una poltica de seguridad especifica qu trfico est autorizado a
pasar por el firewall.

Los firewall son sobre todo importantes en el lmite entre la red de empresa y el Internet.
Una topologa de firewall bsica es simplemente un router de trfico con una conexin
WAN al Internet, una conexin LAN a la red de empresa, y software que tiene rasgos de
seguridad. Esta topologa elemental es apropiada si su cliente tiene una poltica de
seguridad simple. Las polticas de seguridad simples pueden ser puestas en prctica en
el router de trfico con ACLs. El router de trfico tambin puede usar a NAT para
esconder direcciones internas de hackeres de Internet.

Para clientes que necesitan publicar datos pblicos y proteger datos privados, la
topologa de firewall puede incluir una LAN pblica que recibe web, FTP, DNS, y
servidores SMTP. La literatura de seguridad ms vieja a menudo se refera a la LAN
pblico como la zona de comercio libre, que es un nombre bueno para ello.
Lamentablemente, mas apropiado el trmino la zona desmilitarizada (DMZ) se ha hecho
ms popular. La literatura de seguridad se refiere a un host en el DMZ como un host de
Metodologa Top Down

Marcos Huerta S.
101
bastion, un sistema seguro que soporta un nmero limitado de aplicaciones para uso de
afuera. El host de bastion sostiene datos que los de afuera pueden tener acceso, como
pginas Web, pero son fuertemente protegidos de los usuarios de afuera usndolo para
algo adems de sus objetivos limitados.

Para clientes ms grandes, es recomendado esto usted usa un firewall dedicado
adems de un router entre el Internet y la red de empresa. Para maximizar la seguridad,
usted puede correr caracteristicas de seguridad en el router y en el firewall dedicado.
(Para maximizar la performance, por otra parte, usted no puede correr caracteristicas
de seguridad en el router) La figura 5-16 muestra a una topologia DMZ segura.

Figura Nro.24 Una Topologia DMZ


Una topologa alternativa debe usar dos routers como los firewalls y ubicarlo entre el
DMZ, como mostrado en La figura nro 25. Esta topologa es llamada una topologa de
firewall de tres partes. Una desventaja con este acercamiento es que la configuracin en
los routers podra ser compleja, consistiendo en muchos ACLs para controlar el flujo de
trfico de la red privada y el DMZ. Otra desventaja es que el flujo de trfico de la
empresa se conecta a la red por el DMZ. El DMZ conecta a los servidores pblicos que
pueden estar comprometidos y acto que lanzan ataques en la red de empresa. Usted
puede reforzar esta topologa usando routers con ACLs simple al uno o el otro al final
del DMZ y tambin incluso firewall al uno o el otro al final que son configurados con
ACLs ms complejas. Tambin, los host de bastiones dentro del DMZ deberan dirigir el
software del firewall y ser configurados para un determinado limite de servicios.

Figura Nro. 25 Topologa de Firewall de tres Partes

Metodologa Top Down

Marcos Huerta S.
102
Resumen
Este captulo se concentr en tcnicas para desarrollar una topologa para un diseo de
red. El diseo de una topologa de red es el primer paso en la fase de diseo lgico de
la metodologa de diseo de red top down. Diseando una topologa lgica antes de una
realizacin fsica, usted puede aumentar la probabilidad de encontrar los objetivos de un
cliente para escalabilidad, adaptabilidad, e interpretacin.

Este captulo habl de cuatro caractersticas de topologas de red: jerarqua,
modularidad, redundancia y seguridad. Todas estas caractersticas pueden ser
aplicadas a campus como a empresa diseo WAN. Las caractersticas no son
mutuamente exclusivas. Su objetivo debera ser de disear arquitecturas de red
jerrquicas, modulares, redundantes, y seguras basadas en los objetivos de su cliente.

La jerarqua y la modularidad le dejan desarrollar una red que consiste en muchos
componentes de interrelaciones en una manera fashion y estructurada. La utilizacin de
un modelo jerrquico puede ayudarle a maximizar la performance de red, reducir el
tiempo de implementar y fallas de un diseo, y minimizar gastos.

Los diseos de red redundantes le dejan encontrar requerimientos para la disponibilidad
de red duplicando componentes de red. La redundancia elimina un simple puntos de
falla en la red. La redundancia tambin facilita la carga compartida que aumenta la
performance de la red. La redundancia aade la complejidad y el costo de la red, sin
embargo, y debera ser diseado con el cuidado.

Dependiendo de su particular diseo de red, usted debera planear una topologa segura
que protega routers core, puntos de demarcacin, tendido de cables, switches,
servidores, etctera. La adicin de uno o varios firewall a su topologa puede ayudarle a
proteger redes de empresa de los ataques de afuera .

Despus de completar una topologa lgica para un cliente, usted debera seguir en la
fase de diseo lgico diseando el direccionamiento y nombramiento del modelo de red,
seleccin de conmutacin y protocolos de enrutamiento, y desarrollo de seguridad de
red y estrategias de manejo. Estos temas son cubiertos en los siguientes fases.
Haciendo un trabajo cuidadoso en la fase de diseo lgico puede aliviar su transicin en
el diseo de la realizacin fsica de la red. Esto tambin puede prepararle para el trabajo
de seleccionar los correctos productos y tecnologas para su cliente.




Metodologa Top Down

Marcos Huerta S.
103
Parte 6. Diseo de un modelo de direccionamiento
Esta parte proporciona pautas para adjudicar direcciones y nombres a componentes de
redes, incluso redes, subredes, routers, servidores, y sistemas de final. En esta parte se
enfoca en el Protocolo de Internet (IP) la direccin y el nombramiento. Para beneficiarse
ms de este captulo, usted debera tener ya un entendimiento bsico de la direccin de
IP.

Este captulo ilustra la importancia de usar un modelo estructurado para direccin de
capa de red y nombramiento. Sin la estructura, es fcil quedarse sin direcciones,
desperdiciar direcciones, introducir direcciones duplicadas y nombres, y direcciones de
uso y nombres que son difciles de manejar. Para encontrar los objetivos de un cliente
para escalabilidad, performance, y manejabilidad, usted debera asignar direcciones y
nombres sistemticamente.

Este captulo tambin demuestra la importancia de desarrollar polticas y procedimientos
para direccionamiento y nombramiento. Las polticas a menudo implican un plan para
distribuir autoridades para direccionamiento y nombramiento para evitar que un
departamento tenga que manejar todas las direcciones y nombres. Una central de
autoridad pueden asignarse por bloques de direcciones y nombres en una manera
jerrquica a departamentos y sucursales.

Pautas para Asignar Direcciones de Capa de Red
Las direcciones de capa de red deberan ser planeadas, manejadas, y documentadas.
Aunque un sistema final pueda aprender su direccin dinmicamente, no existe
ningunos mecanismos para asignar a la red o nmeros de subnet dinmicamente. Estos
nmeros deben ser planeados y administrados. Muchas redes aejas donde todava
existen direccionamiento no fue planeada o documentada. Estas redes son difciles
cuando fallan y no escalan.

La lista siguiente proporciona algunas reglas simples para el direccionamiento para la
capa de red que le ayudar a la escalabilidad de arquitecto y manejabilidad en un diseo
de red. Estas reglas son descritas ms detalladamente en secciones posteriores de este
parte.
Disee un modelo estructurado para direccionamiento antes de asignar cualquier
direccin.
Vyase del cuarto del crecimiento del modelo de direccionamiento. Si usted no
planea el crecimiento, usted debera volver a numerar ms tarde muchos
dispositivos, que es una labor intensa .
Asigne bloques de direcciones en una manera jerrquica el cual es buena para la
escalabilidad y la disponibilidad.
Metodologa Top Down

Marcos Huerta S.
104
Asigne bloques de direcciones basadas en la red fsica, no en el ingreso de grupo,
para evitar problemas cuando los grupos o los individuos se mueven.
Si el nivel de manejo de direccin de red de regional y sucursales es alto, usted
puede delegar autoridad para el direccionamiento regional y redes de sucursal,
subredes, servidores, y sistemas finales.
Para maximizar la flexibilidad y minimizar la configuracin, use la direccin dinmica
para sistemas finales.
Para maximizar la seguridad y la adaptabilidad, use direcciones privadas con la
Traduccin de Direccin de Red (NAT) en ambientes IP.

Usando un Modelo Estructurado para el Direccionamiento de Capa de Red
Un modelo estructurado para direccionamiento significa que las direcciones son
significativas, jerrquicas, y planeadas. Las direcciones IP que incluyen un prefijo y parte
host son estructuradas. La asignacin de un nmero de red IP a una red de empresarial,
y luego subneteando el nmero de red, y subneteando las subredes, es un modelo
(jerrquico) estructurado para la direccin IP.

Un modelo estructurado claramente documentado para el direccionamiento facilita el
manejo y la solucin de problemas. La estructura se hace ms fcil para entender
mapas, hacer operar el software de manejo de red, y reconocer dispositivos analizando
los rastros de un protocolo e informes. Las direcciones estructuradas tambin facilitan la
optimizacin de red y la seguridad porque ellos hacen ms fcil para implementar filtros
de red en los firewall, routers, e switches.

Muchas compaas no tienen ningn modelo para el direccionamiento. Cuando no hay
ningn modelo, y las direcciones son adjudicadas de un modo desordenado, los
problemas siguientes pueden ocurrir:
Red duplicada y direcciones de host
Las direcciones ilegales que no pueden ser ruteadas en el Internet
No hay suficientes direcciones en totales, o por grupo.
Las direcciones que no pueden ser usadas, y gastadas tambin

La Administracin de Direcciones por una Autoridad Central
Los Sistemas de Informacin Corporativos (SON) o redes empresariales
departamentales pueden desarrollar un modelo global para el direccionamiento de la
Capa de red. Como el diseador de red, usted debera ayudar al departamento ES
desarrollar el modelo. El modelo debera identificar nmeros de red para el core de la
red empresarial, y los bloques de las subredes para capas de acceso y la distribucin.
Dependiendo de la estructura organizativa de la empresa, los administradores de la red
dentro de cada regin o sucursal pueden dividir en subredes.
Metodologa Top Down

Marcos Huerta S.
105
Las direcciones de IP son pblicas o privadas. Las direcciones pblicas son globalmente
nicas y son registradas con unas autoridades de enumeracin. Las direcciones
privadas nunca son ruteadas en el Internet global y son asignadas de un rango especial,
documentada en la Peticin de Comentarios (RFC) 1918. Las direcciones privadas son
cubiertas ms detalladamente en la seccin "Usando Direcciones Privadas en un
Ambiente IP"ms adelante.

Temprano en el proceso de diseo de direccin, usted tiene que contestar estas
preguntas en cuanto a las direcciones pblico contra direcciones privadas:
Son pblicos, privados, o son ambos tipos de direccin requeridos?
Cuntos sistemas finales necesitan el acceso a la red privada slo?
Cuntos sistemas finales tienen que ser visibles a la red pblica tambin?
Cmo van a ocurrir la traduccin entre direcciones privadas y pblicas?
Dnde en la topologa de la red va a existir el lmite entre direcciones privadas y
pblicas?

Si usted necesita un nmero grande de direcciones pblicas, usted trabajar con uno de
tres registros regionales que asignan bloques grandes del espacio de direccin de IP
para el Internet:
El Registro americano para Nmeros de Internet (ARIN) sirve las Amricas y
algunas otras posiciones que tienen todava un registro regional. Refirase a
www.arin.net para ms informacin.
Rseaux IP Europens Centro de Coordinacin de Red (RIPE) (NCC) sirve Europa.
Refirase a www.ripe.net para ms informacin.
Asia Pacific Network Information Center (APNIC) sirve para Asia regin de Ocano
Pacfico. Refirase a www.apnic.net para ms informacin.

El termino de direccin de proveedor independiente se refiere a direcciones que son
asignadas directamente por uno de los registros regionales. En la prctica, la mayor
parte de empresas no usan direcciones del espacio de direccin independiente del
proveedor. Una organizacin tiene que manifestarse esto tendr a aproximadamente
8000 o ms host conectados por Internet antes de que se haga elegible para el espacio
de direccin independiente del proveedor. Por lo tanto, la mayor parte de empresas
trabajan con un Proveedor de Internet (ISP) para obtener direcciones pblicas, en cuyo
caso sus direcciones son la parte del espacio de direccin asignado por el proveedor. La
empresa usa estas direcciones mientras permanece en un suscriptor de proveedor. El
cambio a un nuevo proveedor requiere la renumeracin, que es un problema con
direcciones asignadas por el proveedor. Sin embargo, a menos que usted tenga a
numerosos hosts que necesitan las direccines pblicas, usted usar probablemente
direcciones asignadas por el proveedor.
Metodologa Top Down

Marcos Huerta S.
106
Distribuyendo Autoridad para Direccinamiento
Uno de los primeros pasos en el desarrollo de un direccionamiento y nombramiento del
modelo debe determinar quin implementara el modelo. Cul administrador de red
asigna las direcciones y configurar dispositivos? Cual direccionamiento y configuracin
ser realizado por administradores de red inexpertos, usted debera guardar el modelo
simple.

Si hay pocos administradores de red, (que hay en muchas organizaciones), entonces la
simplicidad es importante as como minimizando la cantidad de configuracin requerida.
En estas situaciones, los direccionamientos dinmicos es una recomendacin buena. El
direccionamiento dinmico, como el Protocolo de Configuracin de Host Dinmico
(DHCP) para ambientes IP, permite que cada sistema final aprenda su direccin
automticamente. Muy poco, es cuando la configuracin es necesaria o requerida.

Si los administradores de red de regional y las sucursales son inexpertos, usted podra
pensar no delegar autoridades para el direccionamiento y nonbramiento. Muchos de las
pequeas y medianas compaas mantiene el control estricto de direccionamiento y
nombramiento en un nivel (centralizado) corporativo. El control de mantenimiento
estricto evita errores que pueden ser causados por los usuarios frustrados y conectarse
fallas a la red. El control de mantenimiento estricto puede ser desafiante, especialmente
como los administradores de red regionales y los usuarios se hacen ms expertos con
las redes y empiezan a instalar dispositivos que pueden asignar direcciones.

Usando Direccionamiento Dinmico para Sistemas Finales
El direccionamiento dinmico reduce las tareas de configuracin requeridas para
conectar sistemas finales de redes. El direccionamiento dinmico tambin soporta a
usuarios que cambian de oficinas con frecuencia, viajes, o trabajan en casa de vez en
cuando. Con el direccionamiento dinmico, una estacin puede aprender
automticamente que segmento se conecta a la red actualmente, y ajustar su direccin
de capa de red en consecuencia.

El direccionamiento dinmico es construida para protocolos de escritorio como
AppleTalk y Novell NetWare. Los diseadores de estos protocolos reconocieron la
necesidad de minimizar tareas de configuracin de modo que los usuarios inexpertos
pudieran configurar pequeas redes. Los protocolos IP, por otra parte, fueron diseados
para correr en computadoras manejadas por administradores de sistema con
experiencia, y no apoyaron al principio el direccionamiento dinmico. En aos recientes,
sin embargo, la importancia del direccionamiento dinmico ha sido reconocida, y la
mayor parte de compaas usan DHCP para minimizar tareas de configuracin para
sistemas finales de IP.
Metodologa Top Down

Marcos Huerta S.
107
Muchas redes usan una combinacin de la direccines esttica y dinmica. Las
direcciones estticas son tpicamente usadas para servidores, routers y administracin
de sistema de red. Aunque los switches trabajen debajo de la capa de red en el enlace
de datos y capas fsicas, esto es tambin una idea buena de asignar una direccin de
capa de red esttica a switches para propositos de direccin. Las direcciones dinmicas
son tpicamente usadas para sistemas finales, incluso telfonos de IP y estaciones de
trabajo.

Segn Cisco, las direcciones estticas son usadas en manejo de redes y los mdulos de
campus rea funcional en el Modelo de Red Compuesto Empresarial Cisco. Las
direcciones Estticas tambin son usadas en todos los mdulos del borde de empresa
rea funcional (el e-comercio, conectividad de Internet, VPN/remote-access, y mdulos
WAN).

Otros criterios para usar direccionamiento estticos vs dinmico incluyen lo siguiente:
El nmero de sistemas finales. Cuando hay ms de aproximadamente 30
sistemas, las direccines dinmica es por lo general preferible.
Renumeracin. Si probablemente usted tendr que volver a numerar sistemas en el
futuro y hay muchos sistemas finales, la asignacin de direccin dinmica es la
mejor opcin. La renumeracin para direcciones pblicas se har necesaria si nuevo
ISP es seleccionado. Adems, usted puede planear volver a numerar porque el plan
corriente no es bien estructurado o se quedar sin nmeros muy pronto.
Alta Disponibilidad. Las direcciones de IP estticamente asignadas estn
disponibles en cualquier momento. Las direcciones de IP dinmicamente asignadas
tienen que ser adquiridas de un servidor primero. Si el servidor falla, una direccin
no puede ser adquirida. Para evitar este problema, usted puede desplegar
servidores DHCP redundantes o usar direcciones estticas.
Seguridad. Con la asignacin de direccines dinmicas, en la mayor parte de
casos, cualquier dispositivo que se conecte a la red puede adquirir una direccin
vlida. Este impone algn riesgo a la seguridad y puede significar que la direccin
dinmica no es apropiada para una compaa con una poltica de seguridad muy
estricta.
Rastreo de direccin. Si una poltica de seguridad o direccin requiere que las
direcciones sean rastreadas, la direccin esttica podra ser ms fcil para poner en
prctica que la direccin dinmica.
Parmetros adicionales. Si los sistemas finales necesitan la informacin ms all
de una direccin, la direccin dinmica es til porque un servidor puede
proporcionar parmetros adicionales a clientes junto con la direccin. Por ejemplo,
un servidor DHCP proporciona una mscara subnet, un default gateway, y la
informacin opcional como una o varias direcciones de servidor de nombre, incluso
Metodologa Top Down

Marcos Huerta S.
108
el Sistema de Nombre de Dominio (DNS) y Servicio de Nombramiento de Internet de
Windows (WINS) direcciones de servidor.

Direccionamiento Dinmico AppleTalk
El AppleTalk era el primer protocolo de red para soportar el direccionamiento dinmico.
El direccionamiento dinmico de AppleTalk inspir el direccionamiento dinmico IP, as
aprendiendo un poco sobre el direccionamiento de AppleTalk le ayudar a entender
esquemas modernos para el direccionamiento IP dinmico.

Una direccin de estacin de capa de red de AppleTalk consiste en un nmero de red
16 bits y un nodo de 8 bits ID. La direccin es escrita como nodo de red; por ejemplo,
2210.15 significas 15 de estaciones y 2210 en red. Cuando una estacin de AppleTalk
inicializa, esto dinmicamente elige su direccin de capa de red de 24 bits, basada
parcialmente en la informacin que esto solicita de los routers en el segmento de red.
Un administrador de la red configurara los routers con un rango de cable y uno o varias
zonas para cada segmento de red. Los sistemas finales no requieren ninguna
configuracin.

Despus de que una estacin de AppleTalk ha elegido una direccin de capa de red,
esto salva esta informacin en la RAM "batera backed-up", que tambin es llamado la
RAM de parmetro, o el PRAM. Cuando una estacin de AppleTalk inicializa, esto
chequea para ver si esto tiene una direccin en el PRAM. Si esto hace, este usa aquella
direccin (despus de confirmarque que la direccin es todava nica). Usando la misma
direccin despus de que reanudar facilita la direccin de red. Sin esta caracteristica,
sera ms difcil manejar estaciones de AppleTalk, porque una estacin recibira una
nueva direccin cada vez que esto inicializ.

Direccionamiento Dinmico Novell NetWare
Una direccin de estacin de capa de red de NetWare consiste en un nmero de red de
4 bytes y un nodo ID de 6 bytes. El nodo ID de 6 bytes es el mismo como el Control de
Acceso de Medios de la estacin (MAC) esta direccin se encuentra en su tarjeta de
interfaz de red (NIC). Como una estacin NetWare usa su direccin de MAC para su
nodo ID, ninguna configuracin del nodo ID es requerido.

Un administrador de la red configura routers y servidores en una red de NetWare con el
nmero de red de 4 bytes para un segmento de red. Cuando una estacin NetWare
inicializa, esto enva un paquete "consiguen al servidor ms cercano". Los servidores
que responden a este mensaje informan a la estacin del nmero de red para el
segmento de red local. (Si no hay ningunos de los servidores en el segmento de la
estacin, un router responde a la peticin "consiguen al servidor ms cercano".
Metodologa Top Down

Marcos Huerta S.
109
Los routers pueden ser por lo general configurados para retrasar sus respuestas para
evitar adelantarse el derecho de un servidor ocupado de responder primero.)

Direccionamieno Dinmica IP
Cuando los protocolos IP fueron desarrollados primero, se requiri que un administrador
de red configurara a cada host con su direccin de IP nica. A mediados de los aos
1980, los protocolos fueron desarrollados para soportar estaciones diskless
dinmicamente aprendiendo una direccin, que era necesaria porque una estacin
diskless no tiene ningn almacenaje para salvar una configuracin. Estos protocolos
incluyeron el Protocolo de Resolucin de Direccin Inverso (RARP) y BOOTP. El
BOOTP ha evolucionado en DHCP, que ha ganado la popularidad considerable desde
finales de los aos 1990.

El RARP es limitado en el alcance; la nica informacin devuelta a una estacin usando
RARP es su direccin de IP. El BOOTP es ms sofisticado que RARP, y opcionalmente
devuelve la informacin adicional, incluso la direccin de default gateway, el nombre de
un archivo de boot para descargar, y 64 bytes de la informacin especfica de vendedor.

El Protocolo de Configuracin de Host Dinmico
El DHCP est basado en BOOTP. Los hosts de BOOTP pueden interfuncionar con hosts
de DHCP, aunque DHCP aada muchos realces a BOOTP, incluso un campo de
informacin especfico de vendedor ms grande (llamado el campo de opciones en
DHCP) y la asignacin automtica de direcciones de capa de red reutilizables.El DHCP
ha evitado BOOTP en la popularidad, probablemente porque es ms fcil configurar. A
Diferencia de BOOTP, DHCP no requiere que un administrador de red mantenga una
tabla de direccin de MAC-to-IP.

El DHCP usa un modelo de cliente/servidor. Los servidores asignan direcciones de capa
de red y salvan la informacin sobre cual direcciones han sido asignadas. Los clientes
dinmicamente solicitan parmetros de configuracin de servidores. El objetivo de
DHCP es que los clientes no deberan requerir ninguna configuracin manual. Adems,
el administrador de la red no debera entrar en ningn parmetro de configuracin por
cliente en servidores.
El DHCP apoya tres mtodos para la asignacin de direccin de IP:
Asignacin automtica. Un servidor DHCP asigna una direccin de IP permanente
a un cliente.
Asignacin dinmica. Un servidor DHCP asigna una direccin de IP a un cliente
durante un perodo limitado del tiempo.
Asignacin manual. Un administrador de red asigna una direccin de IP
permanente a un cliente, y DHCP es usado simplemente para comunicar la
Metodologa Top Down

Marcos Huerta S.
110
direccin asignada al cliente. (La asignacin manual es raramente usada porque
esto requiere la configuracin por cliente, que las asignaciones automticas y
dinmicas no requieren.)

La asignacin dinmica es el mtodo ms popular, en parte porque sus caracteristicas
de reasignacin soporta ambientes donde los hosts no estan en lnea todo el tiempo, y
hay ms hosts que direcciones. Con la asignacin dinmica, un cliente solicita el uso de
una direccin durante un perodo limitado del tiempo. El perodo de tiempo es llamado
un arriendo.

El mecanismo de asignacin garantiza no reasignar aquella direccin dentro del tiempo
solicitado, e intenta retornar a la misma direccin de capa de red cada vez que el cliente
solicita una direccin. El cliente puede ampliar su arriendo con peticiones subsecuentes.
El cliente puede decidir abandonar su arriendo enviando a un mensaje de liberacin de
DHCP al servidor.

DHCP Relay Agent
Tan mencionado, un router puede actuar como un DHCP relay agent. Este significa que
el router pasa mensajes de broadcast de DHCP del clientes a servidores DHCP que no
estn en la misma subred que los clientes. Este evita una exigencia para un servidor
DHCP para residir en cada subred con clientes.

Con routers Cisco, usted puede usar el comando de helper-ip address en cada interfaz
del router donde los clientes residen para hacer que el router se hiciera un relay agent
de DHCP. Un comando de parmetro de direccin debera sealar la direccin de IP del
servidor DHCP. Alternativamente, la direccin puede ser una direccin de broadcast de
modo que los broadcast de router de DHCP descubran el mensaje en la red
especificada. (Una direccin de broadcast debera ser usada slo si el servidor est en
una red directamente conectada porque los routers modernos no envian broadcast
dirigidos a otras redes.)

Cuando un router transmite un mensaje descubrir otra red o subred, el router coloca la
direccin de IP para el interfaz en el cual el mensaje lleg a la direccin de gateway
(giaddr) el campo de cabecera DHCP. El servidor DHCP puede usar la informacin
giaddr para determinar de cual direccin asignada debera venir.

La Versin 6 de IP Direccin Dinmica
Como IPv4, y la versin 6 (IPv6) de IP soporta tanto direccin esttica como dinmica.
El IPv6 llama la autoconfiguracin de direccin dinmica. La autoconfiguracin de IPv6
puede ser stateful o stateless.
Metodologa Top Down

Marcos Huerta S.
111
Con un mtodo de autoconfiguracin stateful, los hosts obtienen las direcciones y otros
parmetros de un servidor. El servidor almacena una base de datos que contiene la
informacin necesaria y mantiene el control de asignaciones de direccin. Esto debera
parecer familiar. El modelo de autoconfiguracin stateful es definido en DHCPv6.

La autoconfiguracin stateless no requiere ninguna configuracin manual de hosts,
mnimos (o no) la configuracin de routers, y no de servidores. Ya que para un ingeniero
de red quin no est preocupado sobre que direcciones son usadas, mientras ellos son
nicas y roteable, la autoconfiguracin stateless ofrece muchas ventajas. Discutir la
autoconfiguracin stateless en RFC 2462. Es similar a AppleTalk direccionamiento
dinmico.

Con la autoconfiguracin stateless, un host genera su propia direccin que usa la
informacin en la localidad disponible ms la informacin anunciada por routers. El
proceso comienza con la generacin de un enlace-local para un interfaz. El enlace-local
es generada combinando el prefijo local del enlace conocido (FE80::/10) con un
identificador de interfaz de 64 bits. (Para ms informacin sobre prefijos IPv6, ver el
"Jerarqua en Direcciones de la Versin 6 IP".)

El siguiente paso determina la unicidad de la direccin provisional que ha sido sacada
combinando el prefijo de direccin de enlace-local con el identificador de interfaz. El host
transmite un mensaje de Solicitacin Vecino con la direccin provisional como la
direccin objetivo. Si otro host usa esta direccin, un Anuncio Vecino es devuelto. En
este evento, de autoconfiguracin de parada y un poco de intervencin manual es
requerido. (Como la direccin est por lo general basada en una direccin de NIC, los
duplicados son muy improbables.) Si ningunas respuestas son devueltas, la direccin
provisional es considerada la conectividad nica, y IP con hosts locales es posible
ahora.

El paso final del proceso de autoconfiguracin envuelve escuchar mensajes de Anuncio
del router de trfico IPv6 que los routers transmiten peridicamente. Un host tambin
puede forzar un Anuncio de Router inmediato transmitiendo un mensaje de Solicitacin
de Router con direccin de multicast a todo-routers. La Publicidad de Router contiene el
cero o ms opciones de Informacin de Prefijo que contienen la informacin usada por
el host para generar una direccin de site- local que tiene un alcance que es limitado
con el site-local. La Publicidad de Router tambin incluye una direccin global con el
alcance ilimitado. El anuncio tambin puede decir a un host como usar un mtodo
stateful para completar su autoconfiguracin.


Metodologa Top Down

Marcos Huerta S.
112
Configuracin de redes Cero
La Configuracin Cero que conecta a la red (Zeroconf) el grupo de trabajo del Internet
Engineering Task Force (IETF) ha llevado el concepto de la direccin dinmica a un
paso adelante que DHCP. Como AppleTalk e IPv6, Zeroconf puede asignar direcciones
de IP sin un servidor. Esto tambin puede traducir entre nombres y direcciones de IP sin
un servidor DNS. Para manejar el nombramiento, de Zeroconf multiechan DNS (mDNS),
que soporta multicast que se dirige para la resolucin de nombre.

Hasta ahora, el trabajo de Zeroconf ha sido limitado con pequeas redes. El Zeroconf es
una tecnologa de enlace-local. Las direcciones locales del enlace y los nombres son
significativos slo en una red particular. Ellos no son globalmente nicos. El Zeroconf es
apropiado para casa y pequeas redes de oficina, ad hoc redes en reuniones y
conferencias (redes sobre todo inalmbricas), sistemas empotrados como en un coche,
y siempre que dos dispositivos tengan que compartir espontneamente o intercambiar la
informacin.

Aunque el objetivo principal de Zeroconf sea hacer el ordenador personal corriente que
conecta a la red ms fcil para usar, segn el Zeroconf la pgina de inicio del grupo
trabajador (www.zeroconf.org), un objetivo a largo plazo es "permitir la creacin de
completamente nuevas clases de productos conectados a una red, productos que hoy
no seran simplemente comercialemente viables debido a la molestia y gastos de apoyo
implicados en fundacin, configuracin, y mantenimiento de una red."

El Zeroconf tiene muchas ventajas, pero un riesgo potencial consiste en que esto
interferir con sistemas ms estructurados para la direccin y llamar asignaciones,
aunque el grupo de funcionamiento diga realmente que Zeroconf "debe coexistir
elegantemente con redes configuradas ms grandes" y que los protocolos Zeroconf "no
deben causar el dao a la red cuando una mquina Zeroconf es conectada en una red
grande." El Zeroconf tiene algunos rasgos intrigantes y, como el diseador de red, usted
debera tener un poco de familiaridad con ello. El Zeroconf puede solucionar varios
problemas para pequeo, ad hoc conecta a la red, y es incorporado a algunos sistemas
operativos, incluso Mac OS X.

La Utilizacin de Direcciones Privadas en un Ambiente IP
Las direcciones de IP privadas son direcciones que un administrador de red de empresa
asigna a redes internas y hosts sin cualquier coordinacin de un ISP o uno de los
registros regionales. Un ISP o el registro proporcionan direcciones pblicas para
servidores de web u otros servidores que el acceso de usuarios externo, pero las
direcciones pblicas no son necesarias para hosts internos y redes. La direccin para
hosts internos que tienen que tener acceso a servicios exteriores, como correo
Metodologa Top Down

Marcos Huerta S.
113
electrnico, FTP, o servidores de web, puede ser manejada por una Traduccin de
Direccin de Red (NAT). NAT es cubierto ms tarde en esta seccin.

En 1918 RFC, el IETF reserva los nmeros siguientes para dirigirse a nodos en redes
privadas internas:
Clase A 10.0.0.010.255.255.255
Clase B 172.16.0.0172.31.255.255
Clase C 192.168.0.0192.168.255.255

Una ventaja de las direcciones de red privadas es la seguridad. Las direcciones de red
privadas no acceden al Internet. De hecho, las direcciones de red privadas no debe ser
anunciado al Internet porque ellos no son globalmente nicos. Por ser direcciones de
red internas privadas, un poco de seguridad es conseguido. (La seguridad adicional,
incluso firewall y sistemas de descubrimiento de intrusin, tambin debera ser
desplegada.

Las direccines privadas tambin ayuda a encontrar objetivos para adaptabilidad y
flexibilidad. La utilizacin de la direccin privada es ms fcil para cambiar ISPs en el
futuro. Si la direccin privada ha sido usada, moviendo a nuevo ISP, los nicos cambios
de direccin requeridos estn en el router o firewall que proporciona servicios de NAT y
en cualquier servidor pblico. Usted debera recomendar la direccin privada a clientes
que quieren la flexibilidad de cambiar fcilmente a ISP diferente en el futuro.

Otra ventaja de direcciones de red privadas consiste en que una red de empresa puede
anunciar slo un nmero de red, o un pequeo bloque de nmeros de red, al Internet.
Esto es la prctica buena para evitar anunciar muchos nmeros de red al Internet. Uno
de los objetivos de prcticas de Internet modernas es que los routers de Internet no
deberan tener que manejar tablas de encaminamiento enormes. Cuando una red de
empresa crece, el administrador de la red puede asignar direcciones privadas a nuevas
redes, ms bien que solicitar nmeros de red pblicos adicionales de un ISP o registro.
Este evita aumentar el tamao de la tabla de enrutamiento deInternet.

Los nmeros de red privados dejan a un diseador de red reservar direcciones de
Internet escasas para servidores pblicos. Durante los aos 1990, cuando el Internet se
hizo comercializado y popularizado, un tremendo susto hubo en la comunidad de
Internet en cuanto a la escasez de direcciones. Las predicciones extremas fueron
hechas debido a que no ms direcciones estaran disponibles por la vuelta del siglo. A
causa de este susto, dieron a muchas compaas (y muchos ISPs) un pequeo juego de
direcciones que tenan que ser con cuidado manejadas para evitar la reduccin. Estas
compaas reconocen el valor de direcciones privadas para redes internas.
Metodologa Top Down

Marcos Huerta S.
114
Advertencias con Direccin Privada
Aunque las ventajas de la direccin privada pesen ms que las desventajas, es
importante ser consciente de los inconvenientes. Un inconveniente consiste en que la
externalizacin de la direccin de red es difcil. Cuando una compaa delega la
responsabilidad de direccin de red a una compaa exterior, la compaa exterior
tpicamente establece consolas de red en su propio sitio que se comunican con
dispositivos de funcionamiento entre redes dentro de la red del cliente. Con la direccin
privada, sin embargo, las consolas no pueden alcanzar los dispositivos del cliente,
porque ningunas rutas a redes internas son anunciadas al exterior. NAT puede ser
usado para traducir las direcciones privadas a direcciones pblicas, pero entonces
pueden haber problemas con la interoperabilidad entre NAT y conectar a la red
protocolos de direccin como el Protocolo de Direccin de Red Simple (SNMP).

Otro inconveniente para la direccin privada es la dificultad para comunicarse con
compaeros, vendedores, proveedores, etctera. Como las compaas de compaero
tambin usan probablemente direcciones privadas, construyendo extranets se hace ms
difcil. Tambin, las compaas que combinan el uno con el otro afrontan una tarea difcil
de volver a numerar cualquier direccin duplicada causada por ambas compaas
usando las mismas direcciones privadas.

Una otra advertencia tener presente usando direcciones privadas es que es fcil olvidar
de usar un modelo estructurado con las direcciones privadas. Los administradores de la
red de empresa, que fueron restringidos una vez de direcciones que fueron con cuidado
repartidas por ISPs y los registros, estn excitados cuando ellos se mueven a la
direccin privada y tienen toda red 10.0.0.0 a su disposicin.

El entusiasmo no debera eclipsar la necesidad de asignar el nuevo espacio de direccin
en una manera estructurada, jerrquica. La direccin jerrquica facilita la ruta
summarization dentro de la red de empresarial, que disminuye el ancho de banda y el
consumo por protocolos de enrutamiento, reduce el procesamiento en routers, y realza
la elasticidad de red.

Traduccin de Direccin de Red
La Traduccin de Direccin de Red (NAT) es un mecanismo IP que es descrito en el
documento RFC 3022 para convertir direcciones de una red interior (direcciones
privadas) a direcciones que son apropiadas para una red exterior (direcciones publicas),
y viceversa. NAT es til cuando los hosts que tienen que tener acceso a servicios de
Internet tienen direcciones privadas. La funcionalidad de NAT puede ser implementadas
en una aplicacin separada, routers, o firewall.

Metodologa Top Down

Marcos Huerta S.
115
El administrador de NAT configura un pool de direcciones exteriores que pueden ser
usadas para la traduccin. Cuando un host interior enva un paquete, la direccin de la
fuente es traducida dinmicamente a una direccin del pool de direcciones exteriores.
NAT tambin tiene una provisin para direcciones estticas para servidores que
necesitan una direccin fija (por ejemplo, una web o envan a servidor que siempre debe
mapear a la misma direccin conocida).

Algunos productos de NAT tambin ofrecen la traduccin de puerto para mapear de
varias direcciones a la misma direccin. Con la traduccin de puerto, todo el trfico de
una empresa tiene la misma direccin. Los nmeros de puerto son usados para
distinguir conversaciones separadas. La traduccin de puerto reduce el nmero de
direcciones exteriores requeridas. La traduccin de puerto es a veces llamada
sobrecargando direcciones.

Cuando use NAT, todo el trfico entre una red de empresa y el Internet debe pasar por
la entrada de NAT. Por esta razn, usted debera asegurarse que la entrada de NAT
tiene el rendimiento superior y bajo retardo, en particular si los usuarios de empresa
dependen de vdeo de Internet o aplicaciones de voz. La entrada de NAT debera tener
un procesador rpido que puede examinar y cambiar paquetes muy rpidamente. Tenga
presente que, adems de la modificacin de direcciones de IP, una entrada de NAT
debe modificar el IP, TCP, y sumas de control UDP. (Las sumas de control para TCP y
UDP cubren una cabecera pseudo que contiene el origen y el destino de direcciones IP.)

En muchos casos, NAT tambin debe modificar direcciones de IP que ocurren dentro de
la parte de datos de un paquete. Las direcciones de IP pueden aparecer en ICMP, FTP,
DNS, SNMP, y otros tipos de paquetes. Como NAT tiene el trabajo de traduccin de
algo tan bsico como direcciones de capa de red, puede ser complicado garantizar el
comportamiento correcto con todas las aplicaciones. Una entrada de NAT debera ser a
fondo probada en un ambiente piloto antes de que sea generalmente desplegado.

Usando un Modelo Jerrquico para Asignar Direcciones
Un modelo de direccines jerrquica para aplicar la estructura a direcciones de modo
que los nmeros en la parte izquierda de una direccin se refieran a bloques grandes de
redes o nodos, y los nmeros en la parte derecha de una direccin se refieren a redes
individuales o nodos. La direccin jerrquica facilita el encaminamiento jerrquica, que
es un modelo para distribuir el conocimiento de una topologa de red entre routers de
redes. Con la encaminamiento jerrquica, ningn simple router necesita que entender la
topologa completa. Este parte se enfoca en direccin jerrquica y encaminamiento para
ambientes IP, pero los conceptos se aplican a otros ambientes tambin.

Metodologa Top Down

Marcos Huerta S.
116
Por qu usar un Modelo Jerrquico para Direccionamiento y Enrutamiento?
La parte 5 examin la importancia de la jerarqua en el diseo de topologa. Las ventajas
de jerarqua en direccionamiento y encaminamiento del modelo son el mismo como
aquellos para un modelo de topologa:
Apoya una solucin fcil, mejoras, y manejabilidad.
Interpretacin optimizada.
Convergencia de protocolo de encaminamiento ms rpida.
Escalabilidad.
Estabilidad.
Menos recursos de red necesarios (CPU, memoria, buffers, ancho de banda,
etctera).

El direccionamiento jerrquico permite la sumarizacin(la agregacin) de nmeros de
red. La sumarizacin permite que un router agrupe muchos nmeros de red publicados
en su tabla de enrutamiento. La sumarizacin realza la performance de red y la
estabilidad. La direccin jerrquica tambin facilita la subred de longitud variable que
enmascara (VLSM). Con VLSM, una red puede ser dividida en subredes de tamaos
diferentes, qu ayudan a optimizar el espacio de direccin disponible.

Enrutamiento Jerrquica
Enrutamiento jerrquica significa que el conocimiento de la topologa de red y
configuracin es localizado. Ningn router solo tiene que entender como conseguir el
uno al otro en el segmento de red. El enrutamiento jerrquica requiere que un
administrador de red asigne direcciones en una manera jerrquica. Las direccines IP y
el enrutamiento han sido algo jerrquicas durante mucho tiempo, pero en aos
recientes, como el Internet e intranet de empresa han crecido, se ha hecho necesario
aadir ms jerarqua.

Para entender la enrutamiento jerrquica en trminos simples, considere el sistema
telefnico. El sistema telefnico ha usado el enrutamiento jerrquica durante aos.
Cuando usted marca 541-555-1212 de un telfono en Michigan, el interruptor telefnico
en Michigan no sabe alcanzar este nmero especfico en Oregon. El interruptor en
Michigan simplemente sabe que el nmero no es en Michigan y adelante la llamada a
una compaa telefnica nacional. Un interruptor en la compaa telefnica nacional
sabe que 541 es para Oregon del sur, pero no sabe expresamente donde las llamadas a
555 deberan ir. Un interruptor en Oregon determina qu interruptor de central maneja el
555 prefijo, y aquellas rutas de interruptor la llamada a 1212.

Con los datos de la redes, es similar las decisiones son tomadas cuando un paquete
viaja a travs de una ruta de red. Sin embargo, en redes de IP tradicionales, las
Metodologa Top Down

Marcos Huerta S.
117
decisiones no podan ser completamente tan locales como las decisiones en el ejemplo
telefnico. Hasta hace poco, las direcciones de IP para el Internet fueron adjudicadas en
una manera no jerrquica. Por ejemplo, dos compaas en Oregon podran tener la
Clase C extensamente diferente los nmeros de red, a pesar de que ellos ambos usan
el mismo proveedor para alcanzar el Internet. Este signific que el proveedor tuvo que
decir a todos los otros sitios de Internet sobre ambas compaas de Oregon. De este
modo, a diferencia del ejemplo de sistema telefnico, un router en Michigan sabra
alcanzar redes especficas en Oregon.

Enrutamiento de Interdominios sin Clase
A mediados de los aos 1990, el IETF e IANA realizaron que la carencia de un modelo
jerrquico para asignar direcciones de red en el Internet era un problema de
escalabilidad severa. Las tablas de enrutamiento de Internet creca exponencialmente, y
la cantidad de sobrecarga para tratar y transmitir las tablas era significativa. Para obligar
el enrutamiento sobrecargado, se hizo claro que el Internet debe adoptar un esquema
de direccin jerrquica y el enrutamiento. Para solucionar el elevado problema de
enrutamiento, el Internet adopt la enrutamiento de interdominios sin clases (CIDR)
mtodo para resumir rutas. El CIDR especifica que las direcciones de red de IP deberan
ser adjudicadas en bloques, y que los routers en el Internet deberan agrupar rutas para
reducir en la cantidad de informacin compartida por routers de Internet.

El documento RFC 2050 proporciona pautas para la asignacin de direccin de IP por
registros de Internet regionales e ISPs. RFC 2050 estados que:

Un proveedor de Internet obtiene un bloque del espacio de direccin de un registro de
direccin, y luego asigna a sus direcciones a sus clientes desde dentro de aquel bloque
basado en cada requerimiento del cliente. El resultado de este proceso es que las rutas
a muchos clientes sern agregadas juntos, y aparecern a otros proveedores como una
ruta sola. Para la agregacin de ruta para ser eficaz, los proveedores de Internet animan
a clientes que se afilian a su red a usar el bloque del proveedor, y as volver a numerar
sus computadoras. Tal estmulo puede hacerse un requerimiento en el futuro.

Al mismo tiempo que el IETF e IANA se dirigieran al problema de enrutamiento no
jerrquica, ellos tambin se dirigieron al problema de la reduccin de direccin de IP.
Como mencionado en una seccin anterior, el sistema de asignar direcciones en clases
signific que muchas direcciones iban a gastar. El IETF desarroll la direccin sin
clases, que proporciona ms flexibilidad en la especificacin de la longitud de la parte de
prefijo de un nmero de red de IP.


Metodologa Top Down

Marcos Huerta S.
118
Encaminamiento sin Clases Contra Encaminamiento de Classful
Como mostrado en La figura nro 25, una direccin de IP contiene una parte de prefijo y
una parte de Host. Los routers usan el prefijo para determinar el camino para una
direccin de destino que no es local. Los routers usan la parte de host para alcanzar a
host locales.

La Figura Nro. 25. Las Dos Partes de una Direccin de IP

Un prefijo identifica un bloque de nmeros de host y es usado para enrutar aquel bloque.
El enrutamiento tradicional, tambin conocida como enrutamiento classful, no transmite
ninguna informacin sobre la longitud de prefijo. Con el enrutamiento de classful, los
hosts y los routers calculan la longitud de prefijo mirando los pocos primeros bits de una
direccin para determinar su clase. Los primeros bits para la Clase A por hasta las
direcciones de la clase C son mostradas en la tabla siguiente.


Class
A
Primer
bit = 0
Prefix
is 8
bits
Primer
octet
is 1
126
Class
B
Primer
2 bits
= 10
Prefix
is 16
bits
Primer
octet
is
128
191
Class
C
Primer
3 bits
= 110
Prefix
is 24
bits
Primer
octet
is
192
223

En implemetaciones tempranas de IP, los hosts de IP y los routers entendieron slo tres
longitudes de prefijo: 8, 16, y 24. Este se hizo una limitacin cuando las redes crecieron,
as subnetting fue introducido. Con subnet, un host (o router) puede ser configurado
para entender que la longitud de prefijo local es extendida. Esta configuracin es llevada
Metodologa Top Down

Marcos Huerta S.
119
a cabo con una mscara de subnet. Por ejemplo, los routers y los hosts pueden ser
configurados para comprender que la red 10.0.0.0 es subneteada en 254 subredes
usando una mscara desubnet de 255.255.0.0.

Una nueva notacin ha ganado la popularidad en aos recientes indica la longitud de
prefijo con un campo de longitud, despus del slash. Por ejemplo, en la direccin
10.1.0.1/16, los 16 indican que el prefijo es 16 bits de largo, lo que significa lo mismo
que una mscara de subnet de 255.255.0.0.

Los tradicionales hosts de IP y los routers tenan una capacidad limitada de entender
longitudes de prefijo y subnet. Ellos entendieron la longitud para configuraciones locales,
pero no para configuraciones remotas. El enrutamiento de Classful no transmiti
ninguna informacin sobre la longitud de prefijo. La longitud de prefijo fue calculada de
la informacin sobre la clase de direccin proporcionada en los primeros bits de una
direccin, como mencionado antes.

Los protocolos de enrutamiento sin clases, por otra parte, transmiten una longitud de
prefijo con una direccin de IP. Este permite protocolos de enrutamiento sin clases a
redes de grupo en una entrada y usa la longitud de prefijo que especifique qu redes
son agrupadas. Los protocolos de enrutamiento sin clases tambin aceptan cualquier
longitud de prefijo arbitraria, que slo acepte longitudes de 8, 16, o 24, que el sistema
classful dict.

Los protocolos de enrutamiento sin clases incluyen el Protocolo de Enrutamiento de
Informacin(RIP) la versin 2, Protocolo de Enrutamiento de Gateway de Interior
Mejorado (EIGRP), Abrir primero la Trayectoria mas Corta (OSPF), Protocolo de Borde
Gateway (BGP), y Sistema intermedio para Sistemas Intermedio (IS - IS).

Los Protocolos de Enrutamiento Classful de incluyen la versin 1 de RIP y la
Enrutamiento de Gateway Interior (IGRP).

Ruta de Sumarizacin (Agregacin)
Cuando las rutas publicadas en otra red principal, el protocolo de enrutamiento classful
automticamente resumen subredes. Ellos slo publican una ruta de Clase A, B, o C de
red, en vez de rutas a subredes. Como los routers classful y los host no entienden
longitudes de prefijo no locales y subredes, no hay ninguna razn de publicar la
informacin sobre longitudes de prefijo. La sumarizacin automtico en una red de clase
principal tiene algunas desventajas; por ejemplo, discontiguas subredes no son
apoyadas.

Metodologa Top Down

Marcos Huerta S.
120
Los protocolos de enrutamiento sin clases publican una ruta y una longitud de prefijo. Si
las direcciones son asignadas en una manera jerrquica, un protocolo de enrutamiento
sin clases puede ser configurado para agregar subredes en una ruta, esto reduce la
sobrecarga en el enrutamiento. La importancia de sumarizar ruta en el Internet ya fue
discutido anteriormente. Es tambin importante resumir (agregar) rutas en una red
empresarial. La ruta sumarizadas reduce el tamao de las tablas de enrutamiento, que
minimiza el consumo de ancho de banda y procesamiento en routers. La ruta
sumarizada tambin significa que los problemas dentro de una rea de la red no tienden
a extenderse a otras reas.

Ruta Ejemplo de Sumarizacin
Esta seccin cubre una ruta sumarizada ejemplo que est basado en la red mostrada en
La figura nro. 26. Usted puede ver que un administrador de red asigno direcciones de
red 172.16.0.0 a 172.19.0.0 a redes en una sucursal.

Figura Nro. 26. Ruta de Sumarizacin




El router de sucursal en La figura 26 puede resumir sus nmeros de red locales y
reportar que esto tiene 172.16.0.0/14 detrs de ello. Publicando sola esta ruta, el router
dice, "los paquetes de la Ruta es para m si el destino tiene los primeros 14 bits de
172.16." El router publica una ruta a todas las redes donde los primeros 14 bits son
iguales a 10101100 000100 en el binario.

Para entender la sumarizacin en este ejemplo, usted debera convertir el nmero 172 al
binario, que causa el binario el nmero 10101100. Usted tambin debera convertir el
nmero 16 a 19 al binario, como mostrado en la tabla siguiente.


Metodologa Top Down

Marcos Huerta S.
121
Segundo Octeto en
Decimal
Segundo Octeto en
Binario
16 00010000
17 00010001
18 00010010
19 00010011

Note que 6 bits extremos izquierdos para el nmero 16 a 19 son idnticos. Este es lo
que hace la ruta sumarizada con una longitud de prefijo de 14 posible en este ejemplo.
Primeros 8 bits para las redes son idnticos (todas las redes tienen 172 para el primer
octeto), y siguientes 6 bits son tambin idnticos

Subredes de Discontiguas
Como mencionado antes, protocolo de enrutamiento classful automticamente resumen
las subredes. Un efecto secundario de este es que las subredes de discontiguas no son
apoyadas. Las subredes deben estar al lado de cada uno otro es decir contiguo. La
figura nro.27 muestra una red de empresa con subredes de discontiguas.

Figura Nro.27. Una Red con Subredes de Discontiguas

Con un protocolo de enrutamiento classful como la versin 1 de RIP o IGRP, Router en
La figura nro 27 publicar esto se puede conseguir conectando a la red 10.0.0.0. El router
B no hace caso de esta publicacin, porque puede alcanzar a la red 10.0.0.0. Es
directamente conectado para conectar a la red 10.0.0.0. (La parte de enfrente es
tambin verdadera: el router B publica esto puede alcanzar a la red 10.0.0.0, pero router
A no hace caso de esta informacin.) Este significa que los routers no pueden alcanzar
subredes remotas de la red 10.0.0.0.

Para solucionar este problema, un protocolo de enrutamiento sin clases puede ser
usado. Con un protocolo de enrutamiento sin clases, el router A publica que puede
ponerse a redes 10.108.16.0/20. El router B anuncia esto puede ponerse a redes
10.108.32.0/20. (Para entender por qu la longitud de prefijo es 20, convierta los
nmeros de red al binario.) como los protocolos de enrutamiento sin clases entienden
Metodologa Top Down

Marcos Huerta S.
122
prefijos de cualquier longitud (no slo 8, 16, o 24), los routers en La figura nro.27 puede
la ruta a subredes de discontiguas, asumiendo que ellos dirigen un protocolo de
encaminamiento sin clases, como OSPF o EIGRP.

Host Mviles
El enrutamiento sin clases y las subredes de discontiguas soportan a host mviles. Un
host mvil, en este contexto, es un host que se mueve de una red al otro y tiene una
direccin de IP estticamente definida. Un administrador de red puede mover a un host
mvil y configurar un router con una ruta especfica de host para especificar que el
trfico para el host debera ser ruteado por aquel router.

En La figura nro 28, por ejemplo, reciba 10.108.16.1 se ha movido a una red diferente.
Incluso aunque el router haga publicar aquella red el 10.108.16.0/20 esta detrs de ello,
el router B puede publicar esto 10.108.16.1/32 esta detrs de ello.

Figura Nro 28. Un Host Mvil


Tomando una decisin de enrutamiento, los protocolos de enrutamiento sin clases
emparejan el prefijo ms largo. Los routers en el ejemplo tienen en sus mesas tanto
10.108.16.0/20 como 10.108.16.1/32. Cambiando un paquete, los routers usan el prefijo
ms largo disponible que es apropiado para la direccin de destino en el paquete.

En La figura nro.28, un mejor diseo debera usar DHCP de modo que los host puedan
ser movidos sin requerir cualquier reconfiguracin en los host o routers. El ejemplo
simplemente es usado para explicar el concepto de partido de prefijo ms largo. No se
destina para ser una recomendacin de diseo.


Metodologa Top Down

Marcos Huerta S.
123
Enmascaramiento de Subred de Longitud variable
La utilizacin de un protocolo de enrutamiento sin clases significa que usted puede tener
tamaos diferentes de subredes dentro de una red sola. La variacin del tamao de
subredes tambin es conocida como el enmascaramiento de subred de longitud
variable, o VLSM. El VLSM confa en la informacin de longitud de prefijo que provee
explcitamente con cada uso de una direccin.

La longitud del prefijo es evaluada independientemente en cada lugar que es usado. La
capacidad de tener una longitud de prefijo diferente en puntos diferentes soporta la
eficacia y flexibilidad en el uso del IP se dirigen al espacio. En vez de cada subred que
es el mismo tamao, usted puede tener tanto subredes grandes como pequeas.

Un uso para pequeas subredes es el enlace punto a punto WAN que slo tienen dos
dispositivos (un router durante cada final del enlace). Tal enlace puede usar una
mscara de subnet de 255.255.255.252, porque slo dos dispositivos necesitan
direcciones. Los dos dispositivos pueden ser numerados 01 y 10.

El diseo de un Modelo para Nombramiento
Los nombres desempean un rol esencial en la reunin de los objetivos de un cliente
para la usabilidad. Los nombres cortos, significativos realzan la productividad de los
usuario y simplifican la direccin de red. Un modelo de nombramiento bueno tambin
refuerza la performance y la disponibilidad de una red. El objetivo es ayudarle a disear
modelos de nombramiento para redes que encontrarn los objetivos de su cliente para
utilidad, manejabilidad, performance, y disponibilidad.

Los nombres son asignados a muchos tipos de recursos en tipicas redes: routers,
servidores, hosts, impresoras, y otros recursos. Esta seccin cubre el nombramiento de
dispositivos y redes. Proporcionando nombres para usuarios, grupos, las cuentas, y las
contraseas no son cubiertas, aunque algunas pautas para llamar dispositivos se
apliquen a esta seccin tambin.

Un buen modelo de nombramiento debera dejar a un usuario tener acceso transparente
a un servicio por nombre ms bien que por direccin. Porque los protocolos de una red
requieren una direccin, el sistema del usuario debera mapear el nombre a una
direccin. El mtodo para mapear un nombre a una direccin puede ser dinmico,
usando algun nombramiento corto de protocolo, o esttico (por ejemplo, un archivo en el
sistema del usuario que pone todos los nombres en una lista y sus direcciones
asociadas). Por lo general, un mtodo dinmico es preferible, a despitar el trfico de red
adicional causado por protocolos de nombramiento dinmicos.

Metodologa Top Down

Marcos Huerta S.
124
Desarrollando un modelo de nombramiento, considere las preguntas siguientes:
Qu tipos de entidades necesitan nombres? Servidores, routers, impresoras,
hosts, otros?
Necesitan los sistemas finales nombres? Ofrecern los sistemas finales algn
servicio, como una porcin de web personal?
Que es la estructura de nombres, como hace que la porcion de un nombre
identifique el dispositivo?
Quin adjudica nombres?
Cmo hacen los host el mapeo de un nombre a una direccin? Va a un sistema
dinmico o esttico ser proporcionado?
Cmo aprende un host su propio nombre?
Si la direccin dinmica es usada, tambin sern dinmicos los nombres y se
cambiarn cundo una direccin se cambia?
Debera el sistema de nombramiento usar un punto a punto o modelo de
cliente/servidor?
Si los servidores de nombre sern usados, cunta redundancia (mirroring) ser
requerido?
Ser distribuida la base de datos de nombre entre muchos servidores?
Cmo afectar el sistema de nombramiento seleccionado el trfico de red?
Cmo afectar el sistema de nombramiento seleccionado la seguridad?

Autoridades que Distribuyen Nombramiento
Durante las etapas tempranas de disear un modelo de nombramiento, considere
quin realmente adjudicar nombres preguntandose las preguntas siguientes:
Ser completamente controlado el espacio de nombre por unas autoridades
centralizadas, o va al nombramiento de algunos dispositivos a ser realizado por
agentes descentralizados?
Un departamento corporativo IS nombra los dispositivos en la region y sucursales,
o pueden los administradores departamentales implementar el nombramiento en
aquellos sitios?
Sern permitidos a los usuarios poner sus propios nombres de sistemas, o son
todos los nombres asignados por administradores de red?

La desventaja de distribuir autoridades para el nombramiento es que los nombres se
hacen ms difciles de poder controlar y manejar. Si todos los grupos y usuarios estan
de acuerdo, y prctican, las mismas polticas, sin embargo, hay muchas ventajas para la
distribucin de autoridades para el nombramiento.

La ventaja obvia de distribuir autoridades para el nombramiento consiste en que ningn
departamento es cargado con el trabajo de asignacin y mantenimiento de todos los
Metodologa Top Down

Marcos Huerta S.
125
nombres. Otras ventajas incluyen la performance y la escalabilidad. Si cada servidor de
nombre maneja una parte del espacio de nombre en vez del espacio de nombre entero,
los requerimientos de memoria y poder de procesamiento en los servidores son
menores. Tambin, si los clientes tienen el acceso a un servidor de nombre local en vez
de depender de un servidor centralizado, muchos nombres pueden ser resueltos a
direcciones locales, sin causar el trfico en las redes. Los servidores locales pueden
informar acerca de los dispositivos remotos, para reducir mas adelante el trfico de red.

Pautas para Asignar Nombres
Para maximizar la usabilidad, los nombres deberan ser significativamente cortos,
inequvocos, y distintos. Un usuario debera reconocer fcilmente qu nombres van con
cual dispositivos. Una buena prctica es incluir un nombre corto para indicar algun tipo
de dispositivo. Por ejemplo, usted puede prefijo o sufijo del nombre de un router con los
carcteres rtr, switches con sw, servidores con svr, etctera. La utilizacin de prefijos
significativos o sufijos disminuye la ambigedad para los usuarios finales, y ayuda a
manejar ms fcilmente los nombres de dispositivo de instrumentos de direccin de red.

Los nombres tambin pueden incluir un cdigo de posicin. Algunos diseadores de red
usan cdigos de aeropuerto en sus modelos de nombramiento. Por ejemplo, todos los
nombres en el principio de San Francisco con SFO, todos los nombres en Oakland
comienzan con el OAK, etctera. El cdigo de posicin podra ser un nmero en cambio,
pero la mayor parte de personas recuerdan cartas mejor que nmeros.

El intento de evitar nombres que tienen carcteres extraos, como guiones, subraya,
asteriscos, etctera, aun si el protocolo de nombramiento permite estos carcteres (que
muchos hacen). Estos carcteres son difciles de escribir a mquina y pueden hacer que
aplicaciones y protocolos se comporten de modos inesperados. Los carcteres extraos
podran significar algo especial a un protocolo. Por ejemplo, el signo de dlar cuando es
usado como el ltimo carcter de un nombre de NetBIOS significa que el nombre no
aparece en listas del navegador de red o en respuesta a rdenes de revisin de red
NetBIOS. Los nombres de NetBIOS con un signo de dlar al final son para el uso
administrativo slo.

Es tambin lo mejor si los nombres no son letras mayusculas porque la gente por lo
general no puede recordar que tecla usar. Los nombres que requieren que un usuario
recuerde teclas mezcladas (por ejemplo, DBServer) no son una idea buena.

Usted tambin debera evitar espacios de nombres. Los espacios aturden a usuarios y
no podran trabajar correctamente con algunas aplicaciones o protocolos. Los nombres
deberan ser generalmente ocho carcteres o menos, de ser posible. Este es sobre todo
Metodologa Top Down

Marcos Huerta S.
126
verdadero para sistemas operativos, aplicaciones, o protocolos para mapear nombres a
nombres de archivo y restringen el tamao de un nombre del archivo a ocho carcteres.
Si un dispositivo tiene ms de un interfaz y ms de una direccin, usted debera mapear
todas las direcciones a un nombre comn. Por ejemplo, en un router de multipuerto con
direcciones de IP mltiples, asigne el mismo nombre a las direcciones de IP de todo el
router. De estos camino el software de direccin de red no asume que un dispositivo de
multipuerto es realmente ms de un dispositivo.

La Asignacin de Nombres en un Ambiente IP
El nombramiento en un ambiente IP es llevado a cabo configurando archivos de hosts,
servidores de DNS, o Servicio de Informacin de Red (NIS) servidores. El DNS es usado
en el Internet y tambin ha ganado una extendida popularidad para manejar nombres en
redes de empresa. Esto es el sistema de nombramiento recomendado para redes
modernas.

Un archivo de hosts dice a una estacin de trabajo UNIX como convertir un nombre de
host en una direccin de IP. Un administrador de red mantiene un archivo de hosts en
cada estacin de trabajo en las redes. Tanto el DNS como NIS fueron desarrollados
para permitir que un administrador de la red centralizara el nombramiento de
dispositivos, usando un acercamiento de base de datos distribuido, en vez de un archivo
plano que reside en cada sistema.

Sun Microsystems desarroll NIS para permitir que un UNIX conecte a la red al
administrador para centralizar la direccin de nombres y otros parmetros de
configuracin. Un administrador puede usar NIS para mantener nombres, usuario e
informacin de contrasea, direcciones de Ethernet, alias de correo, definiciones de
grupo, y nombres de protocolo y nmeros. El NIS era una vez completamente comn,
pero se ha hecho menos comn como el estndar de Internet para llamar (DNS) gan el
mpetu.

El Sistema de Dominio de Nombre
El DNS fue desarrollado a principios de los aos 1980 cuando se hizo claro que
manejando un archivo de hosts que contiene los nombres y direcciones de todos los
sistemas en el Internet ya no trabajara. Cuando el archivo de hosts de Internet creci,
se hizo difcil mantener, almacenar, y transmitir a otros hosts.

El DNS es una base de datos distribuida que proporciona un sistema de nombramiento
jerrquico. Un nombre de DNS tiene dos partes: un nombre de host y un nombre de
dominio. Por ejemplo, en information.priscilla.com, la information es el host, y
Metodologa Top Down

Marcos Huerta S.
127
priscilla.com es el dominio. La tabla siguiente muestra algunos dominios de alto nivel
ms comunes.
Esfera Descripcin
.edu Instituciones educativas
.gov Agencias del gobierno
.net Proveedores de red
.com Compaas comerciales
.org Empresas no lucrativas

Los dominios de alto nivel, como .biz, .info, .museum, y .name pueden ayudar a prevenir
muchas disputas que ocurren sobre el derecho de usar nombres populares y
comerciables. Hay tambin muchos dominios de alto nivel geogrficos (por ejemplo .uk
para el Reino Unido y .de para Alemania).

La arquitectura DNS distribuye el conocimiento de nombres de modo que ningn simple
sistema tuviera que saber todos los nombres. La Corporacin de Internet para Nombres
Asignados y Nmeros (ICANN) es una corporacin no lucrativa que tiene la
responsabilidad de direccin de sistema de nombre de dominio total y dominio de alto
nivel. El ICANN ha acreditado un juego de registradores competitivos que tienen
autoridades sobre nombres bajo el nivel superior.

Cada capa de la jerarqua tambin puede delegar autoridades. Por ejemplo, un
registrador podra delegar las autoridades a un corporativo IS el departamento para un
nombre como cisco.com. El departamento IS puede delegar autoridades al
departamento de ingeniera para nombres en el engineering.cisco.com subdominio.
Dentro del departamento de ingeniera, podran haber hosts mltiples con nombres
como development.engineering.cisco.com y testing.engineering.cisco.com. La
delegacin permite que el DNS sea manejado autnomamente en cada capa, que
aumenta la escalabilidad y las ayudas guardan nombres significativos.

El DNS usa un modelo de cliente/servidor. Cuando un cliente tiene que enviar un
paquete hacia el nombre de la estacin, el software resuelve en el cliente envando una
pregunta de nombre a un servidor DNS local. Si el servidor local no puede resolver el
nombre, este pregunta a otros servidores para que puedan resolver. Cuando el servidor
de nombre local recibe una respuesta, este replica la respuesta e informa al cache para
futuras peticiones. El tiempo que un servidor debera la informar al cache recibida de
otros servidores es entrado en la base de datos DNS por un administrador de red. El
trfico de red disminuira en intervalos de mucho tiempo pero tambin puede hacer difcil
Metodologa Top Down

Marcos Huerta S.
128
de cambiar un nombre. El viejo nombre podra ser cached en miles de servidores en el
Internet.

La direccin de nombres de DNS y servidores es una tarea compleja. Para ms
informacin en la direccin de nombres de DNS en un ambiente UNIX, ver el libro
clsico por Paul Albitz y Cricket Liu llamado DNS y BIND.

Nombres de DNS dinmicos
Con muchas implementaciones de DHCP, cuando un host solicita una direccin de IP de
un servidor DHCP, el host tambin recibe un nombre de host dinmico, algo como
pc23.dynamic.priscilla.com. Un nombre dinmico no es apropiado para algunas
aplicaciones. Por ejemplo, los servidores de web, los servidores de FTP, y algunas
aplicaciones de telefona de Internet confan en nombres de host estticos. Para
alcanzar a un servidor de web, un usuario teclea un Localizador de Recurso Universal
(URL) que est basado en el nombre de dominio del servidor. Si el nombre se cambia
dinmicamente, se hace imposible alcanzar al servidor. Con algunas aplicaciones de
telefona de Internet, un usuario tiene que decir a la gente el nombre del host para usar
haciendo una llamada al sistema del usuario.

Para estos tipos de aplicaciones, es importante tener una realizacin DNS que puede
asociar un nombre esttico con una direccin dinmica. Este puede ser llevado a cabo
en una variedad de caminos. Muchos vendedores han desarrollado soluciones creativas
con los problemas asociados con nombres en un ambiente DHCP. Las Extensiones
DNS IETF grupo trabajador tambin desarrollan estndares para DNS dinmico.

Resumen
Este captulo proporcion pautas para asignar direcciones y nombres en un ambiente de
redes de multiprotocolo. Esta seccin ilustr la importancia de usar un modelo
estructurado para direccionamiento y nombramiento para hacer ms fcil para entender
los mapas de red, hacer funcionar el software de direccin de red, reconocer
dispositivos con un analizador de protocolo, y encontrar los objetivos de un cliente para
la usabilidad.

Las direcciones estructuradas y los nombres facilitan la optimizacin de red porque ellos
hacen ms fcil para cifrar filtros de red en firewall, routers, e switches. Las direcciones
estructuradas tambin le ayudan a implementar la ruta sumarizada, que disminuye la
utilizacin de ancho de banda, que procesa en el routers, e inestabilidad de red.

En esta seccin tambin se habl de autoridades de distribucin para direccionamiento
y nombramiento para evitar que un departamento tenga la necesidad manejar todas las
direcciones y nombres. Otro modo de simplificar la tarea de direccines y nombramiento
Metodologa Top Down

Marcos Huerta S.
129
es usar la direccin y el nombramiento dinamico. El direccionamiento dinamico por
ejemplo, DHCP para ambiente IP permite que cada sistema final aprenda su direccin
automticamente. El DHCP es recomendado para la direccin de sistemas finales en un
diseo de red de campus.

El direcionamiento y el nombramiento son elementos esenciales de la fase de diseo
lgica del proceso de diseo de red top down. De ser diseado correctamente, el
modelo de direccionamiento y nombramiento puede reforzar su capacidad de satisfacer
las necesidades de un cliente. Ellos tambin pueden ayudarle a decidirse que el
enrutamiento y la conmutacin de protocolos para seleccionar, que es cubierto en la
siguiente parte.


Parte 7. Seleccin de los switching y protocolo de enrutamiento
El objetivo de este captulo es ayudarle a seleccionar correctamente los protocolos
conmutados y de enrutamiento para el diseo de su red al cliente. Las selecciones que
usted hace dependern de los objetivos comerciales y tcnicos de su cliente. Para
ayudarle a seleccionar los protocolos correctos para su cliente, la parte cubre los
atributos siguientes de conmutacin y enrutamiento de protocolos:
Caractersticas de trfico de red.
Ancho de banda, memoria, y uso de CPU.
El nmero aproximado en el trafico de puntos de routers o switches que soportan.
La capacidad de adaptarse rpidamente a cambios de una redes.
La capacidad de certificar ruta actualizadas por razones de seguridad.

En este punto en el proceso de diseo de red, usted ha creado una topologa de diseo
de red y ha desarrollado alguna idea de donde los switches y los routers residirn, pero
usted no ha seleccionado ningn switch actual o productos de router. Un entendimiento
de la conmutacin y enrutamiento de protocolos que un switch o el router deben
soportar le ayudar a seleccionar el mejor producto para el trabajo.

Esta seccin comienza con una discusin genrica sobre la fabricacin de decisin a
ayudarle a desarrollar un proceso sistemtico para seleccionar soluciones tanto para los
componentes lgicos como para fsicos de un diseo de red. La fabricacin de
decisiones sanas en cuanto a protocolos y tecnologas es una habilidad de diseo de
red crucial que esta parte puede ayudarle a desarrollar.

Una discusin de cambiar protocolos sigue la seccin haciendo decisiones. La seccin
de conmutacin cubre transparentemente puenteos, de conmutacin de mltiples
Metodologa Top Down

Marcos Huerta S.
130
capas, realces de algoritmo de spanning-tree, y conmutacin de protocolos para
transportar LAN virtuales de (VLAN) informacin.

Una seccin en el protocolos de enrutamiento sigue la seccin que tiende un puente. La
seccin de enrutamiento proporciona tcnicas para comparar y constratar protocolos de
enrutamiento, e incluye la informacin en el Protocolo de Internet (IP), AppleTalk, y
enrutamiento Novell de NetWare. La seccin concluye con una tabla que resume la
comparacin de enrutamiento
Tomar Decisiones como Parte del Proceso de Diseo de Red Top Down
La siguientes seccin proporcionan pautas para seleccionar soluciones de diseo de red
para un cliente. Las decisiones que usted hace en cuanto a protocolos y tecnologas
deberan estar basadas en la informacin que usted ha juntado en los objetivos
comerciales y tcnicos de su cliente.

Los investigadores que estudian modelos de decisin dicen que uno de los aspectos
ms importantes de tomar una decisin sana es tener una lista de los buenos objetivos.
En su libro The Can-Do Manager, publicado por la Asociacin de Direccin americana,
Tess Kirby dice que hay cuatro factores implicados en tomar decisiones sanas:
Los objetivos deben ser establecidos.
Muchas opciones deberan ser exploradas.
Las consecuencias de la decisin deberan ser investigadas.
Los planes de emergencia deberan ser hechos.

Para emparejar opciones con objetivos, usted puede hacer una tabla de decisin, como
la Tabla Nro. 14 que muestra una tabla de decisin que empareja protocolos de
enrutamiento a los objetivos comerciales y tcnicos de un cliente ficticio. Usted puede
desarrollar una tabla similar para cambiar protocolos, tecnologas de diseo de campus,
tecnologas de diseo de empresa, protocolos WAN, etctera. Para desarrollar la tabla,
coloque opciones en la columna extrema izquierda y los objetivos principales de su
cliente encima. Coloque los objetivos en el orden de prioridad, que comienza con
objetivos crticos.









Metodologa Top Down

Marcos Huerta S.
131
Tabla Nro.14. Mesa de Decisin de Ejemplo
Objetivos Crticos Otros Objetivos
La adaptabilidad
debe adaptarse a
cambios de unas
redes grandes
dentro de unos
segundos
Debe escalar a
una talla
grande
(cientos de
routers)
Debe ser una
industria
estndar y
compatible con
el equipo
existente
No debera
crear mucho
trfico
Debera
correr en
routers
baratos
Debera ser
fcil para
configurar y
manejar
BGP X[*] X X 8 7 7
OSPF X X X 8 8 8
ES - ES X X X 8 6 6
IGRP X X
EIGRP X X
RASGN X

[*] X = Encuentra criterios crticos. 1 = el ms Bajo. 10 = el ms Alto.
Usted puede rellenar la Tabla Nro. 14 primero simplemente poniendo un X en cada
opcin que encuentra un objetivo crtico. Cualquier opcin que no encuentra objetivos
crticos puede ser inmediatamente eliminada. Otras opciones pueden ser evaluadas en
como bien ellos encuentran otros objetivos, por una escala de 1 a 10.

Despus de que una decisin ha sido tomada, usted debera fallar la decisin.
Pregntese lo siguiente:

Si esta opcin elegida, qu podra equivocarse?
Ha sido intentada esta opcin antes (posiblemente con otros clientes)? De ser
as, qu problemas ocurrieron?
Cmo reaccionar el cliente a esta decisin?
Cules son los planes de emergencia si el cliente no aprueba la decisin?

Este proceso de toma de decisiones puede ser usado tanto durante las fases de diseo
de red lgicas como durante fsicas. Usted puede usar este proceso para ayudarle a
seleccionar protocolos, tecnologas, y dispositivos que encontrarn los requerimientos
de un cliente.



Metodologa Top Down

Marcos Huerta S.
132
La Seleccin de puente y Protocolos Conmutados
Si su diseo de red incluye switches de Ethernet, usted usar con la mayor probabilidad
un puente transparente con el algoritmo de spanning-tree. Usted tambin podra
necesitar un protocolo para conectar switches que soportan LANs virtuales (VLANs).
Este protocolo podra ser el Cisco Inter-Switch Link (ISL) protocolo o el Instituto de
Ingenieros Elctricos y Electrnicos (IEEE) 802.1Q protocolo.

Con las redes de Token Ring, sus opciones incluyen ruta-fuente de puente (SRB), ruta-
fuente transparente (SRT) un puente, y fuente-ruta switcheada (SRS). Para conectar
LANs de Ethernet y Token Ring (y otras redes distintas), usted puede usar un puente de
translacin o de encapsulamiento de puente.

La IBM desarroll SRB para redes de Token Ring en los aos 1980. A principios de los
aos 1990, la IBM present los protocolos SRB al IEEE. Los protocolos se hicieron el
estndar SRT, que es documentado en el Anexo C del 802.1 documento IEEE. Un
puente de SRT puede actuar como un puente transparente o un puente fuente-enrutado,
segn si la informacin del fuente-enrutado es incluida en un paquete. El SRS mejora la
eficacia de un SRT puente y permite caminos paralelos fuente-enrutado, que SRT no
soporta.

Aunque un puente y switches de redes de Token Ring todava existen, la mayor parte de
ellos estn siendo emigrados a redes Ethernet conmutadas y ruteadas. El resto de esta
seccin se concentra en los protocolos de conmutacin usados en redes de Ethernet
tpicas.

Puente Transparente
Los switches de Ethernet y los puentes usan una tecnologa clsica llamada puente
transparente. Un puente transparente conecta uno o varios segmentos de LAN de modo
que los sistemas finales en segmentos diferentes puedan comunicarse el uno con el otro
claramente. Un sistema final enva un paquete a un destino sin saber si el destino es
local o al otro lado de un puente transparente. Los puentes transparentes son tan
llamados porque su presencia es transparente para terminar sistemas.

Para aprender a enviar paquetes, un puente transparente escucha a todos los paquetes
y determina qu estaciones residen en cual segmentos. El puente aprende la posicin
de dispositivos mirando la direccin de la fuente en cada paquete. El puente desarrolla
una tabla de conmutacin como es mostrado en la tabla nro. 15 La tabla de conmutacin
tambin a veces va por los nombres que tienden un puente sobre tabla, tabla de
direccin de MAC, o Contenido de Memoria Direccionable (CAM).

Metodologa Top Down

Marcos Huerta S.
133
Tabla nro.15. La Conmutacin de Tabla en un
Puente o Switch
Direccin de MAC Puerto
08-00-07-06-41-B9 1
00-00-0C-60-7C-01 2
00-80-24-07-8C-02 3

Cuando un paquete llega a un puente, el puente mira la direccin de destino en el
paquete y lo compara con las entradas en la tabla de conmutacin. Si el puente ha
aprendido donde la estacin de destino reside (mirando direcciones de la fuente en
paquetes anteriores), esto puede enviar el paquete al puerto correcto. Un puente
transparente enva (floods) paquetes con una direccin de destino desconocida y todos
los paquetes de multicast/broadcast salen del puerto (excepto el puerto en el cual el
paquete fue recibido).

Los puentes funcionan en Capas 1 y 2 del modelo de referencia de OSI. Ellos
determinan como enviar un paquete basado en la informacin de la cabecera de Capa 2
jefe del paquete. A diferencia de un router, un puente no mira la informacin de la Capa
3 o ninguna capa superior. Un puente segmenta dominios de ancho de banda de modo
que los dispositivos en lados opuestos de un puente no compitan el uno con el otro por
el control de acceso de medios. Un puente no envia colisiones de Ethernet o paquetes
de MAC en una red de Token Ring.

Aunque un puente segmente dominos de ancho de banda, esto no segmenta dominos
de broadcast (a menos que no este programado por filtros para hacerlo as). Un puente
enva a paquetes de broadcast a cada puerto. Este es una cuestin de escalabilidad en
que hablaron ya Parte I de esta tesis. Para evitar el trfico de broadcast excesivo, las
redes tendidas un puente y switches deberan ser segmentadas con routers o divididas
en VLANs.


Un puente es un dispositivo almacenar-y-enviar. El almacenar y avanzar quiere decir
que el puente recibe un paquete completo, determina qu puerto saliente usar, prepara
el paquete para el puerto saliente, calcula una comprobacin por redundancia cclica
(CRC), y transmite el paquete cuando el medio esta libre en el puerto saliente



Metodologa Top Down

Marcos Huerta S.
134
Conmutacin Transparente
Los switches se hicieron populares a mediados de los aos 1990 como un modo barato
de dividir LANs sin incurrir en latencia asociada con puentes. Los switches aprovechan
circuitos integrados rpidos para ofrecer latencia muy baja. Un switch se comporta
esencialmente justo como un puente salvo que es ms rpido. Los switches por lo
general tienen una densidad de puerto ms alta que puentes y un coste inferior por
puerto. A causa de estos rasgos, y la latencia baja de switches, los switches son ms
comunes que puentes estos das.

Los switches tienen la capacidad de hacer el procesamiento almacenar-y-enviar o el
procesamiento de conexin directa. Con el procesamiento de conexin directa, un
switch rpidamente mira la direccin de destino (el primer campo en un paquete LAN),
determina el puerto saliente, e inmediatamente comienza a enviar bits al puerto saliente.

Una desventaja con el procesamiento de conexin directa es que esto envia paquetes
ilegales (por ejemplo, runts de Ethernet) y paquetes con errores CRC. En una red que
es propensa a runts y errores, el procesamiento de conexin directa no debera ser
usado. Algunos switches tienen la capacidad de moverse automticamente del modo de
conexin directa al modo almacenar-y-enviar cuando un umbral de error es alcanzado.
Este rasgo es llamado la conmutacin de conexin directa adaptable por algunos
vendedores.

Un switch tambin soporta el transporte de mercancas paralelo, mientras que los
puentes por lo general no hacen. Cuando un puente tpico envia un paquete de un
puerto al otro, ningn otro paquete puede ser enviado.

Hay slo un camino de transporte de mercancas. Un switch, por otra parte, permite
caminos de transporte de mercancas mltiples, paralelos, el que significa que un switch
puede manejar un volumen alto del trfico ms rpidamente que un puente. Los
switches de alta calidad pueden soportar numerosos caminos de transporte de
mercancas simultneos, segn la estructura del fabricante de conmutacin. (Los
fabricantes usan el trmino de fabricante de conmutacin para describir la arquitectura
de sus switches.)

La conmutacin y las Capas OSI
En esta parte, un switch se refiere a un dispositivo que funciona en Capas 1 y 2 del
modelo de referencia de OSI, a menos que por otra parte no especificado. El trmino
switch tiene realmente un sentido ms genrico aunque. El verbo para cambiar
simplemente medios de mover algo a una posicin diferente. Un dispositivo de
Metodologa Top Down

Marcos Huerta S.
135
funcionamiento entre redes mueve datos que vienen de una interfaz a otra interfaz
diferente.

Un hub Ethernet o repetidor cambian bits que vienen a una interfaz a todas las otras
interfaces. Un hub trabaja en la Capa que 1 del modelo OSI y no entiende nada ms all
de bits. Un switch Ethernet es rpido, puente multipuerto que cambia paquetes basados
en la Capa 2 del destino de direccin. Despus de que un switch ha aprendido una
interfaz correcta para usar un destino unicast particular, este paquetes del switch va
aquel destino exclusivo para esa interfaz, a diferencia de un hub que cambia bits a todas
las interfaces. Un router cambia paquetes basados en la Capa 3 direccin de destino.
Por paquetes unicast, el router conmuta exclusivamente a una interfaz.

El sustantivo switch es un buen trmino de ingeniera que no debera ser nublado por
exageraciones de mercadotecnia. En la electrnica, un switch es un dispositivo que
permite o interrumpe el flujo de corriente por un recorrido elctrico. En la industria de
transporte, un switch es un dispositivo hecho de dos carriles movibles diseados para
girar una locomotora de una pista al otro. En el campo conectado a una red, un switch
permite o interrumpe el flujo de datos y, aunque esto no gire una locomotora, esto gira
realmente bits, y paquetes.

Los routers modernos pueden cambiar paquetes sumamente rpido. Algunos
fabricantes aaden la palabra switch a su router el producto llama para enfatizar que los
routers son rpido (o casi tan rpido) como los switches de Capa 2. Los routers
modernos usan caminos de datos internos rpidos, procesadores paralelos, y avanzado
metodos de caching, todos esenciales a la conmutacin rpida de datos. Los fabricantes
llaman a este producto switches de Capa 3, switches enrutados, switches ruteables,
switches de mltiples capas, y muchos otros nombres creativos. En general, un switch
de Capa 3, switch enrutable, o router switcheable es un dispositivo que puede manejar
tanto Capa 2 como la Capa 3 de conmutacin de datos. Un switch de Capa 3 es un
router rpido que puede incluir interfaces que toman una decisin de transporte de
mercancas basada nicamente en la informacin de la Capa 2.

Conmutacin de Mltiples capas
La conmutacin de mltiples capas tiene muchos sentidos diferentes. La conmutacin
de mltiples capas puede referirse a un switch que entiende capas mltiples, incluso
capas de transporte y de aplicacin. El Cisco tambin usa el trmino conmutacin de
mltiples capas y se refiere a una tecnologa avanzada por lo cual los routers (o
procesadores de ruta dentro de un switch) se comunican con switches para decir a los
switches como enviar paquetes sin la ayuda del router. El Cisco conmutacin de
mltiples capas tiene tres componentes:
Metodologa Top Down

Marcos Huerta S.
136
Un procesador de ruta o router.
Un motor de conmutacin.
El Protocolo de Conmutacin de Mltiples capas (MLSP).

El procesador de ruta maneja el primer paquete en cada flujo. El procesador de ruta
toma una decisin de transporte de mercancas basada en la Capa 3 direccin de
destino.

El motor de conmutacin rastrea paquetes que fluyen al procesador de ruta y atrs otra
vez, y aprende como el procesador de ruta maneja los paquetes. Despus del primer
paquete en un flujo, el motor de conmutacin envia los paquetes para aquel flujo sin
enviarles al procesador de ruta.

El MLSP es un protocolo simple usado por el procesador de ruta para permitir la
conmutacin de mltiples capas y decir al motor de conmutacin limpiar la tabla de
conmutacin de la Capa 3 si hay un cambio de la tabla de enrutamiento o configuracin
de lista de control de acceso. Aunque los detalles de la conmutacin de mltiples capas
Cisco estn ms all del alcance de esta seccin, es bastante para decir que la
tecnologa aguanta ms investigacin si usted pone en prctica un diseo de red con
switches Cisco

La Seleccin del Protocolo Spanning Tree
Como hemos hablado en la parte 5, "Diseando una Topologa de Red," los puentes
transparentes y los switches ponen en prctica el Protocolo de Spanning tree (STP) para
evitar loop en una topologa. Una consideracin de diseo importante es qu realces a
STP usted debera seleccionar para asegurar la disponibilidad alta en sus diseos de
red de campus. La parte 5 hablado dos realces importantes: el IEEE 802.1w, que
proporciona la nueva convergencia rpida del spannig tree, e IEEE 802.1s, que agrega
un juego de VLAN basados en spaning tree que atraviesan en casos distintos y dirige
slo un algoritmo de spanning tree (rpido) por caso. Como descrito en las siguientes
secciones, hay muchos otros realces a STP que puede aumentar la disponibilidad y la
elasticidad de un diseo de red de campus que confa en STP.

PortFast
Cuando un switch arranca, cada puerto del switch pasa por los estados de bloqueo, la
escucha, el aprendizaje, y el transporte. La transicin al estado de transporte de la inicial
que bloquea el estado puede tomar 30 segundos o ms. Esta cantidad de tiempo
beneficia el desarrollo de un loop-free spanning tree que atraviesa cuando los puertos se
conectan a otros switches, pero esto puede ser un problema serio para un puerto que
Metodologa Top Down

Marcos Huerta S.
137
conecta una estacin de trabajo o el servidor. Usted podra encontrar uno o varios
mensajes de error siguientes en una estacin de trabajo o servidor:

Microsoft demostraciones de cliente conectadas a una red, " No Domain Controllers
Available."
Novell cliente de NetWare no tiene " Novell Login Screen" sobre bootup.
Un cliente DHCP no hace un informe, " No DHCP Servers Available."
Un cliente DHCP usa una direccin de la variedad de Direcciones de IP privada
automtica (169.254.0.1 a 169.254.255.254) ms bien que una direccin asignada
por un servidor DHCP.
Un cliente AppleTalk tiene problemas que muestran zonas o se conectan a
servidores.
Un cliente AppleTalk muestra, "el Acceso a su red de AppleTalk ha sido
interrumpido. Para restablecer su conexin, abra y cierre el panel de instrumentos
AppleTalk."

En AppleTalk, la tardanza de arranque puede causar a un cliente que usa una direccin
de capa de red dinmica que es un duplicado de la direccin de otra estacin. Este
puede causar problemas serios tanto para el cliente recin booteado como para el
cliente que usaba ya la direccin. Adems, un cliente puede no tener noticias de un
router y decidir que esto est en una LAN solo sin un router. Este lo har imposible para
el cliente de comunicarse con cualquier dispositivo no en su segmento de LAN. La
aplicacin de escoger del cliente puede mostrar una lista de zona vaca o incompleta.

Con redes de IP, el problema ms serio con la tardanza de arranque de puerto de switch
es que un cliente puede en el intervalo de espera estar esperando a recibir una direccin
de IP de un servidor DHCP. Con algunas realizaciones, si esto pasa, el cliente usa una
direccin de la variedad de Direcciones de IP privada automtica. Esta direccin no
permite la comunicacin a travs de un router, el que significa que los usuarios no
pueden alcanzar el Internet y servidores posiblemente corporativos tambin.

Si usted conecta un puerto de switch a una estacin de trabajo o servidor que tiene una
tarjeta de interfaz de red sola (NIC), el riesgo que la unin crear un loop es mnimo. Por
lo tanto, no hay ninguna necesidad del puerto para esperar 30 segundos antes de entrar
en el estado de transporte. Cisco soporta una caracteristica llamado PortFast que
mueve un puerto inmediatamente al estado de transporte, sin requerir que ello pasara
por el bloqueo, la escucha, y el aprendizaje de estados. La caracteristica no incapacita
STP. Esto simplemente hace que STP salte unos pasos innecesarios cuando un puerto
de switch conecta una estacin de trabajo o el servidor.

Metodologa Top Down

Marcos Huerta S.
138
El PortFast se supone para ser usado slo en puertos que no conectan otro switch. Sin
embargo, a veces este es imprevisible, especialmente como los usuarios y el subalterno
conectan a la red a administradores se hacen el sentido comn ms conectado a una
red y deciden instalar su propio equipo. Para proteger una red que usa PortFast, Cisco
tambin apoya una caracteristica llamado la Guardia de BPDU que cierra un puerto
PortFast-permitido si un BPDU de otro interruptor es recibido. Usted tambin puede
permitir la Filtracin de BPDU, que asegura que PortFast-permitido puertos no envan
BPDUs.

UplinkFast y BackboneFast
El UplinkFast es una caracteristica de Cisco que puede ser configurado en switches de
capa de acceso. El UplinkFast mejora el tiempo de convergencia de STP en caso de un
fracaso de uplink redundante de un switch de capa de acceso. Un uplink es una
conexin de un switch de capa de acceso a un switch final ms alto en la capa de
distribucin de un diseo de red jerrquico. La figura nro.29 ilustra un diseo de red
redundante, jerrquico tpico. Los usuarios estn relacionados para cambiar en la capa
de acceso. El switch de capa de acceso es atado a dos interruptores de capa de
distribucin. Uno de los uplinks es bloqueado por STP. (STP tambin ha bloqueado uno
de los enlaces entre la distribucin y capas principales.)

Figura Nro.29. Un Interruptor de Capa de Acceso con Dos Uplinks a Capa de
Distribucin Switches



Si el uplink para Cambiar B en La figura nro 29 falla, STP finalmente desbloquea el
uplink para Cambiar C, de ah restaurando la conectividad. Con la falta parmetros de
STP, la recuperacin toma entre 30 y 50 segundos. Con UplinkFast, la recuperacin
toma aproximadamente un segundo. La caracteristica de UplinkFast est basado en la
Metodologa Top Down

Marcos Huerta S.
139
definicin de un grupo uplink. En un switch dado, el grupo uplink consiste en el puerto
raz y todos los puertos que proporcionan una conexin alterna al puente raz.

Si el puerto raz falla o la primaria el uplink falla, un puerto del grupo uplink es
seleccionado para sustituir inmediatamente el puerto raz. El UplinkFast debera ser
configurado slo en switches de capa de acceso en el borde de su red y no en
distribucin o switches de capa core.

Cisco tambin soporta una caracteristica llamado BackboneFast, que puede salvar un
switch hasta 20 segundos (Edad Mxima) reponindose de un fallo de enlace indirecto
que ocurre en un puerto no local. Cuando permitido en todos los switches en una red
cambiada, las velocidades de BackboneFast convergen despus de un fallo
aprovechando el hecho que un switch implicado en un fallo no local puede ser capaz de
moverse en el estado que escucha inmediatamente. En algunas topologas, no es
necesario para un switch para esperar el temporizador de Edad Mximo a transcurrir. El
switch primero comprueba con otros switches para determinar si su estado es vlido. La
comprobacin es llevada a cabo con dos unidades de datos de protocolo Cisco-
patentadas (PDUs) llamado la Pregunta de enlace Raz (RLQ) y la Respuesta RLQ.


Descubrimiento de Enlaces Unidireccional
A veces el hardware falla de tal modo que la conectividad entre dos switches trabaja en
slo una direccin. Este es llamado un enlace unidireccional. El switch A puede oir al
switch B, pero en cambio B no puede or el switch A. Esta situacin puede ser causada
por el switch receptor B que empieza a morir o dbilitarse, el switch transmisor A siendo
muerto o dbil, o algn otro componente, como un repetidor o cable, no disponible para
transmitir o recibir. Por ejemplo, un cable puede trabajar en la capa fsica (entonces el
enlace aumenta) pero ser construido incorrectamente de modo que un puerto de
interruptor pueda transmitir, pero no recibir, aunque su compaero sea inconsciente del
problema y pueda transmitir y recibir.

Un enlace unidireccional puede causar un loop en una red switcheada. Si un puerto de
switch no puede recibir datos, entonces esto no puede or BPDUs, y esto podra entrar
en el estado de transporte cuando su compaero envia ya. Si un puerto de switch no
puede enviar datos, entonces esto no puede enviar BPDUs, y su compaero puede ser
inconsciente de su existencia. El IEEE no dice como manejar esta situacin, pero los
vendedores reconocieron el potencial para un problema y ofrecer repararlo. Cisco
proporciona el Descubrimiento de enlaces Unidireccional (UDLD) protocolo en switches
de alta calidad.

Metodologa Top Down

Marcos Huerta S.
140
El UDLD permite que dispositivos conectados por cables pticos de fibra o de cobre
Ethernet supervisen la configuracin fsica de los cables y descubran cuando existe un
enlace unidireccional. Cuando un enlace unidireccional es descubierto, UDLD cierra el
puerto afectado y alerta al usuario. Un puerto del switch que es configurado para usar
UDLD transmite mensajes UDLD peridicamente a los dispositivos vecinos. Los
dispositivos durante ambos finales de un enlace deben apoyar UDLD para el protocolo
para identificar con xito e deshabilitar enlaces unidireccionales.

Loop Guard
Cisco tambin soporta una caracteristica llamado la loop guard que esto es intentado
para proporcionar la proteccin adicional contra loop causados por un puerto de bloqueo
que errneamente mueve al estado de transporte. Este por lo general pasa porque uno
de los puertos de una topologa fsicamente redundante (no necesariamente el puerto de
bloqueo) deja de recibir BPDUs, quizs debido a un problema de enlace unidireccional.

Si esta habilitado loop guard y BPDUs no son recibidas en un puerto no designado, los
movimientos de puerto en el estado inconsistente de loop en vez de moverse al estado
escucha, aprendizaje, y transporte. Sin la loop guard STP, el puerto asumira el papel de
puerto designado y el movimiento al estado de transporte , y as creara un loop. Cuando
un BPDU es recibido en un puerto en un estado inconsistente de loop, las transiciones
de puerto en otro estado STP. Este significa que la recuperacin es automtica, y
ninguna intervencin es necesaria.

Usted puede elegir UDLD o la Loop Guard STP, o ambos, que es recomendado. El
UDLD trabaja mejor que la Loop Guard en EtherChannel (que es una agrupacin de
interfaces de Ethernet en un canal lgico). El UDLD desabilita slo el interfaz fallado. El
canal permanece funcional con las interfaces restantes. La Loop Guard STP bloquea el
canal entero en tal falla (ponindolo en el estado de loop-inconsistente).

El Loop Guard no trabaja donde el enlace ha sido unidireccional ya que fue primero
probado. El puerto nunca puede recibir BPDUs, pero no reconocer que hay un problema
y hacerse un puerto designado. El UDLD proporciona la proteccin contra tal problema.
Por otra parte, UDLD no protege contra fallas STP causados por problemas de software
que causan un puerto designado que no enva a BPDUs. Los problemas de software
son menos probables que problemas de hardware, pero ellos podran pasar. El permiso
tanto UDLD como Loop Guard proporciona el nivel ms alto de proteccin.




Metodologa Top Down

Marcos Huerta S.
141
Protocolos para Transportar Informacin VLAN
Antes de ir a una discusin de protocolos de Capa 3 de enrutamiento, es importante
cubrir algo adicional al protocolo de Capa 2 que pueden ser desplegados en redes
cambiadas aquel uso VLANs.

Cuando VLANs son puestos en prctica en una red cambiada, los switches necesitan un
mtodo de asegurarse que el trfico intra-VLAN va a los interfaces correctos. Para
beneficiarse de las ventajas de VLANs, los switches tienen que asegurar que el trfico
destinado a VLAN particular va a esta VLAN y no a cualquier otro VLAN. Este puede ser
llevado a cabo etiquetando paquetes con la informacin VLAN. Los Sistemas de Cisco
soportan el protocolo enlace de Inter-switch (ISL) e IEEE 802.1Q para la marcacin.
Estos protocolos fueron mencionados en El captulo 5, pero las secciones siguientes
proporcionan unos detalles ms y tambin cubren el Cisco VLAN protocolo de direccin,
VLAN Protocolo trunk (VTP).

Protocolo de Enlace de Inter-switch
El Kalpana, Inc, que fue adquirido por Cisco Systems, Inc, desarroll ISL para llevar la
informacin VLAN en un enlace de switches a router o switch a switch Ethernet 100-
Mbps. El ISL es un protocolo Cisco-patentado que es suplantado por IEEE estndar
802.1Q protocolo. El ISL generalmente no debera ser recomendado a menos que sus
clientes de diseo de red tengan switches Cisco ms viejos que no apoyan IEEE
802.1Q.

Un enlace que lleva el trfico para multiples VLANs es llamado trunk. Antes de colocar
un paquete en un trunk, ISL encapsula el paquete en la cabecera ISL y envia. La
cabecera incluye un VLAN ID. El paquete mantiene la encapsulacin ISL cuando esto
viaja a travs de la red cambiada, hasta que sea enviado a un puerto de enlace de
acceso a un sistema final. Antes de salir al puerto de enlace de acceso, el switch quita la
informacin ISL. Como el paquete lleg con un VLAN ID, el switch sabe qu interfaces
deberan recibir el paquete si esto es un multicast o un broadcast.

Protocolo Trunk de VLAN
Cisco Protocolo Trunk de VLAN (El VTP) es un switch a switch y switch a router
protocolo de direccin de VLAN que cambia cambios de configuracin VLAN cuando
ellos son hechos a la red. El VTP maneja la adicin, la eliminacin, y renombrar de
VLANs en una red de campus sin requerir la intervencin manual en cada switch. El
VTP tambin reduce la configuracin manual por automticamente configurando un
nuevo switch o router con la existencia de la informacin de VLAN cuando el nuevo
switch o el router son aadidos a la red.

Metodologa Top Down

Marcos Huerta S.
142
En redes cambiadas grandes, usted debera dividir la red en multiples dominios VTP. La
divisin de la red en mltiples dominos reduce la cantidad de informacin VLAN que
cada switch debe mantener. Un switch acepta la informacin VLAN slo de switches en
su dominio. Los dominios VTP son sueltamente anlogas a sistemas autnomos en una
red ruteada donde un grupo de routers comparte polticas administrativas comunes.
Multiples Dominios VTP son recomendadas en redes grandes. En tamao medio y
pequeas redes, un dominio VLAN sola es suficiente y minimiza problemas potenciales.

Los switches Cisco pueden ser configurados en servidor VTP, cliente, o modo
transparente. En el modo de servidor VTP, usted puede crear, modificar, y suprimir
VLANs. Los servidores de VTP salvan sus configuraciones VLAN cuando ellos son
impulsados abajo. Los clientes de VTP intercambian la informacin con otros clientes
VTP y servidores, pero usted no puede crear, cambiar, o suprimir VLANs en un cliente
VTP. Usted debe hacer esto en un servidor VTP. Los clientes de VTP no salvan sus
configuraciones VLAN cuando impulsado abajo. Sin embargo, la mayor parte de
switches deberan ser clientes para evitar la informacin VLAN que se desincronice si
las actualizaciones son hechas en muchos switches.

Un switch transparente VTP no anuncia su configuracin VLAN y no sincroniza su
configuracin VLAN basada en la publicidad recibida. Sin embargo, los switches VTP-
transparentes envian realmente la publicacin de VTP recibida en otros switches. Use el
modo transparente cuando un switch en medio de la topologa no tiene que emparejar
otras configuraciones de switch, pero causara problemas para otros switches si esto no
enviara la informacin VLAN.

Seleccin de Protocolos de Enrutamiento
Un protocolo de enrutamiento deja a un router dinmicamente aprender a alcanzar otras
redes e intercambiar esta informacin con otros routers o hosts. La seleccin de
protocolos de enrutamiento para su cliente de diseo de red es ms difcil que la
seleccin de protocolos de conmutacin, porque hay tantas opciones. La decisin es
tomada ms fcil si usted puede usar una tabla de decisin, como es mostrado en la
Tabla Nro.16. Armado con un entendimiento slido de objetivos de su cliente e
informacin en las caractersticas de protocolos de enrutamiento diferentes, usted puede
tomar una decisin sana sobre cual protocolos de enrutamiento recomendar.

Caracterizacin de Protocolos de Enrutamiento
Todos los protocolos de enrutamiento tienen el mismo objetivo general: compartir
informacin de accesibilidad de red entre routers. Los protocolos que consiguen este
objetivo en una variedad de caminos. Algunos protocolos de enrutamiento envan una
tabla de enrutamiento completa a otros routers. Otros protocolos de enrutamiento envan
Metodologa Top Down

Marcos Huerta S.
143
la informacin especfica del estado del enlace directamente relacionados. Algunos
protocolos de enrutamiento envan peridico paquetes hello para mantener su estado
con los routers de punto. Algunos protocolos de enrutamiento incluyen la informacin
avanzada como una mscara subnet o longitud de prefijo con la informacin de ruta. La
mayor parte de protocolos de enrutamiento comparten la informacin (learned)
dinmica, pero en algunos casos, la informacin de configuracin esttica es ms
apropiada.
Table 16. Comparaciones de Protocolo de Enrutamiento
Vector
Distancia o
estado de
Enlace
Interior o
Exterior
Classful
or
Classless
Metrica
soportada Escalabilidad
Tiempo de
Convergencia
Consumo
de recurso
Soporta
Securidad?
Autenticacin
Routes?
Facil
diseo de
matener y
repara
RIP
version 1
Distance
vector
Interior Classful Hop count 15 hops Can be long (if no
load balancing)
Memory:
low
CPU: low
Bandwidth:
high
No Easy
RIP
version 2
Distance
vector
Interior Classless Hop count 15 hops Can be long (if no
load balancing)
Memory:
low
CPU: low
Bandwidth:
high
Yes Easy
IGRP Distance
vector
Interior Classful Bandwidth,
delay,
reliability, load
255 hops
(default is
100)
Quick (uses
triggered updates
and poison
reverse)
Memory:
low
CPU: low
Bandwidth:
high
No Easy
EIGRP Advanced
Distance
vector
Interior Classless Bandwidth,
delay,
reliability, load
1000s of
routers
Very quick (uses
DUAL algorithm)
Memory:
moderate
CPU: low
Bandwidth:
low
Yes Easy
OSPF Link state Interior Classless Cost (100
million divided
by bandwidth
on Cisco
routers)
A few
hundred
routers per
area, a few
hundred
areas
Quick (uses link-
state
advertisements
and hello packets)
Memory:
high
CPU: high
Bandwidth:
low
Yes Moderate
BGP Path
vector
Exterior Classless Value of path
attributes and
other
configurable
factors
1000s of
routers
Quick (uses
update and
keepalive
packets, and
withdraws routes)
Memory:
high
CPU: high
Bandwidth:
low
Yes Moderate
IS-IS Link state Interior Classless Configured
path value,
plus delay,
expense, and
errors
Hundreds of
routers per
area, a few
hundred
areas
Quick (uses link-
state
advertisements)
Memory:
high
CPU: high
Bandwidth:
low
Yes Moderate
RTMP Distance
vector
Interior N/A Hop count 15 hops Can be long Memory:
moderate
CPU:
moderate
Bandwidth:
high
No Easy
AURP Distance
vector
Interior
or
exterior
N/A Hop count 15 hops on
each side
Pretty quick
(supports
summarization)
Memory:
low
CPU:
moderate
Yes Moderate
Metodologa Top Down

Marcos Huerta S.
144
Table 16. Comparaciones de Protocolo de Enrutamiento
Vector
Distancia o
estado de
Enlace
Interior o
Exterior
Classful
or
Classless
Metrica
soportada Escalabilidad
Tiempo de
Convergencia
Consumo
de recurso
Soporta
Securidad?
Autenticacin
Routes?
Facil
diseo de
matener y
repara
Bandwidth:
low
IPX RIP Distance
vector
Interior N/A Ticks and hop
count
15 hops Pretty quick (uses
immediate
updates)
Memory:
moderate
CPU:
moderate
Bandwidth:
high
No Easy
NLSP Link state Interior N/A Cost (an
integer
between 1
and 63) and
bandwidth
127 hops Quick (uses link-
state packets and
hierarchical
routing)
Memory:
high
CPU: high
Bandwidth:
low
Yes Moderate

Los protocolos de enrutamiento que se diferencian en su escalabilidad y caractersticas
de performance. Muchos protocolos de enrutamiento fueron diseados para pequeas
redes. Algunos protocolos de enrutamiento trabajan mejor en un ambiente esttico y
tienen un tiempo duro convergiendo a una nueva topologa cuando los cambios ocurren.
Algunos protocolos de enrutamiento se suponen para unir redes de campus interiores, y
los otros se suponen para unir empresas diferentes. Las pocas siguientes secciones
proporcionan ms informacin en las caractersticas diferentes de protocolos. Tabla
Nro.16 al final de este captulo resume la comparacin de varios protocolos de
enrutamiento.

Vector de distancia Vs Estado de Enlace Protocolos de Enrutamiento
El enrutamiento de protocolos se cae en dos clases principales: protocolos de vector de
distancia y protocolos estado de enlace. Esta seccin cubre protocolos de vector de
distancia primero.
Los protocolos siguientes son protocolos de vector de distancia (o los derivados de los
protocolos de vector de distancia):

IP Routing Information Protocol (RIP) version 1 and 2.
IP Interior Gateway Routing Protocol (IGRP).
IP Enhanced IGRP (EIGRP) (an advanced distance-vector protocol).
IP Border Gateway Protocol (BGP) (a path-vector routing protocol).
Novell NetWare Internetwork Packet Exchange Routing Information Protocol (IPX
RIP).
AppleTalk Routing Table Maintenance Protocol (RTMP).
AppleTalk Update-Based Routing Protocol (AURP).
Metodologa Top Down

Marcos Huerta S.
145
El termino vector significa direccin o curso. Un vector distancia es un curso que
tambin incluye informacin de la longitud del curso. Mucho protocolos de enrutamiento
vector distancia especifica la longitud del curso con una cuenta de salto. A cuenta de
salto especifica el nmero de routers que deben ser cruzados para alcanzar una red de
destino. (Para algunos protocolos, cuenta de salto significa el nmero de enlaces ms
bien que el nmero de routers.)

Un mantenimiento de protocolo de enrutamiento vector de distancia (y transmite) una
tabla de enrutamiento que pone redes conocidas en una lista y la distancia a cada red.
Tabla Nro 16 muestra una tabla vector de distancia tpica.

Tabla Nro.16. Vector de distancia que Derrota Mesa
Red Distancia (en Saltos) Enve (a Despus
Salto)
10.0.0.0 0 (directamente
relacionado)
Puerto 1
172.16.0.0 0 (directamente
relacionado)
Puerto 2
172.17.0.0 1 172.16.0.2
172.18.0.0 2 172.16.0.2
192.168.1.0 1 10.0.0.2
192.168.2.0 2 10.0.0.2

Un protocolo vector distancia enva su tabla de enrutamiento a todos los vecinos. Esto
enva un paquete de broadcast que alcanza todos otros routers en el segmento local (y
cualquier host que usa la informacin de enrutamiento). Los protocolos de vector
distancia pueden enviar la tabla entera cada vez, o ellos pueden enviar simplemente
actualizaciones despus de la primera transmisin y slo de vez en cuando enviar la
tabla de enrutamiento completa.

Split-Horizon, Hold-Down y Poison-Reverse Caracteristicas del Protocolo Vector-
Distancia
Un router que corre un protocolo de vector de distancia enva a su tabla de enrutamiento
cada uno de sus puertos en una base peridica. Si el protocolo soporta la tcnica de
horizonte dividido, el router enva slo rutas que son accesibles va otros puertos. Este
reduce el tamao de la actualizacin y, lo que es ms importante mejora la exactitud de
Metodologa Top Down

Marcos Huerta S.
146
enrutamiento de informacin. Con el horizonte dividido, un router no envia otra
informacin hacia el otro router que ruta es mejor aprendida en la localidad.

La mayor parte de protocolos de vector de distancia tambin implementan un
temporizador de cuenta regresiva de modo que no crean nueva informacin sobre una
ruta sospechosa a una red, por si la informacin est basada en datos antiguos. Los
temporizadores de cuenta regresiva son un modo estndar de evitar loop que pueden
pasar durante la convergencia. Para entender el problema de loop, considere la red
mostrada en La figura nro.30.

Figura Nro.30 Tablas de Enrutamiento deVector distancia Parcial de un Router A y
Router B


Cuando los routers transmiten sus broadcast a las tablas de enrutamiento, ellos
simplemente envan la de Red y Distancia que se pone dentro la tabla. Ellos no envan
en la(Salto Despus) columna Send To, que es una de las causas del problema de loop.
La secuencia de acontecimientos que pueden conducir a un loop de enrutamiento es
como sigue:

1. El Router A para la conexin a la red fallada 172.16.0.0.
2. El Router A quita la Red 172.16.0.0 de su tabla de enrutamiento.
3. Basado en publicaciones de broadcast anteriores del router A, el router B transmite
su tabla de enrutamiento que dice que el router B puede alcanzar la red 172.16.0.0.
4. El Router A aade la Red 172.16.0.0 a su tabla de enrutamiento Send To (Salto
Despus) valor del Router B y una distancia de 2.
5. El Router A recibe un paquete para un host en la red 172.16.0.0.
6. El Router A enva el paquete al Router B.
7. El Router B enva el paquete al Router A.

Los loop de paquetes de ac para all del Router A al Router B se envian hasta que el
valor de tiempo IP expiran. (El tiempo a vivo es un campo en la cabecera IP de un
paquete IP que es decrementedo cada vez que un router procesa el paquete.)
Metodologa Top Down

Marcos Huerta S.
147

Para hacer asuntos peores, sin el horizonte dividido, en algn punto del Router A enva
una actualizacin de ruta que lo dice puede conseguir Conectarse a la red 172.16.0.0,
causando que el Router B actualize la ruta en su tabla con una distancia de 3. Tanto el
Router A como Router B sigue enviando actualizaciones de ruta hasta llegar a infinito de
los alcances de campo de distancia. (El protocolo de enrutamiento arbitrariamente
define una distancia que significa infinito. Por ejemplo, 16 infinito de medios para RIP.)
Cuando se pone el infinito de distancia, los router quitan la ruta.

El problema de actualizacin de ruta es llamado el problema de cuenta a infinito. Una
funcin de cuenta regresiva dice a un router no aadir o actualizar la informacin para
una ruta que ha sido quitada recientemente, hasta que un temporizador de cuenta
regresiva expire. En el ejemplo, si el Router usa una cuenta regresiva, esto no aade la
ruta para la red 172.16.0.0 que el Router B enva. El horizonte dividido tambin
soluciona el problema en el ejemplo, porque si el Router B usa el horizonte partido, esto
no dice el Router sobre una ruta a 172.16.0.0.

Los mensajes envenenamiento inverso son otro modo de apresurarse la convergencia y
evitar loop. Con el envenenamiento inverso, cuando un router aprende una ruta de otro
router, esto responde devolviendo una actualizacin a aquel router que pone la distancia
en una lista a la red como el infinito. Por hacer as, el router explcitamente declara que
la ruta no es directamente accesible.

Las actualizaciones provocadas son otro rasgo avanzado de protocolos de vector
distancia que pueden apresurarse la convergencia. Con actualizaciones provocadas, un
protocolo de enrutamiento anuncia fallas de ruta inmediatamente. Ms bien que esperar
simplemente el enrutamiento siguiente con regularidad programada actualizan y no
incluso en la actualizacin cualquier ruta que ha fallado, un router puede enviar
inmediatamente una actualizacin. La actualizacin (provocada) inmediata pone la ruta
fallada en una lista con el juego de distancia al infinito.

Protocolos de Enrutamiento Estado de Enlace
Protocolos de enrutamiento de estado de enlace no intercambian las tablas de
enrutamiento. En cambio, los routers que corren un protocolo de enrutamiento estado de
enlace intercambian la informacin sobre los enlaces con los cuales un router est
conectado. Cada router aprende bastante informacin sobre enlaces en las redes de
router de punto para construir su propia tabla de enrutamiento.

Los protocolos siguientes son protocolos de enrutamiento estado de enlace:
El Camino mas Corto Primero (OSPF)
Metodologa Top Down

Marcos Huerta S.
148
El Sistema Intermedio a Sistema Intermedio (IS - IS)
Protocolo de Servicios de Enlace de NetWare (NLSP)

Un protocolo de enrutamiento estado de enlace usa el algoritmo un camino ms corto
primer, como el algoritmo Dijkstra, determinar como alcanzar redes de destino. El
algoritmo Dijkstra, que es nombrado por el informtico que invent el algoritmo, Edsger
Dijkstra, soluciona el problema de encontrar el camino ms corto de un punto de la
fuente en un grfico matemtico a un punto de destino. Una de las bellezas del
algoritmo es que encontrando el camino ms corto a un destino, una fuente tambin
puede encontrar el camino ms corto a todos los puntos en el grfico al mismo tiempo.
Este hace el algoritmo sea perfecto para un protocolo de enrutamiento, aunque esto
tenga realmente otros usos.

Con el enrutamiento estado de enlace, los routers usan un protocolo hello para
establecer una relacin (llamada una adyacencia) con routers vecinos. Cada router
enva la publicacin estado de enlace (LSAs) a cada vecino adyacente. La publicacin
identifica enlaces y mtrica. Cada vecino que recibe una publicacin propaga el anuncio
en sus vecinos. El resultado es que cada router termina con una base de datos estado
de enlace idntica que describe los nodos y enlaces en el grfico de redes. Usando el
algoritmo Dijkstra, cada router independientemente calcula su camino ms corto a cada
red y entra en esta informacin en su tabla de enrutamiento.

El enrutamiento estado de enlace requiere ms poder de CPU en el router y memoria
que el enrutamiento de vector de distancia, y puede ser ms difcil de resolver
problemas. El enrutamiento estado de enlace tiene realmente algunas ventajas sobre el
enrutamiento de vector de distancia, sin embargo. En general, el enrutamiento estado de
enlace fue diseado para usar menos ancho de banda, ser menos propensa a loop, y
convergir ms rpidamente que el enrutamiento de vector de distancia, (aunque haya
protocolos de vector de distancia, como EIGRP, que tienen aquellas calidades tambin).

Seleccin entre Vector Distancia y Protocolos Estado de Enlace
Segn documentos de diseo de Cisco, usted puede usar las pautas siguientes para
ayudarle a decidirse que tipo de protocolo desplegar.

Elija protocolos de vector distancia cuando:
La red usa una topologa simple, plana y no requiere un diseo jerrquico.
La red usa una topologa simple "Hub- and Spoke".
Los administradores no tienen bastante conocimiento para operar y resolver
problemas de protocolos de estado de enlace.
Metodologa Top Down

Marcos Huerta S.
149
En el peor de los casos el tiempos de convergencia en la red no son una
preocupacin.

Elija protocolos estado de enlace cuando:
El diseo de red es jerrquica, que es por lo general el caso para redes grandes.
Los administradores conocen sobre el protocolo estado de enlace seleccionado.
La convergencia rpida de la red es crucial.

Mtrica de los Protocolo de Enrutamiento
El protocolo de enrutamiento usa mtrica para determinar qu camino es preferible
cuando ms de un camino est disponible. Enrutar los protocolos que varan en cual
mtrica son soportados. El protocolo vector distancia tradicional usa solo la cuenta de
salto. Los protocolos nuevos tambin pueden tener tardanza en cuenta, ancho de
banda, fiabilidad, y otros factores. La mtrica puede afectar la escalabilidad. Por
ejemplo, el RIP soporta slo 15 saltos. La mtrica tambin puede afectar la performance
de la red. Un router que slo usa el salto cuenta solamente sus nicas mtricas
perdidas la oportunidad de seleccionar una ruta que tiene ms saltos sino tambin ms
ancho de banda que otra ruta.

Protocolos Jerrquico contra Enrutamiento No jerrquicos
Algunos protocolos de enrutamiento no apoyan la jerarqua. Todos los routers tienen las
mismas tareas, y cada router es un punto de otro router. Los protocolos de enrutamiento
soportan la jerarqua, por otra parte, asigna tareas diferentes a routers, y routers de
grupo en reas, sistemas autnomos, o dominios. En un arreglo jerrquico, algunos
routers se comunican con routers locales en la misma rea, y otros routers tienen el
trabajo de conectarse con areas, dominios, o sistemas autnomos. Un router que
conecta un rea a otras reas puede resumir rutas para su rea local. El Sumarizar
realza la estabilidad porque los routers son protegidos de problemas no en su propia
rea.

Protocolos Interiores Vs Exteriores
El protocolode enrutamiento tambin puede ser caracterizado por donde ellos son
usados. El protocolo interior, como el RIP, OSPF, e IGRP, es usado por routers dentro
de la misma empresa o sistema autnomo. El protocolo, como BGP, realiza el
enrutamiento entre sistemas autnomos mltiples. El BGP es usado en el Internet por
routers de punto en sistemas autnomos diferentes para mantener una vista
consecuente de la topologa del Internet.



Metodologa Top Down

Marcos Huerta S.
150
Protocolos de Enrutamiento con Clases Vs Protocolos de Enrutamiento sin Clases
En secciones anteriores se habl de las diferencias entre protocolos de enrutamiento IP
con clases y protocolos de enrutamiento sin clases. Resumir los conceptos en La parte
6, "Diseando Modelos de Direccionamientoy Nombramiento," un protocolo de
enrutamiento, como el RIP o IGRP, siempre considera la clase de direccin de IP
(Clase, A, B, o C). La direccin sumarizada es automtica por el nmero de red
principal. Este significa que las subredes de discontiguas no son visibles el uno al otro, y
la subred de longitud variable que enmascara (VLSM) no es soportada.

Los protocolos sin clases, por otra parte, transmiten la longitud del prefijo o la
informacin de la mascar de subnet con la direcciones IP de la red. Con protocolos de
enrutamiento sin clases, el espacio de direccin IP pueden trazar un mapa de modo que
las subredes de discontiguas y VLSM sean soportadas. Los espacios de las direcciones
IP pueden trazar un mapa con cuidado de modo que las subredes sean arregladas en
bloques contiguos, permitiendo las actualizaciones de ruta a ser resumidas en lmites de
rea.

Dinmico Contra Esttico y Enrutamiento por Defecto
A ruta esttica es una ruta que es configurada a mano y no confa en actualizaciones de
un protocolo de enrutamiento. En algunos casos, no es necesario usar un protocolo de
enrutamiento. Las rutas estticas a menudo son usadas para conectarse a un bloque de
red. Un bloque de red reside en el borde de unas redes y no es usada como un camino
de trnsito para el trfico que trata de ponerse en algn otro sitio. Un ejemplo de una red
de bloque es una compaa que se une al Internet va un enlace solo a un Proveedor de
Internet (ISP). El ISP puede tener una ruta esttica a la compaa. No es necesario
dirigir un protocolo de enrutamiento entre la compaa y el ISP.

Una desventaja con el enrutamiento esttico es la cantidad de administracin que puede
ser requerida, sobre todo en redes grandes. En redes pequeo, las rutas estticas
tienen muchas ventajas, sin embargo, no deberan ser pasadas por alto al disear o
mejorar una red. Las rutas estticas reducen el uso de ancho de banda y son fciles de
detectar fallas. Las rutas estticas permiten que usted use una ruta adems de la que el
enrutamiento dinmico eligio, que puede ser beneficioso cuando usted quiere que el
trfico siga un camino especfico. Las rutas estticas tambin pueden dejarle usar una
ruta que es ms especfica que los permisos de protocolo de enrutamiento dinmico.
Las rutas estticas tambin facilitan la seguridad porque ellos le dan ms control sobre
cual redes son accesibles.

La Mayor parte el ISPs tienen muchas rutas estticas en sus tablas de enrutamiento
para alcanzar las redes de sus clientes. En un ISP, cuando el trfico llega de otros sitios
Metodologa Top Down

Marcos Huerta S.
151
del Internet con una direccin de destino que empareja la direccin de red asignada a un
cliente, la decisin de encaminamiento es simple. El trfico entra slo en una direccin,
al router del cliente. No hay ninguna necesidad de un protocolo de encaminamiento.

En routers Cisco, las rutas estticas tienen prioridad sobre rutas al mismo destino que
son aprendidas va un protocolo de enrutamiento. El Cisco IOS Software tambin
soporta una ruta esttica flotante, que es una ruta esttica que tiene una distancia
administrativa ms alta que rutas dinmicamente aprendidas y puede ser as anulada
por rutas dinmicamente aprendidas. Una aplicacin importante de poner a flote rutas
estticas debe proporcionar rutas de backup cuando ninguna informacin dinmica est
disponible.

Una ruta por defecto es un tipo especial de la ruta esttica que es usada cuando no hay
ninguna entrada en la tabla de enrutamiento para una red destino. Tambin se llama a la
ruta por defecto "la ruta de ltimo recurso." En algunos casos, una ruta por defecto es
todo que es necesario. Tome el ejemplo de la red de cliente relacionada con un ISP otra
vez. En el lado de cliente, puede no ser necesario o prctico para aprender rutas a todas
las redes en el Internet. Si hay slo una conexin al Internet (del enlace al ISP), todo el
trfico de Internet tiene que entrar en aquella direccin de todos modos. De este modo,
el diseador de red de empresa puede definir simplemente una ruta por defecto que
seala al router del ISP.

Aunque esttica y rutas por defecto reduzcan el uso de recurso, incluso ancho de banda
y CPU del router y recursos de memoria, la compensacin es una prdida de la
informacin detallada sobre el enrutamiento. Los routers con una ruta por defecto
siempre envan el trfico que no es local a un router de trfico de punto. Ellos no tienen
ningn modo de saber que el otro router puede haber perdido algunas de sus rutas.
Ellos tambin no tienen ningn modo de saber si un destino es siempre inalcanzable
(por ejemplo, cuando alguien hace un ping y enva mltiples ping a numerosas
direcciones de destino IP, algunos de las cuales no son accesibles). Un router con una
ruta por defecto envia estos paquetes. Esto no tiene ningn modo de distinguir los
destinos que esto no puede alcanzar los destinos que ningun router alcanzara. El
enrutamiento por defecto tambin puede hacer que un router use caminos subptimos.
Para evitar estos tipos de problemas, use el enrutamiento dinmica.

Enrutamiento a Peticin
El enrutamiento a peticin (ODR) es una caracteristica patentado por Cisco que
proporciona enrutamiento IP para redes de bloques. El ODR usa el Protocolo de
Descubrimiento Cisco (CDP) para llevar la informacin de enrutamiento mnima entre un
sitio principal y bloques de routers. El ODR evita la sobrecarga del enrutamiento
Metodologa Top Down

Marcos Huerta S.
152
dinmico sin incurrir en la configuracin y manejo de sobrecarga del enrutamiento
esttico.

La informacin requerida del enrutamiento IP representar la topologa de red para un
router en una red de bloques es bastante simple. Por ejemplo, en una topologa "hub-
and-spoke", los routers de bloque y de spoke tienen sitios a una conexin WAN hacia el
router de hub, y un pequeo nmero de segmentos de LAN directamente conectados
con el router de bloques. Estas redes de bloques pueden no requiere que el router de
bloques aprenda cualquier enrutamiento de informacin IP dinmico.

Con ODR, el router de bloque proporciona la informacin de ruta por defecto a los
routers de bloques, as eliminando la necesidad de configurar una ruta por defectoen
cada router de bloques. Los routers de bloques usan CDP para enviar la informacin de
prefijo IP para las interfaces directamente conectados al hub. El router de hub instala
rutas de red de bloques en su tabla de enrutamiento. El router de hub tambin puede ser
configurado para redistribuir estas rutas en cualquier IP dinmico configurado el
protocolos de enrutamiento. En el router de bloques, ningna IP del protocolo de
enrutamiento es configurada. Este simplifica la configuracin y es a menudo una
solucin buena para la capa de acceso de una red jerrquicamente diseada.

Restricciones de Escalabilidad para Protocolos de Enrutamiento
Seleccionar un protocolo de enrutamiento para un cliente, considere los objetivos de su
cliente para escalar la red a una talla grande e investigar las preguntas siguientes para
cada protocolo de enrutamiento. Cada una de las preguntas se dirige a una restriccin
de escalabilidad para protocolos de enrutamiento:
Hay all algn lmite colocado en la mtrica?
Cmo rpidamente puede el protocolo de enrutamiento convergir cuando las
mejoras o los cambios ocurren? Los protocolos estado de enlace tienden a convergir
ms rpidamente que protocolos de vector distancia. Hablan de la convergencia
ms detalladamente en la siguiente seccin.
Con qu frecuencia los enrutamientos y actualizaciones o publicaciones de estado
de enlace son transmitida? La frecuencia de publicaciones es una funcin de un
temporizador, o es actualizaciones provocadas por un acontecimiento, como un fallo
de enlace?
Cuntos datos son transmitidos en una publicacin de enrutamiento? La tabla
entera? Slo cambios? Es usado el horizonte dividido?
Cunto la ancho de banda es usada para enviar publicaciones de enrutamiento? la
utilizacin de Ancho de banda es en particular relevante para enlaces de serie de
ancho de banda baja.
Metodologa Top Down

Marcos Huerta S.
153
Cmo extensamente enruta publicaciones distribuidas? A vecinos? A un rea?
A todos los routers en el sistema autnomo?
Cunta utilizacin de CPU es requerida para procesar publicaciones de
enrutamiento o publicaciones de estado de enlace?
Soportan rutas estticas y rutas por defecto?
Soporta ruta sumarizada?

Estas preguntas pueden ser contestadas mirando el comportamiento del enrutamiento
de protocolo con un analizador de protocolo y estudiando las especificaciones
relevantes o Peticin de Comentarios (RFCs). Las siguientes secciones en este captulo
tambin pueden ayudarle a entender el comportamiento de protocolo de enrutamiento
mejor.

Convergencia de Protocolo de Enrutamiento
Convergencia es el tiempo que esto toma para los routers para llegar a un
entendimiento consecuente de la topologa de redes despus de que un cambio ocurre.
Un cambio puede ser un segmento de red o el fallo de router, o un nuevo segmento o el
router que se afilia a las redes. Para entender la importancia de la convergencia rpida
para su cliente particular, usted debera desarrollar un entendimiento de la probabilidad
de cambios frecuentes en la red del cliente. Hay all enlaces que tienden a fallar a
menudo? Es la red del cliente siempre esta "bajo construccin" para mejorar debido a
problemas de fiabilidad?

Como los paquetes no pueden ser de fuentes fidedignas enrutados a todos los destinos
mientras la convergencia ocurre, el tiempo de convergencia es una coaccin de diseo
crtica. El proceso de convergencia debera completar dentro de unos segundos para
aplicaciones sensibles a tiempo, como aplicaciones de voz y aplicaciones SNA-basadas.
Cuando SNA es transportado a travs de unas redes IP, un protocolo rpido que
converge como OSPF es recomendado. Los protocolos estados de enlace fueron
diseados para convergir rpidamente. Algunos protocolos de vector de distancia, como
EIGRP, tambin fueron diseados para la convergencia rpida.

Un router comienza el proceso de convergencia cuando nota que un enlace a uno de
sus routers de punto ha fallado. Un router Cisco enva paquetes de keepalive cada 10
segundos (en ausencia) para ayudarle a determinar el estado de un enlace. En un
enlace punto a punto WAN, un router Cisco enva paquetes de keepalive al router al otro
lado del enlace. En LANs, un router Cisco enva paquetes de keepalive a s mismo.

Si un enlace consecutivo falla, un router puede comenzar el proceso de convergencia
inmediatamente si nota que el Portador Detecta (CD) una sealde caida. Por otra parte,
Metodologa Top Down

Marcos Huerta S.
154
un router comienza la convergencia despus de enviar a dos o tres paquetes de
keepalive y no recibir una respuesta. En un Token Ring o red de FDDI, un router puede
comenzar el proceso de convergencia casi inmediatamente si nota el proceso de
beaconing que indica que un segmento de red est caido. En una red de Ethernet, si el
propio transceptor del router falla, esto puede comenzar el proceso de convergencia
inmediatamente. Por otra parte, el router comienza el proceso de convergencia despus
de que ha sido incapaz enviar dos o tres paquetes de keepalive.

Si el protocolo de enrutamiento usa paquetes hello y el temporizador hello es ms corto
que el temporizador keepalive, el protocolo de enrutamiento puede comenzar la
convergencia ms pronto. Otro factor que influye en el tiempo de convergencia es el
equilibrio de carga. Si una tabla de enrutamiento incluye caminos mltiples a un destino,
el trfico puede tomar inmediatamente otros caminos cuando un camino falla.

Enrutamiento de IP
Los Protocolos de Enrutamientos IP ms comn es el RIP, IGRP, EIGRP, OSPF, IS - IS,
y BGP. Las secciones siguientes describen un poco de la performance y las
caractersticas de escalabilidad de los estos protocolos para ayudarle a seleccionar los
protocolos correctos para su cliente de diseo de red.

Protocolo de Enrutamiento de Informacin
El Protocolo de Enrutamiento de Informacin (RIP) era el primer protocolo de
enrutamiento estndar desarrollado para ambientes TCP/IP. EL RIP fue desarrollado al
principio para el Sistema de Red de Xerox (XNS) protocolos y fue adoptado por la
comunidad IP a principios de los aos 1980. El RIP era el protocolo de interior ms
comn durante muchos aos, probablemente porque es fcil configurar y corre en
numerosos sistemas operativos. Esto est todava en uso en redes ms antiguas y
redes donde la simplicidad y la facilidad de la solucin son importantes. La versin 1
(RIPv1) de RIP es documentada en RFC 1058. La versin 2 (RIPv2) de RIP es
documentada en RFC 2453.

RIP transmite su tabla de enrutamiento cada 30 segundos.

RIP permite 25 rutas por paquete, entonces en redes grandes, se requiere que paquetes
mltiples enven la tabla de enrutamiento entera. La utilizacin de ancho de banda es
una cuestin en redes de RIP grandes que incluyen enlaces de ancho de banda baja.

RIPv1: No soporta subredes ni CIDR. Tampoco incluye ningn mecanismo de
autentificacin de los mensajes. No se usa actualmente. Su especificacin est recogida
en el RFC 1058.
Metodologa Top Down

Marcos Huerta S.
155
RIPv2: Soporta subredes, CIDR y VLSM. Soporta autenticacin utilizando uno de los
siguientes mecanismos: no autentificacin, autentificacin mediante contrasea,
autentificacin mediante contrasea codificada mediante MD5. Su especificacin est
recogida en el RFC 1723-2453.

Funcionamiento RIP
RIP utiliza UDP para enviar sus mensajes y el puerto bien conocido 520.
RIP calcula el camino ms corto hacia la red de destino usando el algoritmo del vector
de distancias. Esta distancia se denomina mtrica. En RIPv1 la mtrica es esttica y
vale 1, en cambio se puede modificar su valor en RIPv2.

RIP no es capaz de detectar rutas circulares, por lo que necesita limitar el tamao de la
red a 15 saltos. Cuando la mtrica de un destino alcanza el valor de 16, se considera
como infinito y el destino es eliminado de la tabla (inalcanzable).

La mtrica de un destino se calcula como la mtrica comunicada por un vecino ms la
distancia en alcanzar a ese vecino. Teniendo en cuenta el lmite de 15 saltos
mencionado anteriormente. Las mtricas se actualizan slo en el caso de que la mtrica
anunciada ms el coste en alcanzar sea estrictamente menor a la almacenada. Slo se
actualizar a una mtrica mayor si proviene del enrutador que anunci esa ruta.

Las rutas tienen un tiempo de vida de 180 segundos. Si pasado este tiempo, no se han
recibido mensajes que confirmen que esa ruta est activa, se borra. Estos 180
segundos, corresponden a 6 intercambios de informacin.

Ventajas y desventajas
En comparacin con otros protocolos de enrutamiento, RIP es ms fcil de configurar.
Adems, es un protocolo abierto, soportado por muchos fabricantes.
Por otra parte, tiene la desventaja que, para determinar la mejor mtrica, nicamente
toma en cuenta el nmero de saltos (por cuntos routers o equipos similares pasa la
informacin); no toma en cuenta otros criterios importantes, especialmente el nmero de
saltos. Esto puede causar ineficiencias, ya que puede preferir una ruta de bajo ancho de
banda, simplemente porque ocupa menos saltos.

Mensajes RIP
Tipos de mensajes RIP
Los mensajes RIP pueden ser de dos tipos.
Peticin: Enviados por algn enrutador recientemente iniciado que solicita informacin
de los enrutadores vecinos.
Metodologa Top Down

Marcos Huerta S.
156
Respuesta: mensajes con la actualizacin de las tablas de enrutamiento. Existen tres
tipos:
Mensajes ordinarios: Se envan cada 30 segundos. Para indicar que en enlace y la
ruta siguen activos.
Mensajes enviados como respuesta a mensajes de peticin.
Mensajes enviados cuando cambia algn coste. Slo se envan las rutas que han
cambiado

Formato de los mensajes RIP
Los mensajes tienen una cabecera que incluye el tipo de mensaje y la versin del
protocolo RIP, y un mximo de 25 entradas RIP de 20 bytes.

Las entradas en RIPv1 contienen la direccin IP de la red de destino y la mtrica.
Las entradas en RIPv2 contienen la direccin IP de la red, su mscara, el siguiente
enrutador y la mtrica. La autentificacin utiliza la primera entrada RIP.

IGRP (Interior Gateway Routing Protocol, o Protocolo de enrutamiento de pasarela
interior)
Cisco desarroll el Protocolo de Enrutamiento de pasarela interior (IGRP) a mediados de
los aos 1980 para encontrar las necesidades de clientes que requieren un protocolo
interior robusto y escalable. Muchos clientes emigraron sus redes de RIP a IGRP para
vencer la limitacin de 15 saltos del RIP y la confianza en slo una mtrica (cuenta de
salto). El IGRP tiene un temporizador de actualizaciones de 90 segundo para enviar
actualizaciones de ruta era tambin ms atractivo que el temporizador de
actualizaciones de 30 segundo de RIP para los clientes preocupados por la utilizacin
de ancho de banda.


El IGRP usa una metrica compuesto basado en los factores siguientes:

Ancho de banda. El ancho de banda de segmento ms bajo de ancho de banda en
el camino. Un administrador de red puede configurar el ancho de banda o usar el
valor por defecto, que est basado en el tipo de enlace. (La configuracin es
recomendada para enlaces WAN rpidos si el valor de ancho de banda es menos
que la velocidad actual.)
Tardanza. Una suma de todas las tardanzas para interfaces salientes en el camino.
Cada tardanza est inversamente proporcional al ancho de banda de cada interfaz
saliente. La tardanza no es calculada dinmicamente.
Fiabilidad. La fiabilidad del camino, basado en la fiabilidad de interfaz reportada por
routers en el camino. En una actualizacin de IGRP, la fiabilidad es un nmero de 8
Metodologa Top Down

Marcos Huerta S.
157
bloques, donde 255 es el 100 por ciento confiable y 1 es mnimamente confiable. En
ausencia, la fiabilidad no es usada a menos que el comando metric weights sea
configurada, en cuyo caso es calculado dinmicamente.
Carga. La carga en el camino, basado en la carga de interfaz reportada por routers
en el camino. En una actualizacin de IGRP, la fiabilidad es un nmero de 8
bloques, donde 255 es el 100 por ciento cargado y 1 es mnimamente cargado. En
ausencia, la carga no es usada a menos que el comando metric weights pesos sea
configurada, en cuyo caso la carga es calculada dinmicamente.

El IGRP permite el equilibrio de carga sobre caminos-iguales-mtricas y no-caminos-
mtricas-iguales. En IGRP la caracteristica variance significa que si un camino es tres
veces mejor que el otro, el mejor camino puede ser usado tres veces ms que el otro
camino. (Slo las rutas con la mtrica que son dentro de una cierta variedad de la mejor
ruta pueden ser usadas como caminos mltiples. Refirase a la documentacin de
configuracin Cisco para ms informacin.)

El IGRP tiene un mejor algoritmo para publicar y seleccionar una ruta por defecto tanto
como la hace RIP. RIP permite que un administrador de red configure una ruta por
defecto, que es identificada como la red 0.0.0.0. El IGRP, por otra parte, permite que
verdaderas redes sean sealadas como candidatos por ser una falta. Peridicamente,
IGRP explora todas las rutas candidatas a rutas por defecto y elige el que tiene la
mtrica ms baja para ser la ruta por defecto actual. Este caracteristica permite ms
flexibilidad y la mejor performance que la ruta por defecto esttica de RIP.

Para reducir el tiempo de convergencia, los soportes de IGRP provocaron publicaciones.
Un router provocado enva una publicaciones, que es una nueva tabla de enrutamiento,
en respuesta a un cambio (por ejemplo, el fallo de un enlace). Al recibo de una
publicacin provocada, otros routers tambin pueden enviar publicaciones provocadas.
Un fallo hace que una onda de mensajes de publicaciones se propague en todas partes
de la red, tiempo de convergencia que se apresura as y reducir el riesgo de loop.

Protocolo de Enrutamiento Mejorado de Pasarela Interior
El Cisco desarroll el Protocolo de Enrutamiento Mejorado de Pasarela Interior (EIGRP)
a principios de los aos 1990 para encontrar las necesidades de clientes de empresa
con grande, complejas, redes de multiprotocolo. El EIGRP es compatible con IGRP y
proporciona un mecanismo de redistribucin automtico para permitir que rutas IGRP
fueran importadas en EIGRP, y viceversa. El EIGRP tambin puede redistribuir rutas
para el RIP, IS - IS, BGP, y OSPF. Adems, el soporte de EIGRP al enrutamiento de
Novell y AppleTalk, y puede redistribuir RTMP y rutas de RIP de IPX, y Servicio IPX
Anunciando el Protocolo (SAP) actualizaciones.
Metodologa Top Down

Marcos Huerta S.
158
EIGRP usa la mismo metrica compuesta que IGRP usa y permanece un protocolo de
vector de distancia. EIGRP tiene muchos caracteristicas avanzadas y comportamientos
no encontrados en IGRP u otros protocolos de vector de distancia, sin embargo Aunque
EIGRP todava enve vectores con la informacin de distancia, las actualizaciones son
no peridicas, parciales, y saltaron. No peridico significa que las actualizaciones son
enviadas slo cuando hay cambios en la mtrica ms bien que con regularidad. Parcial
significa que las actualizaciones incluyen slo rutas que se han cambiado, no cada
entrada en la tabla de enrutamiento. Saltado significa que las actualizaciones son
enviadas slo a roters afectados. Estos comportamientos significan que EIGRP usa
ancho de banda muy pequea.
A Diferencia de IGRP, las publicaciones de EIGRP llevan una longitud de prefijo con
cada nmero de red, que hace EIGRP un protocolo sin clases.

En ausencia, EIGRP resume rutas en los lmites de red de classful, sin embargo.
Sumarizacin automtica puede ser apagada y manual sumarizacin usada a cambio,
que puede ser provechoso cuando una red incluye subredes de discontiguas.

Uno de los objetivos principales de EIGRP es ofrecer la convergencia muy rpida en
redes grandes. Para encontrar este objetivo, los diseadores de EIGRP adoptaron el
algoritmo de actualizacin de difusin (DUAL) aquel doctor J. J. El Garcia-Luna-Aceves
se desarroll en SRI Internacional.

DUAL especifica un mtodo para routers para almacenar la informacin de enrutamiento
de los vecinos de modo que los routers puedan cambiar a rutas alternativas muy
rpidamente. Los routers tambin pueden preguntar otros routers para aprender rutas
alternativas y enviar paquetes hello para determinar la accesibilidad de vecinos. Las
garantas DUALES una topologa sin loop, as no hay ninguna necesidad de un
mecanismo de asimiento abajo, que es otra caracteristica que minimiza el tiempo de
convergencia.

DUAL es una razn que EIGRP usa considerablemente menos ancho de banda que
IGRP u otros protocolos de vector de distancia. Un router que usa DUAL desarrolla su
tabla de enrutamiento usando el concepto de un sucesor factible. Un sucesor factible es
un router vecino que tiene el camino de lo-menos-costo a un destino. Cuando un router
descubre que un enlace ha fallado, si un sucesor factible tiene una ruta alterna, cambia
al router a la ruta alterna inmediatamente, sin causar algn trfico de red. Si no hay
ningn sucesor, el router enva una pregunta a vecinos. La pregunta se propaga a travs
de la red hasta que una nueva ruta sea encontrada.

Metodologa Top Down

Marcos Huerta S.
159
Un router EIGRP desarrolla una tabla de topologa que contiene todos los destinos
anunciados por routers que colindan. Cada entrada en la tabla contiene un destino y una
lista de vecinos que han publicado el destino. Para cada vecino, la entrada incluye la
mtrica que el vecino publico para aquel destino. Un router calcula su propio mtrica
para el destino usando la metrica de cada vecino en la combinacin con loa metrica del
vecino los usa el router para alcanzar al vecino. El router compara la mtrica y
determina el camino de costo ms bajo a un destino y un sucesor factible para usar por
si el camino de costo ms bajo falle.

EIGRP puede escalar a miles de nodos. Para asegurar la buena performance en redes
grandes, EIGRP debera ser usado en redes con topologas jerrquicas simples.

El Primer Camino mas Corto
A finales de los aos 1980, el IETF reconoci la necesidad de desarrollar un protocolo
de enrutamiento estado de enlace interior para encontrar las necesidades de redes de
empresa grandes que fueron obligadas por las limitaciones de RIP. El Primer Camino
mas Corto (OSPF) protocolo de enrutamiento es un resultado del trabajo del IETF. El
OSPF es definido en RFC 2328.

Las ventajas de OSPF son como sigue:
El OSPF es un estndar abierto apoyado por muchos vendedores.
El OSPF converge rpidamente.
El OSPF certifica cambios de protocolo para encontrar objetivos de seguridad.
El OSPF apoya subredes de discontiguas y VLSM.
El OSPF enva paquetes de multicast, ms bien que transmitir paquetes, que reduce
la utilizacin de CPU en hosts de LAN (si los hosts tienen NICs capaz de filtrar
multicast).
Las redes de OSPF pueden ser diseadas en reas jerrquicas, que reduce
memoria y requerimientos de CPU en routers.
El OSPF no usa mucho ancho de banda.

Para minimizar la utilizacin de ancho de banda, OSPF propaga slo cambios. Otro
trfico de red es limitado con paquetes de sincronizacin de base de datos que ocurren
con poca frecuencia (cada 30 minutos) y paquetes hello que establecen y mantienen
adyacencias vecinas y son usados para decidir un router designado en LANs. Los Hellos
son enviados cada 10 segundos. En dialup y enlaces de RDSI configurados como el
circuito de demanda, OSPF nunca puede estar quieto. En este caso, los routers de
OSPF suprimen hellos y los paquetes de sincronizacin de base de datos.

Metodologa Top Down

Marcos Huerta S.
160
Sobre el arranque y cuando hay cambios, un router OSPF multicast la publicacin de los
estado de enlace (LSAs) a todos los otros routers dentro de la misma rea jerrquica.
Los routers de OSPF acumulan la informacin de estado de enlace para calcular el
camino ms corto a una red de destino. El clculo usa el algoritmo Dijkstra. El resultado
del clculo es una base de datos de la topologa, llamada la base de datos de estado de
enlace. Cada router en un rea tiene una base de datos idntica.

Todos los routers dirigen el mismo algoritmo, en paralelo. De la base de datos de estado
de enlace, cada router construye un rbol de los caminos ms cortos, asi como la raz
del rbol. El rbol de camino ms corto proporciona la ruta a cada destino. La
informacin de enrutamiento por fuera sacada aparece en el rbol como hojas. Cuando
varias rutas de costo igual a un destino existen, el trfico es distribuido igualmente entre
ellos.

Segn RFC 2328, el costo de una ruta es descrito por "una sola mtrica sin dimensiones
" que es "configurable por un administrador de sistema."

Un costo tiene que ver con el lado de salida de cada interfaz del router. El costo mas
bajo, es ms probablemente el interfaz debe ser usado para enviar el trfico de datos.
Un costo tambin tiene que ver con rutas por fuera sacadas (por ejemplo, rutas
aprendidas de un protocolo de enrutamiento diferente).

En un router Cisco, el costo de una interfaz por defecto a 100,000,000 dividido con el
ancho de banda para el interfaz. Por ejemplo, tanto FDDI como Ethernet 100-Mbps
tienen un costo de 1. El costo puede ser a mano configurado. Por lo general es lo mejor
si ambos finales de un enlace usan el mismo costo. Si un router Cisco es un final de un
enlace y un router non-Cisco es al otro final, usted podra tener que configurar a mano el
costo. Como OSPF define el costo mtrica tan ampliamente, no se requiere que
vendedores convengan como el costo es definido.

Arquitecturas de OSPF
El OSPF permite que conjuntos de redes sean agrupados en reas. La topologa de un
rea es escondida del resto del sistema autnomo. Escondiendo la topologa de un
rea, el trfico enrutado es reducido. Tambin, el enrutamiento dentro del rea es
determinada slo por la propia topologa del rea, proporcionando la proteccin de rea
de datos de enrutamientos malos. Dividiendo routers en reas, la memoria y los
requerimientos de CPU para cada router son limitadas.
Un backbone contiguo de rea, es llamada el rea 0, cuando una red de OSPF es
dividida en reas. Cada otra rea se conecta al rea 0 va un router de frontera de rea
(ABR), como mostrado en la figura nro.31. Todo el trfico entre reas debe viajar por el
Metodologa Top Down

Marcos Huerta S.
161
rea 0. El rea 0 debera tener la alta disponibilidad, el rendimiento, y la ancho de
banda. El rea 0 debera ser fcil para poder y resolver fallas. Un grupo de routers en un
rack conectados va LAN rpido hace un rea buena 0 para muchos clientes.

Figura Nro. 31. reas de OSPF Conectadas va ABRs


Adems de ABRs, una red de OSPF puede incluir uno o varios routers de lmite de
sistema autnomos (ASBRs). Un ASBR conecta una red de OSPF a un sistema
autnomo diferente o a una red que usa un protocolo de enrutamiento adems de
OSPF. Por ejemplo, un ASBR podra conectar una red de campus OSPF interna al
Internet.

Cuando disee una red de OSPF, asegrese para asignar nmeros de red en bloques
que pueden ser sumarizados. Un ABR debera sumarizar rutas detrs de ello para evitar
routers en el backbone y otras reas que tiene que saber detalles sobre un rea
particular. La sumarizacin debe ser configurada en routers Cisco con el comando de
area-range

Un ABR que conecta una red de bloques puede ser configurado para inyectar una ruta
por defecto en el rea de bloque para todas las redes externas que son fuera del
sistema autnomo o son aprendidas de otros protocolos de enrutamiento. El router
tambin puede ser configurado para inyectar una ruta por defecto para rutas internas
sumarizadas o no sumarizadas a otras reas. Si un router inyecta una ruta por defecto
para todas las rutas, Cisco llama el rea un rea totalmente stubby. Las reas
totalmente stubby son una tcnica Cisco que trabaja a lo largo de todas las areas stubby
ABRs son router Cisco.

El Cisco tambin soporta no-stubby-reas, que permite la redistribucin de rutas
externas en OSPF en otra area stubby. No-stubby reas son especificadas en RFC
1587. (No-stubby reas no son muy comunes, pero ellos pueden ser usados en una red
de bloques que incluye un enlace de herencia a otro protocolo de enrutamiento o
Metodologa Top Down

Marcos Huerta S.
162
sistema autnomo que es diferente del enlace usado por el resto de las redes para
alcanzar el mundo exterior.)

A causa de los requerimientos de OSPF puede ser estructurado en reas y la
recomendacin que rutas sean sumarizadas, puede ser difcil emigrar una red existente
a OSPF. Tambin, ampliando una existencia de red de OSPF puede ser desafiante. Si
una red es sujeta a cambio rpido o crecimiento, OSPF no podra ser la mejor opcin.
Para la mayor parte de redes, sin embargo, OSPF es una opcin buena debido a su
utilizacin de bajo ancho de banda, escalabilidad, y compatibilidad con vendedores
mltiples.

Sistema Intermedio-hacia-Sistema Intermedio
Sistema Intermedio-hacia-Sistema Intermedio (IS-IS) es un protocolo estado de enlace
dinmico desarrollado para el uso con la Interconexin de Sistema Abierta (OSI) suite de
protocolo. Integrado IS - IS es una implementacin de IS - IS para OSI variado y redes
de IP que ha ganado la popularidad limitada para el uso dentro de redes de IP grandes,
jerrquicas, sobre todo dentro del core de ISPs grandes. IS - IS es protocolo de
enrutamiento interior de entrada sin clases, que es similar en operacin a OSPF aunque
algo ms flexible, eficiente, y escalable.

Como con OSPF, IS - IS puede ser puesto en prctica en una manera jerrquica. Un
router puede desempear papeles diferentes:
Nivele 1 ruta de routers dentro de un rea.
Nivele 2 ruta de routers entre reas.
Nivele 12 routers que participan en el Nivel 1 enrutando intra-rea y Nivelan 2
enrutando de interrea.

En IS - IS, el lmite entre reas est en un enlace entre routers. Un router pertenece slo
una rea. En la comparacin, en OSPF, los lmites de rea residen dentro de un ABR.
Algunos interfaces de router en el ABR pertenecen a una rea y otros interfaces
pertenecen a otra rea. Con IS - IS, todas las interfaces de router estn en la misma
rea. Este hace IS - IS algo ms modular y significa que en algunos casos, un rea
puede ser mejorada sin afectar tan muchos routers.

Nivele 1 router dentro de un rea (incluso el Nivel 1-2 routers) mantienen una base de
datos estado de enlace idntica que define la topologa de su rea. Nivele 2 (incluso el
Nivel 1-2 routers) tambin mantienen una base de datos estado de enlace separada
para la topologia del Nivel 2.

Metodologa Top Down

Marcos Huerta S.
163
A Diferencia de OSPF ABRs, Nivele 1-2 routers no publican el Nivel 2 rutas para Nivelar
1 router. Un Nivel 1 router no tiene ningn conocimiento de destinos fuera de su propia
rea. Este hace IS - IS ms eficiente que OSPF, en cuanto al uso de CPU y el
procesamiento de publicaciones, aunque la funcionalidad similar pueda ser
implementada en routers Cisco OSPF puede configurar un rea totalmente stubby.

Protocolo de Borde de Entrada
El IETF desarroll el Protocolo de Borde de Entrada (BGP) para sustituir el Protocolo de
Entrada Exterior ahora obsoleto (EGP) como el estandar exterior el protocolo de
enrutamiento para el Internet. El BGP soluciona problemas que EGP tena con fiabilidad
y escalabilidad. El BGP4, la versin corriente de BGP, es especificado en 1771 RFC.

BGP interno (iBGP) puede ser usado en compaa grande a la ruta entre dominios. BGP
externo (eBGP) est usado en ruta entre compaas y participar en el enrutamiento de
Internet global. El eBGP a frecuentemente usado en multihome empresarial conexin al
Internet. Esto es una idea falsa comn que el multihoming requiere BGP, pero este no
es verdad. Segn los objetivos de un cliente y la flexibilidad de las polticas de su ISP,
usted puede multihome con rutas por defecto, como fue hablado en El captulo 5. El
correr eBGP puede ser desafiante, requiriendo un entendimiento de las complejidades
del enrutamiento de Internet. El eBGP debera ser recomendado slo a compaas que
tienen a ingenieros de red mayores, y una relacin buena con su ISPs. Un ingeniero de
red inexperto puede configurar eBGP de tal modo que causa problemas para el Internet
entero. Tambin, el eBGP debera ser usado slo en routers con mucha memoria, una
CPU rpida, y una conexin de ancho de banda alta al Internet. Una tabla de
enrutamiento de Internet contiene ms de 100,000 rutas y crece continuamente cuando
el Internet se ampla y ms compaas usan BGP a la multihome.

El objetivo principal de BGP es permitir que routers intercambien la informacin en
caminos a redes hacia destino. Cada router BGP mantiene una tabla de enrutamiento
que pone todos los caminos factibles en una lista a una red particular. Los routers de
BGP intercambian la informacin de enrutamiento sobre el arranque inicial, y luego
envan actualizaciones incrementales, usando el protocolo TCP para la entrega
confiable de paquetes BGP. Una actualizacin especifica atributos de camino, que
incluyen el origen de informacin de camino, una secuencia de segmentos de camino de
los sistema autnomo, e informacin de siguiente salto.

Cuando un router BGP recibe actualizaciones de sistemas autnomos mltiples que
describen caminos diferentes al mismo destino, el router debe elegir el mejor camino
solo para alcanzar aquel destino. Despus de que el mejor camino es elegido, BGP
propaga el mejor camino a sus vecinos. La decisin est basada en el valor de atributos
Metodologa Top Down

Marcos Huerta S.
164
en la actualizacin (como siguiente salto, pesos administrativos, preferencia local, el
origen de la ruta, y longitud de camino) y otros factores BGP-configurables.

Protocolos de Enrutamiento y el Modelo de Diseo Jerrquico
Como hablado en El captulo 5, las redes grandes son diseadas usando un
acercamiento modular, jerrquico. Tal acercamiento es el modelo de diseo jerrquico
de tres capas, que tiene una capa principal que es optimizada para disponibilidad e
performance, una capa de distribucin que pone en prctica polticas, y una capa de
acceso que conecta a usuarios. Las tres siguientes secciones hablan de protocolos de
enrutamiento para las tres capas del modelo.

Protocolos de Enrutamiento para la Capa Core
La capa core debera incorporar enlaces redundantes y carga compartida entre caminos
de costo igual. Esto debera proporcionar inmediata respuesta en un evento de falla de
enlace y adaptarse muy rpidamente para el cambio. El enrutamiento de protocolos que
encuentran estas necesidades incluye EIGRP, OSPF, y IS - IS. La decisin de usar
EIGRP, OSPF, o IS - IS debera estar basado en la topologa subyacente, el diseo de
direccionamiento IP, preferencias de vendedor, y otros objetivos comerciales y tcnicos.

El OSPF impone un diseo jerrquico estricto. Las reas de OSPF deben trazar un plan
al mapa al direccionamiento IP, que puede ser difcil de conseguir. EIGRP y IS - IS son
ms flexibles en cuanto a la estructura jerrquica e al diseo de direccionamiento IP.
EIGRP es un protocolo patentado Cisco, sin embargo Aunque Cisco lo haya licenciado a
unos vendedores, si los productos de otros vendedores deben ser usados en la
realizacin del diseo de red, entonces EIGRP no podra ser una solucin buena. O
bien, EIGRP puede ser usado en el core con la redistribucin a otro protocolo de
enrutamiento en la capa de distribucin.

El protocolo de enrutamiento RIP no es recomendado para core. Su respuesta para
cambiarse es lenta, que puede causar la conectividad interrumpida.

Protocolos de Enrutamiento para la Capa de Distribucin
La capa de distribucin representa el punto de conexin entre capas de acceso y el
core. El protocolo de enrutamiento usados en la capa de distribucin incluye RIPv2,
EIGRP, OSPF, IS - IS, y ODR. La capa de distribucin a menudo tiene el trabajo de
redistribucin entre el protocolo de enrutamiento usados en la capa core y aquellos
usados en la capa de acceso.



Metodologa Top Down

Marcos Huerta S.
165
Protocolos de Enrutamiento para la Capa de Acceso
La capa de acceso proporciona el acceso para conectarse a los recursos de la red para
usuarios locales y remotos. Como con la distribucin y capas core, la topologa
subyacente, el diseo de direccionamiento IP, y preferencias de vendedor conduce la
opcin de protocolo de enrutamiento. El equipamiento de capa de acceso puede ser
menos poderoso que distribucin y core, en cuanto al poder de procesamiento y
memoria, que influye en la opcin de protocolo de enrutamiento.

El protocolo de enrutamiento que deberan ser usados en la capa de acceso incluye
RIPv2, OSPF, EIGRP, y ODR. El uso del enrutamiento esttico es tambin una
posibilidad. IS - IS no es a menudo apropiado para la capa de acceso porque esto exige
ms conocimiento para configurar y tambin no es esta bien para redes dialup. Las
limitaciones de usar OSPF como una capa de acceso el protocolo de enrutamiento
estn relacionadas con su alta memoria y requerimientos de poder de procesamiento y
requerimientos de diseo jerrquicos estrictos. La alta memoria y los requerimientos de
poder de procesamiento de OSPF pueden ser evitados con el uso de sumarizacin y
planificacin de rea cuidadosa, sin embargo.

Resumen
Este captulo proporcion la informacin para ayudarle a seleccionar los correctos
protocolos de enrutamiento para el diseo de su red al cliente. El captulo cubri
escalabilidad y caractersticas de performance de los protocolos y habl de como
rpidamente los protocolos pueden adaptarse a cambios.

Decidiendo el correcto protocolos para su cliente le ayudarn a seleccionar el mejor
producto de switch y router para el cliente. Por ejemplo, si usted ha decidido que el
diseo debe soportar un protocolo de enrutamiento que puede convergir dentro de unos
segundos en unas redes grandes, usted no recomendar probablemente a un router que
corra nicamente con RIP.

Este captulo comenz con una discusin genrica sobre la fabricacin de decisin a
ayudarle a desarrollar un proceso sistemtico para seleccionar soluciones de diseo de
red. Una discusin de tender un puente y cambiar protocolos sigui, que cubri la
conmutacin que tiende un puente, de mltiples capas transparente, realces para STP, y
protocolos VLAN. Una seccin en el protocolos de enrutamiento sigui la seccin de
conmutacin.



Metodologa Top Down

Marcos Huerta S.
166
Parte 8. Desarrollando Estrategias de seguridad de red
El desarrollo de estrategias de seguridad que pueden proteger todas las partes de una
red complicada teniendo un efecto limitado en la facilidad de uso e interpretacin es una
de las tareas ms importantes y difciles relacionadas para conectar diseo de red. El
diseo de seguridad es desafiado por la complejidad y la naturaleza porosa de redes
modernas que incluyen a servidores pblicos para el comercio electrnico, extranet
conexiones para socios de negocio, y servicios de acceso remoto para usuarios que
alcanzan la red de casa, sitios de cliente, cuartos del hotel, cafeteras de Internet,
etctera. Para ayudarle a manejar las dificultades inherentes en el diseo de la
seguridad de red para redes complejas, este captulo ensea un acercamiento
sistemtico, top down que se concentra en planificacin y desarrollo de poltica antes de
la seleccin de productos de seguridad.

El objetivo de este captulo es ayudarle a trabajar con sus clientes el diseo de red en el
desarrollo de estrategias de seguridad eficaces, y ayudarle a seleccionar las tcnicas
correctas para poner en prctica las estrategias. El captulo describe los pasos para
desarrollar una estrategia de seguridad y cubre algunos principios de seguridad bsicos.
El captulo presenta un acercamiento modular al diseo de seguridad que le dejar
aplicar soluciones acodadas que protegen una red desde muchos puntos de vista. Las
secciones finales describen mtodos para asegurar los componentes de una red de
empresa tpica que son la ms que estan en peligro, incluso coinexiones de Internet,
redes de acceso remoto, y red de servicios de usuario, y redes inalmbricas.

La seguridad debera ser considerada durante muchos pasos del proceso de diseo de
red top down. Este no es el nico captulo que cubre la seguridad. El captulo 2,
"Analizando Objetivos Tcnicos y Restricciones," activos de red hablados que se
identifican, analizando riesgos a la seguridad, y desarrollando requerimientos de
seguridad. El captulo 5, "Diseando una Topologa de Red," topologas de red seguras
cubiertas. Este captulo se concentra en estrategias de seguridad y mecanismos.

Diseo de Seguridad de la Red
Despus de desarrollar los pasos del set estructurado y poniendo en prctica la
seguridad de red le ayudar a dirigirse a las preocupaciones variadas que juegan una
parte en el diseo de seguridad. Muchas estrategias de seguridad han sido
desarrolladas de un modo desordenado y han dejado de asegurar realmente activos y
encontrar los objetivos primarios de un cliente para la seguridad. La demolicin del
proceso del diseo de seguridad en los pasos siguientes le ayudar con eficacia a
planear y ejecutar una estrategia de seguridad:
1. Identifique activos de red.
2. Analice riesgos a la seguridad.
Metodologa Top Down

Marcos Huerta S.
167
3. Analice los requerimientos de seguridad y restricciones.
4. Desarrolle un plan de seguridad.
5. Defina una poltica de seguridad.
6. Desarrolle procedimientos para aplicar polticas de seguridad.
7. Desarrolle una estrategia de realizacin tcnica.
8. Consiga la compra - desde usuarios, gerentes, y personal tcnico.
9. Entrene a usuarios, gerentes, y personal tcnico.
10. Ponga en prctica la estrategia tcnica y procedimientos de seguridad.
11. Pruebe la seguridad y actualcelo si algn problema es encontrado.
12. Mantenga la seguridad programando auditoras independientes peridicas, leyendo
los logs de auditora, respondiendo a incidentes, leyendo literatura corriente y
alarmas de agencia, siguiendo probando y entrenarse, y actualizando el plan de
seguridad y poltica.

La seguridad de red debera ser un proceso perpetuo. Los riesgos se cambian con el
tiempo y la seguridad tambin . Los expertos de seguridad de Cisco usan la rueda de
seguridad de trmino para ilustrar aquella realizacin, escucha, pruebas, y el
mejoramiento de la seguridad es un proceso interminable. Muchos ingenieros de
seguridad agotados por tanto trabajo podran estar relacionados con el concepto de
rueda. Continuamente la actualizacin de mecanismos de seguridad para mantenerse al
corriente de los ltimos ataques puede hacer a veces una sensacin de administrador
un poco como un hmster en una rueda de formacin.

La Identificacin de Activos y Riesgos de Red
La parte 2 se ha hablado de los objetivos de un cliente para seguridad de red. Se ha
hablado en La parte 2, el anlisis de objetivos implica identificar activos de red y el
riesgo que aquellos activos podran ser saboteados o inapropiadamente tenidos acceso.
Esto tambin implica analizar las consecuencias de riesgos.

Los activos de red pueden incluir a hosts de red (incluso sistemas operativos de los
hosts, aplicaciones, y datos), dispositivos de funcionamiento entre redes (como routers e
switches), y conectar a la red datos que cruzan la red. Menos obvio, pero todava muy
importante, los activos incluyen propiedad intelectual, secretos de fabricacin, y
reputacin de una compaa.

Los riesgos pueden extenderse de intrusos hostiles a usuarios inexpertos que
descargan aplicaciones de Internet que tienen virus. Los intrusos hostiles pueden robar
datos, cambiar datos, y hacer que el servicio sea negado a usuarios legtimos.
(Desmentido de servicio los ataques se han hecho cada vez ms comunes en los pocos
Metodologa Top Down

Marcos Huerta S.
168
aos pasados.) Ver La parte 2 para ms detalles contra anlisis de riesgo y reunin de
requerimientos.

Anlisis de Restricciones de Seguridad
Segn RFC 2196, "la Gua de Sitios de Seguridad:"
Un viejo truismo en la seguridad es que el costo de proteccin usted mismo contra una
amenaza debera ser menos que el costo de recuperacin si la amenaza fuera
golpearle. El costo en este contexto debera ser recordado para incluir prdidas
expresadas en verdadero dinero, reputacin, honradez, y otras medidas menos obvias.

Como es el caso con la mayora de los requerimientos de tecnicas de diseo,
consiguiendo medios de objetivos de seguridad que hacen restricciones. Las
restricciones deben ser hechas entre objetivos de seguridad y objetivos para
accesibilidad financiera, utilidad, performance, y disponibilidad. Tambin, la seguridad
aade hasta un total del trabajo de direccin porque la entrada al sistema de usuario
IDs, contraseas, y logs de auditora debe ser mantenida.

La seguridad tambin afecta la performance de red. Las caracteristicas de seguridad
como filtros de paquete y codificacin de datos consumen el poder de CPU y la memoria
en hosts, routers, y servidores. La codificacin puede usar hasta un maximo del 15 por
ciento del poder de CPU disponible en un router o servidor. La codificacin puede ser
puesta en prctica en dispositivos dedicados en vez de routers compartidos o
servidores, pero hay todava un efecto en la performance de red debido a la tardanza
que experimenta el paquete mientras ellos estn siendo codificados o descifrados.

Otra restriccin es que la seguridad puede reducir la redundancia de red. Si todo el
trfico debe pasar por un dispositivo de codificacin, por ejemplo, el dispositivo empieza
en un simple punto de falla . Este lo hace con fuerza para encontrar objetivos de
disponibilidad.

La seguridad tambin puede hacer ms difcil de ofrecer el equilibrio de carga. Algunos
mecanismos de seguridad requieren que el trfico tome siempre el mismo camino de
modo que los mecanismos de seguridad puedan ser aplicados uniformemente. Por
ejemplo, un mecanismo que aleatoriza nmeros de secuencia TCP (de modo que los
hackeres no puedan adivinar los nmeros) no trabajar si algunos segmentos de TCP
para una sesin toman un camino que evita la funcin que aleatoriza debida de cargar el
equilibrio.



Metodologa Top Down

Marcos Huerta S.
169
El desarrollo de un Plan de Seguridad
Uno de los primeros pasos en el diseo de seguridad es desarrollar un plan de
seguridad. Un plan de seguridad es un documento de alto nivel que propone lo que una
organizacin va a hacer para encontrar requerimientos de seguridad. El plan especifica
el tiempo, la gente, y otros recursos que se requerir para desarrollar una poltica de
seguridad y conseguir la realizacin tcnica de la poltica. Como diseador de red, usted
puede ayudar a su cliente a desarrollar un plan que es prctico y pertinente. El plan
debera estar basado en los objetivos del cliente y el anlisis de activos de red y riesgos.

Un plan de seguridad debera referirse a la topologa de red e incluir una lista de
servicios de red que sern proporcionados (por ejemplo, FTP, web, correo electrnico,
etctera). Esta lista debera especificar quin proporciona los servicios, quin tiene el
acceso a los servicios, como el acceso es proporcionado, y quin administra los
servicios.

Como diseador de red, usted puede ayudar al cliente a evaluar qu servicios son
definitivamente necesarios, basados en los objetivos comerciales y tcnicos del cliente.
A veces los nuevos servicios son aadidos innecesariamente, simplemente porque ellos
son la ltima tendencia. La adicin de servicios podra requerir que nuevos filtros de
paquete en routers y firewall protegieran los servicios, o procesos de autenticacin de
usuario adicionales para limitar el acceso con los servicios, aadiendo la complejidad a
la estrategia de seguridad. Las estrategias de seguridad demasiado complejas deberan
ser evitadas porque ellos pueden ser contraproducentes. Las estrategias de seguridad
complicadas son difciles de poner en prctica correctamente sin introducir agujeros de
seguridad inesperados.

Uno de los aspectos ms importantes del plan de seguridad es una especificacin de la
gente que debe estar implicada en la realizacin de la seguridad de red:
Se contrato especialistas de administradores de seguridad?
Cmo estarn implicados los usuarios finales y sus gerentes?
Cmo van los usuarios finales, gerentes, y personal tcnico ser entrenados en
polticas de seguridad y procedimientos?

Ya que una seguridad planean ser tiles, esto tiene que tener el apoyo de todos los
niveles de empleados dentro de la organizacin. Es sobre todo importante que la
direccin corporativa totalmente apoye el plan de seguridad. El personal tcnico en
oficina central y sitios remotos debera compactarse en el plan, como deben los usuarios
finales.


Metodologa Top Down

Marcos Huerta S.
170
El desarrollo de una Poltica de Seguridad
Segn RFC 2196, "la Gua de Sitios de Seguridad:"
Una poltica de seguridad es una declaracin formal de las reglas por cual la gente a
quien dan el acceso a la tecnologa de una organizacin y los activos de informacin
deben soportar.

Una poltica de seguridad informa a usuarios, gerentes, y personal tcnico de sus
obligaciones para proteger tecnologa y activos de informacin. La poltica debera
especificar los mecanismos por los cuales estas obligaciones pueden ser encontradas.
Como era el caso con el plan de seguridad, la poltica de seguridad debera tener la
atencin - en los empleados, gerentes, ejecutivos, y personal tcnico.

El desarrollo de una poltica de seguridad es el trabajo de administradores de red y
seguridad. Los administradores son introducidos de gerentes, usuarios, diseadores de
red e ingenieros, y posiblemente asesor legal. Como un diseador de red, usted debera
trabajar estrechamente con los administradores de seguridad para entender como las
polticas podran afectar el diseo de red.

Despus de que una poltica de seguridad ha sido desarrollada, con el compromiso de
usuarios, personal, y direccin, debera ser explicado a todos por la direccin superior.
Muchas empresas requieren que el personal firme una declaracin que indica que ellos
han ledo, han entendido, y han consentido en cumplir con una poltica.

Una poltica de seguridad es un documento vivo. Como las organizaciones
constantemente se cambian, las polticas de seguridad deberan ser con regularidad
actualizadas para reflejar nuevas direcciones comerciales y cambios tecnolgicos. Los
riesgos se cambian con el tiempo tambin y afectan la poltica de seguridad.

Componentes de una Poltica de Seguridad
En general, una poltica debera incluir al menos los artculos siguientes:
Una poltica de acceso que define derechos de acceso y privilegios. La poltica de
acceso debera proporcionar pautas para conectar redes externas, conectando
dispositivos a una red, y aadiendo el nuevo software a sistemas. Una poltica de
acceso tambin podra dirigirse como los datos son clasificados (por ejemplo,
secreto confidencial, interno, y superior.)
Una poltica de responsabilidad que define las responsabilidades de usuarios,
personal de operaciones, y direccin. La poltica de responsabilidad debera
especificar una capacidad de auditora, y proporcionar el incidente que maneja
pautas que especifican que hacer y quien ponerse en contacto si una intrusin
posible es descubierta.
Metodologa Top Down

Marcos Huerta S.
171
Una poltica de autenticacin que establece la confianza por una poltica de
contrasea eficaz, y establece pautas para la autenticacin de posicin remota.
Una poltica de intimidad que define expectativas razonables de la intimidad en
cuanto a la escucha de correo electrnico, el registro de pulsaciones, y acceso a los
archivos de los usuarios.
Las pautas adquisitivas de la tecnologa de computadora que especifican las
exigencias para adquisicin, configuracin, y revisin de sistemas de computadora y
redes para la conformidad con la poltica.

Desarrollo de Procedimientos de Seguridad
Los procedimientos de seguridad ponen en prctica polticas de seguridad. Los
procedimientos definen configuracin, entrada al sistema, auditora, y procesos de
mantenimiento. Los procedimientos de seguridad deberan ser escritos para usuarios
finales, administradores de red, y administradores de seguridad. Los procedimientos de
seguridad deberan especificar como manejar incidentes (es decir que hacer y quien
ponerse en contacto si una intrusin es descubierta). Los procedimientos de seguridad
pueden ser comunicados a usuarios y administradores en clases de formacin
conducidas por instructor y autodidcticas.

Mecanismos de Seguridad
Esta seccin describe algunos ingredientes tpicos de diseos de red seguros. Usted
puede seleccionar de estos ingredientes diseando soluciones para desafos de
seguridad comunes, que son descritos en el "Diseo de Seguridad de
Modularizacin"seccin ms tarde en este parte.

Seguridad Fsica
La seguridad fsica se refiere a la limitacin del acceso a recursos de red claves
guardando los recursos detrs de una puerta cerrada con llave. La seguridad fsica
puede proteger una red de mal usos involuntarios del equipo de red por empleados
inexpertos y contratistas. Esto tambin puede proteger la red de hackeres,
competidores, y terroristas que andan en de la calle y cambian configuraciones de
equipo.

Segn el nivel de proteccin, la seguridad fsica puede proteger una red de terrorista y
acontecimientos biohazard, incluso bombas, cadas radiactivas, etctera. La seguridad
fsica tambin puede proteger recursos de catstrofes como inundaciones, fuegos,
tormentas, y terremotos.

Segn su cliente el diseo de una red particular, la seguridad fsica debera ser instalada
para proteger routers core, puntos de demarcacin, tendido de cables, mdems,
Metodologa Top Down

Marcos Huerta S.
172
servidores, hosts, almacenaje de backup, etctera. Trabajo con su cliente durante las
etapas tempranas del proyecto de diseo de red de asegurarse el equipo ser colocado
en cuartos de computadora que tienen acceso de llave de tarjeta y/o guardias de
seguridad. Los cuartos de computadora tambin deberan ser equipados con
suministros de energa uninterruptible, alarmas de incendios, mecanismos de
disminucin de fuego, y sistemas de retiro de agua. Para proteger el equipo de
terremotos y vientos fuertes durante tormentas, el equipo debera ser instalado en rack
que atan al suelo o pared.

Como la seguridad fsica es un requerimiento tan obvio, es fcil olvidar de planear para
ello, pero nunca debera ser pasado por alto o considerado menos importante que otros
mecanismos de seguridad. Como mencionado en el "Topologas de Diseo de Red
Seguras"seccin de La parte 5, usted debera comenzar a trabajar con su cliente el
diseo a principios del proyecto del diseo de asegurarse que el equipo crtico ser
protegido. La planificacin para la seguridad fsica debera comenzar durante las fases
tempranas del proceso de diseo top down por si haya tiempos de criticos para construir
o instalar mecanismos de seguridad.

Autenticacin
La autenticacin se identifica quin solicita servicios de red. El termino autenticacin por
lo general se refiere a la autenticacin de usuarios, pero esto puede referirse a la
autenticacin de dispositivos o procesos de software tambin. Por ejemplo, algunos
protocolos de enrutamiento soportan la autenticacin de ruta, por lo cual un router debe
pasar algunos criterios antes de que otro router acepte sus actualizaciones de
enrutamiento.

La mayor parte de polticas de seguridad declaran que para tener acceso a una red y
sus servicios, un usuario debe entrar un login ID y password que estos seran
autenticados por un servidor de seguridad. Para maximizar la seguridad, las
contraseas (dinmicas) one-time pueden ser usadas. Con sistemas de contrasea one-
time, la contrasea de un usuario siempre se cambia. Este a menudo es llevado a cabo
por una tarjeta de seguridad, tambin llamada un Smartcard. Una tarjeta de seguridad
es un dispositivo fsico de tamao de una tarjeta de crdito. El usuario escribe a
mquina un nmero de identificacin personal (PIN) en la tarjeta. (El PIN es un nivel
inicial de la seguridad que simplemente da el permiso al usuario de usar la tarjeta.) la
tarjeta proporciona una contrasea one-time que es usada para tener acceso a la red
corporativa durante un tiempo limitado. La contrasea es sincronizada con un servidor
central de tarjeta de seguridad que reside en la red. Las tarjetas de seguridad son
comnmente usados por teleoperadores y usuarios mviles. Ellos no son por lo general
usados para el acceso de LAN.
Metodologa Top Down

Marcos Huerta S.
173

La autenticacin est tradicionalmente basada en una de tres pruebas:

Algo el usuario sabe. Este por lo general implica el conocimiento de un secreto
nico que es compartido por los partidos de autenticacin. A un usuario, este
secreto aparece como una contrasea clsica, un nmero personal de identificacin,
o una llave criptogrfica privada.
Algo el usuario tiene. Este por lo general implica la posesin fsica de un artculo
que es nico al usuario. Los ejemplos incluyen tarjetas de token de contrasea,
tarjetas de seguridad, y llaves de hardware.
Algo el usuario es. Este implica la verificacin de una caracterstica fsica nica del
usuario, como una huella digital, modelo de retina, voz, o cara.

Muchos sistemas usan dos factores de autenticacin, que requiere que un usuario tenga
dos pruebas de la identidad. Un ejemplo es un sistema de control de acceso que
requiere una tarjeta de seguridad y una contrasea. Con la autenticacin de dos
factores, un compromiso de un factor no conduce a un compromiso del sistema. Un
atacante podra aprender una contrasea, pero la contrasea es intil sin la tarjeta de
seguridad. A la inversa, si la tarjeta de seguridad es robada, no puede ser usado sin la
contrasea.

Autorizacin
Mientras que la autenticacin controla quin puede tener acceso a recursos de red, la
autorizacin dice lo que ellos pueden hacer despus de que ellos han tenido acceso a
los recursos. La autorizacin concede privilegios a procesos y usuarios. La autorizacin
deja una partes de control de administrador de seguridad de una red (por ejemplo,
directorios y archivos en servidores).

La autorizacin vara de usuario a usuario, en parte segn departamento de un usuario
o funcin de trabajo. Por ejemplo, una poltica podra declarar que los empleados de
Recursos Humanos solo deberan ver archivos de sueldo para la gente que ellos no
manejan.

Los expertos de seguridad recomiendan el uso del principio de menor parte de privilegio
en la realizacin de la autorizacin. Este principio est basado en la idea que deberan
dar a cada usuario slo los derechos minimos necesarios de realizar una cierta tarea.
Por lo tanto, un mecanismo de autorizacin debera dar a un usuario slo los permisos
de acceso mnimos que son necesarios. Explcitamente el listado de las actividades
autorizadas de cada usuario con respecto a cada recurso es difcil, entonces las
Metodologa Top Down

Marcos Huerta S.
174
tcnicas son usadas para simplificar el proceso. Por ejemplo, un administrador de la red
puede crear grupos de usuario para usuarios con los mismos privilegios.

Contabilizando (de Revisin)
Para analizar con eficacia la seguridad de una red y responder a incidentes de
seguridad, los procedimientos deberan ser establecidos para coleccionar datos de
actividad de red. El recogimiento de datos es llamado contabilizando o revisando.

Para redes con polticas de seguridad estrictas, los datos de auditora deberan incluir
todas las tentativas de conseguir la autenticacin y la autorizacin por cualquier
persona. Es sobre todo importante registrar "annimo" o acceso "de invitado" a
servidores pblicos. Los datos tambin deberan registrar todas las tentativas por
usuarios para cambiar sus derechos de acceso.

Los datos collectados deberan incluir nombres de host y usuario para entrada al
sistema y tentativas de procedimiento de logout, y previos y nuevos derechos para un
cambio de derechos de acceso. Cada entrada en el log audit debera ser registrada.

El proceso de auditora no debera guardar contraseas. El recogimiento de contraseas
crea un potencial para una violacin de seguridad si tienen acceso incorrectamente a los
archivos de auditora. (Ni las contraseas correctas ni incorrectas deberan ser
guardadas. Una contrasea incorrecta a menudo se diferencia de la contrasea vlida
por slo un carcter solo o la transposicin de carcteres.)

Una extensin adicional de la revisin es el concepto de la evaluacin de seguridad.
Con la evaluacin de seguridad, la red es examinada desde dentro por profesionales,
entrenados en las vulnerabilidades explotadas por invasores de red. La parte de
cualquier poltica de seguridad y procedimiento de auditora debera ser evaluaciones
peridicas de las vulnerabilidades en una red. El resultado debera ser un plan
especfico para corregir carencias, que pueden ser tan simples como el reciclaje del
personal.

Encriptacin de Datos
La encriptacin es un proceso que rmueve datos para protegerlo de ser ledo por
alguien. Un dispositivo de encriptacin encripta datos antes de colocarlo en una red. Un
dispositivo de desencriptacin descifra los datos antes de pasarlo a una aplicacin. Un
router, el servidor, el sistema final, o el dispositivo dedicado pueden actuar como el
dispositivo de desciframiento o una encriptacin. Los datos que son encriptados son
llamados datos cifrados (o datos simplemente criptografiados). Los datos que no son
encriptados son llamados el texto sin formato o el texto claro.
Metodologa Top Down

Marcos Huerta S.
175
La encriptacin es una caracteristica de seguridad til para proporcionar la
confidencialidad de datos. Esto tambin puede ser usado para identificar al remitente de
datos. Aunque la autenticacin y la autorizacin tambin debieran proteger la
confidencialidad de datos e identificar a remitentes, la codificacin es una caracteristica
de seguridad bueno para poner en prctica por si los otros tipos de la seguridad fallen.

Hay restricciones de performance asociadas con la encriptacin, sin embargo, como
mencionado en "la seccin" de Restricciones de Seguridad de Anlisis. La encriptacin
debera ser usada cuando un cliente ha analizado los riesgos de seguridad y ha
identificado consecuencias severas si los datos no son confidenciales y la identidad del
remitentes de datos no es garantizada. En redes internas y redes que usan el Internet
simplemente para browsing de web, correo electrnico, y transferencia de archivo, la
encriptacin no es por lo general necesaria. Para organizaciones que conectan sitios
privados va el Internet, usando redes privada virtual (VPN), se recomienda que la
encriptacin proteja la confidencialidad de los datos de la organizacin.

La encriptacin tiene dos partes:
Un algoritmo de encriptacin es un juego de instrucciones para revolver y no
revolver datos.
Una llave de encriptacin es un cdigo usado por un algoritmo para revolver y no
revolver datos.

Los nios a veces juegan con la encriptacin usando un algoritmo simple como "el
hallazgo la letra en la fila superior y usan la letra en la fila de fondo en cambio," y una
llave que podra parecer algo como la tabla nro. 17 siguiente:

Tabla Nro.17

En este ejemplo, LISA es encriptada como WTFI. La llave muestra slo maysculas,
pero hay muchas otras posibilidades tambin, incluso minsculas, dgitos, etctera. La
mayor parte de algoritmos son ms complejos que el que en el ejemplo de nios para
evitar necesidad mantener una llave que incluye un valor para cada carcter posible.

El objetivo de encriptar es que aun si el algoritmo es conocido, sin la llave apropiada, un
intruso no puede interpretar el mensaje. Este tipo de llave es llamado una llave secreta.
Cuando tanto el remitente como receptor usan la misma llave secreta, es llamado una
llave simtrica. El Estndar de Encriptacin de Datos (DES) es el mejor ejemplo
Metodologa Top Down

Marcos Huerta S.
176
conocido de un sistema clave simtrico. La encriptacin de DES est disponible para la
mayor parte de routers y muchas realizaciones de servidor.

Aunque las llaves secretas sean razonablemente simples de poner en prctica entre dos
dispositivos, como el nmero de dispositivos aumentan, el nmero de llaves secretas
aumentan, que pueden ser difciles de poder manejra. Por ejemplo, una sesin entre
Estacin A y Estacin B usa una llave diferente que una sesin entre Estacin A y
Estacin C, o una sesin entre Estacin B y Estacin C, etctera. Las llaves asimtricas
pueden solucionar este problema.

Encriptacin de Clave Pblica/privada
La encriptacin de clave pblica/privada es el mejor ejemplo conocido de un sistema
clave asimtrico. Con sistemas claves pblicos/privados, cada estacin segura en una
red tiene una llave pblica que es abiertamente publicada o fcilmente determinada.
Todos los dispositivos pueden usar la llave pblica de una estacin para encriptar datos
para enviar a la estacin.

La estacin de recepcin descifra los datos usando su propia llave privada. Como
ningn otro dispositivo tiene la llave privada de la estacin, ningn otro dispositivo puede
descifrar los datos, entonces la confidencialidad de datos es mantenida. (Los
matemticos y los informticos han escrito programas de computadora que identifican
nmeros especiales para usar para las llaves de modo que el mismo algoritmo pueda
ser usado tanto por el remitente como por receptor, aunque las llaves diferentes sean
usadas.) la Figura Nro. 32 muestra un sistema clave pblico/privado para la
confidencialidad de datos.

Figura Nro.32. Sistema Clave Pblico/privado para Contrato de un seguro de
Confidencialidad de Datos


Los sistemas claves pblicos/privados proporcionan tanto caracteristicas de
autenticacin como confidencialidad. Usando llaves asimtricas, un recipiente puede
verificar que un documento realmente vino del usuario o host del cual parece venir. Por
ejemplo, suponga que usted enva sus declaraciones de renta a la Hacienda Pblica
Metodologa Top Down

Marcos Huerta S.
177
(IRS). El IRS tiene que saber que las vueltas vinieron de usted y no de un tercero hostil
que quiere hacerlo parecer a usted deben ms que usted.

Usted puede codificar su documento o una parte de su documento con su llave privada,
que resulta en lo que es conocido como una firma digital. El IRS puede descifrar el
documento, usando su llave pblica, como mostrado en la Figura Nro.33. Si el
desciframiento es acertado, entonces el documento vino de usted porque nadie ms
debera tener su llave privada.

Figure Nro.33. Public/Private Key System for Sending a Digital Signature

La caracteristica de firma digital de llaves asimtricas puede ser usado junto con la
caracteristica para la confidencialidad de datos. Despus de codificar su documento con
su llave privada, usted tambin puede codificar el documento con la llave pblica del
IRS. El IRS descifra el documento dos veces. Si el resultado es datos de texto sin
formato, el IRS sabe que el documento vino de usted y que usted pens para el
documento ir al IRS y no alguien ms.

Algunos ejemplos de sistemas claves asimtricos incluyen el Rivest, Shamir, y Adleman
(RSA) estndar, el algoritmo clave pblico Diffie-Hellman, y el Estndar de Firma Digital
(DSS). El Cisco Systems, Inc usa el estndar DSS para certificar routers de puntos
durante el sistema de una sesin criptografiada. Los routers de punto usan el algoritmo
Diffie-Hellman para enviar la informacin en una llave secreta para usar y codificar
datos. Los datos actuales son codificados usando el algoritmo DES y la llave secreta.

Filtros de Paquete
Los filtros de paquete pueden ser establecidos en routers, firewall, y servidores para
aceptar o negar paquetes de direcciones particulares o servicios. El paquete filtra
autenticacin de aumento y mecanismos de autorizacin. Ellos ayudan a proteger
recursos de red de uso no autorizado, robo, destruccin, y desmentido de servicio (DoS)
ataques.

Una poltica de seguridad debera declarar si los filtros de paquete ponen en prctica un
o las otras de las polticas siguientes:
Metodologa Top Down

Marcos Huerta S.
178
Niegue tipos especficos de paquetes y acepte todo lo dems
Acepte tipos especficos de paquetes y niegue todo lo dems

La primera poltica requiere un entendimiento cuidadoso de amenazas de seguridad
especficas y puede ser difcil de poner en prctica. La segunda poltica es ms fcil
para poner en prctica y ms seguro porque el administrador de seguridad no tiene que
predecir futuros ataques para los cuales los paquetes deberan ser negados. La
segunda poltica es tambin ms fcil para probar porque hay un juego finito de usos
aceptados de la red. Hacer un trabajo bueno que pone en prctica la segunda poltica
requiere un entendimiento bueno de exigencias de red. El diseador de red debera
trabajar con el administrador de seguridad para determinar que tipos de paquetes
deberan ser aceptados.

Cisco pone en prctica la segunda poltica en sus filtros de paquete, que Cisco llama
listas de control de acceso (ACLs). Un ACL en un router o switch que dirige el Sistema
Operativo de redes Cisco (IOS) que el Software siempre hace que un implcito niegue -
toda la declaracin al final. Especfico aceptan declaraciones son tratados antes de que
los implcitos nieguen - toda la declaracin. (La declaracin es implcita porque el
administrador realmente no tiene que entrar en ello, aunque esto sea una idea buena de
entrar en ello para hacer el comportamiento de la lista ms obvio.)

Los ACLs le dejan controlar si el trfico de red es enviado o bloqueado en las interfaces
en un router o switch. Las definiciones de ACL proporcionan criterios que son aplicados
a paquetes que entran o salen de una interfaz. Los criterios tpicos son la direccin de
fuente de paquete, la direccin de destino de paquete, o el protocolo de capa superior
en el paquete.

Como Cisco IOS Software prueba un paquete contra cada declaracin de criterios en la
lista hasta que uno sea encontrado, ACLs debera ser diseado con cuidado para
proporcionar una buena interpretacin.

Estudiando el flujo de trfico, usted puede disear la lista de modo que la mayor parte
de paquetes emparejen las condiciones ms tempranas. Menos condiciones de
comprobar por paquete significan el mejor rendimiento. El consejo bueno para ACLs
debe pedir la lista con la mayor parte de declaraciones generales encima y las
declaraciones ms especficas en el fondo, con la ltima declaracin que es general,
implcito niegan - toda la declaracin.



Metodologa Top Down

Marcos Huerta S.
179
Firewalls
Como dr ha hablado en la Parte 5, un firewall es un dispositivo que hace cumplir
polticas de seguridad en el lmite entre dos o ms redes. Un firewall puede ser un router
con ACLs, una caja de hardware dedicada, o software que corre en un ordenador
personal o sistema UNIX. Los firewall son sobre todo importantes en el lmite entre la
red de empresa y el Internet.

Un firewall tiene un conjunto de reglas que especifican qu trfico debera ser permitido
o negado. Un firewall con filtro de paquete esttico mira paquetes individuales y es
optimizado para simplicidad de configuracin y velocidad. Un firewall stateful puede
rastrear sesiones de comunicacin y ms con inteligencia permitir o negar el trfico. Por
ejemplo, un firewall stateful puede recordar que un cliente protegido inici una peticin
para descargar datos de un servidor de Internet y permitir datos de regreso para aquella
conexin. Un firewall stateful tambin puede trabajar con protocolos, como activo (modo
de puerto) FTP, que requieren que el servidor abra tambin una conexin al cliente.

Otro tipo de firewall es un firewall por poderes. Los firewall por poderes son el tipo ms
avanzado del firewall sino tambin el menos comn. Un firewall por poderes acta como
un intermediario entre hosts, interceptando unos o todo el trfico de aplicacin entre
clientes locales y servidores exteriores. Los firewall por poderes examinan paquetes y
soportan el rastreo de stateful de sesiones. Estos tipos de firewall pueden bloquear el
trfico malvolo as como el contenido que es juzgado inaceptable.

Sistemas de Deteccin de Intrusin
Un sistema de deteccin de intrusin (IDS) descubre acontecimientos malvolos y
notifica a un administrador, usando el correo electrnico, la paginacin, o el registro del
acontecimiento. El IDSs tambin puede funcionar estadstico y anlisis de anomala.
Algn IDSs puede hacer un informe a una base de datos central que correlaciona la
informacin de sensores mltiples para dar a un administrador una vista total de la
seguridad de tiempo real de una red.

Algunos avances de los dispositivos IDS tambin pueden bloquear dinmicamente el
trfico aadiendo reglas a un firewall. (Esta caracteristica es algo peligroso y
probablemente debera ser evitado porque los atacantes podran comprometer el IDS y
cambiar las reglas en el firewall para permitir su trfico.)

Hay dos tipos de IDSs: reciba IDSs y conecte a la red IDSs. Un host IDS reside en un
host individual y monitorea aquel host. IDS de red supervisa todo el trfico de red que
esto puede ver, mirando para firmas predefinidas de acontecimientos malvolos. IDS de
red a menudo es colocado en una subred que est directamente relacionada con un
Metodologa Top Down

Marcos Huerta S.
180
firewall de modo que esto pueda supervisar el trfico que ha sido permitido y busca la
actividad sospechosa.

Diseo de Seguridad de Modularizada
Los expertos de seguridad promueven la defensa de seguridad en principio de
profundidad. Este principio declara que la seguridad de red debera ser multicapas con
muchas tcnicas diferentes usadas para proteger la red. Ningn mecanismo de
seguridad puede ser garantizado para resistir cada ataque. Por lo tanto, cada
mecanismo debera tener un mecanismo de reserva. Este es a veces llamado el
acercamiento de cinturn-y-ligas. Tanto un cinturn como las ligas son usados para
asegurar aquella permanencia de pantaln. Un ejemplo conectado a una red debe usar
un firewall dedicado para limitar el acceso con recursos y un router que filtra paquete
que aade otra lnea de la defensa.

Como la parte de poner en prctica defensa de seguridad en profundidad, el diseo de
seguridad debera ser modular. Mtodos mltiples deberan ser diseados y aplicados a
partes diferentes de la red, si ello pueden ser la conexin a Internet, la infraestructura
inalmbrica, o el componente de acceso remoto. Los Sistemas de Cisco proveen un
acercamiento modular con su SAFE Blueprint. El SAFE Blueprint proporciona un diseo
de seguridad de mejores prcticas y pautas de realizacin para cada mdulo en el
Modelo de Red de Compuesto de Empresa Cisco que fue descrito en La parte 5. Para
ms informacin en el SAFE Blueprint, refirase a
http://www.cisco.com/warp/public/779/largeent/issues/security/safe.html.

En general, la utilizacin de un acercamiento modular al diseo de seguridad es un
modo bueno de ganar un entendimiento de los tipos de soluciones que deben ser
seleccionadas para poner en prctica la defensa de seguridad en profundidad. Las
siguientes secciones cubren la seguridad para los mdulos siguientes o componentes
de una red de empresa:
Conexiones de Internet.
Acceso remoto y redes privadas virtuales (VPNs).
Servicios de red y direccin.
El servidor de granja y servicios de usuario.
Redes inalmbricas.

El desarrollo de estrategias de seguridad que pueden proteger todas las partes de una
red complicada teniendo un efecto limitado en la facilidad de uso e performance es una
de las tareas ms importantes y difciles relacionadas para conectar al diseo de red. El
diseo de seguridad es desafiado por la complejidad y la naturaleza porosa de redes
modernas que incluyen a servidores pblicos para el comercio electrnico, extranet
Metodologa Top Down

Marcos Huerta S.
181
conexiones para socios de negocio, y servicios de acceso remoto para usuarios que
alcanzan la red de casa, sitios de cliente, cuartos del hotel, cafeteras de Internet,
etctera. Para ayudarle a manejar las dificultades inherentes en el diseo de la
seguridad de red para redes complejas, esta seccin ensea un acercamiento
sistemtico, top down que se concentra en planificacin y desarrollo de poltica antes de
la seleccin de productos de seguridad.

El objetivo de esta seccin es ayudarle a trabajar con sus clientes de diseo de red en el
desarrollo de estrategias de seguridad eficaces, y ayudarle a seleccionar las tcnicas
correctas para poner en prctica las estrategias. Esta seccin describe los pasos para
desarrollar una estrategia de seguridad y cubre algunos principios de seguridad bsicos.

La seccin presenta un acercamiento modular al diseo de seguridad que le dejar
aplicar soluciones acodadas que protegen una red desde muchos puntos de vista. Las
secciones finales describen mtodos para asegurar los componentes de una red de
empresa tpica que son ms un peligro, incluso conexiones de Internet, redes de acceso
remoto, servicios de usuario, y redes inalmbricas.

La seguridad debera ser considerada durante muchos pasos del proceso de diseo de
red top dwon. Este no es la unica seccin que cubre la seguridad. La parte 2,
"Analizando Objetivos Tcnicos y Restricciones," activos de red hablados que se
identifican, analizando riesgos a la seguridad, y desarrollando requerimientos de
seguridad. La seccin 5, "Diseando una Topologa de Red," topologas de red seguras.

Asegurar Conexiones de Internet
Las conexiones de Internet deberan ser aseguradas con un conjunto de mecanismos de
seguridad que se superponen, incluso firewall, filtros de paquete, seguridad fsica,
troncos de auditora, autenticacin, y autorizacin. Los routers de Internet deberan ser
equipados con filtros de paquete para prevenir DoS y otros ataques. Estos filtros
deberan ser sostenidos con filtros adicionales colocados en dispositivos de firewall. La
conexin de Internet debera ser con cuidado supervisada.

La red y el host IDSs deberan supervisar subredes, routers, y servidores Accesibles a
Internet para descubrir signos de ataque o actividad de red malvola e identificar
violaciones acertadas en la red protegida.

Una regla buena para redes de empresa consiste en que la red debera tener salida bien
definida y puntos de entrada. Una organizacin que tiene slo una conexin de Internet
puede manejar problemas de seguridad de Internet ms fcilmente que una
organizacin que tiene muchas conexiones de Internet. Algunas organizaciones muy
Metodologa Top Down

Marcos Huerta S.
182
grandes requieren ms de una conexin de Internet para performance y motivos de
despido, sin embargo. Este es fino mientras las conexiones son manejadas y
supervisadas. Los departamentos o los usuarios que aaden conexiones de Internet sin
la coordinacin de ingenieros de red corporativos no deberan ser tolerados.

Un riesgo comn asociado con la conexin de Internet es amenazas de reconocimiento
del Internet, por lo cual un atacante intenta sondear la red y sus hosts para descubrir
redes accesibles, hosts, y servicios que corren en hosts expuestos, y desarrollar un
mapa. Para manejar el riesgo de tentativas de reconocimiento, los routers y los
dispositivos de firewall de la primera lnea deberan bloquear todas las conexiones
entrantes, excepto aquellos necesarias para alcanzar servicios especficos de servidores
pblicos o completar una transaccin comenzada por un cliente confiado. Los routers y
los firewall tambin deberan bloquear paquetes tpicamente usados para amenazas de
reconocimiento, como sonidos metlicos.

Seleccionando la encaminamiento de protocolos para la unin de Internet y para
gestores de trfico que inyectan rutas de Internet en la red interior, usted debera
seleccionar un protocolo que ofrece la autenticacin de ruta como el Protocolo de
Enrutamiento de Informacin (RIP) la versin 2, el Primero la Ruta libre mas Corta
(OSPF), Protocolo de Enrutamiento de Gateway Interior Mejorado(EIGRP), o Protocolo
de Entrada Fronterizo, la versin 4 (BGP4). Esttico y encaminamiento por defecto es
tambin una opcin buena porque con esttico y enrutamiento por defecto no hay
ningunas actualizaciones de enrutamiento que podran estar comprometidas.

Asegurando la conexin de Internet, la Traduccin de Direccin de Red (NAT) puede ser
usada para proteger el esquema de direccionamiento de la red interna. Como se ha
hablado en la Parte 6, NAT esconde nmeros de red internos desde fuera de redes.
NAT traduce nmeros de red internos cuando fuera del acceso es requerido

Asegurando Servidores Pblicos
La mayor parte de compaas tienen una necesidad de servidores pblicos que son
accesibles desde el Internet. stos incluyen el World Wide Web, Protocolo de
Transferencia de Archivos (FTP), Sistema de Nombre de Dominio (DNS), correo
electrnico, y servidores de e-comercio. Los servidores pblicos deberan ser colocados
en una zona de red desmilitarizada (DMZ) que es protegida de otras redes va firewall.
Se hablaron de redes de DMZ ms detalladamente en la Parte5.

Proteger servidores pblicos de ataques DoS, los administradores de servidor deberan
usar sistemas operativos confiables y aplicaciones que han sido parchadas con la
seguridad ms reciente fija. La Adicin del Interfaz de Gateway Comn (CGI) u otros
Metodologa Top Down

Marcos Huerta S.
183
tipos de scripts para servidores debera ser hecha con gran cuidado. Los scripts
deberan ser a fondo probadas para evitar una baja seguridad.
Los servidores pblicos deberan correr el software de firewall y ser configurados para la
proteccin de DoS. Por ejemplo, el servidor debera ser configurado para limitar el
nmero de conexiones que pueden ocurrir en un margen de tiempo particular. Los
servidores tambin deberan dirigir el software que puede examinar el contenido llevado
por protocolos de aplicacin de modo que el software pueda explorar, y posiblemente
eliminar, contenido peligroso como virus o cdigo mvil. (El cdigo mvil es el software
que puede ser transmitido a travs de una red y ejecutado en otro dispositivo.)

Si un cliente puede permitirse a dos servidores separados, los expertos de seguridad
recomiendan que servicios de FTP no corran en el mismo servidor de servicios web. Los
usuarios de FTP tienen ms oportunidades de leer y posiblemente cambiar archivos que
los usuarios de web. Un hacker podra usar el FTP para daar las pginas Web de una
compaa, as daando la imagen de la compaa y posiblemente comprometiendo el
comercio electrnico a base de web y otras aplicaciones. Los expertos de seguridad no
recomiendan nunca por permitir el acceso de Internet al Protocolo de Transferencia de
Archivos Trivial (TFTP) servidores, porque TFTP no ofrece ningunos caracteristica de
autenticacin.

Los servidores de correo electrnico han sido mucho tiempo una fuente para robos de
intruso, probablemente porque los protocolos de correo electrnico y las
implementaciones tienen alrededor mucho tiempo y los hackeres pueden entenderlos
fcilmente estos. Tambin, en su misma naturaleza, un servidor de correo electrnico
debe permitir el acceso de forastero. Para asegurar servidores de correo electrnico, los
administradores de red deberan quedarse informado en conocer los huecos y agujeros
de seguridad suscribindose a una listas de direcciones dedicadas a la informacin de
seguridad.

Los servidores DNS deberan ser controlados con cuidado y supervisados. La resolucin
de nombre a direccin es crtica a la operacin de cualquier red. Un atacante que puede
controlar con xito o hacerse pasar por un servidor DNS puede causar estragos en una
red. Los servidores de DNS deberan ser protegidos de ataques de seguridad por filtros
de paquete en routers y versiones del software DNS que incorporan caracteristicas de
seguridad.

Tradicionalmente, DNS no tena ningunas capacidades de seguridad. En particular, no
haba ningn modo de verificar la informacin devuelta en una respuesta DNS a una
pregunta. Un hacker podra secuestrar la pregunta y devolver una correlacin de nombre
a direccin falsificada. Las firmas digitales y otras caracteristicas de seguridad estn
Metodologa Top Down

Marcos Huerta S.
184
siendo aadidos al protocolo para dirigirse a esta cuestin y otras preocupaciones de
seguridad. Refirase a RFC 2535, "Extensiones de Seguridad de Sistema de Nombre de
Dominio," para ms informacin.

Asegurando Acceso Remoto y Redes Privadas Virtuales
Para soportar a usuarios mviles, muchas redes de empresa incluyen a servidores de
acceso de dialup, acceso remoto VPN concentradores, y entradas sitio a sitio de VPN.
Dialup y las conexiones VPN son transportados sobre redes pblicas, como la Red
Telefnica Conmutada (PSTN) y el Internet, as protegiendo estos componentes de
escuchar a escondidas es importante. La identidad spoofing de clientes remotos o sitios
es tambin posible, donde un atacante se hace pasar por un cliente legtimo y entra al
sistema de la red. Este puede pasar si un atacante roba las credenciales legitimas de un
usuario (como un dialup username y par de contrasea) o aprende las llaves de
autenticacin usadas en una conexin VPN.

Asegurando Redes Privadas Virtuales
Las organizaciones que usan VPNs para conectarse a sitios privados y usuarios finales
va una red pblica como el Internet deberan usar NAT, firewall, fuertes autenticacin, y
encriptacin de datos. Los sistemas operativos de cliente que se conectan va el VPN
deberan usar el firewall personal y el software de proteccin de virus. Es importante
proteger contra el compromiso de un cliente o sitio remoto que permite que un atacante
ataque con xito la red de empresa sobre el VPN. Un ejemplo es un cliente VPN que ha
estado comprometido por un Caballo de Troya que convierte el sistema de cliente en un
relevo. Tal ataque podra significar que cuando el cliente est conectado con la red de la
empresa va un acceso remoto de Internet VPN, el atacante puede conectarse al cliente
sobre el Internet, y luego el cliente se conecta a la red de la empresa protegida.

En topologas VPN, viajan los datos privados a travs de una red pblica, entonces la
encriptacin es obligatoria. La solucin ms comn para la encriptacin es usar el
Protocolo de Seguridad IP (IPSec), que es un Internet Engineering Task Force (IETF)
estndar que proporciona la confidencialidad de datos, la integridad de datos, y la
autenticacin entre puntos participantes en la capa IP. El IPSec proporciona un camino
seguro entre usuarios remotos y un VPN concentrador, y entre sitios remotos y un
gateway de sitio a sitio VPN.

Numerosos RFCs tratan con IPSec, as como muchos esbozos de Internet. Para
aprender IPSec mejor, las principales RFCs que usted debera leer son las que sigue:
RFC 2401, "Arquitectura de Seguridad para el Protocolo de Internet".
RFC 2402, "Cabecera de Autenticacin IP".
RFC 2406, "IP Encapsulacin de Carga til de Seguridad (ESP)".
Metodologa Top Down

Marcos Huerta S.
185
RFC 2408, "Asociacin de Seguridad de Internet y Protocolo de Direccin Clave
(ISAKMP)".

El IPSec permite a un sistema seleccionar protocolos de seguridad y algoritmos, y
establecer llaves criptogrficas. El Cambio de Llave de Internet (IKE) protocolo
proporciona la autenticacin de puntos de IPSec. Esto tambin negocia llaves IPSec
y asociaciones de seguridad. IKE usa las tecnologas siguientes:
DES. Codifica datos de paquete.
Diffie-Hellman. Establece un compartido, secreto, la llave de sesin.
Resumen de Mensaje 5 (MD5). Un algoritmo de autenticacin que certifica datos
del paquete.
Algoritmo de Hash Seguro (SHA). Un algoritmo de autenticacin que certifica
datos de paquete.
El RSA encripta nonces. Proporciona el rechazo.
Firmas de RSA. Proporciona no rechazo

Asegurando Servicios de Red y Direccin de Red
Para proteger servicios de red internas, es importante proteger dispositivos de
funcionamiento entre redes internas, como routers e switches. Usted debera tratar cada
dispositivo de red como un host de valor alto y endurecer (fuerza) ello contra intrusiones
posibles. Este implica prcticas comunes como el correr slo los servicios necesarios
mnimos y establecimiento de la confianza slo con compaeros autnticos. Por
ejemplo, un router no debera aceptar actualizaciones de enrutamiento de un router que
no ha sido certificado. Los protocolos de enrutamiento que soportar la autenticacin
deberan ser seleccionados, incluso la versin 2 de RIP, OSPF, EIGRP, y BGP4.
Esttico y rutas por defecto son tambin una opcin buena porque ellos eliminan la
necesidad de aceptar actualizaciones de enrutamiento.

Los login IDs al sistema y las contraseas deberan ser requeridos para tener acceso a
routers e switches, si el usuario tiene acceso al dispositivo va un puerto de consola o
va la red. Una contrasea de primer nivel puede ser usada para administradores que
simplemente tienen que comprobar el estado de los dispositivos. Una contrasea del
segundo nivel debera ser usada para administradores que tienen el permiso de ver o
cambiar configuraciones. Evite usar un protocolo no seguro como Telnet para tener
acceso a routers e switches sobre una red. Una mejor opcin es la Shell Segura (SSH).

Cuando los administradores (o hackeres que se hacen pasar por administradores) se
conectan a un router o switch, ellos no deberan ver el tpico conectar mensaje, que a
menudo dice que algo simple como "Bienvenidos a este router." En cambio, un router o
el switch deberan mostrar advertencias sobre el uso autorizado y la monitorear de toda
Metodologa Top Down

Marcos Huerta S.
186
la actividad en el dispositivo. Muchos expertos de seguridad recomiendan por conseguir
la ayuda de un abogado escribiendo el conectar mensaje.

Si el acceso de mdem a los puertos de consola de dispositivos de funcionamiento entre
redes es permitido, los mdems deben ser asegurados como la marcacin interna
estndar de mdems de usuario, y los nmeros de telfono deberan ser no inscritos y
sin relaciones al nmero (s) principal de la organizacin. Los nmeros de telfono
tambin deberan ser cambiados cuando hay volumen de ventas de personal.

Para clientes con numerosos routers e switches, un protocolo como el Terminal de
Acceso Sistema de Control de Acceso (TACACS) puede ser usado para manejar
nmeros grandes del routers y cambiar al usuario IDs y contraseas en una base de
datos centralizada. El TACACS tambin ofrece caracteristicas de revisin, que pueden
ser provechosos cuando un administrador de red inexperto trata de evitar la
responsabilidad de un misconfiguration que condujo a un incidente de seguridad.

Para proteger contra el misconfiguration de dispositivos por hackeres (o administradores
de red inexpertos), usted puede hacer cumplir la autorizacin en rdenes de
configuracin especficas. El TACACS y otros mtodos de autorizacin pueden ser
configurados para permitir a administradores slo especficos entrar a los comandos
arriesgados, como comandos de cambiar direcciones de IP o listas de control de
acceso. El uso de un proceso de control de cambio, centralizado tambin es
recomendado.

La limitacin del uso del Protocolo de Direccin de Red Simple (SNMP) debera ser
considerada en redes de empresa para las cuales los objetivos de seguridad pesan ms
que objetivos de manejabilidad. Una de las cuestiones principales con SNMP es el
conjunto de operacines , que permite que una estacin remota cambie datos de
configuracin y la direccin. Si SNMPv3 es usado, este no es como una preocupacin
grande, porque SNMPv3 soporta la autenticacin para el uso con el conjunto de
operacines y otras operaciones SNMP.

Los sistemas de direccin de red deberan ser sobre todo protegidos porque ellos
reciben sumamente datos confidenciales sobre red y configuracin de dispositivo de
seguridad. Adems, los sistemas de direccin de red estn a veces relacionados con
otros dispositivos sobre una red de direccin (de cinta) separada, que, sin el diseo
cuidadoso, podra proporcionar un camino alrededor de mecanismos de seguridad como
firewalls.

Metodologa Top Down

Marcos Huerta S.
187
Para minimizar el riesgo, los sistemas de direccin de red deberan ser colocados en su
propio DMZ detrs de un firewall. Ellos deberan correr un sistema operativo endurecido
que ha sido parchado con la ltima seguridad fija. Todos los servicios innecesarios
deberan ser desabilitados.

Como es el caso con routers e switches, los sistemas de direccin de red deben ser
protegidos de la personificacin de administradores, donde un atacante roba las
credenciales (usernames o contraseas) de un administrador. Para manejar el riesgo de
la personificacin de administrador, provea al administrador mecanismos de
autenticacin fuertes. Un ejemplo bueno es un sistema de contrasea de dos factores,
one-time basado en tarjetas de seguridad.

Asegurando a Servidor de Granja
El servidor de granja archivo de host, print, base de datos, y servidores de aplicacin
dentro de redes de campus y sucursales. Estos servidores a menudo contienen la
informacin ms sensible de una empresa, entonces ellos deben ser protegidos. Como
servidores tiene acceso un nmero grande de usuarios, la performance de red es por lo
general una cuestin crtica, que puede limitar la opcin de mecanismos de proteccin.
Sin embargo, los mtodos deberan ser desplegados para proteger contra el
compromiso de aplicaciones expuestas y acceso no autorizado a datos. La red y el host
IDSs deberan ser desplegados para supervisar subredes y servidores individuales para
descubrir signos de ataques y confirmar violaciones acertadas.

Cuando los servidores de una granja de servidor estn comprometidos, los atacantes
pueden usar a aquellos servidores para atacar a otros servidores. Para manejar este
riesgo, configure filtros de red que limitan la conectividad del servidor. En muchos casos,
un servidor no tiene ninguna necesidad de iniciar conexiones. Los establecimientos de
conexin generalmente vienen del cliente. Hay numerosas excepciones, sin embargo,
que puede ser programado en filtros. Por ejemplo, con activo (modo de puerto) FTP, el
servidor inicia una conexin. Tambin varias direccines de red, el nombramiento, la
posicin de recurso, y la autenticacin y los protocolos de autorizacin pueden requerir
que el servidor inicie una conexin. Como la parte de la red top down disean el
proceso, usted debera haber analizado el presente de protocolos en posiciones de
granja de servidor. (Ver Parte 3, "Caracterizando las redes Existentes" y Parte 4,
"Caracterizando el Trfico de Red" para ms informacin.) los datos que usted junt
pueden ayudarle a determinar qu protocolos un servidor tendr que permitir.

Maximizar la seguridad, tanto servidor como software de usuario final debera ser con
cuidado seleccionado y mantenido. Debera requerirse que servidor y administradores
de escritorio se quede corriente en cuanto a las ltimas bromas de hacker y virus. Los
Metodologa Top Down

Marcos Huerta S.
188
bugs de seguridad conocidos en sistemas operativos deberan ser identificados y
fijados. Adems, el software de aplicacin debera ser seleccionado basado en parte en
su adhesin a prcticas de programacin modernas, seguras. Con la creacin de
lenguajes de programacin de alto nivel safer y conciencia de programador creciente de
cuestiones de seguridad, muchas aplicaciones estn disponibles que son
razonablemente seguros. La mayor parte de software de reserva, que todava es usado
por muchos negocios, es vulnerable a ataques simples para derrotar su seguridad, sin
embargo.

Para clientes con requerimientos de seguridad rigurosas, las aplicaciones de servidor
podran incorporar la encriptacin. Este es adems de cualquier encriptacin de
cliente/servidor usada para proteger datos que viajan a travs de una red. Para proteger
contra el uso no autorizado de datos, los mtodos criptogrficos pueden proteger datos
en una unidad de disco. Por ejemplo, los datos en unidades de disco pueden ser
encriptados de modo que pueda ser ledo slo por la aplicacin apropiada.

Los archivos y otros servidores deberan proporcionar caracteristicas de autorizacin y
autenticacin. Las polticas de seguridad y los procedimientos deberan especificar
prcticas aceptadas en cuanto a contraseas: cuando ellos deberan ser usados, como
ellos deberan ser formateados, y como ellos pueden ser cambiados. En general, las
contraseas deberan incluir tantas letras como nmeros, ser al menos seis carcteres,
no ser una palabra comn, y ser cambiar a menudo.

En servidores, el conocimiento de contrasea de raz (o el equivalente non-UNIX)
debera ser limitado con unas personas. El invitado considera debera ser evitado de ser
posible. Los protocolos que apoyan el concepto de confianza en otros hosts deberan
ser usados con la precaucin. (Los ejemplos incluyen rlogin y rsh en sistemas UNIX.) los
hosts que permiten cuentas de invitado y soporte confiaron que los hosts deberan ser
aislados de otros hosts de ser posible.

El Kerberos es un sistema de autenticacin que proporciona la seguridad de usuario a
hosts para protocolos de nivel de aplicacin como el FTP y Telnet. De ser solicitado por
la aplicacin, Kerberos tambin puede proporcionar la encriptacin. El Kerberos confa
en una base de datos clave simtrica que usa un centro de distribucin clave (KDC) en
un servidor Kerberos.

Asegurando Servicios de Usuario
Una poltica de seguridad debera especificar qu aplicaciones son permitidas correr en
ordenadores personales conectados a una red y restringir descargar de aplicaciones
desconocidas del Internet u otros sitios. La poltica de seguridad tambin debera
Metodologa Top Down

Marcos Huerta S.
189
requerir que los ordenadores personales tengan el firewall personal y el software de
antivirus instalado. Los procedimientos de seguridad deberan especificar como este
software es instalado y guardado corriente.

Los usuarios deberan ser animados a salir de sus sesiones con los servidores cuando
se retiran de sus escritorios durante perodos largos del tiempo, y apagar sus mquinas
dejando el trabajo, proteger contra la gente no autorizada que se acerca a un sistema y
tiene acceso a servicios y aplicaciones. Los procedimientos de fin de registro
automticos tambin pueden ser desplegados automticamente el procedimiento de fin
de registro una sesin que no ha tenido ninguna actividad para el periodo del tiempo.

Un otro aspecto de asegurar la parte de usuario final de una red asegura que los
usuarios conecten computadoras slo permitidas u otros dispositivos a los interfaces de
LAN en sus oficinas. En particular, una rea que concierne al usuarios que conecta
puntos de acceso inalmbricos que no son correctamente asegurados. Estos puntos de
acceso no autorizados son a veces llamados puntos de acceso de pcaro.
La seguridad para redes inalmbricas, se hablan ms detalladamente en la siguiente
seccin, no debera ser dejada a usuarios finales. Debera ser con cuidado planeado y
puesto en prctica y no comprometido por usuarios que instalan sus propios puntos de
acceso inalmbricos.

Cisco y otros vendedores soportan un estndar IEEE llamado 802.1X, que proporciona
la seguridad a base de puerto en puertos de switches. Con 802.1X permite en un puerto
de switch, ningn dispositivo puede conectarse a la red sin la primera utilizacin 802.1X
para certificar. Este es un mtodo para asegurar que un usuario no instala un dispositivo
desconocido, como un punto de acceso inalmbrico. (Con este uso de 802.1X, esto es
el punto de acceso que es certificado. Otro uso de 802.1X debe certificar dispositivos de
cliente inalmbricos, como ordenadores porttiles. Cuando una infraestructura
inalmbrica legtima est en el lugar, 802.1X es ya no necesario en los puertos que
conectan puntos de acceso conocidos, pero esto puede ser usado para certificar a
usuarios inalmbricos, como fue hablado ms tarde en el "802.1X con la seccin" de
Protocolo de Autenticacin Extensible de este captulo.)

Asegurando Redes Inalmbricas
Las redes inalmbricas ganan la popularidad extendida en redes de campus de
empresa, en sucursales, y en Ministerios de los asuntos interiores. La mayor parte de
organizaciones soportan los aumentos de productividad y satisfaccin de empleado que
ofertas conectadas a una red inalmbricas, pero al mismo tiempo estn preocupados
por los riesgos a la seguridad, que ellos pueden ser. En aos recientes, los agujeros
deslumbrantes han sido descubiertos en los mtodos tpicos usados para la seguridad
Metodologa Top Down

Marcos Huerta S.
190
inalmbrica, causando el desarrollo de nuevos mtodos y modelos para proporcionar la
seguridad en redes inalmbricas. Esta seccin cubre algunas pautas de diseo totales
primero y luego incluye la informacin en los dos temas siguientes:
Autenticacin en redes inalmbricas
Privacidad de datos en redes inalmbricas

Como mencionado en la Parte 5, es mejor colocar LANs inalmbricos (WLANs) en su
propia subred y su propio VLAN. Este simplifica la direccin para estaciones que vagan
y tambin mejora la direccin y la seguridad. El cuidado de todos los clientes
inalmbricos en su propia subred hace ms fcil para establecer filtros de trfico para
proteger a clientes cableados de un ataque lanzado en la red inalmbrica. Para
maximizar la flexibilidad vagabunda, todo WLANs puede ser una simple VLAN y la
subred de IP, de modo que no haya ninguna necesidad de recuperar una nueva
direccin de IP moviendo de una rea al otro. Para maximizar la seguridad, sin
embargo, puede ser ms sabio subdividir el WLAN en VLANs mltiple y subredes de IP.

Tenga en mente que los requerimientos de seguridad para usuarios inalmbricos varan
con el tipo de usuario. Los invitados que visitan una empresa pueden necesitar el
acceso fcil al Internet, pero deberan ser impedidos tener acceso a la red de empresa.
No puede esperarse que estos invitados sepan una llave de encriptacin o tengan el
software VPN instalado. Este es diferente de los empleados que quieren el acceso
inalmbrico almorzando en la cafetera o encontrando en salas de conferencias
privadas. Podra esperarse que aquellos usuarios supieran una llave o tuvieran el
software de VPN corporativo-aprobado instalado. El uso de VLANs comienza a ser
practico aqu. Cuando usted entiende los tipos de usuario diferentes y donde ellos
podran navegar, usted puede dividir el WLAN en VLANs mltiple y aplicar polticas de
seguridad por separado para cada VLAN.

Usted debera poner en prctica listas de control de acceso en puntos de acceso
inalmbricos y en switches conectados y routers que llevan el trfico que provino de una
red inalmbrica. Las listas de control de acceso deberan permitir protocolos slo
especficos, de acuerdo con polticas de seguridad.

Debera requerirse que todos ordenadores portatiles inalmbricos (y cableados) tengan
el antivirus y el software de firewall personal. Ellos tambin deberan ser con regularidad
actualizados con los parches de seguridad de sistema operativo ms recientes. Segn
requeremientos de seguridad, usted tambin puede querer requerir que usuarios de
ordenador porttil inalmbricos corporativos usaran el software VPN para tener acceso a
la red de empresa. La seccin final en este captulo, "Usando el Software de VPN en
Metodologa Top Down

Marcos Huerta S.
191
Clientes Inalmbricos," habla la utilizacin IPSec VPN software como una opcin de
seguridad para redes inalmbricas

Resumen
Esta parte proporcion la informacin para ayudarle a seleccionar mtodos para
encontrar los objetivos de un cliente para la seguridad de red. La seguridad es una
preocupacin principal por la mayor parte de clientes debido al aumento de conectividad
de Internet y aplicaciones de Internet, y porque ms usuarios tienen acceso a redes de
empresa de sitios remotos y dispositivos inalmbricos. Tambin, al mismo tiempo
aquellas empresas se han hecho ms dependientes de sus redes, el nmero de ataques
contra redes ha aumentado.

Las tareas envuelta con la seguridad disear en paralelo las tareas implicadas con el
diseo de red total. Es importante analizar requerimientos, desarrollar polticas, y pensar
que restricciones antes de seleccionar tecnologas actuales y productos encontraban las
necesidades de seguridad de varios usuarios de una red de empresa. La red debera ser
considerada un sistema modular que requiere la seguridad para muchos componentes,
incluso conexiones de Internet, redes de acceso remoto, servicios de red, servicios de
usuario final, y redes inalmbricas. Para proteger la red, usted debera desarrollar
estrategias multicapas, procedimientos, y realizaciones que proporcionan la defensa de
seguridad en profundidad.

Parte 9. Desarrollando Estrategias de manejo de red
Esta seccin concluye la discusin del diseo de red lgico. El manejo de red es uno de
los aspectos ms importantes del diseo de red lgico. El manejo menudo es pasada
por alto durante el diseo de una red porque es considerado una cuestin operacional
ms bien que una cuestin de diseo. Sin embargo, si usted considera el manejo al
principio, usted puede evitar escalabilidad y problemas de performance que ocurren
cuando el manejo es aadida a un diseo despus de que el diseo es completo.

Un diseo de manejo de red bueno puede ayudar a una organizacin a conseguir
disponibilidad, performance, y objetivos de seguridad. Los procesos de manejo de red
eficaces pueden ayudar a una medida de organizacin como bien disean objetivos
estn siendo encontrados y ajustan parmetros de red si ellos no estn siendo
encontrados. El manejo de red tambin facilita encontrar objetivos de escalabilidad
porque esto puede ayudar a una organizacin a analizar el comportamiento de red
corriente, aplicar mejoras apropiadamente, y soluciones a fallas de cualquier problema
con mejoras. El objetivo de esta seccin es ayudarle a trabajar con su cliente el diseo
Metodologa Top Down

Marcos Huerta S.
192
de red en el desarrollo de estrategias de manejo, y ayudarle a seleccionar los
instrumentos correctos y productos para poner en prctica las estrategias.

Diseo de Manejo de Red
Esto es una idea buena de acercarse al diseo de manejo de red del mismo modo usted
se acerca a cualquier proyecto de diseo. Piense en escalabilidad, modelos de trfico,
formatos de datos, y compensaciones de costo/ventaja. Los sistemas de manejo de red
pueden ser muy caros. Ellos tambin pueden tener un efecto negativo en la performance
de red.

Preste la atencin al principio de incertidumbre Heisenberg, que declara que el acto de
observacin de algo puede cambiar lo que es observado. Algunos sistemas de manejo
de red causan colas en estaciones remotas en una base regular. La cantidad de trfico
causado por la cola puede ser significativa. Usted debera analizar los requerimientos de
su cliente para colas temporizadores y no arbitrariamente usar las faltas de un sistema
de manejo de red.

El trabajar con su cliente para entender que los recursos deberan ser monitoreados y la
mtrica para usar midiendo la performance de los dispositivos. Elija los datos para
reunirse con cuidado. El ahorro de demasiados datos puede causar un requerimiento
para una supercomputadora para tratar y almacenar los datos. Por otra parte, procure
no tirar tantos datos que usted es incapaz de usar los datos restantes para manejar la
red.

Planee el formato en el cual los datos deberan ser salvados con cuidado. Usted debera
tratar de usar formatos de datos de uso general. Asuma que los datos que usted
colecciona podran ser usados para aplicaciones diferentes que estos que usted est
pensando. Cuando Kathryn Cramer dice en sus Caminos de libro a Casa: Siete Caminos
a la Sabidura de la Mitad de la vida:

Permanezca abierto a posibilidades adems de lo que ha sido imaginado.

Manejo de Red Preventiva
Cuando ayude a su cliente a disear estrategias de manejo de red, usted debera
animar la prctica de majeo de red preventivo. Cuando ms compaas reconocen la
importancia estratgica de sus redes, ellos ponen ms nfasis en el manejo preventivo.
El medio de manejo preventivo que comprueba la salud de la red durante la operacin
normal para reconocer problemas potenciales, optimize la performance, y planee
mejoras.

Metodologa Top Down

Marcos Huerta S.
193
Las compaas que prctican manejo preventiva colecciona la estadstica y conduce
pruebas, como medidas de tiempo de respuesta, en una base rutinaria. La estadstica y
los resultados de prueba pueden ser usados para comunicar tendencias y conectar a la
red la salud a manejar y usuarios. Los administradores de red pueden escribir informes
mensuales o trimestrales que documentan la calidad del servicio de red que ha sido
entregado en el perodo pasado, medido contra objetivos de servicio. (Los objetivos de
servicio son definidos por el diseo de red: disponibilidad, tiempo de respuesta,
rendimiento, utilidad, etctera.)

Si su cliente de diseo de red planea implementar el manejo de red preventiva, que
usted debera animar, considere este objetivo diseando una estrategia de manejo de
red para su cliente. El manejo de red preventiva es deseable, pero puede requerir que
instrumentos de manejo de red y procesos para ser ms sofisticados que con el manejo
de red reactiva.

Procesos de Manejo de Red
La parte 2, "Analizando Objetivos Tcnicos y Restricciones," habl del anlisis de los
objetivos de un cliente para la manejabilidad de una red. En general, la mayor parte de
los clientes tienen una necesidad de desarrollar procesos de manejo de red que pueden
ayudarles a manejar la realizacin y la operacin de la red, diagnosticar y fijar
problemas, optimizar la performance, y planear actualizaciones.

La Organizacin Internacional para la Estandarizacin (ISO) define cinco tipos de
procesos de manejo de red:

Manejo de performance.
Manejo de fallas.
Manejo de configuracin.
Majeno de seguridad.
Manejo de la contabilidad.

Manejando la Performance
Segn la ISO, el manejo de performance permite la medida del comportamiento de la
red y eficacia. El manejo de performance incluye examinar la aplicacin de red y el
comportamiento de protocolo, anlisis de la accesibilidad, medicin de tiempo de
respuesta, y grabacin de cambios de ruta de red. El manejo de performance facilita
optimizar una red, encontrando acuerdos de nivel de servicio, y planeando para la
expansin. Monitorear el performance implica coleccionar datos, procesando algunos o
todos los datos, mostrando los datos procesados, y archivando algunos o todos los
datos.
Metodologa Top Down

Marcos Huerta S.
194

Dos tipos de performance deberan ser supervisados:
El manejo de performance de punta a punta mide la performance a travs de unas
redes. Esto puede medir disponibilidad, capacidad, utilizacin, tardanza, variacin
de tardanza, rendimiento, accesibilidad, tiempo de respuesta, errores, y el burstiness
del trfico.
El componente de performance mide la performance de enlaces individuales o
dispositivos. Por ejemplo, el rendimiento y la utilizacin en un segmento de red
particular pueden ser medidos. Adems, los routers y los switches pueden ser
supervisados para el rendimiento (paquetes por segundo), memoria y uso de CPU, y
errores.

El manejo de performance a menudo implica colas remotas de la red para probar
accesibilidad y tiempos de respuesta medida. Las medidas de tiempo de respuesta
consisten en enviar un paquete de ping y medir el tiempo de ida y vuelta (RTT) para
enviar el paquete y recibir una respuesta. El paquete de ping es realmente un Protocolo
de Mensaje de Control de Internet (ICMP) paquete de eco.

En redes muy grandes, la accesibilidad y los estudios de RTT pueden ser poco
prcticos. Por ejemplo, en una red con 10,000 dispositivos, algunos sistemas de manejo
de red comercialemente disponibles toman horas para colas de dispositivos, causa el
trfico de red significativamente, y salva ms datos que un humano puede tratar. El
trabajo con su cliente para reducir objetivos para hacer accesibilidad y RTT estudia si los
objetivos son poco realistas.

Otro proceso de manejo de performance usa analizadores de protocolo o instrumentos
SNMP para registrar cargas de trfico entre fuentes importantes y destinos. El objetivo
es documentar los megabytes por segundo entre puntos de sistemas autnomos, redes,
hosts, o aplicaciones. La documentacin de carga de trfico de fuente/destino es til
para planificacin de capacidad, solucin, y entendimiento qu routers deberan ser
puntos en el protocolo de enrutamiento que usan mirando detenidamente el sistema,
como el Protocolo de Entrada Fronterizo (BGP). Los datos de carga de trfico de
fuente/destino son tambin tiles si un acuerdo de nivel de servicio incluye
requerimientos de rendimiento.

El manejo de performance puede incluir procesos para registrar cambios de rutas entre
estaciones. El rastreo de cambios de ruta puede ser til para solucin de accesibilidad y
problemas de performance. Un camino de documentar cambios de ruta es usar
paquetes de eco de ICMP con la opcin de ruta de registro IP encendida. Est
consciente que encendiendo la opcin de ruta de registro podra sesgar medidas RTT,
Metodologa Top Down

Marcos Huerta S.
195
sin embargo. La opcin de ruta de registro hace que cada router ponga su direccin en
el campo de opciones de cabecera IP, que puede causar el tiempo extra de
procesamiento. (No olvide el principio de incertidumbre Heisenberg!) Planean hacer
estudios de cambio de ruta por separado de anlisis de RTT. Otro modo de estudiar
cambios de ruta es con el IP traceroute la orden. El Traceroute es algo no fiable, sin
embargo.

Manejo de Fallas
El manejo de fallas se refiere a descubrimiento, aislamiento, diagnosticar, y correccin
de problemas. Esto tambin incluye procesos para relatar problemas a usuarios finales y
gerentes, y rastrear tendencias relacionadas con problemas. En algunos casos, medios
de manejo de fallas que desarrollan workarounds hasta que un problema puede ser
resuelto.

Los usuarios de red esperan la rapida y confiable resolucin de fallas. Ellos tambin
esperan ser guardados en informes sobre problemas en curso y ser dado un margen de
tiempo para la resolucin. Despus de que un problema es resuelto, ellos esperan que
el problema sea probado y luego documentado en alguna clase de la base de datos que
rastrea problema. Una variedad de instrumentos existe para encontrar estos
requerimientos de manejo de fallas, incluso el monitoreo de instrumentos que alertan a
gerentes a problemas, analizadores de protocolo para resolucin de fallas, y software de
punto de ayuda para documentar problemas y alertar a usuarios de problemas. Los
instrumentos que supervisan estn a menudo basados en el SNMP y Monitoreo Remoto
(de RMON) estndares, que son cubiertos ms detalladamente ms tarde en esta
seccin.

La mayor parte de los sistemas operativos proporcionan un significado para el sistema y
corren procesos para reportar fallas a un administrador de red. Los dispositivos de Cisco
producen mensajes syslog a consecuencia de acontecimientos de red. Cada mensaje
syslog contiene un sello de tiempo, el nivel, y la instalacin. Los niveles de Syslog son
como sigue:

La emergencia (nivelan 0, el nivel ms severo)
La alarma (nivelan 1)
Crtico (nivelan 2)
El error (nivelan 3)
Advirtiendo (nivelan 4)
Notificando (nivele 5)
Informativo (nivelan 6)
Eliminando fallas (nivelan 7)
Metodologa Top Down

Marcos Huerta S.
196
Los mensajes de Syslog son enviados por defecto al router Cisco o switch de consola.
Los dispositivos de red pueden ser configurados para enviar mensajes syslog a una
estacin de manejo de red o un host de red remoto en el cual un analizador syslog es
instalado. Un analizador syslog aplica filtros y enva slo un subconjunto predefinido de
todos los mensajes syslog a una estacin de manejo de red. Este salva el ancho de
banda y tambin reduce la cantidad de informacin que un administrador de red debe
analizar.

Manejo de Configuracin
El manejo de configuracin ayuda a un administrador de la red a guardar la pista de
dispositivos de red y mantener la informacin en como los dispositivos son configurados.
Con el manejo de configuracin, un administrador de la red puede definir y salvar una
configuracin por defecto de dispositivos similares, modificar la configuracin por
defecto para dispositivos especficos, y cargar la configuracin en dispositivos.

El manejo de configuracin tambin deja a un gerente mantener un inventario de activos
de red, y hacer el registro de versin. El registro de versin se refiere a la pista que se
conserva de la versin de sistemas operativos o aplicaciones que corren en los
dispositivos de red. El inventario de activos de red tambin puede incluir la informacin
en la configuracin de hardware de dispositivos, como la cantidad de RAM, el tamao de
la memoria de Destello, y el tipo de tendido de cables que los dispositivos usan.

El manejo de configuracin facilita el manejo de cambio. En el pasado, los
administradores de red han gastado mucho tiempo la mayor parte de su tiempo
manejando configuraciones para nuevos empleados y cambios de configuracin para
empleados que se movieron. Anime a su cliente de diseo de red a usar protocolos de
configuracin dinmicos e instrumentos, como el Protocolo de Configuracin de Hosts
Dinmico (DHCP), liberar el tiempo de manejo para ms tareas estratgicas que
movimientos, aadir, y cambios. Un protocolo como el VLAN Trunking Protocolo (VTP)
es tambin beneficioso, porque esto automticamente actualiza switches con la
informacin VLAN.

Manejo de Seguridad
El manejo de seguridad deja a un administrador de la red mantener y distribuir
contraseas y otra autenticacin e informacin de autorizacin. El manejo de seguridad
tambin incluye procesos para generacin, distribucin, y almacenaje de llaves de
encriptacin. Esto tambin puede incluir instrumentos e informes para analizar un grupo
de routers y configuraciones de switches para la conformidad con estndares de
seguridad de sitio.

Metodologa Top Down

Marcos Huerta S.
197
Un aspecto importante del manejo de seguridad es un proceso para recogimiento,
almacenaje, y examen de logs de audit de seguridad. Los logs de audit deberan
documentar entradas al sistema y procedimientos de fin de registro (pero no salvar
contraseas) y las tentativas por la gente para cambiar su nivel de la autorizacin.

El recogimiento de datos de audit puede causar una acumulacin rpida de datos. El
almacenaje requerido puede ser minimizado guardando datos durante un perodo corto
del tiempo y resumiendo los datos. Un inconveniente al cuidado de menos datos, sin
embargo, consiste en que hace ms difcil de investigar incidentes de seguridad. La
compresin de los datos, en vez de guardar menos datos, es a menudo una mejor
solucin. Esto es tambin una idea buena de encriptar los logs de audit. Un hacker que
tiene acceso a los logs de audit puede causar mucho dao a una red si el logs de audit
no es encriptado. El hacker puede cambiar el logs sin ser descubierto y tambin depurar
la informacin sensible de logs.

Una variedad de instrumentos existe para mantenimiento de logs de seguridad, incluso
el Event Viewer en las maquinas de Windows 2000, syslog en UNIX y Cisco IOS
dispositivos, y revisin de C2 para informes de auditora detallada en sistemas UNIX. El
Departamento de defensa estadounidense defini la seguridad C2, incluso la revisin,
como la parte de sus pautas para la seguridad de computadora en los aos 1980.

Manejo de Contabilidad
El manejo de la contabilidad facilita la facturacin a base de uso, por lo cual los
departamentos individuales o los proyectos son cobrados para servicios de red. Incluso
en casos donde no hay ningn cambio de dinero, la contabilidad del uso de red puede
ser til para agarrar departamentos o individuos que "abusan" de la red. El abuso podra
ser intencional, por ejemplo, un empleado descontento o empleado antiguo que causa
problemas de red, o el abuso podra ser involuntario. (La gente que juega juegos de red
no tiene la intencin de daar la red, pero podra causar el trfico excesivo sin
embargo.) una razn prctica de rastrear crecimiento de trfico inesperado es de modo
que el trfico pueda ser considerado durante la siguiente fase que planea capacidad.

Arquitecturas de manejo de Red
Esta seccin habla de algunas decisiones tpicas que deben ser hechas seleccionando
una arquitectura de manejo de red. Una arquitectura de manejo de red consiste en tres
componentes principales:

Un dispositivo manejado es un nodo de red que colecciona y almacena la
informacin de manejo. Los dispositivos manejados pueden ser routers, servidores,
switches, puentes, hubs, sistemas finaesl, o impresoras.
Metodologa Top Down

Marcos Huerta S.
198
Un agente es el software de manejo de red que reside en un dispositivo manejado.
Un agente rastrea la informacin de manejo local y usa un protocolo como SNMP
para enviar la informacin a NMSs.
Un sistema de manejo de red (NMS) las aplicaciones de carreras para mostrar datos
de manejo, monitor y control manejaron dispositivos, y comunicarse con agentes. Un
NMS es generalmente una estacin de trabajo poderosa que ha sofisticado grfica,
memoria, almacenaje, y capacidades de procesamiento.

Figura Nro. 34 muestra la relacin entre dispositivos manejados, agentes, y NMSs.

Figura Nro.34. Una Arquitectura de Direccin de Red


Una arquitectura de manejo de red consiste en dispositivos manejados, agentes, y
NMSs arreglado en una topologa que cabe en la topologa de redes. Las tareas para
disear una arquitectura paralela de manejo de red de las tareas para disear unas
redes. El flujo de trfico y la carga entre NMSs y dispositivos manejados deberan ser
considerados. Una decisin debera ser tomada en cuanto a si el trfico de manejo fluye
en cinta (con otro trfico de red) o fuera de cinta (fuera del flujo de trfico normal). Una
topologa redundante debera ser considerada. Una decisin debera ser tomada en
cuanto a una topologa de manejo centralizada o distribuida.

En Cinta Contra Escucha de Cinta
Con la escucha en cinta, manejar la red de datos que viaja en las redes usando los
mismos caminos que el trfico de usuario. Este hace la arquitectura de manejo de red
mas fcil para desarrollarse, pero el resultado en este dilema que manejar la red de
datos son afectados por problemas de la red, hacindolo ms difcil a para solucionar los
Metodologa Top Down

Marcos Huerta S.
199
problemas. Es beneficioso ser capaz de usar instrumentos de manejo aun cuando las
redes son congestionadas, defectosas, o esta bajo un ataque de seguridad.

Con la escucha de cinta, monitoree a la red de datos de caminos diferentes que datos
de usuario. El NMSs y los agentes son enlazados va los circuitos que son separados de
las redes. El circuito puede usar dialup, ISDN, el Frame Relay, u otras tecnologas. El
separar circuito puede ser usado todo el tiempo o ellos pueden usarlo como la backup
slo cuando el camino de redes primario est roto.

La escucha de cinta hace disear la red ms compleja y cara. Para contener el costo, el
anlogo dialup lneas a menudo es usado para la reserva, ms bien que ISDN o
circuitos de Frame Relay. Otra restriccin con la escucha de cinta es que hay riesgos a
la seguridad asociados con la adicin de enlaces suplementarios entre NMSs y agentes.
Para reducir los riesgos, los enlaces deberan ser con cuidado controlados y aadidos
slo de ser absolutamente necesario. Para enlaces de mdem anlogos, el agente
debera usar un mecanismo de rellamada despus de que el NMS llama el agente.

Centralizado Contra Monitoreo Distribuido
En una arquitectura de monitoreo centralizado, todos NMSs residen en una rea de la
red, a menudo en un centro de operaciones de red corporativo (NOC). Los agentes son
distribuidos a travs de las redes y envan datos como ping y los SNMP responden a
NMSs centralizado. Los datos son enviados va caminos de cinta o en cinta.

El monitoreo distribuido significa que NMSs y los agentes son extendidos a travs de las
redes. Un arreglo distribuido jerrquico puede ser usado por cual se distribuy NMSs
envan datos a sofisticado centralitas NMSs usando un gerente de gerentes (MoM)
arquitectura. Un sistema centralizado que maneja NMSs distribuido es llamado a veces
paraguas NMS.

En una arquitectura de MoM distribuida, NMSs puede filtrar datos antes de enviarlo a las
estaciones centralizadas, haciendo reducir la cantidad de datos de manejo de red que
fluyen en las redes. Otra ventaja con el manejo distribuido consiste en que los sistemas
distribuidos a menudo pueden juntar datos aun cuando las partes de las redes fallan.

La desventaja con el manejo distribuido es que la arquitectura es compleja y difcil de
manejar. Es ms difcil controlar la seguridad, contener la cantidad de datos que son
coleccionados y almacenados, y guardar la pista de dispositivos de manejo. Una
arquitectura de manejo de red simple que no complica el trabajo de manejar la red es
generalmente una mejor solucin.

Metodologa Top Down

Marcos Huerta S.
200
La Seleccin de Protocolos para el Manejo de Red
Despus de que usted ha hablado de procesos de manejo de red de alto nivel con su
cliente, y ha desarrollado una arquitectura de manejo de red, usted puede tomar algunas
decisiones en cual protocolos de manejo de red recomendar a su cliente. Usted puede
encontrar las necesidades de la mayor parte de clientes recomendando a SNMP y
RMON. El Protocolo de Descubrimiento de Cisco (CDP) es tambin provechoso.

Protocolo de Manejo de Red Simple
El SNMP es apoyado por la mayor parte de NMSs comercial as como muchos
dispositivos conectados a una red incluso switches, routers, servidores, y estaciones de
trabajo. El SNMP ha ganado la popularidad extendida debido a su simplicidad y porque
es fcil poner en prctica, instalar, y usar. Tambin, cuando usado con sensatez, SNMP
no coloca la carga excesiva en la red. La interoperabilidad entre realizaciones SNMP de
vendedores diferentes puede ser conseguida con el esfuerzo mnimo porque SNMP es
tan simple.

El SNMPv3 debera suplantar gradualmente las versiones 1 y 2 porque esto ofrece la
mejor seguridad, incluso la autenticacin para proteger contra la modificacin de
informacin, y operaciones de juego seguras para la configuracin remota de
dispositivos SNMP-manejados.

El SNMPv2 fue introducido en 1993 y actualizado en 1996. El SNMPv2 aadi una
operacin de poner-bulto para la recuperacin eficiente de un bloque de parmetros
cuando datos crecientes de una tabla de parmetros. Sin embargo, ni SNMPv1 ni
SNMPv2 proporcionan caracteristicas de seguridad. Sin la autenticacin, es posible para
usuarios no autorizados para ejercer funciones de manejo de red de SNMP. Es tambin
posible para usuarios no autorizados para escuchar a escondidas la informacin de
manejo cuando esto pasa de sistemas manejados a un NMS. El SNMPv3 proporciona
caracteristicas de seguridad para ayudar a aliviar estos problemas. A causa de su
seguridad, SNMPv3 puede ser usado para ms que supervisar slo la estadstica de
red. Tambin puede ser usado para aplicaciones de control. La mayor parte de
vendedores apoyan SNMPv3. El Cisco comenz a apoyar SNMPv3 en IOS 12.0 (3) T.

El SNMP es especificado en tres juegos de documentos:

El RFC 2579 define mecanismos para describir y llamar parmetros que son
manejados con SNMP. Los mecanismos son llamados la estructura de la
informacin manejada o SMI.
El RFC 1905 define operaciones de protocolo para SNMP.
Metodologa Top Down

Marcos Huerta S.
201
Las Bases de Informacin de Direccin (MIBs) definen parmetros de direccin que
son accesibles va SNMP. Varios RFCs definen MIBs de tipos diferentes. El juego
principal de parmetros para la suite de Internet de protocolos es llamado MIB II y es
definido en RFC 1213. Los vendedores tambin pueden definir MIBs privado.

El SNMP tiene siete tipos de paquetes:
Consiga la Peticin. Enviado por un NMS a un agente para coleccionar un
parmetro de direccin.
Peticin Despus conseguir. Enviado por un NMS para coleccionar el siguiente
parmetro en una lista o tabla de parmetros.
Peticin de Poner-bulto. Enviado por un NMS para recuperar bloques grandes de
datos, como filas mltiples en una mesa (no en SNMPv1).
Respuesta. Enviado por un agente a un NMS en respuesta a una peticin.
Peticin de Juego. Enviado por un NMS a un agente para configurar un parmetro
en un dispositivo manejado.
Trampa. Enviado autnomamente (no en respuesta a una peticin) por un agente a
un NMS para notificar el NMS de un acontecimiento.
Informar. Enviado por un NMS para notificar otro NMS de la informacin en una
vista de MIB que es remota a la aplicacin de recepcin (no en SNMPv1,
arquitecturas de MoM de apoyos)

Bases de Informacin de Manejo (MIBs)
Un MIB almacena la informacin juntada por el agente de direccin local en un
dispositivo manejado. Cada objeto en un MIB tiene un identificador nico. Las
aplicaciones de manejo de red usan el identificador para recuperar un objeto especfico.
El MIB es estructurado como un rbol. Los objetos similares son agrupados bajo la
misma rama del rbol MIB. Por ejemplo, varios mostradores de interfaz son agrupados
bajo la rama de Interfaces del MIB II (RFC 1213) rbol.

El MIB II define los grupos siguientes de objetos manejados para redes de TCP/IP:

The System group
The Interfaces group
The Address Translation group
The IP group
The ICMP group
The TCP group
The UDP group
The EGP group
The Transmission group
Metodologa Top Down

Marcos Huerta S.
202
The SNMP group

Adems de MIBs estndar, como MIB II para objetos de TCP/IP, hay definiciones MIB
especficas de vendedor. Los vendedores pueden obtener su propia rama para la
definicin privada de un subrbol MIB y crear los objetos manejados de costumbre bajo
aquella rama. Para usar definiciones privadas de objetos manejados, un administrador
de red debe importar las definiciones en un NMS. Un router Cisco apoya MIB estndar II
objetos y objetos manejados privados introducidos por Cisco en una seccin privada del
rbol MIB. El Cisco MIB definiciones puede ser obtenido en
http://www.cisco.com/public/mibs.

Monitoreo Remoto (RMON)
El RMON MIB fue desarrollado por el IETF a principios de los aos 1990 para dirigirse a
defectos en MIBs estndar, que careci de la capacidad de proporcionar la estadstica a
enlace de datos y parmetros de capa fsicos.

El IETF al principio desarroll el RMON MIB para proporcionar la estadstica de trfico
de Ethernet y el diagnstico de falla. En 1994, las estadsticas de Token Ring fueron
aadidas.

Los agentes de RMON juntan la estadstica a la comprobacin por redundancia cclica
(CRC) errores, colisiones de Ethernet, errores de software de Token Ring, distribucin
de tamao de paquete, el nmero de paquetes, y el ratio de paquetes de broadcast. El
grupo de alarma de RMON deja a unos umbrales de juego de administrador de la red
para parmetros de red y configurar a agentes para entregar automticamente alarmas
a NMSs. El RMON tambin apoya paquetes de captura (con filtros de ser deseados) y
envo de los paquetes capturados a un NMS para el anlisis de protocolo.

El RMON entrega la informacin en nueve grupos de parmetros. Muestran en los
grupos para redes de Ethernet Mesa 9-1.









Metodologa Top Down

Marcos Huerta S.
203


Table 9-1. RMON Ethernet Groups
Group Description
Statistics Tracks packets, octets, packet-size distribution, broadcasts,
collisions, dropped packets, fragments, CRC/alignment errors,
jabbers, and undersized and oversized packets.
History Almacena muestras mltiples de valores del grupo de Estadstica
para la comparacin del comportamiento corriente de una
variable seleccionada a su interpretacin durante el perodo
especificado.
Alarms Permite umbrales que se ponen e intervalos de muestreo en
cualquier estadstica crear una condicin despertadora. Los
valores de umbral pueden ser un valor absoluto, una rebelin o el
valor decreciente, o un valor de delta
Hosts Proporciona una tabla para cada nodo activo que incluye una
variedad de la estadstica de nodo incluso paquetes y octetos en
y, multicast y paquetes de broadcast, y cuentas de error.
Host Top
N
Ampla la tabla de host para ofrecer un estudio definido por
usuario de la estadstica de host clasificada. La Cumbre de host
N es calculada en la localidad por el agente, a la baja de reducir
el trfico de red y tratar en el NMS.
Matrix Muestra la cantidad de trfico y el nmero de errores que ocurren
entre pares de nodos dentro de un segmento.
Filters Deja al usuario definir filtros de partido de paquete especficos y
hacer que ellos sirvan como una parada o mecanismo de
principio para la actividad de captura de paquete.
Packet
Capture
Los paquetes que pasan los filtros son capturados y almacenados
para el anlisis adicional. Un NMS puede solicitar que la captura
almacene en un buffer y analice los paquetes.
Events Deja al usuario crear entradas en un backbone de monitor o
generar trampas de SNMP del agente al NMS. Los
acontecimientos pueden ser iniciados por un umbral cruzado en
un contador o por una cuenta de partido de paquete.
Metodologa Top Down

Marcos Huerta S.
204
Para redes Token Ring hay nueve grupos que son realzados para incluir la capacidad de
rastrear, purgar, el error de software, y otro Control de Acceso de Medios (MAC) de
paquetes. Los grupos de Token Ring dejan a un manejador determinar el estado de
toque, qu estacin es el monitor activo, un dominio que falla, y una lista de estaciones
en la orden de toque. El grupo de Control de Configuracin de Estacin de Toque deja al
manejador quitar estaciones de un anillo usando la 802.5 quitar-estacin paquete de
MAC.

El RMON provee a administradores de la red de la informacin sobre la salud y la
performance del segmento de red en el cual el agente RMON reside. El RMON
proporciona una vista de la salud del segmento entero, ms bien que la informacin
especfica de dispositivo que muchos non-RMON SNMP agentes proporcionan. Las
ventajas de RMON son obvias, pero el alcance de la versin 1 (RMON1) RMON es
limitado porque esto se concentra en enlace de datos y parmetros de capa fsicos. El
IETF trabaja actualmente en un estndar RMON2 que se mueve ms all de la
informacin de segmento para suministrar la informacin en la salud y la performance de
aplicaciones de red y comunicaciones de punta a punta. El RMON2 es descrito en 2021
RFC. Mesa 9-2 muestra los grupos en RMON2.

Table 9-2. RMON2 Groups
Group Description
Protocol
Directory
Proporciona una lista de protocolos apoyados por el
dispositivo
Protocol
Distribution
Contiene la estadstica de trfico para cada protocolo
apoyado
Address
Mapping
Contiene la capa de red a la correlacin de direccin de
capa MAC
Network Layer
Host
Contiene la estadstica para el trfico de capa de red a o de
cada host
Network Layer
Matrix
Contiene la estadstica de trfico de capa de red para
conversaciones entre pares de hosts
Application
Layer Host
Contiene la estadstica para el trfico de capa de aplicacin
a o de cada host
Application
Layer Matrix
Contiene la estadstica de trfico de capa de aplicacin para
conversaciones entre pares de hosts
User History Contiene muestras peridicas de variables especificadas de
Metodologa Top Down

Marcos Huerta S.
205
Table 9-2. RMON2 Groups
Group Description
Collection usuario
Probe
Configuration
Proporciona un camino estndar de configurar remotamente
parmetros de los sonda como atrapan el destino y la
direccin de cinta

Protocolo de Descubrimiento de Cisco
Como mencionado en El captulo 3, "Caracterizando las redes Existentes," CDP
especifica un mtodo para routers Cisco e switches para enviar la informacin de
configuracin el uno al otro en una base regular. Aunque algunos expertos de seguridad
recomiendan por desabilitar CDP porque un hacker podra usar la informacin para
aprender sobre configuracin de una red y topologa, muchos administradores de la red
se olvidan habilitado CDP debido a su utilidad. El CDP es habilitado por defecto.

Con el comando show cdp neighbors detail, usted puede mostrar la informacin
detallada sobre routers vecinos e switches, incluso cuales protocolos estan habilitados,
las direcciones de red para protocolos permitidos, el nmero y tipos de interfaces, el tipo
de plataforma y sus capacidades, y la versin del Sistema Operativo de redes Cisco
(IOS) Software que corre en el vecino.

El CDP es un medio - y protocolo - independiente protocolo. El CDP corre en la capa de
enlace de datos, permitiendo a dos sistemas que soportan protocolos de capa de red
diferentes para comunicarse. Los paquetes de CDP usan un Protocolo de Acceso de
Subred (SNAP) encapsulation y son enviados a la direccin 01-00-0C-CC-CC-CC de
multicast de Cisco. Aunque los switches por lo general envian paquetes de multicast, los
switches de Cisco no envian paquetes de CDP. Los routers tambin no envian paquetes
de CDP. Los paquetes de CDP son enviados cada 60 segundos en ausencia, aunque
usted pueda cambiar este con el comando cdp timer.

Los marcos de CDP son enviados con un holdtime de 180 segundos en ausencia. El
Holdtime especfica la cantidad de tiempo que un dispositivo de recepcin debera
sostener la informacin antes de desecharlo. Cuando un interfaz es caida, CDP enva un
paquete con el juego de holdtime en cero. Usted puede configurar holdtime con el
comando cdp holdtime. El envo de un paquete CDP con un holdtime de cero permite
que un dispositivo de red descubra rpidamente a un vecino perdido.



Metodologa Top Down

Marcos Huerta S.
206
La Estimacin de Trfico de Red Causado por Manejo de Red
Despus de que usted ha determinado qu protocolos de manejo sern usados, usted
puede estimar la cantidad de trfico causado por el manejo de red. Probablemente el
protocolo de manejo principal ser SNMP, aunque otras opciones existan, como CDP,
ping, IP traceroute, etctera.

Despus de seleccionar protocolos de manejo, usted debera determinar que conectan a
la red y las caractersticas de dispositivo sern manejadas.

El objetivo es determinar que datos NMS solicitar del dispositivos manejados. Estos
datos podran consistir en informacin de accesibilidad, medidas de tiempo de
respuesta, informacin de direccin de capa de red, y datos del RMON MIB u otro MIBs.
Despus de que usted ha determinado que caractersticas sern juntadas del
dispositivos manejados, usted debera determinar entonces con que frecuencia el NMS
solicita los datos. (Este es llamado el intervalo de cola.)

Para calcular una estimacin de la carga de trfico, multiplique el nmero de
caractersticas de direccin por el nmero de dispositivos manejados y divdase por el
intervalo de cola. Por ejemplo, si una red tiene 200 dispositivos manejados y cada
dispositivo es supervisado para 10 caractersticas, el nmero que resulta de peticiones
es como sigue:

200 * 10 = 2000
El nmero que resulta de respuestas es tambin
200 * 10 = 2000

Si el intervalo de cola es cada 5 segundos y asumimos que cada peticin y respuesta
son un paquete de 64 bytes solo, la cantidad del trfico de red es como sigue:

(4000 peticiones y respuestas) * 64 bytes * 8 trozos/bytes = 2,048,000 trozos cada 5
segundos o 409,600 bps

En este ejemplo, en Ethernet 10-Mbps compartida, los datos de direccin de red usaran
el 4 por ciento del ancho de banda de red disponible, que es significativa, pero
probablemente aceptable. Una regla bsica buena es que el trfico de manejo debera
usar menos del 5 por ciento de la capacidad de una red.




Metodologa Top Down

Marcos Huerta S.
207
La Seleccin de Instrumentos para el Manejo de Red
Para asegurar la disponibilidad alta de red, los instrumentos de manejo deberan
soportar numerosas caracteristicas que pueden ser usadas para performance, falla,
configuracin, seguridad, y manejo de la contabilidad.

Lo minimo para, una solucin de manejo de red debera incluir instrumentos para
aislamiento, diagnosticar, y reportar problemas para facilitar la reparacin rpida y la
recuperacin. Idealmente, el sistema tambin debera incorporar la inteligencia para
identificar tendencias que pueden predecir un fallo potencial, de modo que un
administrador de red pueda tomar medidas antes de que una condicin de falla ocurra.

Seleccionando instrumentos de manejo, considere la flexibilidad de los instrumentos y
los auditorios variados que pueden el interfaz con ellos. Los instrumentos de manejo de
red deberan proporcionar un interfaz de usuario intuitivo que puede reaccionar
rpidamente a la introduccin de datos por el usuario. En muchos casos, teniendo tanto
un interfaz navegador como el interfaz de lnea de orden (CLI) son beneficiosos.

Si los instrumentos permiten la configuracin dinmica de dispositivos, los cambios de
configuracin deberan entrar en vigor sin requerir reboot al dispositivo, si el dispositivo
soporta esto, porque la interrupcin del servicio para un dispositivo es crtico podra
afectar potencialmente a miles de usuarios. El software de manejo tambin debera ser
capaz de comprobar la validez de cualquier cambio de configuracin, y automticamente
restaurar la operacin a la ltima configuracin conocida o imagen de software en caso
del error. El software de manejo que soporta la configuracin dinmica de dispositivos
debera requerir que la autenticacin evite a un usuario no autorizado que hace
cambios.

Instrumentos de Cisco
Ya que su red esta diseada a clientes que tienen numerosos productos Cisco, Cisco
ofrece una amplia variedad de instrumentos de manejo. El CiscoWorks y Cisco la familia
de productos de Seguridad consolida y automatiza tareas de manejo comunes. Estos
productos soportan el dispositivo y el manejo de infraestructura, la seguridad y el manejo
de identidad, la direccin de telefona IP, y la direccin de trfico crtica. Los
instrumentos de CiscoWorks incluyen el CiscoWorks QoS Manejo de Poltica, Manejo de
Voz de CiscoWorks para Entradas de Voz, CiscoWorks Pequea Solucin de Manejo de
Red, CiscoWorks Motor de Solucin de LAN Inalmbrico, y CiscoWorks Azul.

Incluso para clientes de diseo de red que no usan exclusivamente productos Cisco, un
entendimiento de dos tecnologas de Cisco claves (NetFlow y Agente de Aseguramiento
de Servicio) puede ayudarle a reconocer los tipos de datos que se conectan a la red
Metodologa Top Down

Marcos Huerta S.
208
sistemas de manejo debera juntar y analizar. Por esta razn, estos dos instrumentos
son cubiertos ms detalladamente en las secciones siguientes.

Cisco NetFlow Contabilidad
Como mencionado en la Parte 3, Cisco IOS NetFlow tecnologa es una parte integrante
de Cisco IOS Software que colecciona y mide datos cuando esto entra a las interfaces
del switch o routers. La informacin juntada permite a un administrador de la red
caracterizar la utilizacin de red y recursos de aplicacin. Esto tambin puede ser usado
para disear la calidad del servicio (QoS). Un flujo de red es definido como una
secuencia unidireccional de paquetes entre una fuente y destino endpoint.

Un flujo endpoint es identificado tanto por la direccin de IP como por el nmero de
puerto de capa de transporte. El NetFlow tambin identifica flujos por el tipo de protocolo
IP, la clase del servicio (Compaas), y un identificador de interfaz de entrada.

Los datos de NetFlow de reconocimiento dejan a un administrador de red visualizar
modelos de trfico de modo que el descubrimiento del problema preventivo sea posible.
Esto tambin permite que un administrador de l red ponga en prctica la contabilidad de
utilizacin de recurso. Los proveedores de servicio pueden usar la informacin NetFlow
para emigrar lejos de honorarios solos, facturacin de tipo fijo, a mecanismos de cobro
ms flexibles basados en tiempo de da, uso de ancho de banda, uso de aplicacin,
QoS, etctera. Los administradores de red de empresa pueden usar la informacin para
la recuperacin de costo departamental y costear la asignacin para la utilizacin de
recurso.

La Reunin de datos de NetFlow tambin permite que un administrador de la red gane
una vista detallada, a base de tiempo del uso de aplicacin. El contenido y los
proveedores de servicio pueden usar esta informacin para planear y asignar red y
recursos de aplicacin de encontrar demandas de cliente. Por ejemplo, un proveedor
contento puede decidir la capacidad y la posicin de servidores de web, basados en
datos NetFlow. Los datos de NetFlow, o la informacin sacada de ello, pueden ser
almacenados para recuperacin posterior y anlisis, en apoyo de mercadotecnia
preventiva y programas de servicio de cliente (por ejemplo, para determinar qu
aplicaciones y servicios estn siendo usados por usuarios internos y externos y apuntan
para mejorar el servicio).

El Cisco recomienda un despliegue NetFlow con cuidado planeado, con servicios
NetFlow activados en routers estratgicamente localizados, por lo general routers en el
borde de una red. Aunque NetFlow tenga un impacto de performance en routers de
trfico, el impacto es mnimo y es menos que el impacto de RMON. Las ventajas de la
Metodologa Top Down

Marcos Huerta S.
209
reunin de informacin NetFlow, cuando comparado a SNMP y RMON, incluyen el
mayor detalle de datos coleccionados, el timestamping de datos, apoyo a datos
diferentes juntados en las diferentes interfaces, y mayor escalabilidad. Tambin, con
NetFlow, un probador de RMON externo no es requerido.

El Agente de Aseguramiento de Servicio Cisco (SAA)
Como NetFlow, el Agente de Aseguramiento de Servicio Cisco (SAA) es el software que
es incorporado a la mayor parte de plataformas de Cisco. El SAA apoya la escucha de
performance de red activa. La escucha activa significa que el trfico es generado y
analizado para medir la performance entre dispositivos de Cisco o entre dispositivos de
Cisco y servidores. Un administrador de la red puede usar SAA para medir la salud de
red, verificar acuerdos de nivel de servicio, asistir con solucin de red, y mejoras de red
de plan.

El SAA puede generar UDP, TCP, y paquetes de prueba de ICMP y medir la mtrica del
performance basada en respuestas a los paquetes. Una caracteristica clave de SAA es
la capacidad de marcar los paquetes de prueba con el valor de Compaas IP
apropiado. La marca de paquetes deja a una performance de prueba de administrador
de red cuando QoS est siendo puesto en prctica.

El SAA puede supervisar mucha mtrica, de la capa IP a la capa de aplicacin, como
sigue:
Interpretacin de transferencia de archivo para el Protocolo de Transferencia de
Archivos (FTP)
Disponibilidad de sitio Web y tiempo de respuesta, usando el Protocolo de
Transferencia de Hipertexto (HTTP)
Interpretacin de UDP como tardanza de ida y vuelta, inquietud, latencia de
direccin nica, y prdida de paquete
Medidas de salto por salto usando la operacin de Eco de Camino ICMP

Resumen
Uno de sus objetivos como diseador de red debera ayudar a su cliente a desarrollar
algunas estrategias y procesos para poner en prctica la direccin de red. Usted
tambin debera ayudar a su cliente a escoger los instrumentos y productos a poner en
prctica las estrategias y procesos.

Esta Fase II proporcion la informacin para ayudarle a seleccionar los procesos
correctos e instrumentos para encontrar los objetivos de un cliente para la manejabilidad
de red. Las tareas implicadas con la direccin disean tareas paralela implicadas con el
diseo de red total: anlisis de requerimientos y objetivos, fabricacin de restricciones,
Metodologa Top Down

Marcos Huerta S.
210
caracterizacin de flujo de trfico de direccin de red, y desarrollo de una topologa
apropiada.

La administracin a menudo es pasada por alto durante el diseo de una
red porque es considerado una cuestin operacional ms bien que una
cuestin de diseo. Sin embargo, considerando la administracin de red,
en vez de clavarlo con tachuelas al final de proceso de diseo o despus
de que la red es operacional, su diseo ser ms escalable y robusto.

Fase III: Diseo de la red fsica
Seleccion de Tecnologa y Dispositivos de Red de Campus
El diseo de red fsico implica la seleccin de la tecnologia LAN y WAN para campus y
empresarial. Durante esta fase del proceso de diseo de red top down, las opciones son
hechas en cuanto a tendido de cables, fsico y protocolos de capa de enlace de datos, y
dispositivos de funcionamiento entre redes (como hubs, switches, routers, y puntos de
acceso inalmbricos). Un diseo lgico, que cubre laParte II, "El diseo de Red
Lgico," forma la fundacin para un diseo fsico. Adems, los objetivos comerciales,
los requerimientos tcnicos, caracteristicas de trafico de red, y flujos de trfico, se
hablaron en toda la Parte I, "Identificando Necesidades de Su Cliente y Objetivos,"
que influyen en un diseo fsico.

Un diseador de red tiene muchas opciones para LAN y WAN. Ninguna tecnologa sola
o dispositivo estan con capacidad de responder todas las circunstancias. El objetivo de
La parte III debe darle la informacin sobre la escalabilidad, performance, accesibilidad
financiera, y caractersticas de manejabilidad de opciones tpicas, ayudarle a hacer las
correctas selecciones para su cliente.

Este captulo cubre tecnologas para diseos de red de campus. Una red de campus es
un juego de segmentos de LAN y redes de construccin en un rea que tiene unas
millas de dimetro. El siguiente captulo cubre tecnologas para una red de empresa que
incluye WAN y servicios de acceso remoto.

Un proceso de diseo eficaz debe desarrollar soluciones de campus primero, seguido de
acceso remoto y soluciones WAN. Despus de que usted ha diseado las redes de
campus de un cliente, usted puede seleccionar ms con eficacia la WAN y tecnologas
de acceso remoto basadas en el ancho de banda y las exigencias de requerimiento de
trfico que fluye de un campus al otro.

Este captulo comienza con una discusin del diseo de tendido de planta de cables de
LAN, incluso el tendido de cables de opciones para redes de campus y edificio. El
Metodologa Top Down

Marcos Huerta S.
211
captulo entonces proporciona la informacin sobre tecnologas de LAN como Ethernet y
Modo de Transferencia Asincrnico (ATM). La seccin " Seleccion de Tecnologa y
Dispositivos de Red de Campus" proporciona algunos criterios de seleccin que usted
puede usar seleccionando hubs, switches, routers, y puntos de acceso inalmbricos
para un diseo de campus.

Diseo del Cableado LAN
Como el tendido de cables es ms una cuestin de realizacin que una cuestin de
diseo, no es cubierto detalladamente en este libro. Sin embargo, la importancia de
desarrollar una infraestructura de tendido de cables buena no debera ser rebajada.

Mientras que otros componentes de un diseo de red generalmente tienen una vida de
unos aos antes de que los cambios de tecnologa, la infraestructura de tendido de
cables a menudo debiera durar durante muchos aos. Es importante disear y poner en
prctica la infraestructura de tendido de cables con cuidado, teniendo presente
disponibilidad y objetivos de escalabilidad, y la vida esperada del diseo.

En muchos casos, su diseo de red debe adaptarse al tendido de cables existente. El
captulo 3, "Caracterizando las Redes Existentes," se habla del proceso para
documentar el tendido de cables ya en uso en un edificio y redes de campus, incluso lo
siguiente:

Topologias de tendido de cableado de Campus y Empresarial.
Los tipos y longitudes de cableado entre edificios.
La posicin de armarios de telecomunicaciones e interconecta cuartos dentro de
edificios.
Los tipos y longitudes de cables para tendido de cableado vertical.
Los tipos y longitudes de cables para tendido de cableado horizontal.
Los tipos y longitudes de cables para tendido de cableado de rea de trabajo que va
de armarios de telecomunicaciones a estaciones de trabajo.

Topologia de Cableado
Las compaas como AT&T, la IBM, Digital Equipment (DEC), Hewlett-Packard, y
Telecomunicaciones del Norte han publicado todas especificaciones de tendido de
cables y pautas para desarrollar una topologa de tendido de cables. Adems, la
Asociacin de Industria de Electrnica y la Asociacin de Industria de
Telecomunicaciones publican las pautas EIA/TIA para el par trenzado no blindado (UTP)
de tendido de cables e instalacin.

Metodologa Top Down

Marcos Huerta S.
212
Aunque las pautas de las organizaciones diferentes se diferencien ligeramente, el
objetivo principal de todos ellos es ayudar a un ingeniero de red a desarrollar un sistema
de tendido de cables estructurado que es manejable y escalable.

Sin entrar en detalle contra la topologia de tendido de cables, una generalizacin puede
ser hecha de esto dos tipos de esquemas de cableado que son posibles:

Un esquema de cableado centralizado es mas popular de todas las carreras de
cableado en un rea de ambiente de diseo. Una topologa de estrella es un
ejemplo de un sistema centralizado.
Un esquema de tendido de cables distribuido es mas popular de todas las
carreras de cableado en un rea de ambiente de diseo. El anillo, el bus, y las
topologas de rbol son ejemplos de sistemas distribuidos.

Topologas de cableado de edificio
Dentro de un edificio, una arquitectura centralizada o distribuida puede ser usada, segn
el tamao del edificio. Para pequeos edificios, es posible un esquema centralizado con
todos los cables que terminan en un cuarto de comunicaciones, como mostrado en el
lado izquierdo de La figura 10-1. Un esquema centralizado ofrece la manejabilidad
buena, pero no escala. Para edificios ms grandes, una topologa distribuida es ms
apropiada. Muchas tecnologas de LAN hacen una asuncin que las estaciones de
trabajo son no ms de 100 metros de un armario de telecomunicaciones donde los hubs
o los switches residen. Por esta razn, en edificio altos y grandes, una topologa
distribuida es ms apropiada, como mostrado en el lado derecho de La figura 10-1.
















Metodologa Top Down

Marcos Huerta S.
213
La figura 10-1. Ejemplos de Topologas Centralizadas y Distribuidas de cableado de
edificios


Topologas de cableado-campus
El tendido de cableado que une edificios es expuesto a ms riesgos fsicos que el
tendido de cables dentro de edificios. Un obrero de la construccin podra cavar una
zanja entre edificios y por descuido cortar el cableado. La inundacin, las tormentas de
hielo, los terremotos y otros catstrofes tambin pueden causar problemas, como
pueden los desastres artificiales como ataques terroristas. Adems, los cables podran
cruzar propiedades fuera del control de la organizacin, hacindolo dificil de encontrar la
falla y reparar el problema. Por estos motivos, el cableado y las topologas de tendido de
cables deberan ser seleccionados con cuidado.

Un esquema distribuido ofrece la mejor disponibilidad que un esquema centralizado. La
parte superior de La figura 10-2 muestra una topologa centralizada. La parte de fondo
de La figura 10-2 muestra una topologa distribuida. La topologa centralizada en La
figura 10-2 experimentara una prdida de toda la comunicacin de interedificio si el
bulto de cable entre Edificios A y B fuera cortado. Con la topologa distribuida,
interconstruyendo la comunicacin podra continuar si un cable cort entre Edificios A y
B ocurri.
Metodologa Top Down

Marcos Huerta S.
214
La figura 10-2. Ejemplos de Topologas Centralizadas y Distribuidas de Cableado de
Campus



En algunos ambientes, debido a la prioridad resulta con obstrucciones ambientales
como rios o pantanos, no podra ser prctico tener conductos de cable mltiples en el
campus, como mostrado en la topologa en la parte de fondo de La figura 10-2. En este
caso, usted puede recomendar una tecnologa inalmbrica (por ejemplo, lser,
lmicroonda, o 802.11 enlace puente entre Edificios A y D).

Una desventaja de un esquema distribuido es que el manejo puede ser ms difcil que
con un esquema centralizado. Los cambios en un sistema de tendido de cables
distribuido con mayor probabilidad requerirn que un tcnico camine de edificio a edificio
para implementar los cambios. La disponibilidad contra objetivos de manejabilidad debe
ser considerada.

Tipos de Cables
Tres tipos principales de cables son usados en la implementacin de red de campus:

El cable de cobre protegido, incluso el par trenzado protegido (STP), coaxial (coax),
y gemelo-axial (twinax) cables.
Metodologa Top Down

Marcos Huerta S.
215
El cable de Cobre no protegido (tpicamente UTP).
Cables de Fibra ptica.

El tendido de cables de STP fue extensamente usado en redes de Token Ring en los
aos 1980 y aos 1990. La Mayor parte de redes de Token Ring han sido sustituidas por
redes de Ethernet estos das. Ethernet generalmente usa UTP y el tendido de cables de
fibra ptica, aunque sea posible hacer que trabaje Ethernet en el tendido de cables de
STP. (El hecho que Ethernet puede correr con el tendido de cables de STP puede aliviar
la migracin del Token Ring a Ethernet para cualquier instalacin que ha estado poco
dispuesta a emigrar debido a la necesidad percibida de recablear de nuevo la red.)

El cable coax era popular en las primeras LANs. Ethernet gruesa (10BASE5) usa una
doble-proteccin, 50 ohmios el cable coax que era aproximadamente 0.4 pulgadas de
dimetro, y Ethernet delgada (10BASE2 o "Cheapernet") cable de RG-58 estndar
usado que era aproximadamente la mitad aquel tamao. 75 ohmios usados en
terminales de IBM el cable coax, o, en algunos casos, twinax cables. El tendido de
cables era por lo general instalado en una topologa de bus y era difcil de poder hacer
gramdes instalaciones sin repetidores de multipuerto. Con la introduccin de estndares
para dirigir protocolos de LAN en cables UTP (como Ethernet 10BASE-T), el cable coax
se hizo menos popular. Coax y otros tipos del tendido de cables de cobre protegido no
son generalmente recomendados para nuevas instalaciones, excepto quizs para cable
cortos entre dispositivos en un armario de telecomunicaciones o cuarto de computadora,
o en casos donde la seguridad especfica y las necesidades proteccin existen.

El UTP es el cableado tpico encontrado en la mayor parte de edificios estos das. Es
generalmente lo mas barato de los tres tipos de cables. Este tambin tiene las
capacidades de transmisin ms bajas porque es sujeto a diafona, ruido, e interferencia
electromagntica. La adhesin para distancias limitadas minimiza los efectos de estos
problemas.

Hay numerosas categoras del tendido de cables de UTP, incluyendo los siguientes:

La categora 1 y 2 no es recomendada para transmisiones de informacin debido a
su carencia del apoyo a exigencias de ancho de banda altas.
La categora 3 es probada a 16 MHz. La categora 3 a menudo es llamada el
tendido de cables de grado de voz, pero es usado para la transmisin de
informacin tambin, en particular es antigua Ethernet 10BASE-T y redes de Token
Ring 4-Mbps.
Metodologa Top Down

Marcos Huerta S.
216
La categora 4 es probada en 20 MHz, permitindolo dirigir el Token Ring 16-Mbps
con un mejor margen de seguridad que la Categora 3. La categora 4 no es comn,
habiendo sido hecho obsoleto por la Categora 5.
La categora 5 es probada en 100 MHz, permitindolo correr protocolos rpidos
como Ethernet 100-Mbps y FDDI. Cuando cuatro pares son usados, Categora 5
soporta Gigabit Ethernet.
La categora 5 mejorada (Categora 5e) es conveniente para Ethernet 100-Mbps,
Gigabit Ethernet, y ATM. Muchas compaas venden la Categora de 350 MHz 5e
cableado, aunque el estndar para el tendido de cables (Apndice 5 a TIA/EIA-568-
A) declare 100 MHz.
La categora 6 es conveniente para Ethernet 100-Mbps, Gigabit Ethernet, y ATM. El
estndar para el tendido de cables (ANSI/TIA/EIA-568-B.2-1) declara 200 MHz,
aunque los vendedores apoyen ancho de banda ms altas.

Las nuevas instalaciones deberan correr como mnimo la Categora 5e. Aunque la
Categora 5e cueste un poco ms que la Categora 5, lo merece. Desde esta escritura,
El cableado de Categora 6 no es extensamente desplegado, pero puede ser pronto. La
Asociacin de Industria de Telecomunicaciones (TIA) recomienda que la Categora 6
debe ser instalado para apoyar futuras aplicaciones que exigirn la ancho de banda alta.
La categora 6 mejora caractersticas de performance como la prdida de introduccin,
diafona de extremo cercano (NEXT), prdida de retorno, y el nivel igual lejos termina la
diafona (ELFEXT). Estos realces proporcionan una relacin seal/ruido ms alta.

Los cables de fibra ptica se hacen rpidamente un estndar para nuevas instalaciones.
Como los precios para cables y conexiones de dispositivos de unin, se hace prctico
instalar el tendido de cables de fibra ptica para el cableado vertical y horizontal entre
armarios de telecomunicaciones. Algunas compaas tambin usan el tendido de cables
de fibra ptica para el cableado de rea de trabajo, pero el coste de las trajetas de
interfaz de red (NICs) con el soporte de fibra ptica es todava alto, de modo que no es
comn an. El cableado de fibra ptica ha sido usado entre edificios durante muchos
aos.

El cableado de fibra ptica no es afectado por diafona, ruido, e interferencia
electromagntica, entonces esto tiene la capacidad ms alta de los tres tipos de cables.
Con las nuevas tecnologas, como la multiplexin de divisin de onda (WDM), un hilo
solo del cableado de fibra ptica puede manejar una capacidad de 40 gigabits por
segundo y ms all.

Una desventaja con el cableado de fibra ptica es que puede ser difcil instalar, que
puede aadir un alto costo de despliegue. Cuando conecte una fuente optica de fibra o
Metodologa Top Down

Marcos Huerta S.
217
cuando dos o mas fibras se juntan, hasta una pequea desviacin de la posicin ideal
del conector puede causar mala alineacin y la prdida de seal inaceptable. Algunos
conectores introducen ms prdida que otros. Seleccionando conectores, investigue su
facilidad del uso y el decibelio (dB) prdida asociada con los conectores.

Los conectores de fibra ptica tambin pueden introducir el ruido de reflexin reflejando
la luz atrs en la fuente ptica. El ruido de reflexin es reducido por el ndice que
empareja geles, el contacto fsico pule las capas de antireflexin. Cuando seleccione
conectores, el ruido de reflexin es de los parmetro que usted debera investigar.

El cableado de fibra ptico es monomodo o multimodo. "Un modo" significa un camino
aceptable para la luz para viajar abajo una fibra. Con la fibra de multimodo, hay modos
mltiples o caminos que la luz puede seguir. Algunos caminos son ms largos que otros,
el que significa que el tiempo que esto toma para la luz para viajar abajo cada camino se
diferencia, causando la dispersin intermodal de la luz cuando esto sale el cable de
fibra. La dispersin intermodal limita el ancho de banda de multimodo.

La fibra de monomodo tiene un dimetro principal ms pequeo que la fibra de
multimodo. El pequeo core asegura que slo un camino es tomado que elimina la
dispersin intermodal y significa que la fibra de monomodo soporta altos ancho de
banda sobre distancias ms largas que la fibra de multimodo. El dimetro ms pequeo
hace ms difcil de conectar la fuente ptica suficiente en la fibra, sin embargo, que
aade un costo de fabricacin e instalacin de conectores. Los interfaces de monomodo
para switches, routers de trfico, y estaciones de trabajo son tambin ms caros que
interfaces de multimodo.

Tecnologia LAN
Esta seccin cubre tecnologas de capa de enlace de datos que estn disponibles para
LANs. Recomiendan a Ethernet para la mayor parte de redes de campus porque esto
proporciona la escalabilidad superior, la manejabilidad, y la accesibilidad financiera.
ATM es tambin escalable, pero es ms complejo y caro que Ethernet y ms difcil de
configurar y manejar. Sin embargo, el ATM es apropiado para algunos diseos de red de
campus debido a sus mtodos deterministas para proporcionar la calidad del servicio
(QoS).
Aunque unos vendedores vendan productos de Token Ring 100-Mbps, hay muchas
opciones de producto para alta-velocidad Ethernet comparada con alta-velocidad Token
Ring. Haba tambin la conversacin hace unos aos sobre FDDI de la nueva
generacin que soportaria velocidades de gigabits por segundo (Gbps), pero la
conversacin nunca materializada en estndares o productos. Aunque Token Ring y las
Metodologa Top Down

Marcos Huerta S.
218
instalaciones FDDI todava existan, Ethernet es ms escalable y manejable que el
Token Ring o FDDI y debera ser recomendada para nuevos diseos de red y mejoras.
Cuando un nuevo diseo de red debe combinarse con un diseo existente, que es el
caso para la mayor parte de diseos de red, las tecnologas ms viejas deben ser
consideradas. Por ejemplo, un cliente podra indicar que un nuevo diseo debe
aprovechar la existencia de concentradores FDDI en redes de backbone de edificio para
evitar gastar el dinero para un nuevo equipo. Sin embargo, como un diseador de red,
usted debera animar a sus clientes a mejorar de tecnologas ms viejas que se harn
ms difciles de apoyar cuando los productos se hacen menos disponibles.
El captulo 1, "Analizando Objetivos Comerciales y Restricciones," el anlisis de las
restricciones comerciales siguientes, todo de las cuales tiene un efecto en las
tecnologas LAN que usted debera recomendar:
Tendencias (religin de tecnologa).
Polticas en cuanto a tecnologas aprobadas o vendedores.
La tolerancia del cliente para arriesgar.
Maestra tcnica del personal y proyectos para educacin de personal.
Elaboracin de un presupuesto y programacin.
Los objetivos tcnicos, hablado en El captulo 2, "Analizando Objetivos Tcnicos y
Restricciones," tambin tienen un impacto grande en selecciones de tecnologa. Las
siguientes secciones de este captulo se manifiestan aquellas tecnologas de LAN varan
en como bien ellos pueden encontrar escalabilidad, disponibilidad, manejabilidad,
adaptabilidad, accesibilidad financiera, y otros objetivos tcnicos.
El captulo 2 recomend por hacer una lista de los objetivos tcnicos principales de un
cliente. En este punto en el proceso de diseo, usted debera referirse a aquella lista
para asegurarse que sus selecciones de tecnologa son apropiadas para su cliente de
diseo de red.
Usted tambin debera mirar a la Tabla 2-3, "las Aplicaciones de Red Exigencias
Tcnicas," determinar si su cliente tiene exigencias estrictas en cuanto a rendimiento,
tardanza, y variacin de tardanza para alguna aplicacin de red. Usted tambin debera
considerar los tipos de aplicaciones que el cliente planea dirigir en la red. Las
aplicaciones que permiten que usuarios compartan imgenes, archivos animados,
videos, etctera, son ms ancho de banda y la tardanza sensible que aplicaciones a
base de texto.
La tabla 4-4, "las Caractersticas de Trfico de Aplicaciones de Red," tambin
pueden ayudarle a seleccionar las tecnologas correcta para su cliente. En aquella tabla
Metodologa Top Down

Marcos Huerta S.
219
usted document ancho de banda y requerimientos de QoS para aplicaciones. Las
siguientes secciones le ayudarn a determinar qu soluciones son apropiadas para
aplicaciones con los requerimientos de ancho de banda y requerimientos de QoS.
Ethernet
Ethernet es de la capa fsica y la capa de enlace de datos para la transmisin de frames
en un LAN. Desde su invencin en los aos 1970 por la Corporacin de Xerox, Ethernet
ha ganado la popularidad extendida y se ha adaptado a nuevas demandas de
capacidad, fiabilidad, y precios bajos. El costo de un puerto de Ethernet en una estacin
de trabajo o dispositivo de redes es muy bajo comparado a otras tecnologas. Muchos
ordenadores personales y los vendedores de estacin de trabajo incorporan Ethernet en
la placa madre de la computadora de modo que no sea necesario comprar NIC
separado.
Ethernet es una opcin de tecnologa apropiada para clientes preocupados por
disponibilidad y manejabilidad. Un LAN de Ethernet que es exactamente aprovisionado
para encontrar requerimientos de ancho de banda y equipado con componentes de alta
calidad, incluso NICs, cables, y dispositivos de funcionamiento entre redes, puede
encontrar hasta las demandas ms rigurosas de la disponibilidad. Muchos instrumentos
de solucin, incluso probadores de cable, analizadores de protocolo, y aplicaciones de
direccin de red, estn disponibles para aislar los problemas ocasionales causados por
rupturas de cable, interferencia electromagntica, puertos malogrados, o fallas de NICs.
Ethernet y IEEE 802.3
DEC, Intel, y Xerox publicaron la Versin 2.0 de la especificacin de Ethernet en 1982.
La versin 2.0, tambin conocida como el Estndar de DIX o Ethernet II, forma la base
para el trabajo que el Instituto de Ingenieros Elctricos y Electrnicos (IEEE) hizo en el
estandar 802.3, que fue finalizado en 1983. Desde entonces, 802.3 ha evolucionado
para soportar UTP y cableado de fibra ptica, y velocidades de transmisin ms rpidas.
Aunque haya algunas diferencias menores entre las dos tecnologas, los trminos
Ethernet y 802.3 son generalmente usados sinnimamente. En la capa fsica, 802.3 es
el de facto estndar. En la capa de enlace de datos, ambas realizaciones de la Versin
2.0 y 802.3 de Ethernet son comunes.



Metodologa Top Down

Marcos Huerta S.
220
Figura 10-3. Ethernet Version 2.0 y IEEE 802.3 Formato Frame




Opciones de Tecnologa de Ethernet
Ethernet es una tecnologa escalable que se ha adaptado a requerimientos de
capacidad crecientes. Las opciones siguientes para poner en prctica redes de Ethernet
estn disponibles:
Half - y dplex total Ethernet
10-Mbps Ethernet.
100-Mbps Ethernet.
1000-Mbps (1-Gbps o Gigabit) Ethernet.
10-Gbps Ethernet.
Metro Ethernet.
Ethernet del alcance largo (LRE).
Cisco EtherChannel.
Cada una de estas tecnologas es una posibilidad para el acceso, distribucin, o capas
principales de una topologa de campus, aunque por lo general las velocidades ms
altas, como Gigabit Ethernet, sean reservadas para la capa core.
La opcin de una tecnologa de Ethernet para la capa de acceso depende de la posicin
y el tamao de comunidades de usuario, ancho de banda y requerimientos de QoS para
aplicaciones, broadcast y otro comportamiento de protocolo, y flujo de trfico, hablado
en El captulo 4, "Caracterizacin de Trfico de Red." La opcin de una tecnologa de
Ethernet para la capa de distribucin y capa core depende de la topologa de red, la
posicin de almacen de datos, y flujo de trfico.


Metodologa Top Down

Marcos Huerta S.
221
Half-Duplex y Full-Duplex Ethernet
Ethernet fue al principio definida para un medio compartido con estaciones usando el
sentido de portador de descubrimiento de acceso/colisin mltiple (CSMA/CD) algoritmo
para regular el envo de frames y el descubrimiento de colisiones cuando dos estaciones
envan al mismo tiempo.
Con Ethernet compartida, una estacin escucha antes de que esto enve datos. Si el
medio est ya en el uso, la estacin aplaza su transmisin hasta que el medio sea libre.
Ethernet compartida es half duplex, en el sentido que una estacin transmite u o recibe
el trfico, pero no ambos inmediatamente.
Un Ethernet de punto a punto soporta simultaneamente la transmisin y la recepcin, lo
cual es llamada full dplex Ethernet. En un enlace entre un puerto de switch y una
estacin sola, por ejemplo, tanto el switch como la estacin pueden transmitir al mismo
tiempo. Este es sobre todo beneficioso si la estacin es un servidor que trata peticiones
de muchos usuarios. El switch puede transmitir la siguiente peticin al mismo tiempo el
servidor enva una respuesta a una peticin anterior. La operacin de full dplex es
tambin comn en enlaces de switch a switch, permitiendo a ambos switches transmitir
el uno al otro al mismo tiempo. La ventaja de full dplex Ethernet es que el precio de
transmisin es tericamente doble lo que es en un enlace half duplex.
10-Mbps Ethernet
Aunque Ethernet 100-Mbps comience a sustituir Ethernet 10-Mbps, Ethernet 10-Mbps
todava puede desempear un papel en su diseo de red, en particular en la capa de
acceso. Para algunos clientes la capacidad 10-Mbps es suficiente. Para clientes que
tienen necesidades de amplitud de banda bajas y un pequeo presupuesto, Ethernet 10-
Mbps es una solucin apropiada si la red no tiene que escalar a 100-Mbps en el futuro
prximo.
NOTA:
Muchas aplicaciones comerciales no se benefician de una mejora a Ethernet compartida
100-Mbps. Las aplicaciones ineficaces que envan muchos pequeos marcos generan
ms colisiones en Ethernet 100-Mbps, realmente disminuyendo el rendimiento. Las
pruebas han mostrado una disminucin del 9 por ciento en el rendimiento cuando un
LAN con aplicaciones ineficaces fue emigrado de Ethernet 10-Mbps compartida a
Ethernet 100-Mbps compartida. De ser 100-Mbps es requerido en la capa de acceso,
entonces el dplex total, cambiado Ethernet 100-Mbps debera ser desplegado.
Metodologa Top Down

Marcos Huerta S.
222
Ethernet 10-Mbps puede correr en lisonjean, UTP, o tendido de cables ptico de fibra.
(Lisonjee el cable es raramente usado ms). Ethernet 10-Mbps apoya tanto redes
cambiadas como compartidas. En una red compartida, todos los dispositivos compiten
por la misma amplitud de banda y estn en el mismo esfera de amplitud de banda
(tambin conocido como el Esfera de colisin de Ethernet). Los repetidores de capa
fsicos y los cubos unen cables y usuarios, pero no segmentan la esfera de colisin. Un
interruptor, por otra parte, segmenta una esfera de colisin en esferas mltiples. Cada
puerto en un interruptor define una esfera. La decisin si hay que usar arquitecturas
compartidas o cambiadas depende de amplitud de banda y exigencias de interpretacin
y limitaciones de distancia.
Una de las reglas de diseo ms significativas para Ethernet es que la tardanza de
propagacin de ida y vuelta de una esfera de colisin no debe exceder el tiempo esto
toma a un remitente para transmitir 512 trozos, que es 51.2 microsegundos para
Ethernet 10-Mbps. Una esfera de colisin sola debe ser limitada en el tamao para
asegurarse que una estacin que enva a un marco mnimo clasificado (64 bytes o 512
trozos) puede descubrir una colisin que refleja atrs del lado opuesto de la red mientras
la estacin todava enva el marco. Por otra parte, la estacin sera terminada enviando
y no escuchando para una colisin, as perdiendo la eficacia de Ethernet para descubrir
una colisin y rpidamente transmitir de nuevo el marco.
Para encontrar esta regla, la distancia ms apartada entre dos sistemas de
comunicacin debe ser limitada. El nmero de repetidores (cubos) entre los sistemas
tambin debe ser limitado, porque los repetidores aaden la tardanza. Las limitaciones
para Ethernet 10-Mbps en lisonjean y tendido de cables de UTP son mostrado en Mesa
10-1. Las limitaciones para Ethernet 10-Mbps en el multimodo tendido de cables ptico
de fibra son mostradas en Mesa 10-2.
















Metodologa Top Down

Marcos Huerta S.
223
Tabla 10-1. Restricciones de Escalabilidad para 10-Mbps Coax y Ethernet UTP
10BASE5 10BASE2 10BASE-T
Topologia Bus Bus Estrella
Tipo de cableado Thick coax Thin coax UTP
Longitud de cable
mxima (en metros)
500 185 100 de hub a estacin
Nmero mximo de
accesorios por
cable
100 30 2 (hub y estacin o
hub y hub)
Dominio de colisin
mxima (en metros)
2500 2500 2500
Topologa mxima
de un dominio de
colisin
5 segmentos, 4
repetidores, slo 3
segmentos pueden
tener sistemas de final
5 segmentos, 4
repetidores, slo 3
segmentos pueden
tener sistemas de final
5 segmentos, 4
repetidores, slo 3
segmentos pueden
tener sistemas de final

Tabla 10-2. Restricciones de Escalabilidad para Multimodo 10-Mbps Ethernet Fibra
Optica
10BASE-
FP
10BASE-FB 10BASE-FL Old FOIRL
Topologa Estrella Backbone o
sistema de
repetidor
Enlace de
repetidor-
repetidor
Enlace de
repetidor-
repetidor
Longitud de cable mxima
(en metros)
500 2000 2000 1000
Permite uniones de
sistema de final?
S No No No
Permite
repetidores en
cascada?
No S No No
Dominio de
colisin mxima
(en metros)
2500 2500 2500 2500

Metodologa Top Down

Marcos Huerta S.
224
La especificacin original para correr Ethernet en el multimodo cable de fibra ptica fue
llamada especificacin de Enlace de Inter-repetidor de fibra optica (FOIRL). El nuevo
10BASE-F especificacin est basado en la especificacin FOIRL. Esto incluye
10BASE-FP, 10BASE-FB, 10BASE-FL, y un estndar FOIRL revisado. Nuevo FOIRL se
diferencia del viejo en el cual esto permite uniones de sistema finales adems de
repetidores y hub. Tabla 10-2 restricciones de escalabilidad de espectculos para dirigir
10-Mbps en cableado multimodo de cables de fibra ptica.
100-Mbps Ethernet
Ethernet 100-Mbps, tambin conocida como Fast Ethernet y 100BASE-T Ethernet, fue al
principio estandarizada en el IEEE 802.3u especificacin y es combinada ahora en la
edicin 2002 de IEEE 802.3. Es muy similar a Ethernet 10-Mbps, que es uno de los
motivos de su popularidad. Ya que los ingenieros de red quines tienen la experiencia
con Ethernet 10-Mbps, Ethernet 100-Mbps es fcil para entender, instalar, configurar, y
reparar. Con algunas excepciones, Ethernet 100-Mbps es Ethernet estndar, slo 10
veces ms rpido. En la mayor parte de casos, los parmetros de diseo para Ethernet
100-Mbps son el mismo como Ethernet 10-Mbps, slo multiplicada o dividida en 10.

Ethernet 100-Mbps es definida para cuatro implementaciones fsicas:

100BASE-TX. Dos pares de Categora 5 (o mejor) cableado UTP
100BASE-T2. Dos pares de Categora 3 (o mejor) cableado UTP
100BASE-T4. Cuatro pares de Categora 3 (o mejor) cableado UTP
100BASE-FX. Dos multimodo fibras pticas

El 100BASE-TX es la forma ms popular de Ethernet 100-Mbps. Las redes de
100BASE-TX son fciles para disear e instalar porque ellos usan el mismo par de
cables y fijan configuraciones que 10BASE-T. Las estaciones estn conectados con
repetidores (hubs) o switches usando la Categora 5, Categora 5e, o Categora 6 de
cableado UTP.

El IEEE dise 100BASE-T4 para manejar la base instalada grande de la Categora 3
de cableado. El 100BASE-T4 usa cuatro pares (ocho hilos) de la Categora 3, 4, o 5
cables. El 100BASE-T4 enva una seal en tres pares de hilos y usa el cuarto par para
el descubrimiento de colisin. Despus de liberar 100BASE-T4, IEEE liber 100BASE-
T2, que usa un mtodo sealado ms avanzado de modo que slo dos pares de UTP
sean requeridos. (100BASE-T4 usa la sealizacin de 8B/6T, mientras que 100BASE-T2
usa la Modulacin de Amplitud de Pulso 5, o PAM 5.)


Metodologa Top Down

Marcos Huerta S.
225
NOTA:
100BASE-T4 requiere que cuatro pares (ocho alambres) esten conectados entre un hub
y una estacin. En alguna instalaciones de Categora 3, slo dos pares (cuatro hilos)
unen hubs y estaciones, porque la infraestructura de tendido de cables fue diseada
para 10BASE-T, que slo usa dos pares. Este hace difcil de usar 100BASE-T4 con el
tendido de cables de existencia.

Como mencionado, la tardanza de propagacin de ida y vuelta de un dominio de colisin
de Ethernet no debe exceder el tiempo esto toma a un remitente para transmitir 512 bits,
que es slo 5.12 microsegundos en Ethernet 100-Mbps. Para hacer el trabajo de
Ethernet 100-Mbps, hay limitaciones de distancia ms severas que aquellos requeridos
para Ethernet 10-Mbps. La regla general consiste en que Ethernet 100-Mbps tiene un
dimetro mximo de 205 metros cuando use el tendido de cables de UTP, mientras que
Ethernet 10-Mbps tiene un dimetro mximo de 2500 metros.

Las limitaciones de distancia para Ethernet 100-Mbps dependen del tipo de repetidores
(hubs) que son usados. En el IEEE 100BASE-T especificacin, dos tipos de repetidores
son definidos:
La clase I repetidores tiene una latencia de 0.7 microsegundos o menos. Slo un
salto de repetidor es permitido.

La clase II repetidores tiene una latencia de 0.46 microsegundos o menos. Un o
dos saltos de repetidor son permitidos.

Tabla 10-3 muestra el tamao mximo de un dominio de colisin para Ethernet 100-
Mbps dependiendo del tipo de repetidor (es) en uso y el tipo de cableado. Aunque no
muestra en la tabla, la fibra de monomodo es tambin posible. Usted debera comprobar
con repetidor y fabricantes de cableado para limitaciones de distancia exactas para la
fibra de monomodo. La mayor parte de vendedores especifican que cuando la fibra de
monomodo es usada en una unin de full dplex de switch a switch, la longitud de cable
mximo es 10,000 metros o aproximadamente 6 millas. El hecho que una distancia tan
larga es permitida hace la fibra de monomodo atractiva (aunque caro) para las redes de
campus grandes.






Metodologa Top Down

Marcos Huerta S.
226
Tabla 10-3. Domino de Colisin Mximas para Ethernet 100BASE-T

Cobre
Fibra de
Multimodo y
Cobre Variada
Fibra de
Multimodo
DTE-DTE (o
switch a
switch)
100
metros
NA 412 metros
(2000 si
dplex total)
Una Clase I
repetidor
200
metros
260 metros 272 metros
Una Clase II
repetidor
200
metros
308 metros 320 metros
Dos Clase II
repetidores
205
metros
216 metros 228 metros


NOTA:
Las especificaciones IEEE acerca de Clase I y Clase II repetidores 100-Mbps no son
relevantes para muchos diseos de red. Un diseo tpico debe unir cada dispositivo a un
puerto de switch y no usar a repetidores (o hubs). Estos das, es difcil comprar a un
repetidor 100-Mbps o el hub, aun si usted quisiera hacerlo. La mayor parte de
vendedores venden switches que dividen dominio de colisin. Incluso cuando un hub o
el repetidor son usados, esto es por lo general el nico repetidor en el dominio de
colisin, entonces las preocupaciones por la reduccin al mnimo de saltos de repetidor
a fin de minimizar colisiones son irrelevantes.


Gigabit Ethernet

Gigabit Ethernet fue al principio definido en el estandar IEEE 802.3z y es combinado
ahora en la edicin 2002 de IEEE 802.3. Esto funciona esencialmente como Ethernet
100-Mbps, salvo que es 10 veces ms rpido. Esto usa CSMA/CD con el soporta a un
repetidor por dominio de colisin, y se maneja tanto half - como full dplex. Esto usa el
estandar 802.3 formato de frame y el tamao de frame.

Para evitar la necesidad de reducir el tamao de half-duplex Gigabit de redes de 1/10th
el tamao de una red de Ethernet 100-Mbps, Gigabit Ethernet incluye algunos cambios
menores en la capa MAC. Es provechoso comparar los cambios de estndares hechos
cuando ellos fueron introducidos 100-Mbps Ethernet en los cambios ellos hicieron
cuando ellos presentaron Ethernet Gigabit.

Con half-duplex 10- y 100-Mbps Ethernet, el tamao de frame mnimo es igual a la
tardanza de propagacin de ida y vuelta mxima de la red (menos una concesin para
Metodologa Top Down

Marcos Huerta S.
227
sobrelleno, sincronizacin, etctera). Para asegurar que un remitente todava enva si
una colisin ocurre en el lado opuesto de la red ms grande posible, un remitente debe
llamar al tiempo esto toma 512 bits (64 bytes) para viajar al lado opuesto de la red y
regresar. Este asegura que el envo Ethernet NIC reconocer la colisin, regresara, y
transmitir de nuevo.

Para asegurar que el reconocimiento de colisin trabaja correctamente en 100-Mbps
Ethernet, donde los remitentes pueden enviar 10 veces tan rpido como ellos pueden
con Ethernet 10-Mbps, los estandares desarrollados redujeron el tamao de red mximo
a aproximadamente 1/10th el tamao mximo para 10-Mbps Ethernet. La utilizacin de
tal acercamiento con Ethernet Gigabit half-duplex habra causado pequeas redes
impracticables sin embargo. En cambio, el frame mnimo es mantenido en 512 bits (64
bytes), pero se requiere que el remitente llame al tiempo esto toma 4096 bits (512 bytes)
para viajar al lado opuesto de la red y regresar.

Los frame que son ms cortos que 4096 bits son artificialmente ampliados aadiendo un
campo de extensin de portador de modo que los frame sean exactamente 4096 bits en
la longitud. Los contenido del campo de extensin de portador son smbolos de no
datos. Aumentando el tiempo mnimo una estacin enva, los estndares pueden apoyar
una topologa de red mxima ms grande.

La extensin de portador podra causar la degradacin de performance para algunas
aplicaciones, aunque los desarroladores incluyeran un workaround en los estndares
para evitar problemas. Considere una aplicacin que intenta a la salida muchos
pequeos frame en un rate rpido, por ejemplo una aplicacin de voz sobre IP (VoIP).
Si el interfaz aade bits para alcanzar 4096 bits, ser capaz la aplicacin de enviar en
el rate apropiado? Cundo la aplicacin es terminada y libera el control del medio, va
otro aplicacin salta havia adentro, haciendo la primera aplicacin aplazar? Los
diseadores de Ethernet Gigabit se dirigieron a estos problemas permitiendo a un
remitente enviar frames mltiples.

Una estacin de Ethernet Gigabit puede decidir reventar frames si hay un frame en su
transmisin de cola cuando esto ha terminado de enviar su primer frame (ms la
extensin, si uno fuera necesario). La estacin puede enviar otra vez sin competir por el
uso del canal. Durante el hueco de interframe, la estacin enva smbolos de no datos.
Slo el primer frame requiere una extensin de portador. La estacin puede comenzar la
transmisin de frame para hasta un burstLength. El IEEE define el parmetro
burstLength como 8192 bytes.

Metodologa Top Down

Marcos Huerta S.
228
El Gigabit Ethernet es la mayor parte apropiado para edificio y redes de backbone de
campus. Esto puede actuar como una red de tronco, tericamente agregando el trfico
de hasta diez segmentos de 100-Mbps Ethernet. A pesar de la extensin de portador y
las caracteristicas de la half-duplex Ethernet, Gigabit Ethernet por lo general usa el
modo de full-dplex y une un switch a otro switch o un switch a un router de trfico.
Ethernet de Gigabit tambin es usada en servidores de alto rendimiento que requieren
una cantidad grande de ancho de banda.

El estndar 802.3 para Ethernet Gigabit especifica el multimodo y el monomodo
cableado de fibra ptico, cableado UTP, y blindado twinax cableado de cobre.Tabla 10-4
muestra las variaciones de Ethernet Gigabit.

Tabla 10-4. Especificaciones de Gigabit Ethernet
1000BASE-SX 1000BASE-LX 1000BASE-CX 1000BASE-T
Tipo de
cableado
Fibra de multimodo
de longitud de
onda de 850
nanmetros
1300 multimodo de
longitud de onda de
nanmetro y fibra de
monomodo
Twinax UTP
Limitaciones de
distancia (en
metros)
220-550, segn el
cable
550 para multimodo
y 5000 para
monomodo
25 100 entre un hub
y estacin; un
dimetro de red
total de 200
metros

El 1000BASE-SX, tambin conocido como la especificacin de longitud de onda corta
(de ah el S del nombre), es apropiado para el cableado horizontal multimodo y redes de
backbone.
El 1000BASE-LX usa una longitud de onda ms larga (de ah el L del nombre), y soporta
tanto el cableado de monomodo como multimodo. El 1000BASE-LX es apropiado para
edificio y redes de backbone de campus.
El 1000BASE-CX es apropiado para un armario de telecomunicaciones o cuarto de
computadora donde la distancia entre dispositivos es 25 metros o menos. El 1000BASE-
CX atropella 150 ohmios equilibrados, protegidos, twinax cable.
El 1000BASE-T es requerido para horizontal y rea de trabajo Categoria 5 o mejor
cableado UTP. El 1000BASE-T soporta la transmisin ms de cuatro pares del cable de
UTP y cubre una distancia de tendido de cables de hasta 100 metros, o un dimetro de
red de 200 metros. Slo permiten a un repetidor.
10-Gbps Ethernet

Uno de los motivos que Ethernet es una opcin tan buena para diseos de red de
campus es que esto sigue creciendo con demandas de ancho de banda crecientes. En
Metodologa Top Down

Marcos Huerta S.
229
2002, el IEEE estandariz Ethernet 10-Gbps en la especificacin 802.3ae. Ethernet 10-
Gbps se diferencia de algunos modos importantes de las otras realizaciones de
Ethernet, pero es tambin notable que similar a las otras realizaciones. El formato de
frame y otra especificaciones de Capa 2 permanecen el mismo lo que significa que las
aplicaciones que usan Ethernet no tienen que cambiarse.

En el futuro prximo, Ethernet cumplir con su nombre. (El nombre Ethernet viene del
ther de trmino, el elemento enrarecido que los cientficos antes creyeron llen todo el
espacio.) Ethernet estar en todas partes. Una transaccin de Internet, por ejemplo,
podra comenzar en un 100BASE-T a casa o red comercial, acercamiento a travs de
Ethernet metropolitana de fibra ptica hacia el ISP local, viaja Ethernet 10-Gbps WDM a
un abastecedor ms grande, y viaja a travs de varios enlaces de Ethernet para
alcanzar a un servidor de e-comercio que es amueblado por un Gigabit o Ethernet 10-
Gbps NIC. La transaccin ser encapsulada en un frame de Ethernet todo el tiempo
entero.

Actualmente, los productos de Ethernet ms 10-Gbps estn en la forma de mdulos o
lnea de tarjetas para switches de alta calidad y router, pero algunos vendedores
tambin soportan interfaces de Ethernet 10-Gbps para servidores. Tanto el ISPs como
las redes de empresa usan Ethernet 10-Gbps como una tecnologa de backbone.
Algunas redes de empresa tambin usan Ethernet 10-Gbps en granjas de servidor,
redes de rea de almacenaje (SANs), y estudios de vdeo digitales.

Ethernet 10-Gbps apoya la transmisin de full-dplex sobre el tendido de cables fibra
ptica. Esto no soporta el modo half-duplex o tendido de cables de cobre. Aplicaciones
de LAN soportan 10-Gbps as como red de rea metropolitana (MAN) y aplicaciones
WAN. Cuando el cableado de fibra optica monomodo es usado, un enalce de Ethernet
10-Gbps puede extenderse en la distancia a 40 kilmetros (25 millas).

Como las otras realizaciones de Ethernet, Ethernet 10-Gbps soporta la transmisin
consecutiva donde los bits son enviados uno tras otro, uno por uno en serie. Los
expertos conectados a una red aprendieron hace mucho que la transmisin paralela (la
parte de enfrente de la transmisin consecutiva) fue relegada a impresoras antiguas y
protocolos de herencia a partir de los aos 1970. No ms! La variedad 10GBASE-LX4
de Ethernet 10-Gbps simultneamente lanza cuatro flujos de bit como cuatro longitudes
de onda de la luz. Este es llamado la amplia multiplexin de divisin de longitud de
onda, o WWDM, y es clasificado como un mecanismo de transmisin paralelo en IEEE
802.3ae.

Metodologa Top Down

Marcos Huerta S.
230
Adems de 10GBASE-LX4, Ethernet 10-Gbps soporta 10GBASE-S, 10GBASE-L y
10GBASE-E, que usan la transmisin consecutiva. Tabla 10-5 mostramos las
limitaciones de distancia para varias de 10-Gbps Ethernet, segn la documentacin
Cisco.
Tabla 10-5. Implementacin de Ethernet 10-Gbps
Implementacin
Longitud de
onda Medio
Amplitud de banda
Modal Mnima
Funcionamiento de
Distancia
10GBASE-LX4 1310 nm 62.5 m
MMF
500 MHz/kilmetros 2 ms a 300 ms
10GBASE-LX4 1310 nm 50 m
MMF
400 MHz/kilmetros 2 ms a 240 ms
10GBASE-LX4 1310 nm 50 m
MMF
500 MHz/kilmetros 2 ms a 300 ms
10GBASE-LX4 1310 nm 10 m
SMF
2 kilmetros a 10
kilmetros
10GBASE-S 850 nm 62.5 m
MMF
160 MHz/kilmetros 2 ms a 26 ms
10GBASE-S 850 nm 62.5 m
MMF
200 MHz/kilmetros 2 ms a 33 ms
10GBASE-S 850 nm 50 m
MMF
400 MHz/kilmetros 2 ms a 66 ms
10GBASE-S 850 nm 50 m
MMF
500 MHz/kilmetros 2 ms a 82 ms
10GBASE-S 850 nm 50 m
MMF
2000 MHz/kilmetros 2 ms a 300 ms
10GBASE-L 1310 nm 10 m
SMF
2 kilmetros a 10
kilmetros
10GBASE-E 1550 nm 10 m
SMF
2 kilmetros a 30
kilmetros[*]

[*] El estndar permite longitudes de 40 kilmetros si la atenuacin del enlace es
bastante baja.
Metro Ethernet

Metro Ethernet es un servicio ofrecido por abastecedores y portadores que
tradicionalmente tenan slo ofrecimientos WAN clsicos, como dialup, T1, y Frame
Relay. Metro Ethernet mezcla las capacidades y el comportamiento de tecnologas WAN
con aquellos de Ethernet. Los portadores ofrecen a Metro Ethernet a clientes que
buscan un mtodo rentable de interconectar redes de campus y tener acceso al Internet.

Una de muchas ventajas del Metro que Ethernet es que el cliente puede usar un
estndar 10/100-Mbps interfaz de Ethernet, o un Gigabit o interfaz 10-Gbps, tener
Metodologa Top Down

Marcos Huerta S.
231
acceso a la red del abastecedor de servicio. El cliente puede establecer el recorrido
virtual para alcanzar otros sitios y alcanzar un ISP. El metro Ethernet soporta una
interfaz de cobre u fibra ptico, pero usa el tendido de cables de fibra ptico dentro de la
red del abastecedor. Esto puede usar una variedad de protocolos de transporte, incluso
SONET, ATM, multiplexin de divisin de onda de modo denso (DWDM), y Etiqueta de
Multiprotocolo que Cambia (MPLS).

El metro abastecedores de servicio de Ethernet permite que suscriptores aadan el
ancho de banda como necesario. Comparado a la adicin del ancho de banda WAN,
aadiendo el ancho de banda a un Metro el servicio de Ethernet puede pasar
rpidamente, a veces tan rpidamente como unos minutos o horas. El metro
abastecedores de Ethernet ofrece una amplia variedad de opciones de ancho de banda.
Adems de las velocidades de Ethernet estndares, muchos abastecedores ofrecen un
servicio 1-Mbps y permiten que clientes aadan el ancho de banda en incrementos 1-
Mbps.

Algunas realizaciones de Metro Ethernet usan lo que es llamado Ethernet el recorrido
virtual (EVC). En El captulo 11, "Seleccionando Tecnologas y Dispositivos para
Redes de Empresa," aprender usted sobre el Relevo de Frame el recorrido virtual
permanente (PVCs). Un EVC usa el mismo concepto. Un EVC es una asociacin de dos
o ms interfaces de red de usuario (UNIs), donde un UNI es un interfaz de Ethernet
estndar en el sitio de un cliente. Dos tipos de EVCs son apoyados: punto a punto, y
multipunto a multipunto. Hay tambin dos tipos de servicio bsicos:
El servicio de lnea de Ethernet (servicio de E-lnea) proporciona un punto a punto
EVC entre dos UNIs.
El servicio de LAN de Ethernet (servicio de E-LAN) proporciona la conectividad de
multipunto. Esto puede unir dos o ms UNIs.

El metro Ethernet es una mezcla de WAN y tecnologas de LAN. Esto apoya el recorrido
virtual como un WAN y tambin proporciona el apoyo a un rate de informacin
comprometido (CIR), tamao de estallido cometido, rate de informacin mximo (PIR), y
el tamao de estallido mximo, como un WAN a menudo hace. En una manera similar a
un LAN, Metro Ethernet tambin apoya VLANs, 802.1X autenticacin de puerto, y el
Protocolo de Spanning Tree.

Metro Ethernet es usado para unir sitios de extranet e intranet. Los ISPs tambin
comienzan a usar el Metro Ethernet. El ISP tpicamente multiplexores suscriptores
mltiples sobre Ethernet rpida UNI. El cliente de un ISP usa un EVC para unirse al
punto local del ISP de la presencia (POP).

Metodologa Top Down

Marcos Huerta S.
232
El mtodo ms comn para usar Metro Ethernet para el acceso de Internet dedicado es
usar el servicio de E-lnea. Si el cliente quiere usar mismo UNI para soporta tanto
acceso de Internet como un intranet o unin extranet, este es tambin posible con el uso
de EVCs separado. Un cliente tambin puede usar EVCs mltiple para tener acceso a
ISPs mltiple por dedundancia, as la unin de Internet multihoming.

Metro Ethernet no se ha dado cuenta de un modo grande desde esta escritura, pero
esto sostiene muchas promesas y probablemente se dar cuenta en una forma o el otro.
Aunque pueda ser llamado algo ms en el futuro por algunos abastecedores, est claro
que el MAN de Ethernet y las tecnologas WAN proporcionan muchas ventajas, incluso
interoperabilidad, amplitud de banda alta, y bajo costo. Para ms informacin sobre el
Metro Ethernet, ver el Metro el sitio Web del Foro de Ethernet en
www.metroethernetforum.org.
Ethernet de alcance largo

Metro Ethernet no debera ser aturdida con otro LAN y tecnologa de MAN, llamada
Ethernet del Alcance largo (LRE), que puede ser usado para unir edificios y cuartos
dentro de edificios en redes de campus. El LRE proporciona un enlace de punto a punto
que puede entregar un simtrico, de full-dplex, la velocidad de transferencia de datos
cruda de 11.25 Mbps sobre distancias de hasta 1 milla (1.6 kilmetros).

El LRE permite el uso de Ethernet sobre la existencia, no condicionada, hilos de par
trenzado de cobre de grado de voz que es ubicuo en muchas ciudades y reas hasta
rurales, habiendo sido instalado y mejorado durante muchos aos por compaas
telefnicas. Los dueos de estructuras de multiunidad como hoteles, bloques de pisos,
complejos comerciales, y agencias del gobierno pueden usar LRE para proporcionar la
conectividad de Ethernet a clientes aunque el edificio que alambra usa tendido de cables
viejos Categora 1, 2, o 3.

El LRE permite que transmisiones de LAN de Ethernet coexistan con telfono, ISDN, o
Cambio de Rama Privado (PBX) servicios sealados sobre un par de hilos de cobre
ordinarios. Codificacin de usos de tecnologa de LRE y tcnicas de modulacin
digitales de la Lnea de Suscriptor Digital (DSL) mundo junto con Ethernet, el protocolo
de LAN ms popular. El captulo 11 cubre DSL ms detalladamente.
Cisco EtherChannel

Las tres secciones anteriores emigraron en el reino de aplicaciones de MAN.
Regresando a redes de campus ms pequeas, una tecnologia que es una parte de la
mucha caja de herramientas de diseadores de red de opciones de LAN es Cisco
EtherChannel tecnologa. El EtherChannel es una tecnologa trunking que el full-dplex
Metodologa Top Down

Marcos Huerta S.
233
de grupos que 802.3 Ethernet une juntos de modo que los enlaces puedan proporcionar
muy altas velocidades, soporta carga compartida, y sostienen el uno al otro si un enlace
falla. El EtherChannel fue primero introducido por Kalpana en sus switches a principios
de los aos 1990. Cisco ha ampliado la tecnologa, permaneciendo compatible con el
estandar IEEE 802.3.

El EtherChannel puede ser usado entre routers de trfico, switches, y servidores en
enlaces de punto a punto que requieren ms ancho de banda que un enlace de Ethernet
solo puede proveer. Cisco proporciona puertos EtherChannel para muchos de sus
switches de alta calidad y routers de trfico. Intel y otros vendedores hacen
EtherChannel NICs para servidores.

Con EtherChannel rpido, hasta cuatro enlaces de Ethernet Rpidos pueden ser
agrupados para proporcionar un ancho de banda agregada mxima de 800 Mbps (full-
dplex). Con Gigabit EtherChannel, hasta cuatro enlaces de Ethernet Gigabit pueden
ser agrupados para proporcionar un ancho de banda agregada mxima de 8 Gbps. Con
Ethernet 10-Gbps, hasta cuatro enlaces de Ethernet 10-Gbps pueden ser agrupados
para proporcionar un ancho de banda agregada mxima de 80 Gbps.

El EtherChannel distribuye unicast, broadcast, y el trfico a travs de los enlaces en un
canal, proporcionando un alto performance de carga que comparte y redundancia. En
caso que falle un enlace, el trfico es desviado a enlaces restantes sin la intervencin de
usuario.

NOTA
El EtherChannel selecciona un enlace dentro de un canal realizando una operacin XOR
en ltimos dos bits de las direcciones de destino y fuente en un frame. La operacin
XOR puede causar uno de cuatro valores de que trazan un mapa a los cuatro enlaces
posibles. (Si slo dos enlaces son usados, entonces la operacin XOR es hecha usando
slo el ltimo bits de cada direccin.) Este mtodo puede no equilibrar regularmente el
trfico si una mayora de trfico est entre dos anfitriones, como dos routers de trfico o
dos servidores. Sin embargo, para el trfico de red tpico con una mezcla de remitentes
y receptores, EtherChannel proporciona el equilibrio de carga de alto rendimiento.

Diseando troncos de EtherChannel, usted puede aumentar su eficacia de
caracteristicas redundantes agrupando enlaces que corren en cables en partes
diferentes de una red de campus. La figura 10-4 muestra una topologa donde el
diseador de red aument el ancho de banda entre un centro de datos y un armario de
cableado a un conjunto de 800 Mbps (full-dplex) y tambin us la diversidad fsica de la
planta de fibra para disminuir las posibilidades de una interrupcin de red.
Metodologa Top Down

Marcos Huerta S.
234
La figura 10-4. Redundancia de EtherChannel

La conexin EtherChannel consiste en cuatro enlaces de Fast Ethernet. Dos carreras de
fibra en los barrios este de Nueva York del edificio proporcionan 400 Mbps, y dos
carreras de fibra en el lado de Oeste del edificio proporcionan el restante 400 Mbps. En
este ejemplo, en caso de una fibra cortan en un lado del edificio, el lado restante
recoger el trfico en menos de 1 segundo y los clientes de armario del cableado no
notarn probablemente hasta el cambio.

Redes de ATM de campus

El ATM puede ser usado en WAN y redes de campus. Este captulo habla de redes de
campus de ATM; El captulo 11 habla del ATM redes WAN. En una red de campus, un
diseador puede seleccionar el ATM como una tecnologa de backbone para unir LANs.
El diseador tambin tiene la opcin de recomendacin que las estaciones de trabajo
ser equipado con el ATM NICs y protocolo apilen.

A mediados de los aos 1990 algunos expertos conectados a una red pensaron que el
ATM sustituira muchas instalaciones de LAN debido a su escalabilidad y apoyo a
requerimientos de QoS. Cuando han mostrado a Ethernet para ser escalables tambin,
y el trabajo ha sido hecho para soportar QoS en redes de LAN IP / redes WAN, el ATM
en redes de campus ha perdido el favor con algunos expertos. No hay ninguna
respuesta "correcta", sin embargo. El ATM es la opcin correcta para algunos clientes y
no para otros. Muchas organizaciones han puesto en prctica redes de ATM de campus
y sido satisfechas por los resultados. Otras organizaciones han conducido lejos del ATM
debido a su complejidad y el costo relativamente alto de componentes de ATM.

Metodologa Top Down

Marcos Huerta S.
235
El ATM es una opcin buena para videoconferencia, representacin mdica, telefona,
aprendizaje de distancia, y otras aplicaciones que mezclan datos, el vdeo, y la voz, y
requieren de ancho de banda alta, bajo retardo, y poca o ninguna inquietud de tardanza.

El ATM soporta de punta a punta garantas de QoS (mientras la red entera est basada
en ATM y las estaciones de trabajo usan una pila de protocolo de ATM, ms bien que un
IP u otra pila de protocolo). Con ATM, un sistema de final puede establecerse un
recorrido virtual con otro dispositivo de ATM al otro lado del ATM conectan a la red y
especifican parmetros QoS como lo siguiente:

Precio de clula mximo (PCR)
Precio de clula sostenible (SCR)
Tamao de estallido mximo (MBS)
Proporcin de prdida de clula (CLR)
Tardanza de transferencia de clula (CTD)

Las redes de LAN / las redes WAN generalmente no pueden soportar de punta a punta
la funcionalidad de QoS, aunque el progreso est siendo hecho en este para redes de
IP. Los protocolos como el Protocolo de Reservacin de Recurso (RSVP) y otro trabajo
que el IETF grupo de funcionamiento de Servicios Integrado hace causarn redes de IP
que ofrecen de punta a punta la funcionalidad de QoS. El captulo 4, "Caracterizando el
Trfico de Red," se habl la funcionalidad QoS desarrollada por el grupo de
funcionamiento de Servicios Integrado.

El ATM a veces ofrecido como superior a Ethernet porque esto soporta ms ancho de
banda. El ATM soporta OC-192 (10 Gbps) y puede escalar hasta ms all de aquella
velocidad cuando las nuevas tecnologas como WDM se hacen comunes. En el
ambiente de Ethernet, Gigabit Ethernet es comn para redes de backbone, pero 10-
Gbps Ethernet comienza ahora mismo a ser usada. Las versiones de Nuevos Ethernet
sern probablemente desarrolladas aquel que soporte velocidades an ms altas.

Una desventaja del ATM es el sobrecalentamiento para transmitir datos de ATM es
mucho ms alto que el sobrecalentamiento para transmitir datos de LAN tradicionales.
Los 5 bytes de cabecera requerido en cada clula de ATM de 53 bytes iguala el 9.4 por
ciento de sobrecalentamiento. Cuando la segmentacin y la nueva sesin y la Capa de
Adaptacin de ATM (AAL) la funcionalidad es aadida, el sobrecalentamiento puede
crecer a 13 bytes o el 24.5 por ciento.

Un otro factor para considerar antes de seleccionar el ATM es que la seguridad puede
ser difcil de poner en prctica. Un switch de ATM que slo entiende clulas, y no
Metodologa Top Down

Marcos Huerta S.
236
paquetes, no puede examinar paquetes para comprobar direcciones y nmeros de
puerto para poner en prctica filtros de paquete. Los filtros de paquete son un mtodo
tpico de proteger una red de uso ilegal y acceso, como hablado en El captulo 8,
"Desarrollando Estrategias de Seguridad de Red." Un router de trfico o el Firewall
que entiende paquetes son necesarios poniendo en prctica la seguridad con filtros de
paquete.

Seleccionar para el diseo de redes de campus los dispositivos de redes
En este punto en el proceso de diseo de red, usted ha desarrollado una topologa de
red y debera tener una idea de cual de los segmentos sern compartidos con hubs o
repetidores, puente con puentes o switches, o ruteando usando routers. Tabla 10-6
proporciona una revisin de las diferencias principales entre hubs (repetidores), puentes,
switches, y routers.

Tabla 10-6. Comparacin de Hubs, Puentes, Switches, y Routers
OSI
Capas
Puestas
en
prctica
Como Domino
de ancho de
banda Son
Segmentadas
Como dominio
de Emisin Son
Segmentadas
Despliegue
Tpico
Caracteristicas
Adicionales Tpicos
Hub 1 Todos los
puertos estn en
la misma
dominio de
ancho de banda.
Todos los
puertos estn en
la misma
dominio de
emisin.
Une
dispositivos
individuales
en pequeos
LANs
La autodivisin para
aislar nodos
descarriados
Puente 12 Cada puerto
delinea un
dominio de
ancho de banda.
Todos los
puertos estn en
la misma
dominio de
emisin.
Une redes Filtracin de paquete
configurada por usuario
Switch 12 Cada puerto
delinea una
dominio de
ancho de banda.
Todos los
puertos estn en
la misma
dominio de
emisin.
Une
dispositivos
individuales o
redes
Filtracin, capacidades
de ATM, procesamiento
de conexin directa,
multimedia (multimolde)
caracteristicas
Router 13 Cada puerto
delinea un
dominio de
ancho de banda.
Cada puerto
delinea un
dominio de
emisin.
Une redes Filtracin, firewalling,
enlaces WAN rpidos,
compresin, formacin
de una cola de espera
avanzada y transporte
de mercancas de
procesos, multimedia
(multimolde)
caracteristicas

Despus de que usted ha diseado una topologa de red y ha tomado algunas
decisiones en cuanto a la colocacin y alcance de compartido, cambiado, y segmentos
Metodologa Top Down

Marcos Huerta S.
237
de red, usted debera recomendar entonces hubs actuales, switches, puentes, y routers
de varios vendedores. Esta seccin cubre criterios de seleccin que usted puede usar
tomando decisiones.
Los criterios para seleccionar dispositivos de funcionamiento entre redes en general
incluyen lo siguiente:
El nmero de puertos.
Procesamiento de velocidad.
La cantidad de memoria.
La cantidad de latencia introdujo cuando el dispositivo transmite datos.
Rendimiento en paquetes por segundo (o clulas por segundo para ATM).
LAN y tecnologas WAN apoyadas.
Autodeteccin de velocidad (por ejemplo, 10 o 100 Mbps).
Autodescubrimiento de medio - contra operacin de full-dplex.
Medios (tendido de cables) apoyado.
Facilidad de configuracin.
Manejabilidad (por ejemplo, soporte para el Protocolo de Direccin de Red Simple
[SNMP] y escucha remota [RMON], indicadores de estado).
Costo.
Tiempo medio entre fracaso (MTBF) y tiempo medio de reparacin (MTTR).
El soporte de paquete filtro y otras medidas de seguridad.
Apoyo a componentes calientes-swappable.
Apoyo a suministros de energa redundantes.
Apoyo a caracteristicas de QoS.
Disponibilidad y calidad de soporte tcnico.
Disponibilidad y calidad de documentacin.
Disponibilidad y calidad de entrenarse (para switches complejos y routers.)
Reputacin y viabilidad del vendedor.
La disponibilidad de resultados de prueba independientes que confirman la
interpretacin del dispositivo.

Para switches y puentes (incluso puentes inalmbricos), los criterios siguientes pueden
ser aadidos a la primera lista de bulleted en esta seccin:
Tendiendo un puente sobre tecnologas apoyadas (tender un puente transparente,
algoritmo de spanning tree, tender un puente remoto, etctera).
Caracteristicas de soporte de spanning tree avanzados (reconfiguracin rpida de
spanning tree [802.1w] y rboles mltiples que atraviesan [802.1s]).
El nmero de direcciones de MAC que el switch o el puente pueden aprender
Soporte a seguridad de puerto (802.1X).
Soporte a conmutacin de conexin directa.
Soporte a conmutacin de conexin directa adaptable.
Metodologa Top Down

Marcos Huerta S.
238
Tecnologas de VLAN soportadas, como el Protocolo Trunking Virtual (VTP), Enlace
de Inter-switch (ISL) protocolo, e IEEE 802.1Q
Apoyo a aplicaciones de multimolde (por ejemplo, la capacidad de participar en el
Protocolo de Direccin de Grupo de Internet [IGMP] para controlar la extensin de
paquetes de multicast).
La cantidad de memoria disponible para cambiar tablas, tablas de enrutamiento (si
el switch tiene un mdulo de encaminamiento), y la memoria usada por rutinas de
protocolo.
Disponibilidad de un mdulo de encaminamiento.

Para routers (e switches con un mdulo de encaminamiento), los criterios siguientes
pueden ser aadidos a la primera lista de bulleted en esta seccin:
Protocolos de capa de red soportado.
Encaminamiento de protocolos soportado.
Soporta aplicaciones de multicast.
Soporta formacin de una cola de espera avanzada, conmutacin, y otras
caracteristicas de optimizacin.
Soporta la compresin (e performance de compresin si es soportado).
Soporta a la codificacin (e performance de codificacin si es soportado).

Para puntos de acceso inalmbricos y puentes, los criterios siguientes pueden ser
aadidos a la primera lista de bulleted en esta seccin:
Velocidades inalmbricas soportada (11 Mbps, 5.5 Mbps, y 54 Mbps)
Velocidad de puerto de Ethernet uplink.
Soporta Protocolo de Configuracin de Anfitrin Dinmico (DHCP), Traduccin de
Direccin de Red (NAT), y encaminamiento de IP.
Soporta a VLANs.
Soporta poder inline sobre Ethernet si el punto de acceso con poca probabilidad
ser montado cerca de salidas de poder.
Variedad de antena y apoyo a accesorios de antena de final ms alto.
Transmita el poder y reciba la sensibilidad.
La capacidad de templar el poder transmitir.
Disponibilidad de un modelo rugoso para uso exterior.
Soporta a certificar dispositivos de cliente por direccin de MAC.
Soporta autenticacin de usuario con 802.1X y el Protocolo de Autenticacin
Extensible (EAP).
Soporta a la autenticacin mutua, que permite que un cliente est seguro que esto
comunica con el servidor de autenticacin intencionado.
Una opcin para incapacitar servicio puso el identificador (SSID) emisiones
Soporta 128 bits o mejor codificacin.
Metodologa Top Down

Marcos Huerta S.
239
Soporta llaves dinmicas, llaves nicas para cada usuario, keying por paquete, y un
control de integridad de mensaje (MIC).
Soporta contraseas antiguas o naipes simblicos.
Soporta en Pblico Asegura el Paquete que Expide (a PSPF).
Soporta realces de seguridad especificados por Wi-Fi Acceso Protegido (WPA), Red
de Seguridad Robusta (RSN), o 802.11i.
Caracteristicas de Optimizacin en Dispositivos de Funcionamiento entre redes de
Campus
El captulo 13, "Optimizando Su Diseo de Red," cubre la optimizacin y QoS ms
detalladamente, pero vale la pena mencionar aqu que la optimizacin y las
caracteristicas de QoS son ms importantes en diseos de red de campus que muchos
diseadores podran esperar. No slo QoS es requerido en el WAN, donde el ancho de
banda disponible es inferior que en el campus, pero los requerimientos rigurosos para
tardanza baja conducen la necesidad de QoS en switches de LAN y router tambin.
Incluso en redes de campus, la demanda de ancho de banda en la red a menudo
excede el ancho de banda disponible. Las caracteristicas de QoS deberan ser
considerados seleccionando dispositivos de funcionamiento entre redes para redes de
campus.

En la mayor parte de redes, al menos algunos elementos son sobresuscritos y por lo
tanto requieren caracteristicas de QoS. Las caracteristicas de QoS el ms a menudo son
requeridos en uplinks de la capa de distribucin a la capa core de un diseo de red
jerrquico. A Veces el QoS es requerido en uplinks de la capa de acceso a la capa de
distribucin tambin. La suma de las velocidades en todos los puertos en un switch
donde los dispositivos de final estn relacionados es por lo general mayor que aquel del
puerto uplink. Cuando los puertos de acceso son totalmente usados, la congestin en el
puerto uplink es inevitable.

Los switches de capa de acceso por lo general proveen QoS basado slo en la Capa 2
informacin, si en absoluto. Por ejemplo, los switches de capa de acceso pueden basar
decisiones QoS en el puerto de entrada para el trfico. El trfico de un puerto particular
puede ser definido como el trfico prioritario en un puerto uplink. El mecanismo de
programacin en el puerto de salida de un switch de capa de acceso asegura que el
trfico de tales puertos es servido primero. El trfico de entrada puede ser marcado para
asegurar el servicio requerido cuando el trfico pasa por distribucin e switches de capa
principales.

La distribucin y los switches de capa core pueden proveer QoS basado en la Capa 3
informacin, incluso fuente y destino direcciones de IP, nmeros de puerto, y bits QoS
Metodologa Top Down

Marcos Huerta S.
240
en un paquete IP. El QoS en distribucin e switches de capa core debe ser
proporcionado en ambas direcciones del flujo de trfico. Ver El captulo 13 para ms
informacin en QoS y optimizacin.


Fase IV: Testeo, optimizacin y documentacin de la red
Las pruebas de su diseo de red son un paso importante en el proceso de diseo que permite que
usted confirme que su diseo encuentra los objetivos comerciales y tcnicos. Probando su diseo,
usted puede verificar que las soluciones que usted ha desarrollado proporcionarn la performance
y QoS que su cliente espera.

Este captulo present un acercamiento de anlisis de sistemas de pruebas que incluyen objetivos
de prueba de concretas, criterios de aceptacin verificables, escrituras de prueba, y pruebas de
logs. El captulo tambin proporcion la informacin en diseo e instrumentos de pruebas, incluso
instrumentos de Sistemas Cisco, WANDL, OPNET, Agilent, NetIQ, y NetPredict.

Testear el diseo de red
"Probando, Optimizando, y Documentando Su Diseo de Red," del Diseo Top Down
cubre los pasos finales en el diseo de red: pruebas, optimizacin, y documentacin de
su diseo. Este captulo habla de las pruebas de su diseo, que es un paso crtico en un
acercamiento de anlisis de sistemas para conectar a la red el diseo. Las pruebas le
ayudarn a demostrar a usted y su diseo de red al cliente que su solucin encuentra
objetivos comerciales y tcnicos.

Este captulo usando la industria prueban para predecir la performance de los
componentes de la red. Esto tambin cubre edificio y pruebas de un sistema de
prototipo, y utilizacin de direccin de red y modelado de instrumentos para anticipar la
performance de punta a punta y la calidad del servicio (QoS) que su diseo
proporcionar.

Las pruebas de un diseo de red son un amplio sujeto. Este libro cubre el tema en un
nivel alto. Los libros completos podran ser escritos en pruebas de diseo de red. De
hecho, dos libros recomendados que son relevantes para conectar a la red pruebas de
diseo incluyen a Raj Jain el Arte del Anlisis de Performance de Sistemas de
Computadora y Robert Buchanan el Arte de Probar Sistemas de Red (ambos publicados
por el John Wiley and Sons, Inc).

Note que tanto Jain como Buchanan usan el arte de palabra en los ttulos de sus libros.
Las pruebas de un sistema de red, y prediciendo y midiendo su performance, son desde
muchos puntos de vista un arte ms bien que una ciencia. En primer lugar, cada sistema
Metodologa Top Down

Marcos Huerta S.
241
es diferente, tan seleccionado los mtodos de pruebas correctas y los instrumentos
requieren que conciencia tcnica, creatividad, ingenio, y un entendimiento cuidadoso del
sistema sea evaluada. Ninguna metodologa sola o instrumento son correctos para cada
proyecto, o para cada diseador de red.

La seleccin de los procedimientos de pruebas correctas e instrumentos depende de
sus objetivos para el proyecto de pruebas, que tpicamente incluyen lo siguiente:

La verificacin que el diseo encuentra los objetivos comerciales y tcnicos claves.
La convalidacin de LAN y tecnologa WAN y selecciones de dispositivo.
La verificacin que un abastecedor de servicio proporciona el convenido servicio.
La identificacin de cualquier cuello de botella o problemas de conectividad.
Las pruebas de redundancia de la red.
El anlisis de los efectos en la performance de la red de enlaces que fallan.
La determinacin de tcnicas de optimizacin que sern necesarias para encontrar
la performance y otros objetivos tcnicos.
El anlisis de los efectos en la performance de mejorar los enlaces de red o
dispositivos.
Demostrando que su diseo es mejor que un diseo del competidor (en casos
donde un cliente planea seleccionar un diseo de ofertas proporcionadas por
vendedores mltiples o asesores).
El paso "de una prueba de aceptacin" que le da la aprobacin de ir adelante con la
realizacin de red (y posiblemente ser pagado para completar la fase de diseo del
proyecto).
El convencimiento de los gerentes y los compaeros de trabajo que su diseo es
eficaz.
La identificacin de cualquier riesgo que podra impedir la implementacin y planes
para contingencias.
La determinacin cuantas pruebas adicionales podran ser requeridas. Por ejemplo,
quizs usted decidir que el nuevo sistema debera ser primero desplegado como
un piloto y someterse a ms pruebas antes de ser implementado a todos los
usuarios.

Utilizacin de Pruebas de Industria
Los vendedores, los laboratorios de prueba independientes, y los boletines comerciales
a menudo publican la informacin en las pruebas que ellos han completado para
verificar las caracteristicas y la performance de dispositivos de red particulares o
guiones de diseo de red.


Metodologa Top Down

Marcos Huerta S.
242
Algunos laboratorios de pruebas respetados, independientes incluyen lo siguiente:

El Laboratorio de Interoperabilidad en la Universidad de Nuevo Hampshire (IOL).
Refirase a www.iol.unh.edu para ms informacin.
Laboratorios de ICSA. Refirase a www.icsalabs.com para ms informacin.
Laboratorios de Miercom. Refirase a www.miercom.com para ms informacin.
KeyLabs. Refirase a www.keylabs.com para ms informacin.
Tolly Group. Refirase a www.tollygroup.com para ms informacin.

A veces, para diseos de red simples, usted puede confiar en resultados de prueba de
vendedores, laboratorios independientes, o boletines comerciales para demostrar a su
cliente que su diseo funcionar como ha querido. Por ejemplo, si usted ha propuesto
un diseo de red de campus basado nicamente en la tecnologa de conmutacin de un
vendedor particular, y un boletn comercial independiente ha verificado las
caracteristicas y la performance de los productos del vendedor, los resultados de
pruebas del diario podran convencer suficientemente a su cliente de la eficacia de su
diseo. Para diseos de red ms complejos, usted generalmente debera hacer sus
propias pruebas, adems de la presentacin a su cliente estudios independientes que le
ayude a vender su caso.

Los resultados de prueba publicados por vendedores o partidos independientes, como
boletines comerciales o laboratorios de pruebas, pueden ser informativos, pero ellos
tambin pueden engaar. En primer lugar, los vendedores obviamente hacen todo lo
posible para asegurar que sus productos parecen funcionar mejor que los productos de
sus competidores. Tenga presente que algunos boletines comerciales y los laboratorios
estn tambin poco dispuestos a publicar resultados negativos sobre los productos de
los vendedores porque la ayuda de vendedores paga sus cuentas. (Los vendedores
pagan a laboratorios para dirigir pruebas y publicar la publicidad en boletines
comerciales.)

Adems, la mayor parte de pruebas dirigidas por vendedores, laboratorios
independientes, y boletines comerciales son pruebas de componentes, ms bien que
pruebas de sistema. Las pruebas componentes no son generalmente suficientes para
medir la performance de un diseo de red. Adems, la configuracin de prueba usada
por el vendedor o laboratorio de pruebas casi seguramente no empareja su
configuracin actual. Este significa que los resultados de pruebas pueden no ser
relevantes a su diseo particular.
Para entender como los componentes de red se comportarn en su configuracin con
sus aplicaciones, trfico de red, y las exigencias nicas, construyendo un sistema de
prototipo o el modelo de la red son por lo general necesarias. El prototipo o el modelo le
Metodologa Top Down

Marcos Huerta S.
243
dejarn ir ms all de pruebas componentes y estimar la performance probable del
diseo, incluso tardanza de punta a punta, rendimiento, y disponibilidad.

Construyendo y Testeando un Prototipo de Sistema de Red
El objetivo de esta seccin es ayudarle a hacer una lista de las tareas de construir un
prototipo que verifica y demuestra el comportamiento de un sistema de red. Un objetivo
secundario es ayudarle a determinar cuanto de un sistema de red debe ser puesto en
prctica en un prototipo para verificar el diseo.

Un prototipo es una realizacin inicial de un nuevo sistema que proporciona un modelo
en el cual la realizacin final ser modelada. Un prototipo permite que un diseador
valide la operacin y la performance de un nuevo sistema. Debera ser funcional, pero
no tiene que ser una realizacin de tamao natural del nuevo sistema. Esto debera
resultar, sin embargo, de un anlisis cuidadoso de necesidades como de una revisin de
diseo con el cliente de final.

Determinando el Alcance de un Sistema de Prototipo
Basado en un entendimiento claro de los objetivos de su cliente, usted debera
determinar cunto del sistema de red usted debe poner en prctica para convencer a su
cliente que el diseo encontrar exigencias. Como no es generalmente prctico poner
en prctica un sistema completo, de tamao natural, usted debera aislar qu aspectos
de un diseo de red son los ms importantes para su cliente. Su prototipo debera
verificar capacidades importantes y funciones que no podran funcionar suficientemente.
Las funciones arriesgadas pueden incluir funciones complejas, intrincadas e
interacciones componentes, as como funciones donde el diseo era bajo la inflluencia
de coacciones comerciales o tcnicas, y compensaciones con objetivos contrarios.

El alcance de un prototipo de red puede depender de objetivos tcnicos como en no
tcnicos. Preste la atencin a factores no tcnicos, como tendencias de su cliente, estilo
comercial, e historia con proyectos de red. Quizs el cliente ya rechaz un diseo de red
debido a su carencia de manejabilidad y caracteristicas de utilidad y tan podra ser
predispuesto para buscar estos problemas en su sistema. Si es as, un objetivo de su
prototipo debera ser de desarrollar una demostracin que la manejabilidad de
escaparates y la utilidad benefician.

Su capacidad de poner en prctica un prototipo depende de recursos disponibles. Los
recursos incluyen a la gente, el equipo, el dinero, y el tiempo. Usted debera usar
recursos suficientes de producir una prueba vlida sin requerir tantos recursos que
empujes probadores el proyecto sobre el presupuesto, lo retrasa, o negativamente
afecta a usuarios de red.
Metodologa Top Down

Marcos Huerta S.
244
Un prototipo puede ser puesto en prctica y probado de tres modos:

Como una red de prueba en un laboratorio.
Integrado en una red de produccin, pero probado durante fuera de horas.
Integrado en una produccin conectada a la red y probado durante horas de oficina
normales.

Esto es una idea buena de poner en prctica al menos la parte de un sistema de
prototipo en una red de prueba antes de ponerlo en prctica en una red de produccin.
Esto permitir que usted calcule bugs sin afectar la productividad de trabajadores que
dependen de la red. Una red de prueba tambin le ayuda a evaluar capacidades de
producto, desarrollar configuraciones de dispositivo iniciales, y el modelo predijo la
performance de red y QoS. Usted tambin puede usar una red de prueba para
demostrar su diseo y productos seleccionados a un cliente.

Despus de que un diseo ha sido aceptado en una base provisional, es importante
probar una realizacin inicial del diseo en una red de produccin para identificar cuellos
de botella posibles u otros problemas que el verdadero trfico puede provocar. Las
pruebas iniciales pueden ser hechas durante fuera de hora para minimizar problemas
posibles, pero las pruebas finales deberan ser hechas durante horas de oficina
normales para evaluar la performance durante la carga normal.

Unas pautas claves para tener presente planeando una prueba "viva" son como sigue:

Advierta a los usuarios de antemano sobre el cronometraje de pruebas entonces
ellos pueden esperar un poco de degradacin de performance, pero pedir a los
usuarios trabajar cuando ellos tpicamente hacen para evitar invalidar la prueba por
el comportamiento anormal.
Advierta a administradores de red y otros diseadores de antemano de evitar la
posibilidad que ellos podran dirigir pruebas al mismo tiempo.
Advierta a administradores de la red de antemano, entonces ellos no son aturdidos
en alarmas inesperadas en consolas de direccin de red, y entonces ellos pueden
explicar el trfico de prueba documentando estadstica de disponibilidad y la carga.
De ser posible, mltiplo dirigido, corto (menos que el 2 minuto) las pruebas para
minimizar a usuario afectan y disminuyen los efectos en medidas de lnea de fondo.
Las pruebas dirigidas que comienzan con pequeo trfico y cambios de
configuracin, y luego incrementalmente aumentan los cambios.
Los resultados de prueba de monitor y los discontinan cuando los objetivos de
prueba son encontrados, o la red de produccin es con severidad afectada o falla.

Metodologa Top Down

Marcos Huerta S.
245
La escritura de un Plan de Prueba para el Sistema de Prototipo
Despus de que usted ha decidido el alcance de su prototipo, escriba un plan que
describe como usted probar el prototipo. El plan de prueba debera incluir cada uno de
los temas siguientes, que las pocas siguientes secciones de este captulo describen ms
detalladamente:

Objetivos de prueba y criterios de aceptacin.
Los tipos de pruebas que sern dirigidas.
Equipo de red y otros recursos requeridos.
Escrituras de prueba.
El objetivo y variaciones para el proyecto de pruebas.

El Desarrollo de Objetivos de Prueba y Criterios de Aceptacin
El primer paso y ms importante por escrito es un plan de prueba y debe poner los
objetivos en una lista de la prueba (s). Los objetivos deberan ser especficos y
concretos, y deberan incluir la informacin en la determinacin si la prueba pasa o falla.
Lo siguiente es algunos ejemplos de objetivos especficos y criterios de aceptacin que
fueron escritos para un cliente particular:
Mida el tiempo de respuesta para la aplicacin XYZ durante horas de uso mximas
(entre 10 y a las 11h00). El criterio de aceptacin, por oferta de diseo de red, es
que el tiempo de respuesta debe ser medio segundo o menos.
Mida el rendimiento de la aplicacin XYZ durante horas de uso mximas (entre 10 y
a las 11h00). El criterio de aceptacin, por oferta de diseo de red, es que el
rendimiento debe ser al menos 2 Mbps.
Mida la cantidad de tiempo que esto toma para un usuario de la nueva voz sobre IP
(VoIP) el sistema para or un tono de marcacin despus de recoger un
microtelfono telefnico. El criterio de aceptacin es que la cantidad (media) media
del tiempo debe ser menos que o igual a la cantidad media del tiempo para un
usuario del Cambio de Rama Privado (PBX) sistema telefnico corporativo. El
desacuerdo del promedio tambin debe ser igual o ms pequeo.

Los objetivos y los criterios de aceptacin deberan estar basados en los objetivos
comerciales y tcnicos de un cliente para el diseo de red, pero pueden ser ms
formalmente o expresamente definidos. Los criterios para declarar que una prueba pas
o fall deben estar claros y convenidos por el probador y el cliente. Usted debera evitar
un problema comn, en el cual la prueba es completada, los probadores y los clientes
convienen en resultados, pero discrepan en el resultado de la performance.

A pesar de que el objetivo subyacente de su prototipo podra ser de mostrar que su
sistema es mejor que un competidor, usted debera evitar incorporar tendencias o
Metodologa Top Down

Marcos Huerta S.
246
nociones preconcebidas sobre resultados en objetivos de prueba (y escrituras de
prueba).

El objetivo de prueba debera ser simplemente medir el resultado, no demostrar que el
resultado est en su favor; y, debera estar basado tanto como posible en estndares de
industria para todas las tecnologas relevantes y servicios (por ejemplo, VoIP y
estndares de admisibilidad de voz ITU).

Los objetivos y los criterios de aceptacin pueden referirse a una medida de lnea de
fondo para la red corriente. Por ejemplo, un objetivo podra ser medir la comprobacin
por redundancia cclica (CRC) ndice de errores en un segmento WAN y comparar los
resultados a una medida de lnea de fondo. El criterio de aceptacin podra ser que
deben haber el 20 por ciento menos errores que hay hoy. Para ser capaz de determinar
si el criterio haya sido encontrado, una medida de lnea de fondo debe existir, como fue
hablado en El captulo 3, "Caracterizando las Interredes Existentes." El captulo 3
tambin incluye una Lista de comprobacin de Salud de Red que puede ayudarle a
escribir criterios de aceptacin y objetivos.

La determinacin de los Tipos de Pruebas para Correr
En general, las pruebas deberan incluir performance, tensin, y anlisis de fracaso. El
anlisis de performance debera examinar el nivel de servicio que el sistema ofrece en
trminos de rendimiento, tardanza, variacin de tardanza, tiempo de respuesta, y
eficacia.

El anlisis de tensin debera examinar cualquier degradacin del servicio debido a la
carga ofrecida aumentada en la red. El anlisis de fracaso debera calcular la
disponibilidad de red y la exactitud, y analizar las causas de cualquier interrupcin de
red.

Segn los objetivos comerciales y tcnicos de un cliente, otras pruebas que podran ser
necesarias son manejabilidad, utilidad, adaptabilidad, y pruebas de seguridad.
Los tipos especficos de pruebas para correr contra su prototipo particular dependen de
objetivos de prueba. Las pruebas tpicas incluyen lo siguiente:
Tiempo de respuesta de aplicacin probando. Este tipo de la prueba mide la
performance del punto de vista de un usuario y evala cuanto tiempo un usuario
debe esperar ejecutando operaciones tpicas aquella actividad de red de causa.
Estas operaciones incluyen el comienzo de la aplicacin, que cambia entre
pantallas/formas/campos dentro de la aplicacin, y el archivo se abre, lee, escribe,
bsquedas y finales. Con este tipo de pruebas, el probador mira a usuarios actuales,
o simula el comportamiento de usuario con un instrumento de simulacin. La prueba
Metodologa Top Down

Marcos Huerta S.
247
debera comenzar con un nmero predeterminado de usuarios y acciones, entonces
gradualmente aumentar el nmero de usuarios y acciones para exponer cualquier
aumento en el tiempo de respuesta debido a red adicional o carga de servidor.
Pruebas de rendimiento. Este tipo de la prueba mide el rendimiento para una
aplicacin particular y/o rendimiento para aplicaciones mltiples en kilo-bytes o
megabytes por segundo. Esto tambin puede medir el rendimiento en trminos de
paquetes por segundo por un dispositivo de conmutacin (por ejemplo, un switch o
router). Como en el tiempo de respuesta probando, las pruebas de rendimiento
deberan comenzar con varios usuarios y acciones que son gradualmente
aumentadas.
Pruebas de disponibilidad. Con pruebas de disponibilidad, las pruebas son dirigidas
contra el sistema de prototipo durante 24 a 72 horas, bajo el medio a la carga
pesada. El precio de errores y fracasos es supervisado.
Pruebas de regresin. Las pruebas de regresin se aseguran que el nuevo sistema
no rompe ninguna aplicacin o componentes que eran conocidos trabajar y
funcionar a un cierto nivel antes de que el nuevo sistema fuera instalado. Las
pruebas de regresin no prueban nuevas caracteristicas o mejoras. En cambio, esto
se concentra en aplicaciones existentes. Las pruebas de regresin deberan ser
completas, y son por lo general automatizadas para facilitar este completa.

La Documentacin de Equipo de Red y Otros Recursos
Un plan de prueba debera incluir un dibujo de topologa de red y una lista de
dispositivos que sern requeridos. El dibujo de topologa debera incluir dispositivos
principales, direcciones, nombres, enlaces de red, y alguna indicacin de capacidades
de enlaces. El dibujo de topologa tambin debera documentar alguna WAN o enlace de
LAN que deben unirse a la red de produccin o al Internet.

La lista de dispositivos debera incluir hubs, repetidores, switches, routers, estaciones de
trabajo, servidores, simuladores de equipo telefnico, puntos de acceso inalmbricos,
firewalls, cables, etctera. La lista debera documentar nmeros de versin para
hardware y software, e informacin de disponibilidad. A veces las pruebas requieren el
nuevo equipo que no podra estar disponible an, o equipo que por otros motivos tiene
un tiempo de plomo largo para la consecucin. Si es as, debera ser notado en el plan
de prueba.

En la adicin para conectar a la red equipos, un plan de prueba debera incluir una lista
de instrumentos de pruebas requeridos. El "Instrumentos para Probar un Diseo de
Red" en la seccin ms adelante en este captulo describiremos los instrumentos tiles
para probar un diseo de red. Los instrumentos tpicos incluyen la direccin de red y la
Metodologa Top Down

Marcos Huerta S.
248
escucha de instrumentos, instrumentos de generacin de trfico, modelando e
instrumentos de simulacin, e instrumentos de direccin de nivel de servicio y QoS.

El plan de prueba tambin debera poner cualquier aplicacin en una lista que
aumentar la eficacia de pruebas, por ejemplo aplicaciones de distribucin de software o
programas de mando a distancia que facilitan la configuracin y la nueva configuracin
de nodos durante una prueba.

NOTA
En Microsoft el ambiente de Windows, si sus pruebas requieren nuevas aplicaciones de
software que cargan o versiones en sistemas mltiples, Servidor de Direccin de
Sistemas de Microsoft (SMS) software puede ser una adicin til al ambiente de
pruebas.

El plan de prueba debera documentar cualquier otro recurso que usted necesitar,
incluso lo siguiente:

Tiempo previsto en un laboratorio en su sitio o el sitio del cliente.
La fuente de poder, el aire acondicionado, el espacio, y otros recursos fsicos.
Ayuda de compaeros de trabajo o personal de cliente.
Ayuda de usuarios para probar aplicaciones.
La red se dirige y nombres.

Escrituras de Prueba
Para cada prueba, escriba una escritura de prueba que pone los pasos en una lista para
ser tomados para realizar el objetivo de prueba. La escritura debera identificarse qu
instrumento es usado para cada paso, como el instrumento es usado para hacer
medidas relevantes, y que informacin debera ser registrada durante pruebas. La
escritura debera definir valores iniciales para parmetros y como variar aquellos
parmetros durante pruebas. Por ejemplo, la escritura de prueba podra incluir un valor
de carga de trfico inicial y aumentos incrementales para la carga.

Lo siguiente es un ejemplo de una escritura de prueba simple para el ambiente de
prueba de red mostrado en La figura 12-1.

Objetivo de prueba. Tasa la capacidad del firewalls de bloquear el trfico de ABEC
de Aplicacin, tanto durante la luz como durante condiciones de carga
moderadamente pesadas.
Criterio de aceptacin. El firewalls debera bloquear el TCP SYN peticin de cada
estacin de trabajo en la Red que intenta establecer una sesin de ABEC de
Metodologa Top Down

Marcos Huerta S.
249
Aplicacin con el Servidor 1 en la Red B. El firewalls debera enviar a cada estacin
de trabajo un TCP RST paquete (reinicializado).

La figura 12-1. El Ambiente de Prueba para la Escritura de Prueba de Ejemplo

Pasos para la Prueba:
1. Comience a capturar el trfico de red en el analizador de protocolo en la Red A.
2. Comience a capturar el trfico de red en el analizador de protocolo en la Red B.
3. ABEC de Aplicacin Dirigido en una estacin de trabajo localizada en Red A y
Servidor de acceso 1 en Red B.
4. Deje de capturar el trfico de red en los analizadores de protocolo.
5. Los datos de demostracin en la Red el analizador de protocolo de A y verifica que
el analizador captur un TCP SYN paquete de la estacin de trabajo. Verifice que la
direccin de destino de capa de red es el Servidor 1 en la Red B, y el puerto de
destino es el puerto 1234 (el nmero de puerto para el ABEC de Aplicacin).
Verifice que el firewalls respondi a la estacin de trabajo con un TCP RST el
paquete.
6. Los datos de demostracin en la Red el analizador de protocolo de B y verifica que
el analizador no captur ningn trfico de ABEC de Aplicacin de la estacin de
trabajo.
7. Registre los resultados de la prueba en el archivo histrico de proyecto.
8. Salve los archivos de rastro de analizador de protocolo al directorio de archivo de
rastro de proyecto.
9. Gradualmente aumente la carga de trabajo en el firewalls, aumentando el nmero de
estaciones de trabajo en la Red uno por uno, hasta que 50 estaciones de trabajo
dirijan el ABEC de Aplicacin e intenten alcanzar al Servidor 1. Repita Pasos 1 a 8
despus de que cada estacin de trabajo es aadida a la prueba.

La documentacin del Objetivo de Proyecto
Para proyectos de pruebas complejos, el plan de prueba debera documentar el
objetivo de proyecto, incluso el principio y fecha de fin para el proyecto, y variaciones
principales. El objetivo debera poner tareas principales en una lista y la persona que
Metodologa Top Down

Marcos Huerta S.
250
ha sido adjudicada a cada tarea. La lista siguiente muestra tareas tpicas, incluso
algunas tareas que deberan haber sido completadas ya cuando el plan de prueba es
escrito:

v Escriba objetivos de prueba y criterios de aceptacin.
v Disee la topologa de red para el ambiente de pruebas.
v Determine que hardware conectado a una red y el software sern necesarios.
v Coloque un orden de compra para el hardware y software si es necesario.
v Determine qu pruebas de instrumentos sern necesarias.
v Coloque un orden de compra para los instrumentos de pruebas si es necesario.
v Determine otros recursos que sern necesarios y harn los arreglos para su
disponibilidad.
v Escriba escrituras de prueba.
v Instale y configure el hardware y el software.
v Pruebas de principio.
v Registre los resultados de las pruebas.
v Revise y analize los resultados.
v Reduzca datos de resultados (si es necesario).
v Presente resultado al cliente.
v Archive los resultados.

Implementando el Plan de Prueba
La implementacin de un plan de prueba es seguir las prueba de scripts y documentar
su trabajo.Sin embargo, a veces las pruebas de scripts no puede ser seguido
exactamente, porque es difcil precisar todas las dificultades y problemas ha
considerar cuando escribe un scripts. Por esta razn, es importante mantener logs,
electrnicamente o en un cuaderno de notas. (Un logs electrnico son preferible
porque esto permite buscar ms fcil la informacin ms tarde.)

Adems de mantener los logs documentados que se recogieron en las pruebas de
datos y resultados de prueba, esto es una buena idea de conservar la actividad diaria
y registrar aquel progreso y cualquier cambio hecho en las configuraciones de equipo
o pruebas de scripts. El logs de actividad diario tambin puede registrar cualquier
problema que fue encontrado y teoras sobre causas. Estas teoras podran ser
provechosas ms tarde analizando resultados (y ellos podran ayudar con futuros
proyectos de pruebas).

Instrumentos para Probar un Diseo de Red
Esta seccin habla de los tipos de instrumentos que pueden ser usados para probar
un diseo de red. La seccin tambin recomienda algunos instrumentos especficos.
Metodologa Top Down

Marcos Huerta S.
251
Tipos de Instrumentos
En general, los tipos de instrumentos que usted puede usar para probar su diseo de
red incluyen lo siguiente:

v Network-management and monitoring tools
v Traffic-generation tools
v Modeling and simulation tools
v QoS and service-level-management tools

Network-management and monitoring tools son por lo general usadas en un ambiente
de produccin para alertar a administradores de la red de problemas y acontecimientos de
red significativos, pero ellos tambin ayudan a probar un diseo de red. Network-
management applications, como CiscoWorks ofrecido por Cisco System o CV OpenView
de Hewlett-Packard, pueden alertarle de problemas en su red de prueba. Estos tipos de
instrumentos por lo general corren en estacin de red dedicada (NMS).

Network-management and monitoring software tambin pueden incluir aplicaciones que
residen en dispositivos de red. Por ejemplo, algunos sistemas operativos de red incluyen
el software que supervisa la CPU del servidor y el uso de la memoria, que puede ser til
aislando problemas de performance en un nuevo diseo de red. Como otro ejemplo,
mucho Sistema Operativo de Netrwork Cisco (IOS) los comandos son instrumentos tiles
para comprobar la performance de routers Cisco e switches en un ambiente de prueba.

Traffic-generation tools usted tambin puede usar un analizador de protocolo para
supervisar su nuevo diseo. Un analizador de protocolo puede ayudarle a analizar
comportamiento de trfico, errores, utilizacin, eficacia, y ratios de los paquetes broadcast
y multicast. Usted tambin puede usar un analizador de protocolo para generar el trfico.
Si es poco prctico comprar, instalar, y configurar todos los dispositivos requeridos
desarrollar un prototipo en gran escala, usted puede comprar un subconjunto de los
dispositivos y generar el trfico para inducir la carga que estara presente si todos los
dispositivos fueran instalados. Este le dar una aproximacin del comportamiento del
nuevo sistema.

Dependiendo del paquete de prueba para la red del proyecto, en vez de usar un
analizador de protocolo para generar trfico, usted puede usar generadores de trfico de
multipuerto poderosos. Estos instrumentos pueden enviar corrientes mltiples del trfico
de red, emular protocolos, y analizar la performance y la conformidad a especificaciones
de estndares.

Metodologa Top Down

Marcos Huerta S.
252
Modeling and simulation tools para un modelo sofisticado del nuevo sistema de red,
usted puede usar instrumentos de simulacin y modelado. La simulacin es el proceso de
usar software y modelos matemticos para analizar el comportamiento de una red sin
requerir una red actual. Un instrumento de simulacin le deja desarrollar un modelo de una
red, estimar la performance de la red, y comparar alternativas para poner en prctica la
red. Un instrumento de simulacin, de ser exacto, es a menudo preferible a realizacin y
medicin de un sistema de prototipo extenso porque esto permite que alternativas sean
ms fcilmente comparadas.

Un instrumento de simulacin bueno es un buen desarrollo para comprender la gestin de
redes de computadora, anlisis estadstico y tecnicas de modelado. Como una simulacin
completa de un sistema requerira que el simulador fuera ms poderoso que la suma de
los componentes que esto modela, un instrumento de simulacin sofisticado permite el
desarrollo de un modelo que los factores en slo aquellos aspectos de la red que tienen
un impacto significativo en la performance. El desarrollo de instrumentos de simulacin
buenos es un arte que requiere la gran conciencia de como las verdaderas redes y los
componentes trabajan y se relacionan.

Los instrumentos de simulacin eficaces incluyen bibliotecas de dispositivo que modelan
el comportamiento de los dispositivos conectados a una red (por ejemplo, switches y
routers). Como las limitaciones de performance de switches y routers a menudo provienen
del camino procesos, buffers, y las colas son puestas en prctica, el switch y los modelos
de router deberan tener la arquitectura en cuenta del dispositivo.

El modelado de switche y router puede ser desafiante, sin embargo, porque cada
vendedor tiene numerosas tcnicas de optimizacin y opciones de configuracin. Una
solucin con este problema consiste en que un instrumento de simulacin puede
incorporar medidas del trfico de red actual, ms bien que confiar nicamente en
bibliotecas de dispositivo que modelan el comportamiento de dispositivo terico. Este
acercamiento no slo soluciona el problema de modelar dispositivos complejos, sino
tambin permite que el instrumento calibre asunciones hechas sobre carga de trfico y
caractersticas. Hay menos confianza en el diseador de red para predecir exactamente la
carga de trfico, y ms confianza en verdaderas medidas.

QoS and Service-level-management tools analizan la performance de punta a punta
para aplicaciones de red. NetPredictor del NetPredict, Inc, es el instrumento de direccin
de nivel de servicio y un QoS. Algunos instrumentos, como el software VitalSuite de
Tecnologas Lucent, supervisan la performance de aplicacin de tiempo real. Otros
instrumentos predicen la performance de nuevas aplicaciones antes de que ellos sean
Metodologa Top Down

Marcos Huerta S.
253
desplegados. El NetPredictor combina las capacidades de escucha y prediccin. El
NetPredictor es descrito ms detalladamente en la siguiente seccin.

Instrumentos Especficos para Probar un Diseo de Red
Esta seccin recomienda algunos instrumentos especficos que pueden ser usados para
probar su diseo de red. Adems de los instrumentos puestos en una lista aqu usted
tambin puede usar muchos de los instrumentos hablados en el Captulo 3,
"Caracterizando las Interredes Existentes," y el Captulo 9, "Desarrollando Estrategias de
Manejo de Red."

CiscoWorks Internetwork Performance Monitor
El captulo 3 mencion el CiscoWorks Internetwork Performance Monitor (IPM), que es
un instrumento de administracin de red que localiza cuellos de botella, mide el tiempo
de respuesta, y diagnostica problemas de latencia. El IPM est disponible como un
componente del CiscoWorks Solucin de Administracin de Ruteo WAN. Trabajando
con caracteristicas del Cisco IOS Software, IPM puede identificar los caminos posibles
entre dos dispositivos y mostrar la performance para cada uno de los saltos en los
caminos.
El IPM tiene tres componentes:
v El software procesa en el Cisco IOS Software que realizan medidas de tiempo de
respuesta (SAA).
v Una aplicacin grfica que corre en un NMS y colecciona y almacena datos en
varios formatos de base de datos relacional estndares de industria.
v El software que corre en un ordenador central que tiene medidas de tiempo de
respuesta de un router en la red al ordenador central.

WANDL's Network-Planning and Analysis Tools
WANDL, Inc, desarrollado la suite de software NPAT para ayudar a clientes para
manejar el diseo, planificacin, y manejo de WANs en gran escala. Los clientes del
WANDL, que incluyen a portadores, Fortuna 500 compaas, y organizaciones del
gobierno, usan NPAT para planear y analizar redes que se extienden en el tamao de
30 a ms de 300 nodos de backbone.

Los instrumentos WANDL soportan capacidad de planificacin, pruebas de red, y
optimizacin. Ellos permiten que un usuario pruebe la redundancia de una red y
analice los efectos de interrupciones de red. Ellos facilitan analizar alternativas para
tecnologas WAN con sofisticado y sin instrumentos de anlisis. Una caractersitica
nico de los instrumentos WANDL es la capacidad de estimar gastos de tarifa
mensuales para el recorrido WAN.

Metodologa Top Down

Marcos Huerta S.
254
OPNET Technologies
El software de Tecnologas de OPNET empotra el conocimiento experto sobre como
los dispositivos de red, los protocolos, las aplicaciones, y los servidores funcionan.
Esta inteligencia permite a usuarios optimizar la performance y la disponibilidad de sus
redes y aplicaciones. El Modelador de OPNET es un ambiente de desarrollo de
tecnologa de red que permite que usuarios diseen y estudien sistemas de red. El
modelador orientado por objeto modelando acercamiento y editores grficos refleja la
estructura de redes actuales y componentes de red.
El OPNET IT el Gur es otro producto de OPNET que modela Cisco y las
configuraciones de dispositivo de otros vendedores e incluye instrumentos para tomar
datos capturados y analizar qu componentes son los cuellos de botella.

Agilent's RouterTester
Agilents RouterTester es un sistema de prueba poderoso y flexible para generar
corrientes de trfico y probar el diseo de red y enrutar la escalabilidad. El sistema
RouterTester puede generar IPv4 y IPv6, la sealizacin, el multicast, y la
construccin de un tnel del trfico de protocolo sobre una amplia variedad del
Paquete sobre SONET (POS), ATM, e interfaces de Ethernet. Esto tiene la capacidad
de manejar hasta 2000 corrientes individuales por puerto. Esto tambin incluye
instrumentos para enviar corrientes de trfico realistas, construyendo configuraciones
de prueba grandes, realizando QoS y medidas de performance, y verificando la
realizacin de protocolo correcta.

NetIQ Voice and Video Management Solution
El NetIQ tiene numerosos productos para planear mejoras de red y probar diseos de
red. Los productos de NetIQ que ayudan a un diseador de red a tasar si una red
puede manejar voz y aplicaciones de vdeo son sobre todo provechosos. El Asesor
Vivinet de NetIQ, en particular, puede ayudarle a determinar rpidamente y fcilmente
como bien trabajara VoIP en una red antes del despliegue. El Asesor de Vivinet
predice la calidad de llamada total que usted puede esperar de la red y genera
informes que detallan la preparacin VoIP de la red.

NetPredict's NetPredictor
NetPredictor es para performance y el instrumento de manejo de nivel de servicio que
predice y supervisa el QoS proporcionado por una red, cuando sera percibido por un
usuario. El NetPredictor analiza los efectos interrelacionados en aplicaciones de red
de latencia de punta a punta, carga, y prdida de paquete. Esto basa su anlisis en
modelos tanto de red como de comportamiento de protocolo que son automticamente
calibrados por direccin de red actual y datos de analizador de protocolo.
El NetPredictor facilita las tareas de diseo siguientes:
Metodologa Top Down

Marcos Huerta S.
255
v La determinacin que red y los recursos de servidor son necesarios para entregar
un nivel de QoS requerido.
v La prediccin de performance de punta a punta antes de despliegue de nuevas
aplicaciones o tecnologas.
v El desarrollo de acuerdos de nivel de servicio (SLAs) basado en predicciones de
performance verificables.
v La escucha de performance actual y comparndolo con expectativas o SLAs.

El NetPredictor le deja modelar una red existente y luego simular la sustitucin
dispositivos existentes con otros componentes de red para determinar como la
performance cambiar. El modelo puede estar basado en el conocimiento sobre la red
y aplicaciones que usted proporciona, e informacin de una biblioteca de dispositivo.
El modelo automticamente se adapta a datos que NetPredictor captura de la red
actual.

La aproximacin de adaptacin modela han sido usados extensivamente en muchas
otras industrias (por ejemplo, las industrias que tratan sustancias qumicas y
aeroespaciales). El NetPredictor es el primer producto basado en un acercamiento de
adaptacin modela para el manejo de red.

Optimizar el diseo de red
La optimizacin es un paso de diseo crtico para organizaciones que usan alto ancho de
banda y aplicaciones sensibles a la tardanza. Para conseguir los objetivos comerciales,
estas organizaciones esperan que sus redes usen el ancho de banda eficazmente,
controlen la tardanza y la inquietud, y soporten el servicio preferente para aplicaciones
esenciales. Los vendedores de funcionamiento entre redes, como Cisco System, y
estndares, como el Instituto de los Elctricos e Ingenieros Electrnicos (IEEE) y el
Internet Engineering Task Force (IETF), ofrecen numerosas opciones para encontrar estas
expectativas.

En este punto del proceso de diseo de red top down, usted debera tener un
entendimiento slido de la topologa lgica y fsica de su red. Usted debera saber sobre
cualquier enlace que ser compartido por aplicaciones con exigencias diferentes, y usted
debera haber testeo una implementacin piloto del diseo de red para determinar qu
enlaces estn en la mayor parte de necesidad de tcnicas de optimizacin.

Este captulo cubre soluciones de optimizacin. Esto asume que usted ha analizado ya
requerimientos, sobre todo de requerimientos de aplicacin para tardanza baja o
rendimiento alto. Como mencionado en el Captulo 4, "Caracterizando el Trfico de Red,"
durante las fases tempranas de un proyecto de diseo, usted debera trabajar con su
Metodologa Top Down

Marcos Huerta S.
256
cliente para clasificar aplicaciones de red en categoras de servicio de modo que usted
pueda determinar qu optimizacin y las opciones de calidad del servicio (QoS) que las
aplicaciones requerirn. Despus de que usted ha clasificado una aplicacin, usted
debera rellenar "la columna" de Exigencias de QoS en la Tabla 4-4, "Caractersticas de
Trfico de Aplicaciones de Red." Como mencionado en el Captulo 2, "Analizando
Objetivos Tcnicos y Compensaciones," usted tambin debera rellenar rendimiento de
aplicacin y objetivos de tardanza en la Tabla 2-3, "Aplicaciones de Red Exigencias
Tcnicas."

El captulo comienza con una discusin de tcnicas de IP multicast que minimizan la
utilizacin de ancho de banda para aplicaciones multimedia. Reducir la tardanza es
tambin importante para aplicaciones multimedia que son sensibles para tardar, como voz
y vdeo. "La seccin" de Tardanza de Adaptacin que Reduce describe algunos mtodos
para asegurar que la tardanza es minimizada.

El captulo sigue con una discusin de mtodos para optimizar la performance de red para
encontrar requerimientos de QoS. Estos mtodos permiten que aplicaciones informen al
router de su carga y requerimientos de latencia, y dejen al router compartir la informacin
de QoS entre s y con servidores de poltica. Ms tarde en este captulo, una seccin
llamada "Caracteristicas de Sistema Operativo de redes de Cisco para Optimizar
Performance de Red" describe una surtida tcnicas de optimizacin ofrecidas por Cisco,
incluso conmutacin avanzada, formacin de cola de espera, y tcnicas que forman
trfico.

La Optimizacin del Uso de Anchode banda con Tecnologas de IP Multicast
Una de las principales razones de optimizar las tcnicas en redes es el uso creciente
del alto ancho de banda, usuario mltiple, aplicaciones multimedia. Tales aplicaciones
como aprendizaje de distancia, videoconferencia, e informtica de colaboracin tienen
una necesidad de enviar corrientes de datos a usuarios mltiples, sin usar cantidades
excesivas del ancho de banda o causar problemas de performance en muchos
sistemas.

El IETF ha desarrollado varios estndares de IP de multicast que optimizan la
transmisin de multimedia y otros tipos del trfico a travs de unas redes. Los
estndares identifican el multicast dirigindose a tcnicas que evitan el trfico
suplementario causado por mucho punto a punto unicast o transmiten corrientes de
trfico. Ellos tambin especifican como los routers aprenden ha conectarse a los
segmentos de red que debera recibir corrientes de multicast y como los routers
enrutan el trafico multiech.

Metodologa Top Down

Marcos Huerta S.
257
Las aplicaciones multimedia ms viejas que no usan tecnologas de multicast, para
instancia la aplicacin que aprende distancia discutido en el ejemplo de Centro
Universitario de Valle Errante en el Captulo 10, "Seleccionando Tecnologa y
Dispositivos para Redes de Campus," envan una corriente de datos a cada usuario.
Tales aplicaciones usan un mtodo de punto a punto unicast de manejar el trfico
multimedia que ancho de banda.

Una alternativa a corrientes de punto a punto mltiples debe enviar una corriente sola
y el uso una direccin de destino de broadcast. La desventaja obvia con esta tcnica
es que la corriente de datos va a todos los dispositivos, hasta dispositivos para los
cuales ninguna aplicacin es instalada para manejar la corriente. Este acercamiento
tiene un efecto negativo en la performance para cada dispositivo que recibe la
corriente, incluso estaciones de trabajo, switches, y routers.

Con tecnologas de IP multicast, por otra parte, una corriente de datos sola es enviada
a slo aquellas estaciones que solicitan la corriente, as optimizando el uso de ancho
de banda y reduciendo problemas de performance en estaciones finales y dispositivos
de funcionamiento entre redes.

Los negocios, las universidades, y otras organizaciones usan tecnologas de IP
multicast para muchas aplicaciones de diseminacin de informacin, incluso clases de
formacin en lnea, reuniones virtuales, y noticiarios electrnicos. Adems, las
tecnologas de IP multicast son usadas en aplicaciones de simulacin de
computadora. Un ejemplo es simuladar escenarios militares. Como es poco prctico
prepararse para batallas en gran escala con el verdadero equipo, alguna conducta de
instituciones militar que entrena ejercicios con miles de aviones simulados, tanques,
tropas, satlites meteorolgicos, y otros dispositivos. Un avin o el tanque pueden
registrarse para recibir el tiempo y la informacin de topografa para su posicin
corriente afilindose a un grupo de IP multicast para aquella posicin. Como los
movimientos planos, esto abandona y se afilia a nuevos grupos. De estos camino el
avin puede evitar recibir la informacin en el tiempo y topografa para todas las reas
(que sera aplastante), y en cambio reciba la informacin relevante slo a su posicin
corriente. Este tipo de la aplicacin debe soportar la direccin de multicast y el ingreso
de grupo de multicast dinmico, de que hablaremos en las siguientes secciones.

IP Multicast Addressing
El direccionamiento IP Multicast transmite datos IP a un grupo de host que son
identificados por una Clase D de direccin IP. En la nota punteada decimal, reciba la
variedad de direcciones de grupo de 224.0.0.0 a 239.255.255.255. Las estaciones de
Metodologa Top Down

Marcos Huerta S.
258
red reconocen una direccin como es una Clase D direccin porque primeros cuatro
trozos deben ser 1110 en el binario.

Un grupo de multicast tambin es identificado por una direccin de multicast de capa
MAC. La utilizacin de una direccin de multicast de capa MAC optimiza la
performance de red permitiendo a la interfaz de red (NICs) que no son la parte de un
grupo no para hacer caso de una corriente de datos que no es para ellos.

Las Autoridades de Nmeros Adjudicadas del Internet (IANA) poseen un bloque de
direcciones de capa MAC que son usadas para direcciones de grupo multicast. La
variedad de direcciones para Ethernet es 01:00:5E:00:00:00 a 01:00:5E:7F:FF:FF.
Cuando una estacin enva un paquete a un grupo IP que es identificado por una
direccin Clase D, la estacin inserta la orden baja 23 bits de la Clase D direccin en
la orden baja 23 bits de la direccin de destino de capa MAC. Los 9 primeros bits de la
direccin de Clase D no son usados. Los 25 primeros bits de la direccin de MAC son
01:00:5E seguido de 0, o, en el binario, lo siguiente:

00000001 00000000 01011110 0

El Protocolo de Direccin de Grupo de Internet
El Protocolo de Direccin de Grupo de Internet (IGMP) permite que un host se afilie a
un grupo e informe al router de la necesidad de recibir una corriente de datos
particular. Los hosts de IP usan IGMP para reportar su grupo de multicast
memberships a los router de vecinos multicast inmediatamente.

Cuando un usuario (o proceso de sistema) comienza una aplicacin que requiere que
un host se afilie a un grupo de multicast, el host transmite un mensaje de informe de
ingreso para informar al router en el segmento que el trfico para el grupo debera ser
multiechado al segmento del host. Aunque sea posible que el router enve ya datos
para el grupo al segmento del host, la especificacin declara que un host debera
enviar un mensaje de informe de ingreso por si sea el primer miembro del grupo en el
segmento de red.

Adems del permiso de hosts de afiliarse a grupos, IGMP especifica que un router de
multicast enva una pregunta de IGMP a cada interfaz con regularidad para ver si
algn host pertenece al grupo. Un host responde enviando a un mensaje de informe
de ingreso IGMP para cada grupo en el cual esto es todava un miembro (basado en
las aplicaciones que corren en el anfitrin).

Metodologa Top Down

Marcos Huerta S.
259
Para disminuir la utilizacin de ancho de banda, los hosts ponen un temporizador
arbitrario antes de responder a preguntas. Si el host ve a otro host responder para un
grupo al cual el host pertenece, entonces el host anula su respuesta. El router no tiene
que saber cuantos o qu hosts especficos en un segmento pertenecen a un grupo.
Esto slo tiene que reconocer que un grupo tiene a al menos un miembro en un
segmento, de modo que esto enve el trfico a aquel segmento usando el IP y
direcciones de multicast de MAC para el grupo.

El RFC 2236 define una nueva versin de IGMP: IGMPv2. La caracteristica general de
IGMPv2 es la capacidad para un router de aprender ms rpidamente el ltimo host
ha abandonado un grupo, que es importante para grupos de multicast de alto ancho
de banda y subredes con el ingreso de grupo muy voltil. El IGMPv2 soporta un nuevo
mensaje, el mensaje de grupo de permiso, que un host puede usar para abandonar
explcitamente un grupo. El router puede enviar entonces una pregunta de ingreso
para determinar si hay algn host restante en el segmento que es miembros de grupo
para el grupo de multicast en particular.

En ausencia, un switch de capa de enlace de datos inunda de paquetes de multicast a
cada puerto. El Protocolo de Direccin de Grupo Cisco (CGMP) y el IETF IGMP
mtodos que fisgonean permite que switches participen en el proceso de
determinacin qu segmentos tienen a hosts en un grupo de multicast en particular. El
CGMP es un mtodo Cisco-patentado que deja a un router enviar un mensaje a
switches para decir a los switches sobre informe de ingreso y mensajes de grupo de
permiso que ocurren en sus segmentos. El IGMP fisgonear es un estndar IETF que
no causa ningn trfico suplementario, pero permite que un switch aprenda de los
mensajes IGMP enviados a los routers.

Protocolos de Enrutamiento de Multicast
Adems de la determinacin qu segmentos de red locales deberan recibir el trfico
para grupos de multicast particulares, un router tambin debe aprender como enruta el
trfico de multicast en las redes. El protocolo de enrutamiento multicast proporciona
esta funcin.

Mientras que un estndar de protocolo de enrutamiento unicast aprende caminos a
redes de destino, un protocolo de enrutamiento multicast aprende caminos para
multiechar direcciones de destino. El protocolo de enrutamiento multicast ayuda a los
routers a aprender qu interfaces deberan enviar cada corriente de multicast. Esta
seccin cubre dos protocolos de enrutamiento multicast: Protocolo Multicast el Camino
Abierto ms Corto Primero (MOSPF) y Protocolo Multicast Independiente (PIM).

Metodologa Top Down

Marcos Huerta S.
260
Multicast Open Shortest Path First
El MOSPF, que es definido en RFC 1584, es un protocolo de enrutamiento multicast
para ambientes OSPF. El MOSPF complementa la capacidad del OSPF de desarrollar
una base de datos de estado de enlace que describe una topologa de red. El MOSPF
complementa la base de datos con un tipo adicional del registro de estado de enlace
para el grupo memberships.

Un router que corre MOSPF calcula un rbol de camino ms corto a todos los destinos
dentro de su rea, y luego usa la informacin de ingreso de grupo anunciada para
"prune" las ramas del rbol que no conducen a ningn miembro de grupo. Este
proceso permite que el router envie paquetes de multicast slo a aquellos interfaces
que pertenecen al rbol de multicast pruned. El resultado final es la cantidad de trfico
que cruza unas interredes tambin es "pruned".

El MOSPF es optimizado para un sistema autnomo que tiene un nmero limitado de
grupos (aunque cada grupo pueda ser como grande si es necesario). El MOSPF
requiere que un router realice el clculo de camino ms corto para cada nueva
combinacin de grupo de destino y remitente. Si hay muchas combinaciones, la CPU
de un router puede ser sobrecargada por el nmero de clculos.

Una otra advertencia con MOSPF tiene que ver con el soporte del OSPF a dividir un
sistema autnomo en reas. La ventaja de reas, como se hablo en El captulo 7, "La
seleccin de Conmutacin y Encaminamiento de Protocolos," es que ningn router
tiene que entender la topologa completa de un sistema autnomo. Una compensacin
es que la encaminamiento multicast es ineficaz en algunos casos.

Si una fuente del trfico de multicast no est en el rea de un router, el router puede
construir rboles de camino ms corto slo incompletos entre destinos de grupo y la
fuente. La informacin en cuanto al camino exacto entre el router y la fuente est
aproximada, basada en datos de publicacin del enlace sumario OSPF (o publicacin
del enlace externo si la fuente est en un sistema autnomo diferente).

El MOSPF no es conveniente para redes de multirea grandes o para redes con
muchos remitentes de corrientes de multicast. El MOSPF tambin no es soportado por
muchos vendedores de router, incluso Cisco. Por estos motivos, es importante que
usted tambin aprenda sobre PIM, que es cubierto en la siguiente seccin.

Protocol-Independent Multicast (PIM)
El PIM es otra opcin para el encaminamiento de multicast. Como MOSPF, PIM
trabaja en el tndem con IGMP; esto tambin trabaja con un protocolo de
Metodologa Top Down

Marcos Huerta S.
261
encaminamiento unicast, como OSPF, Protocolo de Enrutamiento de Informacin
(RIP), Cisco Protocolo Mejorado Interior Realzada que Derrota el Protocolo
(EIGRP), etctera.

El PIM tiene dos modos: modo denso y modo escaso. Los adjetivos densos y
escasos se refieren a la densidad de miembros de grupo. Los grupos densos tienen
a muchos miembros. Un ejemplo de un grupo denso es empleados en una
corporacin que escuchan a la compaa el informe trimestral presidencial cuando
es multicast en el intranet corporativo. Un grupo escaso podra ser un grupo mucho
ms pequeo de empleados que se han contratado para un curso particular que
aprende distancia.

o Protocolo de Modo Denso Multicast Independiente
PIM de modo denso es similar a un protocolo de modo denso ms viejo, el
Multicast de Vector de distancia que Derrota el Protocolo (DVMRP), que es
descrito en RFC 1075 y es un derivado del RIP. Ambos protocolos usan un
camino inverso que expide (a RPF) mecanismo para calcular el camino (inverso)
ms corto entre una fuente y todos los recipientes posibles de un paquete. PIM
de modo denso es ms simple que DVMRP, sin embargo, porque esto no
requiere el clculo de derrotar tablas.

Si un router que dirige el modo denso PIM recibe paquetes multicast de una
fuente a un grupo, ello primero verifica en el estndar unicast la encaminamiento
de la tabla que el interfaz entrante es el que que este usa para enviar paquetes
unicast hacia la fuente. Si no es as, este desecha el paquete y devuelve un
mensaje nuevo. Si esto es el caso, el router expide una copia del paquete en
todos los interfaces para los cuales esto no ha recibido un mensaje nuevo para
el par de destino de fuente/grupo. Si no hay tales interfaces, este devuelve un
mensaje nuevo.

El primer paquete para un grupo es inundado a todas las interfaces. Despus de
que este ha ocurrido, sin embargo, los routers escuchan los mensajes pruned
para ayudarles a desarrollar un mapa de la red que les envia en paquetes de
multicast slo a aquellas redes que deberan recibir los paquetes. Los mensajes
prune tambin dejan a los routers evitar loops que haran que ms de un router
enviara un paquete de multicast a un segmento.

El Modo denso PIM trabaja mejor en ambientes con grupos de grandes
multicast y una probabilidad alta que cualquier LAN dado tiene a un miembro de
grupo, que limita a los router de enviar mensajes pruned. A causa de la
Metodologa Top Down

Marcos Huerta S.
262
inundacin del primer paquete para un grupo, el modo denso no tiene sentido en
ambientes donde unos usuarios escasamente localizados quieren participar en
una aplicacin de multicast. En este caso, modo escaso multicast
independiente, que es descrito en la siguiente seccin, es la mejor solucin.

o Protocolo de Modo Escaso Multicast Independiente
El Modo escaso PIM es completamente diferente del modo denso PIM. Ms bien
que permitir trfico para ser enviado en todas partes y luego regresa el pruned
donde no es necesario, modo escaso PIM define un punto de cita. El punto de
cita proporciona un servicio de registro para un grupo de multicast.

PIM de modo escaso confa en IGMP, que deja a un host afiliarse a un grupo
enviando un mensaje de informe de ingreso, y separar de un grupo enviando un
mensaje de permiso. Un router designado para un segmento de red revisa los
reportes y mensajes de permiso en su segmento, y peridicamente enva la
juntura y mensajes pruned PIM al punto de cita. La juntura y pruned mensajes
son tratados por todos los routers entre el router designado y el punto de cita. El
resultado es un rbol de distribucin que alcanza a todos los miembros de grupo
y es centrado en el punto de cita.

El rbol de distribucin para un grupo de multicast es al principio usado para
cualquier fuente, pero el modo escaso la especificacin de PIM, RFC 2362,
tambin proporciona un mecanismo para dejar al punto de cita desarrollar
rboles de la fuente especficos delante de prunning del trfico de red.

Cuando una fuente al principio enva datos a un grupo, el router designado en la
red de la fuente unicasts registra los mensajes al punto de cita con los paquetes
de datos de la fuente encapsulados dentro del. Si la velocidad de transferencia
de datos es alta, el punto de cita puede enviar join/prune mensajes de regreso
hacia la fuente. Este permite a los paquetes de datos de la fuente seguir un
rbol de camino ms corto de la fuente especfica, y elimina la necesidad de los
paquetes para ser encapsulados en mensajes de registro. Si los paquetes llegan
encapsulados o no, el punto de cita envia los paquetes de datos
desencapsulados de la fuente bajo el rbol de distribucin hacia miembros de
grupo.

Reducir Tardanza de Adaptacin
En enlaces WAN lentos, el tiempo a la salida de un paquete grande es significativo.
El tiempo a la salida de un paquete es llamado la tardanza de transmisin o la
tardanza de adaptacin. La tardanza de adaptacin se hace una cuestin cuando un
Metodologa Top Down

Marcos Huerta S.
263
enlace WAN es usado por aplicaciones que envan paquetes grandes, como
transferencia de archivo, y aplicaciones que son la tardanza sensible, como voz,
vdeo, y aplicaciones interactivas como Telnet. Las soluciones con este problema
incluyen el uso de la fragmentacin de la capa de enlace e intercalando (LFI) y el
uso de compresin para la cabecera del paquete multimedia. Esta seccin cubre
estas soluciones.

o Fragmentacin de Capa de enlace e Intercalar
El LFI reduce la tardanza en enlaces WAN lentos rompiendo paquetes grandes
e intercalando los pequeos paquetes que resultan con paquetes para
aplicaciones que son la tardanza sensible. PPP, Frame Relay, ATM, y otras
tecnologas WAN pueden beneficiarse todos de LFI en enlaces de velocidad
baja, como 56-Kbps Frame Relay o ISDN 64-Kbps B canales.

El LFI para PPP es definido por el Protocolo de Punto a Punto de Multienlaces
(MPPP) estndar, que es 1990 RFC. El LFI para PPP es relativamente simple.
Los grandes paquetes encpasulados por el multienlace se ha basado durante
1990 RFC y fragmentar a paquetes de un tamao bastante pequeo para
satisfacer las exigencias de tardanza del trfico sensible a tardanza. Los
pequeos paquetes sensibles a tardanza no son el encapsulado multienlace,
pero son intercalados entre fragmentos de los paquetes grandes.

El MPPP permite que los paquetes para ser enviados al mismo tiempo sobre
punto a punto mltiple unan para la misma direccin remota. Enlaces mltiples
subieron en respuesta a un umbral de carga que usted define. La carga puede
ser calculada en trfico entrante, trfico que va hacia fuera, o en tampocos,
como necesario para el trfico entre sitios especficos. El MPPP proporciona el
ancho de banda a peticin y reduce la tardanza en enlaces WAN.

Cuando usted configura MPPP en un router Cisco, los paquetes llegando a un
interfaz de salida son clasificados en colas basadas en clasificaciones que usted
define. Despus de que los paquetes son hechos cola, los paquetes grandes
son fragmentados en paquetes ms pequeos en la preparacin para intercalar
con paquetes sensibles a tiempo. Si la feria ponderada que hace cola (WFQ) es
configurada para un interfaz, los paquetes de cada cola son intercalados y
programados (justamente y basados en su peso) para la transmisin en la cola
de interfaz de salida. Para asegurar la orden correcta de transmisin y nueva
sesin, LFI aade a la cabecera de multienlace los fragmentos de paquete
despus de que los paquetes son preparados y listo a ser enviado.

Metodologa Top Down

Marcos Huerta S.
264
Adems de soportar LFI para usos de MPPP clsicos, como canales de ISDN
agregados, Cisco tambin soporta LFI para Frame Relay y circuitos virtuales
ATM. Esta caracteristica pone en prctica LFI que usa MPPP sobre Frame
Relay y ATM. El LFI para Frame Relay y ATM soporta Frame Relay de
velocidad baja y circuito virtual ATM y Frame Relay/ATM de redes (FRF.8). El
LFI para Frame Relay y ATM trabaja simultneamente con y en el mismo
camino de conmutacin que otras caracteristicas de QoS, incluso el trfico de
Frame relay que forma (FRTS), latencia baja haciendo cola (LLQ), y ponderada
a base de clase que hace cola (CBWFQ).

El Cisco tambin soprota los tres mtodos siguientes para realizar la
fragmentacin de Frame Relay:
v De Punta a punta fragmentacin de Frame Relay de acuerdo con el
estndar FRF.12.
v Fragmentacin de Frame Relay de trunk de acuerdo con el Anexo de
FRF.11 C estndar.
v Cisco fragmentacin patentada para encapsulacin de voz.

Para ms informacin sobre mtodos de fragmentacin de Frame relay,
refirase al "Cisco IOS Amplia rea que Conecta a la red la Gua de
Configuracin" y el "Cisco IOS Voz, Vdeo, y Mande por fax la Gua de
Configuracin."



o Compresin del Protocolo de Tiempo Real
El Protocolo de Tiempo Real (RTP), que es definido en 1889 RFC, proporciona
de punta a punta funciones de transporte de red convenientes para transmitir
datos de tiempo real sobre multicast o servicios de red de unicast. Las
aplicaciones tpicamente dirigen RTP encima del Protocolo de Datagrama de
Usuario (UDP) para hacer el uso de multiplexin del UDP y servicios de suma
de control. Trabajando juntos con UDP, RTP pone en prctica la Capa 4
funcionalidad (de transporte). (UDP no es requerido. El RTP puede ser usado
con otra red subyacente conveniente o protocolos de transporte, pero es ms
usado a menudo con UDP.)

La cabecera de paquete RTP incluye varios campos que especifican los
atributos de los datos llevados en el paquete RTP:
v El tipo de carga til indica el formato de la carga til (por ejemplo, MPEG
datos de audio o de vdeo, vdeo de JPEG, una corriente de vdeo H.261).
Metodologa Top Down

Marcos Huerta S.
265
v El nmero de secuencia indica la posicin del paquete en la corriente de
datos. Los incrementos de nmero de secuencia por uno para cada paquete
de datos RTP enviado, pueden ser usados por el receptor para descubrir la
prdida de paquete y restaurar la secuencia de paquete.
v El sello de tiempo refleja el instante de prueba del primer byte en el paquete
de datos.
v El campo de fuente de sincronizacin (SSRC) identifica la fuente de una
corriente de paquetes RTP (por ejemplo, un micrfono o cmara de vdeo).
Todos los paquetes de una parte de forma de fuente de sincronizacin del
mismo cronometraje y secuencia numeran el espacio, entonces unos
paquetes de grupos de receptor por SSRC para la repeticin.
v La lista fuente contribuyente (CSRC) identifica fuentes que han contribuido a
la carga til en el paquete. Una aplicacin de ejemplo es audioconferencia,
donde el campo de CSRC indica a todos los habladores cuyo discurso fue
combinado para producir el paquete saliente.

La cabecera RTP aade la funcionalidad importante que es usada por
aplicaciones multimedia, incluso vdeo y voz sobre IP (VoIP). La desventaja de
RTP es que esto aade bytes a cada paquete, que puede ser una cuestin
cuando un objetivo de diseo es reducir la tardanza de adaptacin y minimizar
el uso de ancho de banda. La compresin decabecera de RTP reduce la
tardanza y salva el ancho de banda de red comprimiendo la cabecera
RTP/UDP/IP de 40 bytes a 2 a 4 bytes en un paquete tpico. Este es sobre todo
beneficioso para enlaces lentos y pequeos paquetes (como el trfico VoIP),
donde la compresin puede reducir la tardanza de adaptacin
considerablemente.

La Optimizacin de Performance de Red para Encontrar Calidad de Servicio
Adems de la optimizacin del uso de ancho de banda aadiendo el multicast de IP,
LFI, y la caracteristica compresin de un diseo de red, usted puede determinar que
la optimizacin tambin es necesaria para encontrar requerimientos de QoS. "La
Calidad de Caracterizacin de Calidad de Servicios" seccin del Captulo 4 se habl
de la especificacin del QoS que requiere una aplicacin. Esta seccin cubre
algunas tcnicas para encontrar aquellas exigencias.

NOTA
El foco de esta seccin encuentra los requerimientos de QoS en redes TCP/IP. Para
ms informacin en QoS en un ambiente de ATM, ver "la Calidad de ATM de la
seccin" de Especificaciones de Servicio en el Captulo 4.

Metodologa Top Down

Marcos Huerta S.
266
Como se hablo en el Captulo 4, el grupo de funcionamiento de Servicios Integrado
define dos tipos de servicios que ofrecen aseguramientos QoS ms all del servicio
de mejor esfuerzo (que no ofrece ningunos aseguramientos QoS):
v El servicio de controlar-carga. Provee un flujo de datos de cliente de QoS que
estrechamente se acerca al QoS que el flujo recibira en una red descargada. El
servicio de controlar-carga es requerido para aplicaciones que son muy
sensibles para condiciones de sobrecargar.
v El servicio garantizado. Proporciona lmites firmes en tardanzas de punta a
punta que hacen cola paquete. El servicio garantizado es requerido para
aplicaciones que necesitan una garanta que un paquete no llegar ms tarde
del tiempo despus de que fue transmitido por su fuente.

Muchas opciones de optimizacin estn disponibles para acomodar aplicaciones
con exigencias de garantizar-servicio o controlar-carga. Las siguientes secciones
describen algunas de estas opciones, que comienzan con uno que ha estado
disponible durante muchos aos: la precedencia y funcionalidad de tipo de servicio
incorporada al paquete IP.

o Precedencia de IP y Tipo de Servicio
Aunque las caracteristicas especializadas para apoyar QoS se han hecho
recientemente un tema caliente de la conversacin entre ingenieros de red y
diseadores, el concepto que una red debe soportar aplicaciones con
requerimientos variantes para el servicio. De hecho, los creadores de IP que el
soporte incorporado a niveles diferentes de precedencia y tipos del servicio en el
paquete IP formatea cuando IP fue primero desarrollado en los aos 1970. La
figura 13-1 muestra los campos en la cabecera de la versin 4 (IPv4) IP, con un
nfasis en el byte de tipo de servicio cerca del principio de la cabecera.

Figure 13-1. The Internet Protocol (IP) Header

Metodologa Top Down

Marcos Huerta S.
267
El byte de tipo de servicio IP especifica tanto precedencia como el tipo del
servicio. La precedencia ayuda a un router a determinar que paquete enviar
cuando varios paquetes son hechos cola para la transmisin al mismo interfaz
de salida. El tipo del servicio ayuda a un router a seleccionar un camino de
encaminamiento cuando caminos mltiples estn disponibles.

El byte de tipo de servicio es dividido en dos campos, (que son seguidos de un
poco que siempre es puesto al cero):
El campo de precedencia de 3 bits soporta ocho niveles de la prioridad.
El campo de tipo de servicio de 4 bits soporta cuatro tipos del servicio.

El Campo de Precedencia IP
Una aplicacin puede usar el campo de precedencia para especificar la
importancia de un paquete. La importancia puede extenderse de la prioridad
rutinaria (los bits son puestos a 000) a la prioridad alta (los bits son puestos a
111).

Uno de los usos originales previstos para el campo de precedencia era el control
de congestin. Dando a paquetes de control de congestin una precedencia de
7 (111 en el binario), una aplicacin puede especificar que los paquetes de
control de congestin son ms importantes que paquetes de datos, as
facilitando la eficacia del mecanismo de control de congestin. Seleccionando
una precedencia de 7, la aplicacin con esperanza asegura que los paquetes de
control de congestin no son afectados por la congestin que ellos tratan de
controlar.

La precedencia valora 6 y 7 son reservados para red y paquetes de control de
redes. Los valores 0 a 5 pueden ser usados para datos de usuario y
aplicaciones. Algunos abastecedores de servicio ofrecen un servicio superior
que usa el campo de precedencia para marcar el trfico de un cliente como
datos prioritarios. Muchos routers, y algunos hots, soporta que configura la
precedencia para aplicaciones. El valor de precedencia es tpicamente puesto a
5 para VoIP y otras aplicaciones de tiempo real.

El Campo de Tipo de servicio IP
El objetivo del campo de tipo de servicio es ayudar a un router a seleccionar una
ruta de un juego de rutas con caractersticas diferentes. El encaminamiento de
protocolos intenta determinar "la mejor" ruta a un destino, pero hay varias
definiciones "de mejor": el ms barato, el ms rpido, el ms confiable, etctera.
Metodologa Top Down

Marcos Huerta S.
268
En la teora, un protocolo de encaminamiento debera ser capaz de seleccionar
una ruta basada en el tipo de servicio que una aplicacin especifica.
El campo de tipo de servicio dentro del byte de tipo de servicio en una cabecera
IP tiene cuatro bits (ver la Figura 13-1):
El bit de tardanza (D). Dice a routers minimizar la tardanza
El bit de rendimiento (T). Dice a routers maximizar el rendimiento
El bit de fiabilidad (R). Dice a routers maximizar la fiabilidad
El bit de coste (C). Dice a routers minimizar el coste monetario

Segn RFC 1349, que clarific el uso del byte de tipo de servicio (pero es
obsoleto ahora), una aplicacin puede poner un (y slo un) de los cuatro bits de
tipo de servicio decir al router el camino al destino como manejar el paquete. Un
host tambin puede usar los bits de tipo de servicio para decidirse que firman
con las iniciales el camino a un router local para seleccionar. Si todos cuatro bits
son cero, el servicio rutinario es implicado.

En la prctica, el encaminamiento de protocolos y routers nunca tena mtodos
buenos para dirigirse las necesidades de aplicaciones que ponen los bits de tipo
de servicio. Seleccionando un camino basado en el ajuste del D, T, R, o bits de
C result ser poco prctico. Aunque las versiones tempranas del Camino Abierto
ms Corto Primero (OSPF) y Protocolo de Entrada Fronterizo (BGP)
encaminamiento de protocolos soporta especifica a los bits, las nuevas
versiones del OSPF y especificaciones BGP no requieran el soporte basadas en
el ajuste de los bits.


El Servicio Diferenciado IP de Campo
El RFC 1349 fue declarado obsoleto con la publicacin de RFC 2474,
"Definicin del Campo de Servicios Diferenciado (Campo de DS) en el IPv4 y
Cabecera IPv6," y RFC 2475, "una Arquitectura para Servicios Diferenciados."
Por estos nuevos RFCs, el byte de tipo de servicio se hizo los Servicios
Diferenciados (DS) campo. Los bits 0 por 5 de aquel campo son llamados los
servicios diferenciados codepoint (DSCP), como mostrado en la Figura 13-2.
(Por RFC 2481, los bits 6 y 7 son designados como el campo de Notificacin de
Congestin Explcito, que est ms all del alcance de esta discusin.)





Metodologa Top Down

Marcos Huerta S.
269
Figure 13-2. The Differentiated Services (DS) Field

El DSCP tiene esencialmente el mismo objetivo que el campo de precedencia,
que debe influir en formacin de una cola de espera y decisiones que dejan caer
paquete para paquetes IP en un interfaz de salida de un router. El RFC 2474 se
refiere a estas decisiones comportamientos como por salto (PHBs). El DSCP
puede tener 1 de 64 valores posibles, cada uno de los cuales perfila un PHB. El
campo de DSCP es hacia atrs compatible con el campo de precedencia.
Ninguna tentativa fue hecha para retener la compatibilidad con el campo de tipo
de servicio, sin embargo.

La Versin 6 de IP QoS
El IPv6 realza la capacidad de hosts y routers para poner en prctica niveles
variantes de QoS para flujos de trfico diferentes por la inclusin en la cabecera
IPv6 un campo de etiqueta de flujo que identifica flujos de paquete individuales.
Un host de la fuente adjudica una etiqueta de flujo a cada flujo de aplicacin. Un
router IPv6-compatible puede tratar tericamente la cabecera IPv6 de cada
paquete y mantener un escondite de la informacin de flujo, puesta ndice por la
direccin de la fuente y fluir la etiqueta. Este proceso facilita un router que pone
en prctica caracteristicas de QoS para flujos de trfico individuales.

Adems, la cabecera IPv6 incluye un campo de clase de trfico de 8 bits. Este
campo toma la responsabilidad de los bits de precedencia IP de la cabecera
IPv4. El campo de clase de trfico est disponible para el uso originando nodos
o expidiendo a routers para identificarse y distinguirse entre clases diferentes o
prioridades de paquetes IPv6. Las definiciones detalladas de la sintaxis y la
semntica de los bits de clase de trfico IPv6 no estn todava disponibles, pero
hay alguna esperanza que el IETF y los vendedores encontrarn el campo til
para poner en prctica QoS.

El Protocolo de Reservacin de Recurso
El Protocolo de Reservacin de Recurso (RSVP) complementa el tipo de
servicio IP, precedencia, DSCP, y capacidades de clase de trfico inherentes en
una cabecera IP. El RSVP soporta mecanismos ms sofisticados para hosts
para especificar requerimientos QoS para flujos de trfico individuales. El RSVP
Metodologa Top Down

Marcos Huerta S.
270
puede ser desplegado en LANs y empresa WANs para soportar aplicaciones
multimedia u otros tipos de aplicaciones con requerimientos de QoS estrictas.

Tanto las capacidades de tipo de servicio de cabecera IP como RSVP son
ejemplos de protocolos de QoS sealados. La sealizacin de QoS es un medio
de entregar requerimientos de QoS a travs de una red. El byte de tipo de
servicio en la cabecera IP ofrece la sealizacin en cinta, significando que los
bits dentro de la cabecera del paquete hacen seas a routers como el paquete
debera ser manejado. El RSVP ofrece la sealizacin de cinta, significando que
los hosts envan paquetes adicionales, ms all de paquetes de datos, indicar
que un cierto servicio QoS es deseado para un flujo de trfico particular.

El RSVP es un protocolo de sistema usado por un host para solicitar calidades
especficas del servicio de la red para corrientes de datos de aplicacin
particulares o flujos. El RSVP tambin es usado por routers para entregar
peticiones de QoS a otros routers a lo largo del camino de un flujo. El RSVP
funciona encima de la versin 4 o 6 IP, ocupando el lugar de un protocolo de
transporte en la pila de protocolo (aunque esto no transporte datos de
aplicacin).

El RSVP no es un protocolo de encaminamiento; esto funciona en el tndem
con unicast y multicast protocolos. Mientras que un protocolo de
encaminamiento determina donde los paquetes son enviados, RSVP est
preocupado por el QoS que aquellos paquetes reciben. El RSVP consulta
unicast local o el multicast que la base de datos para obtener rutas. En el caso
de multicast, por ejemplo, un host enva mensajes IGMP para afiliarse a un
grupo de multicast y luego enva mensajes RSVP para reservar recursos a lo
largo del camino de entrega [s] para aquel grupo.

Segn la especificacin RSVP, un receptor es responsable de solicitar QoS
especfico, no una fuente. La puesta de la responsabilidad en el receptor deja a
RSVP ms fcilmente acomodar grupos grandes, ingreso de grupo dinmico, y
requerimientos de receptor heterogneas.

Una aplicacin que reside en un host de receptor pasa una peticin de QoS al
proceso de RSVP local. El protocolo RSVP entonces lleva la peticin a todos los
nodos (routers y hosts) a lo largo del camino (s) de datos inverso a la fuente (s)
de datos (slo por lo que el router localiz donde el camino de datos del
receptor se afilia al rbol de distribucin de multicast). Las peticiones de RSVP
deberan causar recursos reservados en cada nodo a lo largo del camino.
Metodologa Top Down

Marcos Huerta S.
271

El RSVP proporciona una instalacin general para crear y mantener la
informacin en reservaciones de recurso a travs de una malla de unicast o
caminos de entrega de multicast. El RSVP transfiere parmetros QoS, pero no
define los parmetros o los tipos diferentes de servicios que una aplicacin
puede solicitar. El RSVP simplemente pasa parmetros a los mdulos de control
de poltica y control de trfico apropiados para la performance. Como se hablo
en el Captulo 4, el grupo de funcionamiento de Servicios Integrado describe
servicios en RFCs 2210 a 2216.

Como la parte de la fase de anlisis de requerimientos de la red disean el
proceso, usted debera haber identificado aplicaciones que pueden beneficiarse
de RSVP. Usted tambin debera haber seleccionado routers para poner en
prctica el diseo durante la fase de diseo fsica. En este punto en el proceso
de diseo, analice sus selecciones y tome otra mirada a la topologa de red para
asegurarse routers que soporta RSVP estn disponibles a las aplicaciones que
lo necesitan. Para RSVP para ser eficaz, cada router en el camino de un
receptor a una fuente debe soportar RSVP, incluso routers en caminos
redundantes que pueden entrar en el servicio durante interrupciones de red o
cuando la carga de trfico es alta.

NOTA
Recuerde, conecte a la red el diseo es un proceso iterativo que permite que
usted ajuste sus proyectos cuando usted considera los detalles y ramificaciones
de opciones hechos hasta ahora.

Considerando RSVP, estar seguro para leer RFC 2208 (o cualquier
actualizacin publicada despus de publicacin de este libro). RFC 2208, "la
Declaracin de Aplicabilidad de la Versin 1 de Protocolo de Reservacin de
Recurso," indica los problemas con el correr de RSVP en un router de backbone
que agrega el trfico de muchas redes. Los requerimientos de almacenaje y
procesamiento para dirigir RSVP en un router aumentan proporcionalmente con
el nmero de sesiones separadas y reservaciones RSVP. Apoyar RSVP en un
router de backbone crtico que maneja muchas corrientes de datos puede
agravar en exceso en el router, y es poco aconsejable.

Las tcnicas estn siendo desarrolladas lo que agregar corrientes que
requieren un servicio especfico en "el borde" de un backbone. Dentro del
backbone, varios acercamientos menos costosos pueden ser usados entonces
para poner recursos aparte para una corriente agregada. Hasta que estas
Metodologa Top Down

Marcos Huerta S.
272
tcnicas sean desarrolladas, RSVP debera ser desplegado en LANs y empresa
WANs donde no hay ninguna necesidad de ningn router para tratar numerosas
reservaciones.

El RSVP es ms satisfecho para el intranet privado que el Internet u otras redes
pblicas que cruzan los dominos de abastecedores de servicio mltiples. No
slo hay cuestiones de escalabilidad asociadas con la cantidad de informacin
que los routers deben mantener para cada sesin RSVP, hay tambin las
preocupaciones econmicas. Un abastecedor de servicio podra querer
proporcionar recursos (ancho de banda y bajo retardo, por ejemplo) que otro
abastecedor de servicio no es equipado para ofrecer. Un abastecedor no podra
tener la capacidad para ofrecer los servicios o los procedimientos para facturar a
clientes para ellos.

Adems, RSVP es mejor satisfecho para flujos largos, como aquellos presentan
en aplicaciones de vdeo. Aproximadamente el 60 por ciento del trfico de
Internet hoy consiste en flujos de duracin corta. Por estos motivos, RSVP es
ms apropiado para redes privadas que para el Internet (aunque este pueda
cambiarse del futuro como aplicaciones en el cambio de Internet y ms progreso
es hecho en mtodos para abastecedores para cooperar).

o El Protocolo de Servicio de Poltica Abierto Comn
Como mencionado en la seccin anterior, RSVP simplemente transporta
peticiones de QoS y proporciona tcnicas para routers para mantener la
informacin sobre el estado de reservaciones de recurso. Para RSVP para ser
eficaz, esto necesita el soporte de protocolos adicionales que entienden
servicios actuales y polticas en cuanto a los servicios. Un tal protocolo es el
Servicio de Poltica Abierto Comn (PILLA) el protocolo, que es especificado en
RFC 2748.

COPS define un modelo de cliente/servidor simple para soportar el control de
poltica con QoS protocolos sealados como RSVP. El COPS la especificacin
describe un protocolo de pregunta-y-respuesta bsico que puede estar
acostumbrada a la informacin de poltica cambiaria entre un servidor de poltica
y sus clientes, que sern tpicamente routers RSVP.

El COPS llamada las especificacines de un servidor de poltica un punto de
decisin de poltica, o PDP. Llama un cliente un punto de imposicin de poltica,
o PEP. El protocolo deja a una PEP enviar peticiones, actualizaciones, y
suprime a PDP remoto, y deja a las decisiones de vuelta de PDP a la PDP. En
Metodologa Top Down

Marcos Huerta S.
273
esta manera, los routers RSVP-basados pueden intercambiar la informacin con
servidores centralizados que almacenan las polticas QoS de una red, y
aprenden a manejar correctamente flujos para los cuales los recursos han sido
reservados. Los soportes de Cisco COPS en muchos de sus routers tambin
proporcionan el software de servidor llamado Cisco QoS Gerente de Poltica.

o Clasificacin del Trfico LAN
El IEEE especifica un mtodo para etiquetar paquetes de LAN con una clase de
servicio (COS) en su 802.1 documento, "Estndar para la Red de rea Local
MAC (Control de Acceso de Medios) Puentes." Las COPS para paquetes de
LAN fueron al principio publicadas como un suplemento a 802.1 que fue llamado
802.1p. La mayor parte de vendedores todava se refieren a la tecnologa como
802.1p, y este libro sigue llamndolo 802.1p. 802.1p especifica mecanismos
para switches para acelerar la entrega del trfico crtico de tiempo y limitar el
grado del trfico de multicast de ancho de banda alta dentro de un LAN
cambiado.

El IEEE 802.1p proporciona QoS en cinta el mtodo sealado para clasificar
trfico sobre la base de MAC enmarca la informacin. Esto tambin especifica
un mecanismo de protocolo opcional en switches para soportar estaciones de
final que dinmicamente se registran para la entrega de paquetes crtico de
tiempo o filtran servicios. Los protocolos opcionales entre switches para
comunicar informacin de registro en un LAN cambiado tambin son
soportados.

El IEEE 802.1p soporta ocho clases del servicio. Un valor de 0 servicio de rutina
de medios (en otras palabras, ninguna prioridad). Los switches diferentes dentro
de un LAN, y puertos hasta diferentes en switches, pueden ser configurados
para un nmero diferente de niveles de prioridad. Un switch debera tener una
cola separada para cada nivel de prioridad usado por un puerto.

NOTA
Podra ser argumentado que las LANs no necesitan caracteristicas de QoS. Las
LANs que han sido emigrados a tecnologas cambiadas y altas velocidades,
como Ethernet 100-Mbps y Gigabit, a menudo tienen la capacidad excedente.
Sin embargo, cuando las redes de backbone y los segmentos de uplink a capas
superiores de una topologa jerrquica son considerados, se hace claro que los
mtodos de QoS son necesarios en redes de empresa as como LANs. Cuando
las nuevas multimedia conectados a una red y las aplicaciones de voz se hacen
una parte central de prcticas comerciales normales, las LANs de campus
Metodologa Top Down

Marcos Huerta S.
274
cambiados pueden aprovechar 802.1p capacidades, adems de las otras
capacidades ya cubiertas en este captulo.

Caracteristicas de Sistema Operativo de Redes Cisco para Optimizar la
Performance de Red
El Software del Sistema Operativo de redes Cisco (IOS) proporciona una caja de
herramientas tcnicas de optimizacin para ayudarle a encontrar los desafos
relacionados con demandas de trfico crecientes en redes de empresa y campus.
Las tcnicas incluyen servicios avanzados conmutadores y que hacen cola para
mejorar el rendimiento y ofrecer la funcionalidad QoS.

o Tcnicas de Conmutacin
Adems del correr el protocolos de enrutamiento para desarrollar una topologa
de encaminamiento, el trabajo principal de un router debe cambiar paquetes de
interfaces entrantes a interfaces salientes. La conmutacin implica recibir un
paquete, determinando como enviar el paquete basado en la topologa de
enrutamiento y QoS y reuqerimiento de poltica, y conmutacin del paquete al
interfaz saliente o interfaces. La velocidad en la cual un router puede realizar
esta tarea es un factor principal en la determinacin de la performance de red en
una red ruteada. Cisco soporta muchos mtodos de conmutacin, con
velocidades variantes y comportamientos. Esta seccin describe algunos de
estos mtodos de conmutacin.

En general, usted debera usar el mtodo de conmutacin ms rpido disponible
para un tipo de interfaz y protocolo. La utilizacin de un modo de conmutacin
rpido es sobre todo importante en backbone y routers de empresa principales.
Segn la versin del Software IOS usted corre, el modo ms rpido podra tener
que ser configurado. (Es no siempre la falta.) Usted tambin puede tener que
mirar el uso de memoria. Los mtodos de conmutacin ms rpidos usan ms
memoria, entonces despus de permitir a uno de ellos, estar seguros para
supervisar la memoria libre en el router durante un breve tiempo despus.

NOTA
Ver la documentacin Cisco para ms informacin sobre los mtodos apoyados
para varias plataformas de routers, protocolos, e interfaces. La documentacin
para productos Cisco est disponible en lnea en:

www.cisco.com/univercd/home/home.htm.

Metodologa Top Down

Marcos Huerta S.
275
Esta seccin comienza describiendo los ms viejos, pero todava usado,
tecnologas para la Capa 3 conmutacin, llamada los mtodos clsicos para la
conmutacin, y sigue con dos tecnologas nuevas: conmutacin de NetFlow y
Expreso de Cisco que envia (a CEF).

o Mtodos Clsicos de Conmutacin de Paquete para la Capa 3
La conmutacin de proceso es la ms lenta de los mtodos de conmutacin.
Con la conmutacin de proceso, cuando un procesador de interfaz recibe un
paquete entrante, esto transfiere el paquete a la memoria de entrada/salida en
el router. El procesador de interfaz tambin genera, recibe y interrumpe el
procesador central. El procesador central determina el tipo de paquete y lo
coloca en la cola de entrada apropiada. Por ejemplo, si esto es un paquete IP, el
procesador central coloca el paquete en la cola de ip_input. La prxima vez que
Cisco IOS, nota el paquete en la cola de entrada, y programa el proceso
apropiado para correr. Por ejemplo, para un paquete IP, este programa el
proceso de ip_input para correr.

El proceso de entrada, despus de que el planificador lo dice correr, mira en la
tabla de enrutamiento para determinar el interfaz de salida que debera ser
usado para la Capa 3 direccin de destino en el paquete. El proceso vuelve a
escribir el paquete con la cabecera de capa de enlace de datos correcto para
aquel interfaz y copia el paquete al interfaz. Este tambin coloca una entrada en
el escondite rpido que cambia de modo que los paquetes subsecuentes para el
destino puedan usar rpido la conmutacin.

Note que la decisin de transporte de mercancas es tomada por un proceso
programado por el Cisco IOS planificador. Este proceso corre como un par a
otros procesos que corren en el router, como el protocolo de enrutamiento. Los
procesos que normalmente corren en el router no son interrumpidos al switch de
procesar un paquete. Este hace el proceso que sea lento.

La conmutacin rpida permite el rendimiento ms alto cambiando un paquete
usando una entrada en el escondite rpido que fue creado cuando un paquete
anterior al mismo destino fue tratado. Con la conmutacin rpida, un paquete es
manejado inmediatamente. El procesador de interfaz genera, recibe y
interrumpe. Durante esta interrumpcin, el procesador central determina el tipo
de paquete y luego comienza a cambiar el paquete. El proceso que actualmente
corre en el procesador es interrumpido para cambiar el paquete. Los paquetes
son cambiados a peticin, ms bien que cambiados slo cuando el proceso de
transporte de mercancas puede ser programado. Basado en la informacin en
Metodologa Top Down

Marcos Huerta S.
276
el escondite rpido que cambia, la cabecera de capa de enlace de datos es
vuelto a escribir y el paquete es enviado al interfaz saliente esto atiende el
destino.

NOTA
Si usted usa la carga compartida a travs de interfaces mltiples con la
conmutacin rpida permitida, la carga no puede ser equilibrada igualmente si
una parte grande del trfico va a slo un destino. Los paquetes para un destino
dado siempre salen el mismo interfaz aun si soporta interfaces mltiples. En
otras palabras, rpidos cambios de usos de carga por destino que comparte. Si
este es un problema, usted debera usar CEF. El CEF soporta tanta carga por
destino como por paquete que comparte. Adems, con CEF, la carga por
destino que comparte est basada en pares de fuente/destino ms bien que
simplemente la direccin de destino, que puede proporcionar un mejor equilibrio
que la conmutacin rpida.

La conmutacin autnoma est disponible en routers Cisco 7000 de trfico de
serie y usa un escondite autnomo que cambia, localizado en los procesadores
de interfaz. La conmutacin autnoma proporciona la conmutacin de paquete
ms rpida permitiendo al regulador de Bus Cisco cambiar paquetes
independientemente, sin necesidad interrumpir el procesador de sistema.

La conmutacin de silicio es similar a la conmutacin autnoma, pero acelera la
conmutacin autnoma por el uso de un escondite que cambia silicio localizado
en el Procesador de Interruptor de Silicio (SSP) en algnos routers de la serie
Cisco 7000.

La conmutacin ptima es similar a la conmutacin rpida, pero es ms rpida,
debido a un algoritmo caching realzado, y la estructura optimizada del escondite
que cambia grado ptimo. La conmutacin ptima est disponible slo en
routers equipados con un Procesador de Ruta/Switch (RSP).

La conmutacin distribuida es soportada en routers que incluyen el Procesador
de Interfaz Verstil (personaje muy importante) u otros de interfaz que pueden
recibir la informacin de ruta del maestro RSP para tomar sus propias
decisiones de conmutacin autnomas, de mltiples capas. La conmutacin
distribuida soporta el rendimiento muy rpido porque el proceso de conmutacin
ocurre en la tarjeta de interfaz.


Metodologa Top Down

Marcos Huerta S.
277
o Conmutacin de NetFlow
La conmutacin de NetFlow es optimizada para ambientes donde los servicios
deben ser aplicados a paquetes para poner en prctica seguridad,
caracteristicas de QoS, y contabilidad de trfico. Un ejemplo de tal ambiente es
el lmite entre una red de empresa y el Internet.

La conmutacin de NetFlow identifica flujos de trfico entre hosts, y luego
rpidamente cambia paquetes en estos flujos al mismo tiempo que esto aplica
servicios. El NetFlow que cambia tambin deja a un administrador de red
coleccionar datos del uso de red para permitir la planificacin de capacidad y
facturar a usuarios basados en red y utilizacin de recurso de aplicacin. La
estadstica puede ser coleccionada sin hacer ms lento el proceso de
conmutacin.

Para maximizar la escalabilidad de red, una prctica de diseo buena debe usar
conmutacin NetFlow de periferia de una red para permitir caracteristicas como
contabilidad de trfico, funcionalidad de QoS, y seguridad, y usar un modo de
conmutacin an ms rpido en el core de la red. En el core de la red, el modo
de conmutacin debera enviar paquetes basados en la informacin fcilmente
accesible en paquete, y generalmente no debera pasar el tiempo aplicando
servicios. El siguiente modo de conmutacin cubierto en esta seccin, Expreso
de Cisco que Envia (a CEF), es optimizado para el core de una red para
proporcionar la alta performance, la previsibilidad, la escalabilidad, y la
resistencia.

o Envio Cisco Express
El CEF es una tcnica Cisco-patentada para cambiar paquetes muy
rpidamente a travs de redes de backbone grandes y el Internet. Ms bien que
confiar en las tcnicas caching usadas por el clsico que cambia mtodos, CEF
depende de una base de informacin de transporte de mercancas (FIB). EL FIB
permite que CEF sea mucho menos intensivo de procesador que otro metodo
de conmutacin de Capa 3 porque las tabla de FIB contienen la informacin de
transporte de mercancas para todas las rutas en las tabla de enrutamiento
(mientras que un escondite contiene slo un subconjunto de informacin de
enrutamiento).

El CEF evolucion para acomodar aplicaciones a base de web y otras
aplicaciones interactivas que son caracterizadas por sesiones de duracin corta
a direcciones de destino mltiples. El CEF se hizo necesario cuando se hizo
Metodologa Top Down

Marcos Huerta S.
278
claro que un sistema a base de escondite no es optimizado para estos tipos de
aplicaciones.

Considere una aplicacin que hace navega por la web, por ejemplo. Cuando un
usuario pasa a un nuevo sitio Web, TCP abre una sesin con una nueva
direccin de destino. Es improbable que el nuevo destino est en el escondite
del router, a menos que resulte ser un destino el usuario, u otros usuarios,
visitados recientemente. Este significa que el primer paquete es el proceso
cambiado, que es lento. Tambin, la CPU del router es considerablemente
afectada si hay muchos paquetes a nuevos destinos. El CEF mejora la
velocidad de conmutacin, y evita ser elevado asociado con un escondite que
continuamente se cambia, por el uso del FIB, que refleja los contenido enteros
de la tabla de enrutamiento IP.

La tecnologa de CEF aprovecha la arquitectura distribuida de los routers Cisco
de alta calidad, como el Cisco 7500. Distribuido CEF (el DCEF) proporciona
cada uno de los Cisco 7500 personajes muy importante con una copia en tarjeta
idntica de la base de datos de FIB que los permite realizar autnomamente
CEF y por lo tanto considerablemente aumentar el rendimiento agregado.

Como mencionado en "los Mtodos Clsicos para la Capa 3 Paquete que
Cambia" la seccin, CEF soporta tanto carga compartida por destino como por
paquete. La carga compartida por destino es la falta, que significa que los
paquetes para un par de fuente/destino dado son garantizados para salir al
mismo interfaz. El trfico para pares diferentes tiende a tomar caminos
diferentes. A menos que el trfico consista en flujos para un pequeo nmero de
pares de fuente/destino, el trfico tiende a ser igualmente distribuido a travs de
caminos mltiples con la carga compartido por destino CEF.

El CEF tambin soporta la carga compartida por paquete. La carga compartida
por paquete permite que un router enve paquetes de datos sucesivos sobre
caminos sin hacer caso de direcciones de destino y fuente. Carga compartida
por paquete usa un mtodo de retorno al punto de origen de seleccionar el
interfaz de salida para un paquete. Cada paquete toma el siguiente interfaz que
el enrutamiento permite. La carga compartida por paquete proporciona un mejor
equilibrio del trfico sobre enlaces mltiples. Usted puede usar la carga
compartida por paquete para ayudar a asegurar que un camino para un par de
fuente/destino solo no se hace sobrecargado.

Metodologa Top Down

Marcos Huerta S.
279
Aunque la utilizacin de camino con la carga compartida por paquete sea
optimizada, los paquetes para un par de hosts de fuente/destino dado podran
tomar caminos diferentes, que podran hacer que paquetes llegaran
estropeados. Por esta razn, la carga compartida por paquete es inadecuada
para ciertos tipos del trfico de datos, como VoIP, que dependen de paquetes
llegando al destino en la secuencia.

o Servicios de cola
Las tcnicas de conmutacin rpidas ya habladas en las secciones anteriores
slo van hasta ahora en la optimizacin de una red que experimenta la
congestin. Los mtodos inteligentes y rpidos que hacen cola son tambin
necesarios. La formacin de una cola de espera permite que un dispositivo de
red maneje un desbordamiento de trfico. El Cisco IOS software soporta los
mtodos siguientes que hacen cola:

v Primero en entrar primero en salir (FIFO) formacin de una cola de espera
v Formacin de una cola de espera de prioridad
v Formacin de una cola de espera de encargo
v Feria ponderada que hace cola (WFQ)
v WFQ a base de Clase (CBWFQ)
v Latencia baja haciendo cola (LLQ)

o Cola Primero en entrar primero en salir (FIFO)
La formacin de una cola FIFO proporciona la funcionalidad basica de
almacenar-y-enviar. Esto implica almacenar paquetes cuando la red esta
saturada y transporte de mercancas de ellos en la orden ellos llegaron cuando
la red es ya esta libre. El FIFO tiene la ventaja que esto es por defecto que hace
cola el algoritmo en algunos casos, no requiere ninguna configuracin. El FIFO
tiene la desventaja que esto no toma ninguna decisin sobre la prioridad de
paquete. La orden de llegada determina la orden un paquete es tratado y salida.
NOTA
Con la formacin de una cola de espera de FIFO, hay muchos paquetes que
esperan la transmisin, un nuevo paquete que llega experimenta la tardanza de
de transmisin. Usted puede haber experimentado esto en la tienda de
comestibles. Se ha preguntado alguna vez usted si usted debera usar la lnea
de comprobacin de express de FIFO aun cuando es ms largo que las lneas
de comprobacin de no expreso de FIFO?

El FIFO no proporciona ninguna funcionalidad de QoS y ninguna proteccin
contra una aplicacin usando recursos de red en un camino que negativamente
Metodologa Top Down

Marcos Huerta S.
280
afecta la performance de otras aplicaciones. Las fuentes de Bursty pueden
causar tardanzas altas de la entrega del trfico de aplicacin sensible a tiempo,
y potencialmente aplazar control de red y mensajes sealados. Los paquetes
largos pueden causar tardanzas injustas para aplicaciones que usan paquetes
cortos. Por estos motivos, Cisco ha desarrollado algoritmos avanzados que
hacen cola que proporcionan ms caracteristicas que la formacin de una cola
de espera de FIFO bsica, incluso formacin de una cola de espera de
prioridad, formacin de una cola de espera de encargo, y feria ponderada que
hace cola (WFQ). Estos algoritmos son descritos en las pocas siguientes
secciones.

o Prioridad de Cola
La formacin de una cola de espera de prioridad asegura que el trfico
importante es tratado primero. Fue diseado para dar la prioridad estricta con
una aplicacin crtica, y es en particular til para protocolos sensibles a tiempo
como la Arquitectura de Red de Sistemas (SNA). Los paquetes pueden estar
priorizados basado en muchos factores, incluso protocolo, interfaz entrante,
tamao de paquete, y direccin de destino o fuente.
La formacin de una cola de espera de prioridad es sobre todo apropiada en
casos donde los enlaces WAN son congestionados de vez en cuando. Si los
enlaces WAN son constantemente congestionados, el cliente debera investigar
protocolo e ineficiencias de aplicacin, pensar en usar la compresin, o
posiblemente mejorar a ms el ancho de banda. Si los enlaces WAN nunca son
congestionados, la formacin de una cola de espera de prioridad es innecesaria.
Como la formacin de una cola de espera de prioridad requiere procesamiento
extra y puede causar problemas de performance para el trfico de prioridad
baja, no debera ser recomendado a menos que sea necesario.

La formacin de una cola de espera de prioridad tiene cuatro colas: alto, medio,
normal, y bajo. La cola prioritaria siempre es vaciada antes de que las colas de
prioridad inferior sean atendidas, como mostrado en la Figura 13-3. La
formacin de una cola de espera de prioridad es anloga a una lnea de primera
clase en un aeropuerto donde todos los oficinistas sirven aquella lnea primero
hasta los envases de lnea.









Metodologa Top Down

Marcos Huerta S.
281
Figure 13-3. The Behavior of Priority Queuing


o Cola de Encargo
La formacin de una cola de espera de encargo fue diseada para permitir que
una red fuera compartida entre aplicaciones con ancho de banda mnima
diferente o requerimientos de latencia. La formacin de una cola de espera de
encargo adjudica cantidades diferentes del espacio de cola a protocolos
diferentes y maneja las colas en la manera de retorno al punto de origen. Un
protocolo particular puede ser priorizado adjudicndolo ms espacio de cola. La
formacin de una cola de espera de encargo es ms "feria" que la formacin de
una cola de espera de prioridad, aunque la formacin de una cola de espera de
prioridad sea ms poderosa para priorizar una aplicacin crtica sola.

Usted puede usar cola de costumbre para proveer garantizada ancho de banda
en un punto de congestin potencial. La formacin de una cola de espera de
encargo le deja asegurar que cada trfico especificado escribe a mquina una
parte fija del ancho de banda disponible, mientras al mismo tiempo evitan
cualquier aplicacin que consigue ms que una proporcin predeterminada de la
capacidad cuando el enlace est bajo la tensin. La formacin de una cola de
espera de encargo es anloga a una lnea de primera clase en un aeropuerto
donde los oficinistas sirven aquella lnea primero hasta un punto. Despus de un
nmero de juego de pasajeros de primera clase han sido servidos, el
movimiento de oficinistas a la otra gente.
Metodologa Top Down

Marcos Huerta S.
282

Sitios que hacen cola de mensaje en 1 de 17 colas. Los servicios de router
hacen cola 1 a 16 en la orden de retorno al punto de origen. (La cola 0 mensajes
de sistema de asimientos, como keepalive y mensajes sealados, es vaciada
primero.) un administrador de red configura el tamao de ventana de
transmisin de cada cola en bytes. Despus de que el nmero apropiado de
paquetes ha sido transmitido de una cola tal que el tamao de ventana de
transmisin ha sido alcanzado, la siguiente cola es comprobada, como mostrado
en la Figura 13-4.

Figure 13-4. The Behavior of Custom Queuing


Muchos negocios usan la costumbre que hace cola para el trfico SNA. Como
SNA es la tardanza sensible, uno puede poner alguna parte aparte del ancho de
banda, a menudo el 40 a 50 por ciento, para el trfico SNA para usar durante
tiempos de congestin.

o Cola Justa Ponderada
El WFQ es un juego sofisticado de algoritmos diseados para reducir la
variabilidad de tardanza y proporcionar el rendimiento previsible y el tiempo de
respuesta para flujos de trfico. Un objetivo de WFQ es ofrecer el servicio
uniforme para encenderse a usuarios de red pesados igualmente. El WFQ
asegura que el tiempo de respuesta para aplicaciones de volumen bajo es
consecuente con el tiempo de respuesta para aplicaciones de volumen alto. Las
aplicaciones que envan pequeos paquetes son bastante privadas de comida
de ancho de banda por aplicaciones que envan paquetes grandes. El ancho de
banda es dividida equitativamente de un modo automatizado.

Metodologa Top Down

Marcos Huerta S.
283
El WFQ es un algoritmo a base de flujo que hace que la cola que reconoce un
flujo para una aplicacin interactiva y programa el trfico de aquella aplicacin al
frente de la cola para reducir el tiempo de respuesta. Se permite que corrientes
de trfico de volumen bajo para aplicaciones interactivas, que incluye un
porcentaje grande de las aplicaciones en la mayor parte de redes, transmitan
sus cargas ofrecidas enteras en una manera oportuna. Las corrientes de trfico
de volumen alto comparten la capacidad restante.

A diferencia de costumbre y formacin de una cola de espera de prioridad, WFQ
se adapta automticamente al trfico de red que se cambia condiciona y
requiere poca o ninguna configuracin. Esto es la falta que hace cola el modo
en la mayora de las interfaces consecutivas configuradas para correr en o
debajo de velocidades E1 (2.048 Mbps).

Para aplicaciones que usan el campo de precedencia IP en la cabecera IP,
WFQ puede asignar el ancho de banda basada en la precedencia. El algoritmo
asigna ms ancho de banda a conversaciones con la precedencia ms alta, y se
asegura que aquellas conversaciones son servidas ms rpidamente cuando la
congestin ocurre. El WFQ adjudica un peso a cada flujo, que determina el
orden que transmitira por paquetes colocados en fila. Las ayudas de
precedencia de IP determinan el factor de ponderacin.

El WFQ tambin trabaja con RSVP. El RSVP usa WFQ para asignar espacio de
buffer, paquetes de lista, y ancho de banda garantzada basada en
reservaciones de recurso. Adems, WFQ entiende el bit de elegibilidad de
descarte (DE), y la notificacin de congestin explcita avanzada (FECN) y
notificacin de congestin hacia atrs explcita (BECN) mecanismos en una red
de Frame Relay. Despus de que la congestin ha sido identificada, los pesos
usados por WFQ son cambiados de modo que una conversacin que encuentra
la congestin transmita con menos frecuencia.

o Cola Justa Ponderada a Base de Clase
El CBWFQ combina los mejores elementos de prioridad, costumbre, y formacin
de una cola de espera ponderada justa. El CBWFQ causa una configuracin
ms compleja que los otros mtodos que hacen cola, pero la complejidad aade
la flexibilidad no encontrada en los otros mtodos. El CBWFQ le deja definir
clases de trfico basadas en criterios de partido como protocolos, tener acceso
a listas de control, e introducir interfaces. Los paquetes que satisfacen los
criterios para una clase constituyen el trfico para aquella clase. Una cola de
Metodologa Top Down

Marcos Huerta S.
284
FIFO es reservada para cada clase, y el trfico que pertenece a una clase es
dirigido a la cola para aquella clase.

Despus de que una clase ha sido definida, usted puede adjudicarle
caractersticas como el ancho de banda y el nmero mximo de paquetes que
pueden ser hechos cola para la clase, llamada el lmite de cola. El ancho de
banda adjudicada una clase es el ancho de banda garantizada entregada a la
clase durante la congestin. El lmite de cola para la clase es el nmero mximo
de paquetes permitidos acumularse en la cola para la clase. Para optimizar
como los paquetes son descartados si ellos exceden el lmite de cola, usted
puede permitir el descubrimiento temprano arbitrario ponderado (WRED), que
es cubierto ms tarde en este captulo.

La clasificacin de flujo para CBWFQ est basada en WFQ. Es decir los
paquetes con la misma direccin de IP de la fuente, destino direccin de IP,
TCP de la fuente o puerto UDP, y destino TCP o puerto UDP son clasificados
como perteneciendo al mismo flujo. El WFQ asigna una parte igual de ancho de
banda a cada flujo. WFQ a base de Flujo tambin es llamado la formacin de
una cola de espera de feria porque todos los flujos son igualmente ponderados.

Cuando CBWFQ es permitido, los paquetes que llegan a un interfaz de salida
son clasificados segn los criterios de partido que usted defini. El peso para un
paquete que pertenece a una clase especfica es sacado del ancho de banda
que usted adjudic a la clase cuando usted lo configur. En este sentido, el
peso para una clase es configurado por el usuario. Despus de que el peso para
un paquete es adjudicado, el paquete es colocado en la cola apropiada. El
CBWFQ usa los pesos adjudicados a los paquetes colocados en fila asegurar
que la cola de clase es atendida justamente.

o Latencia Baja de Cola
El LLQ combina la prioridad que hace cola con CBWFQ y fue al principio
llamado PQ-CBWFQ, pero hasta Cisco reconoci que las siglas slo pueden ser
as mucho antes de que ellos pierdan su valor memnico. El LLQ trae la
prioridad estricta que hace cola CBWFQ. La formacin de una cola de espera de
prioridad estricta permite que datos confidenciales de tardanza como la voz
sean enviados antes de que los paquetes en otras colas sean enviados.

Sin LLQ, CBWFQ provee WFQ basado en clases definidas sin la cola de
prioridad estricta disponible para el trfico de tiempo real. Como mencionado en
la seccin precedente, CBWFQ permite que usted defina clases de trfico y
Metodologa Top Down

Marcos Huerta S.
285
luego adjudicar caractersticas a cada clase. Por ejemplo, usted puede
especificar el ancho de banda mnima entregada a una clase durante la
congestin. Cuando usted usa CBWFQ, el peso para un paquete que pertenece
a una clase especfica es sacado del ancho de banda que usted adjudic a la
clase cuando usted lo configur. Por lo tanto, el ancho de banda adjudicada a
los paquetes de una clase determina la orden en la cual los paquetes son
enviados. Todos los paquetes son atendidos basados en el peso, y ninguna
clase de paquetes es concedida la prioridad estricta. Este esquema plantea
problemas para el trfico de voz que es intolerante de tardanza y variacin en la
tardanza (inquietud).

El LLQ permite el uso de una sola cola de prioridad estricta dentro de CBWFQ
en el nivel de clase, permitindole dirigir el trfico que pertenece a una clase la
cola de prioridad estricta CBWFQ. Aunque sea posible colocar varios tipos del
trfico de tiempo real en la cola de prioridad estricta, Cisco fuertemente
recomienda que usted dirija slo el trfico de voz a la cola. El trfico de voz
requiere aquella tardanza ser no variable. El trfico de tiempo real como el vdeo
podra introducir la variacin en la tardanza, as frustrando la firmeza de
tardanza requerida para la transmisin de voz acertada. El LLQ es un
instrumento esencial para diseadores de red que planean transmitir el trfico
de voz en enlaces de ancho de banda baja que tambin llevan otros tipos del
trfico.

o Deteccin Aleatorio Temprana
Los mecanismos que hacen cola hablados en las secciones anteriores son
esencialmente tcnicas de direccin de congestin. Aunque tales tcnicas sean
necesarias para controlar la congestin, ellos no faltan de evitar la congestin
antes de que esto ocurra. Una nueva clase de algoritmos de evitacin de
congestin gana la popularidad.

Un algoritmo es el descubrimiento temprano arbitrario (RED). Los trabajos RED
monitorean la carga de trfico en puntos en una red y al azar descartan
paquetes si la congestin comienza a aumentar. El resultado es que los nodos
de la fuente descubren el trfico descartado y reducen la marcha de su precio
de transmisin. RED es diseado principalmente para trabajar con aplicaciones
basadas en el Protocolo de Control de Transmisin (TCP).

Sobre la prdida de paquete, una sesin TCP disminuye su transmitir el tamao
de ventana, con eficacia reduciendo la marcha de su precio de transmisin. Esto
entonces gradualmente aumenta el tamao de ventana hasta que la congestin
Metodologa Top Down

Marcos Huerta S.
286
ocurra otra vez. El trmino porpoising a veces es usado para referirse al cierre y
volver a abrir la ventanas.

La experiencia muestra que si los routers no aplican alguna clase de
randomizacin al desechar paquetes, sesiones TCP mltiples tienden a reducir
la marcha de su precio de transmisin simultneamente. (Las sesiones toman
una zambullida de marsopa sincronizada, que en ms trminos tcnicos a
menudo es llamada la sincronizacin global.) aplicaciones Mltiples bajan y
aumentan su precio de transmisin simultneamente, que significa que el ancho
de banda no es usada con eficacia. Cuando aplicaciones mltiples reducen la
velocidad, el ancho de banda es gastada. Cuando ellos aumentan su precio,
ellos tienden a aumentar la utilizacin de ancho de banda al punto donde la
congestin ocurre otra vez.

La ventaja de los RED consiste en que esto aleatoriza el descarte de paquetes,
a la baja de reducir el potencial para sesiones mltiples que sincronizan su
comportamiento. RED es una solucin buena para un router de sitio central en
una topologa "hub and spoke". RED distribuye la cada de paquetes a travs de
muchas redes spoke y evita causar problemas de congestin para sesiones de
aplicacin mltiples de un sitio.

o Deteccin Temprana Arbitraria Ponderado
El WRED es la realizacin de Cisco de RED. El WRED combina las
capacidades del algoritmo RED estndar con la precedencia IP. Esta
combinacin asegura el trfico preferente que se maneja paquetes de prioridad
ms alta. Esto selectivamente desecha el trfico de prioridad inferior cuando un
interfaz comienza a ser congestionada, ms bien que usar simplemente un
mtodo arbitrario. El WRED tambin puede ajustar su comportamiento basado
en reservaciones RSVP. Si una aplicacin registra para controlar-carga de
grupo de funcionamiento de Servicios Integrada el servicio de QoS, WRED es
consciente de este hecho y ajusta su paquete que desecha en consecuencia.

Cisco tambin soporta el descubrimiento temprano arbitrario ponderado
distribuido (D-WRED), una versin rpida de WRED que dirige en los
Procesadores de Interfaz Verstiles (personajes muy importante) en routers
Cisco 7500 . Otra caracteristica de Cisco es WRED a base de flujo, que obliga
WRED a permitirse la mayor imparcialidad a todos los flujos en un interfaz
cuando los paquetes son descartados.

Metodologa Top Down

Marcos Huerta S.
287
WRED a base de Flujo clasifica el trfico entrante en flujos basados en
parmetros como destino y direcciones de la fuente y puertos. WRED a base de
Flujo usa esta clasificacin e informacin estatal para asegurar que cada flujo no
consume ms que su parte permitida de los recursos de buffer de salida. WRED
a base de Flujo determina qu flujos monopolizan recursos y ms pesadamente
castiga estos flujos.

o Formacin de Trfico
Otro instrumento que est disponible a los diseadores para conectar a la red
que usan equipo de Cisco es la formacin de trfico. La formacin de trfico le
deja manejar y controlar el trfico de red para evitar cuellos de botella y
encontrar requerimientos de QoS. Esto evita la congestin reduciendo el trfico
que va hacia fuera para un flujo a una velocidad binaria configurada, haciendo
cola de trfico para aquel flujo. En topologas con routers y enlaces de
capacidades variantes, el trfico puede ser formado para evitar aplastar un
enlace del router downstream.

La formacin de trfico es configurada en una base por interfaz. El
administrador de router usa listas de control de acceso para seleccionar el
trfico a formar. Trfico que forma trabajos con una variedad de Capa 2
tecnologas, incluso Frame Relay, ATM, Servicio de Datos de Multimegabit
Cambiado (SMDS), y Ethernet.

En un interfaz de Frame Relay, usted puede configurar la formacin de trfico
para adaptarse dinmicamente al ancho de banda disponible usando el
mecanismo BECN. Adems, Cisco tiene una caracteristica especfica para
redes de Frame Relay llamada el trfico de Frame Relay que soporta tcnicas
de optimizacin especficas para Enmarcar el Frame. Para ms informacin,
refirase "a la seccin" de Frame Relay de Configuracin de la documentacin
de Cisco.

o Ratio de Acceso Comprometido
Cisco tambin soporta una caracteristica llamado el ratio de acceso cometido
(CAR) que permite que usted clasifique y trfico de polica en un interfaz
entrante.

El CAR soporta la especificacin de polticas en cuanto a como el trfico que
excede una cierta asignacin de ancho de banda debera ser manejado. El CAR
mira el trfico recibido en una interfaz (o un subconjunto de aquel trfico
seleccionado por una lista de control de acceso), compara su precio mximo
Metodologa Top Down

Marcos Huerta S.
288
configurado, y luego toma medidas basado en el resultado. Por ejemplo, esto
puede descartar paquete o cambiar los bits de precedencia IP en el paquete
para indicar que el paquete debera ser manejado con la prioridad inferior.

3.5.5.3 Documentar el diseo de red
Este captulo comienza proporcionando consejo en responder a la peticin de un cliente
de la oferta (RFP), y concluye con la informacin en la escritura de un documento de
diseo cuando ningn RFP existe. La seccin "los Contenido de un Documento de
Diseo de Red" proporciona un contorno de un documento de diseo tpico, y especifica
los temas que deberan ser incluidos en cada parte del documento. La seccin sirve
como un resumen para el Diseo de Top Down porque esto se refiere a cada uno de los
pasos principales de la metodologa de diseo Top Down presentada en esta
metodologia.

En este punto del proceso de diseo, usted debera tener un diseo completo que est
basado en un anlisis de los objetivos comerciales y tcnicos de su cliente, e incluye
tanto componentes lgicos como fsicos que han sido probados y optimizados. El
siguiente paso en el proceso debe escribir un documento de diseo.

Un documento de diseo describe los requerimientos de su cliente y explica como su
diseo encuentra aquellos requerimientos. Esto tambin documenta la red existente, el
diseo lgico y fsico, y el presupuesto y gastos asociados con el proyecto.

Es tambin importante que un documento de diseo contenga proyectos para poner en
prctica la red, midiendo el xito de la realizacin, y desarrollando el diseo de red
cuando los nuevos requerimientos de aplicacin se levantan. El trabajo del diseador de
red nunca es completa. El proceso de analizar requerimientos y desarrollar soluciones
de diseo comienza otra vez tan pronto como un diseo es puesto en prctica. La figura
14-1 muestra la naturaleza cclica del proceso de diseo de red Top Down.

Figure 14-1. Diseo de Red y Ciclo de Implementacin


Metodologa Top Down

Marcos Huerta S.
289
Como mencionado en captulos ms anteriores, adems de ser cclico, el diseo de red
es tambin iterativo. Algunos pasos ocurren durante multiples fases de un diseo. Las
pruebas ocurren durante la fase de validacin de diseo y tambin durante la
realizacin.

La optimizacin ocurre finalizando el diseo y tambin despus de la realizacin durante
la fase que supervisa red. La documentacin es un esfuerzo en curso. La
documentacin que es completada antes de la etapa de realizacin puede facilitar el
proceso de aprobacin para un diseo y ayuda a acelerar el rollout de nuevas
tecnologas y aplicaciones.

Responder la Propuesta de Requerida de un Cliente
Un RFP pone los requerimientos de diseo de un cliente en una lista y los tipos de
soluciones que un diseo de red debe incluir. Las organizaciones envan RFPs a
vendedores y disean a asesores y usan las respuestas que ellos reciben para
arrancar a proveedores que no pueden encontrar requerimientos. Las respuestas de
RFP ayudan a organizaciones a comparar diseos competidores, capacidades de
producto, fijacin de precios, y servicio y alternativas de soporte.

Cada RFP es diferente, pero tpicamente un RFP incluye unos o todos los temas
siguientes:
v Objetivos comerciales para el proyecto.
v Alcance del Proyecto.
v Informacin en la red existente y aplicaciones.
v Informacin en nuevas aplicaciones.
v Las exigencias tcnicas, incluso escalabilidad, disponibilidad, conectan a la red
la performance, la seguridad, la manejabilidad, la utilidad, la adaptabilidad, y la
accesibilidad financiera.
v Requerimientos de garanta para productos.
v Las restricciones ambientales o arquitectnicas que podran afectar la
realizacin.
v La formacin y requerimientos de apoyo.
v Lista preliminar con cambios y deliverables.
v Trminos contractuales legales y condiciones.

Algunas organizaciones especifican el formato requerido para la respuesta RFP. Si
es as, su documento de diseo inicial debera seguir el formato prescribido del
cliente y la estructura exactamente. Las organizaciones que especifican un formato
pueden rechazar leer respuestas que no siguen el formato solicitado. En algunos
Metodologa Top Down

Marcos Huerta S.
290
casos, el cliente puede solicitar un documento de continuacin donde usted puede
proporcionar la informacin ms detallada en su diseo de red lgico y fsico.

Algunos RFPs estn en la forma de un cuestionario. En este caso, las preguntas
deberan conducir la organizacin de la oferta. Los adornos que se concentran en
requerimientos claves y los puntos de venta de su diseo pueden ser a veces
aadidos, a menos que el RFP expresamente declare que ellos no deberan ser
aadidos.

Aunque cada organizacin maneje RFPs ligeramente diferentemente, tpicamente
un RFP declara que la respuesta debe incluir unos o todos los temas siguientes:
v Una topologa de red para el nuevo diseo.
v La informacin en los protocolos, tecnologas, y productos que forman el diseo.
v Un plan de realizacin.
v Un plan de implementacin
v Un plan de entrenamiento.
v Soporte e servicio de informacin.
v Precios y opciones de pago.
v Clasificacin del vendedor que responde o proveedor.
v Las recomendaciones de otros clientes para quien el proveedor ha
proporcionado una solucin.
v Trminos contractuales legales y condiciones.

A pesar de que una respuesta a un RFP debe quedarse dentro de las pautas
especificadas por el cliente, usted debera usar sin embargo el ingenio para
asegurar que su respuesta destaca las ventajas de su diseo. Basado en un anlisis
de objetivos comerciales y tcnicos de su cliente, y el flujo y caractersticas del
trfico de red.

Escribiendo la respuesta, esta seguro para considerar el concurso. El intento de
predecir lo que otros vendedores o diseadores de asesores podra proponer
entonces usted puede llamar la atencin a los aspectos de su solucin que
probablemente sern superiores a diseos competidores. Adems, preste la
atencin "al estilo comercial de su cliente." La Fase I, "Analizando Objetivos
Comerciales y Restricciones," cubri la importancia de entender tendencias de su
cliente y cualquier "poltica de oficina" o historia de proyecto que podra afectar la
percepcin de su diseo.



Metodologa Top Down

Marcos Huerta S.
291
Documente el Contenido del Diseo de Red
Cuando su documento de diseo no tiene que seguir un formato dictado de un RFP,
o cuando un cliente solicita un documento de continuacin a una respuesta RFP
bsica, usted debera escribir un documento de diseo que totalmente describe su
diseo de red. El documento debera incluir los componentes lgicos y fsicos del
diseo, informacin en tecnologas y dispositivos, y una oferta para poner en
prctica el diseo. Las secciones siguientes describen los temas que deberan ser
incluidos en un documento de diseo completo.

o Resumen Ejecutivo
Un documento de diseo completo puede ser muchas pginas de longitud. Por
esta razn, es esencial que usted incluya a principios del documento un
Resumen Ejecutivo que sucintamente declara los puntos principales del
documento. El Resumen Ejecutivo debera ser no ms que una pgina y debera
ser apuntado hacia los gerentes y participantes que decidirn si hay que aceptar
su diseo.

Aunque el Resumen Ejecutivo pueda incluir alguna informacin tcnica, esto no
debera proporcionar detalles tcnicos. El objetivo del resumen es vender a los
funcionarios con poder de decisin en las ventajas comerciales de su diseo. La
informacin tcnica debera ser resumida y organizada por orden de los
objetivos de prioridad ms alta del cliente para el proyecto de diseo.

o Objetivo del Proyecto
Esta seccin debera declarar el objetivo primario para el proyecto de diseo de
red. El objetivo debera ser el negocio orientado y relacionado con un objetivo
total que la organizacin tiene que hacerse ms acertada en su negocio
principal. La seccin de Objetivo de Proyecto debera ser no ms que un
prrafo; a menudo puede ser escrito como una oracin sola. La escritura de ello
con cuidado le dar una posibilidad para hacerlo obvio hacia los funcionarios
con poder de decisin que leen el documento que usted entiende el objetivo
primario y la importancia del del diseo del proyecto de red.
Un ejemplo de un objetivo de proyecto que fue escrito para un cliente de diseo
actual sigue:
El objetivo de este proyecto es desarrollar una red de area amplia (WAN) que
soportara nuevo alto ancho de banda y aplicaciones de multimedia de tardanza
baja. Las nuevas aplicaciones son claves a la realizacin acertada de nuevos
programas de formacin para el personal de ventas. El nuevo WAN debera
facilitar el objetivo de aumentar ventas en los Estados Unidos en el 50 por ciento
en el prximo ao fiscal.
Metodologa Top Down

Marcos Huerta S.
292

o Alcance del Proyecto
La seccin de Alcance de Proyecto proporciona la informacin en el grado del
proyecto, incluso un resumen de los departamentos y redes que sern
afectadas por el proyecto. La seccin de Alcance de Proyecto especifica si el
proyecto es para una nueva red o modificaciones a una red existente. Esto
indica si el diseo es para un segmento de red solo, un juego de LANs, un
edificio o red de campus, un juego de WAN o redes de acceso remoto, o
posiblemente la red de empresa entera.

Un ejemplo de una seccin de Alcance de Proyecto sigue:
El alcance de este proyecto debe actualizar la existencia WAN que une todas
las oficinas de ventas principales en los Estados Unidos a la oficina central
corporativa. Al nuevo WAN le tendrn acceso las ventas, la mercadotecnia, y los
empleados que se entrenan. Est ms all del alcance de este proyecto de
actualizar cualquier LAN que estos empleados usan. Est tambin ms all del
alcance de este proyecto de actualizar las redes en satlite y oficinas de
telecomunicaciones.

El alcance del proyecto no podra cubrir intencionadamente algunos asuntos.
Por ejemplo, la fijacin de problemas de performance con una aplicacin
particular podra estar intencionadamente ms all del alcance del proyecto.
Declarando presentan las asunciones que usted hizo sobre el alcance del
proyecto, usted puede evitar cualquier percepcin que su solucin por descuido
deja de dirigirse a ciertas preocupaciones.



o Requerimientos del Diseo
Mientras que la seccin de Objetivo de Proyecto es generalmente muy corta, la
seccin de Requerimientos de Diseo es su oportunidad de poner todos los
requerimientos comerciales y tcnicas principales en una lista para el diseo de
red. La seccin de Requerimientos de Diseo debera poner los objetivos en una
lista en orden de prioridad. Los objetivos crticos deberan ser marcados como
tal. Para examinar algunos ejemplos de requerimientos de diseo, ver los
estudios del caso en el Captulo 10, "Seleccionando Tecnologa y Dispositivos
para Redes de Campus," el Captulo 11, "Seleccionando Tecnologas y
Dispositivos para Redes de Empresa," y el Captulo 12, "Probando Su Diseo
de Red."

Metodologa Top Down

Marcos Huerta S.
293
o Objetivos del Negocio
Los objetivos del negocio explican el papel que el diseo de red jugar en la
ayuda de una organizacin a proporcionar mejores productos y servicios a sus
clientes. Los ejecutivos que leyeron el documento de diseo con mayor
probabilidad aceptarn el diseo de red si ellos reconocen de la seccin de
Objetivos Comercial que el diseador de red entiende la misin comercial de la
organizacin.

Muchos diseadores de red tienen un tiempo duro escribiendo la seccin de
Objetivos Comercial porque ellos estn ms interesados en objetivos tcnicos.
Sin embargo, es crtico que usted enfoca su documento de diseo de red en la
capacidad de su diseo de ayudar a un cliente a solucionar problemas
comerciales verdaderos mundiales.

Como hablado en la Fase I, la mayor parte de negocios emprenden un proyecto
de diseo de red para ayudarles a aumentar el ingreso, reducir gastos
operacionales e ineficiencias, y mejorar comunicaciones corporativas. Otros
objetivos tpicos incluyen sociedades de edificio con otras compaas y
ampliacin en mercados mundiales. En este punto en el proceso de diseo de
red, usted debera tener un entendimiento completo de los objetivos comerciales
de su cliente y ser capaz de ponerlos en una lista en el documento de diseo en
el orden de prioridad.

o Objetivos Tcnicos
La seccin de Objetivos Tcnicos documenta los objetivos siguientes hablados
en el Fase II, "Analizando Objetivos Tcnicos y Compensaciones:"
v Escalabilidad. Cuanto crecimiento un diseo de red debe soportar.
v Disponibilidad. La cantidad de tiempo una red est disponible a usuarios, a
menudo expresados como un tiempo de operacin de por ciento, o como un
tiempo medio entre el fracaso (MTBF) y tiempo medio de reparacin
(MTTR). La documentacin de disponibilidad tambin puede incluir cualquier
informacin juntada en el coste monetario asociado con el tiempo de
indisponibilidad de red.
v Interpretacin de red. Los criterios del cliente para aceptar el nivel de
servicio de una red, incluso su rendimiento, exactitud, eficacia, tardanza,
retrasan la variacin (inquietud), y tiempo de respuesta. Los requerimientos
de rendimiento especficas para dispositivos de funcionamiento entre redes,
en paquetes por segundo, tambin pueden ser declaradas. Los
requerimientos de rendimiento especficas para aplicaciones deberan ser
incluidas en la seccin de Aplicaciones.
Metodologa Top Down

Marcos Huerta S.
294
v Seguridad. Objetivos generales y especficos para proteger la capacidad de
la organizacin de conducir negocio sin interferencia de intrusos que
inapropiadamente tienen acceso o equipo perjudicial, datos, u operaciones.
Esta seccin tambin debera poner varios riesgos a la seguridad en una
lista que el cliente identific durante la fase de anlisis de exigencias del
proyecto de diseo.
v Manejabilidad. Objetivos generales y especficos para performance, falta,
configuracin, seguridad, y direccin de la contabilidad.
v Utilidad. La facilidad con la cual los usuarios de red pueden tener acceso a
la red y sus servicios. Esta seccin puede incluir la informacin en objetivos
para simplificar tareas de usuario relacionadas para conectar a la red la
direccin, el nombramiento, y el descubrimiento de recurso.
v Adaptabilidad. La facilidad con la cual un diseo de red y la realizacin
pueden adaptarse para conectar a la red ante fallas, cambiando modelos de
trfico, requerimientos comerciales o tcnicas adicionales, nuevas prcticas
comerciales, y otros cambios.
v Accesibilidad financiera. La informacin general en la importancia de
contener los gastos se asoci con compra y funcionamiento de equipo de
red y servicios. La informacin de presupuesto especfica debera ser
incluida en la seccin de Presupuesto de Proyecto.

La seccin de Objetivos Tcnicos tambin debera describir cualquier
compensacin que el cliente quiere hacer. Por ejemplo, algunos clientes podran
indicar que la accesibilidad financiera puede ser sacrificada para encontrar
objetivos de disponibilidad estrictos, o la utilidad puede ser sacrificada para
encontrar objetivos de seguridad estrictos. Como hablado en la Fase II, incluso
una carta que clasifica los pesos relativos de objetivos puede ayudar a los
lectores de un documento de diseo de red a entender algunas opciones de
diseo que fueron hechas.

o Comunidades de Usuario y Almacenes de Datos
Esta seccin pone comunidades de usuario principales en una lista, incluso sus
tamaos, posiciones, y las aplicaciones principales que ellos usan. Usted puede
usar la Tabla 4-1, "Comunidades de Usuario," resumir la informacin sobre
comunidades de usuario. Esta seccin tambin debera poner tiendas de datos
principales en una lista (servidores y hosts) y sus posiciones. La Tabla de Uso 4-
2, "los Datos Almacenan," resumir la informacin sobre tiendas de datos.



Metodologa Top Down

Marcos Huerta S.
295
o Aplicaciones de Red
La seccin de Aplicaciones de Red pone en una lista y caracteriza las
aplicaciones de red nuevas y existentes. La informacin sobre aplicaciones
puede ser resumida en "Requerimientos Tecnicos de Aplicaciones de Red" carta
mostrada en la Mesa 2-3, y en "la carta" de Caractersticas de Trfico de
Aplicaciones de Red mostrada en la Tabla 4-4. Si usted quiere, usted puede
combinar estas dos tablas de modo que haya slo una fila para cada aplicacin.

Los estudios del caso en la Fase III y IV proporcionan ejemplos buenos de la
informacin en cuanto a aplicaciones de red, comunidades de usuario, y tiendas
de datos que deberan ser incluidas en un documento de diseo.

o Estado Actual de la Red
Esta seccin brevemente describe la estructura y la performance de la red
existente. Esto debera incluir un mapa de alto nivel que identifica la posicin de
dispositivos de funcionamiento entre redes principales, informtica y sistemas
de almacenaje, y segmentos de red. El mapa de alto nivel debera documentar
los nombres y direcciones de dispositivos principales y segmentos e indicar los
tipos y longitudes de segmentos de red principales. Para redes muy grandes,
dos o tres mapas de alto nivel podran ser necesarios. Los mapas detallados,
sin embargo, deberan ser colocados en el Apndice ms bien que en esta
seccin.
Los mapas deberan incluir componentes lgicos as como fsicos (por ejemplo,
la posicin y alcance de cualquier red privada virtual (VPNs), LANs virtuales
(VLANs), segmentos de firewall, servidor de cluster, etctera). Los mapas
tambin deberan caracterizar la topologa lgica de las redes y las redes que
arreglan las redes. Los dibujos de red, o el texto asociado con dibujos, deberan
indicar si las redes son jerrquicas o planas, estructuradas o no estructuradas,
acodadas o no, etctera. Ellos tambin deberan indicar la geometra de red (por
ejemplo, estrella, anillo, bus, hub y spoke, o malla). La documentacin del
estado corriente de la red tambin brevemente describe cualquier estrategia o
estndares sus usos de cliente para direccin de red y nombramiento de
dispositivo. Si el cliente usa (o planea usar) las tcnicas de direccin-
sumarizada, por ejemplo, este debera ser indicado en el documento de diseo.

Una parte principal del Estado Corriente de la seccin de Red del documento de
diseo de red debera ser dedicada a un anlisis de la salud y la performance de
la red presente. Ver la Fase III, "Caracterizando las redes Existentes," para ms
informacin en la documentacin usted debera juntarse sobre la red existente.

Metodologa Top Down

Marcos Huerta S.
296
Los informes detallados (por ejemplo, cartas de utilizacin de red de 1 minuto)
pueden ser colocados en el Apndice del documento de diseo para evitar
abrumar al lector con demasiada informacin en esta etapa. Es importante que
el lector ''es capaz de alcanzar rpidamente el Diseo Lgico y secciones de
Diseo Fsicas del documento, porque aquellas secciones contienen la esencia
de su oferta de diseo.

o Diseo Lgico
La seccin de Diseo Lgica documenta los aspectos siguientes de su diseo
de red:
v La topologa de red, incluso uno o varios dibujos que ilustran la arquitectura
lgica de la nueva red.
v Un modelo para dirigirse a red segmentada y dispositivos.
v Un modelo para llamar dispositivos de red.
v Una lista del enrutamiento, y conmutacin de protocolos que han sido
seleccionados para poner en prctica el diseo, y cualquier recomendacin
de realizacin especfica asociada con aquellos protocolos.
v Mecanismos de seguridad recomendados y productos, incluso un resumen
de polticas de seguridad y procedimientos. (Si un plan de seguridad
detallado fuera desarrollado como la parte del diseo de red, puede ser
presentado como un apndice al documento de diseo.)
v Arquitecturas de direccin de red recomendadas, procesos, y productos
v La razn fundamental de diseo, perfilando por qu varias opciones fueron
hechas, en la luz de los objetivos del cliente y el estado corriente de la red.

NOTA
No todos los diseos incluyen todos estos componentes. Basado en los
requerimientos de su cliente, usted debera reconocer si es necesario dirigirse a
todas las cuestiones incluidas en la lista precedente en su documento de diseo
de red.

o Diseo Fsico
La seccin de Diseo Fsico describe las caracteristicas y usos recomendados
para las tecnologas y dispositivos que usted seleccion para poner en prctica
el diseo. Esto puede incluir la informacin para redes de campus y acceso
remoto y redes de area amplia. Esta seccin tambin puede incluir la
informacin sobre cualquier abastecedor de servicio seleccionado.

De ser asignado, la seccin de Diseo Fsico debera incluir la informacin en la
fijacin de precios para dispositivos de red y servicios. A veces la fijacin de
Metodologa Top Down

Marcos Huerta S.
297
precios es negociable y no es apropiada para incluir en el documento de diseo.
En la mayor parte de casos, sin embargo, los clientes esperan ver el producto y
la fijacin de precios de servicio en el documento de diseo.

La seccin de Diseo Fsico tambin debera contener la informacin en la
disponibilidad de productos. Si su diseo recomienda productos que transportan
todava, usted debera documentar una fecha de barco predicha, conforme al
vendedor de producto.

o Resultados de Pruebas de Diseo de Red
Esta seccin describe los resultados de las pruebas que usted hizo para
verificar su diseo de red. Esto es una de las partes ms importantes del
documento de diseo porque esto le da una posibilidad para demostrar a su
cliente que su diseo encontrar probablemente requerimientos para
performance, seguridad, utilidad, manejabilidad, etctera. Usted puede describir
cualquier prototipo o pilotear sistemas que usted puso en prctica y los
componentes de pruebas siguientes:
v Objetivos de prueba.
v Criterios de aceptacin de prueba.
v Pruebas de instrumentos.
v Escrituras de prueba.
v Resultados y observaciones.

En los Resultados y segmento de Observaciones, estar seguro para incluir
cualquier tcnica de optimizacin usted recomienda ser aplicado al diseo para
asegurar que esto encuentra los requerimientos. Basado en los resultados de
sus pruebas, usted podra recomendar mecanismos para minimizar los
broadcast y el trfico multicast, caracteristicas avanzadas para encontrar los
requerimientos de calidad del servicio (QoS), y sostificados servicios de
conmutacin de router y que hacen cola. Ver la Fase IV para ms informacin
en tcnicas de optimizacin.

o Plan de Implementacin
El Plan de Implementacin incluye sus recomendaciones para desplegar el
diseo de red. El nivel de detalle en esta seccin vara del proyecto de
proyectar, y depende de su relacin con su cliente.

Si usted es un miembro de unos Sistemas de Informacin (ES) el departamento
que es responsable del diseo y la realizacin de la nueva red, entonces esta
seccin debera ser completamente detallada. Si usted es un ingeniero de
Metodologa Top Down

Marcos Huerta S.
298
ventas para un vendedor de productos conectados a una red, por otra parte, su
papel debe recomendar probablemente soluciones, pero no ponerlos en
prctica, entonces esta seccin debera ser corta. (Usted debera evitar
aparecer como si usted dice a sus clientes como hacer sus empleos.)

Los temas siguientes son convenientes para la seccin de Plan de
Implementacin:
v Una lista de proyecto.
v Proyectos con vendedores o abastecedores de servicio para la instalacin
de enlaces, equipo, o servicios.
v Proyectos o recomendaciones para externalizar la realizacin o direccin de
la red.
v Un plan para comunicar el diseo a usuarios finales, conecte a la red a
administradores, y direccin. Esta seccin tambin puede explicar como el
progreso de implementacin ser comunicado (posiblemente va reuniones
de estado con regularidad previstas o mensajes de correo electrnico).
v Un plan de formacin para administradores de red y usuarios finales.
v Un plan para medir la eficacia del diseo despus de que ha sido puesto en
prctica.
v Una lista de riesgos conocidos que podran retrasar el proyecto.
v Un recurso planea si la realizacin de red falla.
v Un plan para desarrollar el diseo de red como nuevos requerimientos de
aplicacin y objetivos se levanta.

o Plan de Desarrollo del Proyecto
El Plan de Implementacin debera incluir una lista de proyecto o el objetivo. El
nivel de detalle que usted incluye en una lista depende de su papel en el
proyecto. En general, la lista debera incluir al menos las fechas y deliverables
para las modificaciones principales. La Tabla 14-1 espectculos un ejemplo de
una lista de alto nivel que fue desarrollada por un ingeniero de ventas para un
cliente actual.









Metodologa Top Down

Marcos Huerta S.
299
Table 14-1. La lista de alto nivel desarrollada para una red disea al cliente.
Fecha de
Finalizacin Actividad
El 1 de junio El diseo completado y una versin de beta del documento de diseo
distribuido a ejecutivos claves, gerentes, conecta a la red a administradores, y
usuarios finales
El 15 de junio Comentarios del documento de diseo
El 22 de junio Documento de diseo final distribuido
El 25 de junio Instalacin de lneas arrendadas entre todos los edificios completados por
abastecedor de servicio WAN
El 28-29 de junio Conecte a la red a administradores entrenados en el nuevo sistema
30 julio de junio
1
Los usuarios finales se entrenaron en el nuevo sistema
El 6 de julio Implementacin piloto completada en Edificio 1
El 20 de julio Reaccin recibida en piloto de administradores de red y usuarios finales
El 27 de julio Implementacin completada en Edificios 25
El 10 de agosto La reaccin recibi en Edificios 25 realizacin de administradores de red y
usuarios finales
El 17 de agosto Implementacin completada en el resto de los edificios
En curso El nuevo sistema supervis para verificar que esto encuentra objetivos

o Presupuesto de Proyecto
La seccin de Presupuesto de Proyecto debera documentar los fondos que el
cliente tiene disponible para compras de equipo, mantenimiento y acuerdos de
soporte, contratos de servicio, licencias de software, formacin, y proveer de
personal. El presupuesto tambin puede incluir honorarios consultores y gastos
de externalizacin.

o Retorno de la Inversin
En muchos casos el mejor modo de vender a un cliente en un nuevo diseo de
red es convencer al cliente que el diseo pagar para s en un perodo de
tiempo razonable. El documento de diseo de red puede incluir un retorno de
inversin (ROI) anlisis que explica como rpidamente el diseo o el nuevo
equipo se pagara por si mismo.

Lo siguiente es un ejemplo de un Retorno de Inversin que fue completado para
un cliente actual, ABC de Cliente. El objetivo de este anlisis Retorno de
Inversin era demostrar al cliente que el equipo de conmutacin WAN
recomendado se pagar por si mismo muy rpidamente porque esto permitir
que el cliente para disminuir el nmero de lneas T1 requeridas, y a la baja de
reduzca el costo de arrendar aquellas lneas de la compaa telefnica local.
Metodologa Top Down

Marcos Huerta S.
300

o Anlisis de Retorno de la Inversin para ABC de Cliente
El ABC de cliente piensa gastar 1 milln de dlar para el nuevo equipo de
conmutacin WAN.
Si el ABC de Cliente no gasta 1 milln de dlar para el equipo y en cambio pone
el dinero en otras inversiones durante 5 aos, el ABC de Compaa puede
ganar el inters aproximadamente del 5 por ciento, y 1 milln de dlar original
valdra 1.05 millones de dlares. Este significa que la inversin en el equipo
realmente debera ser considerada 1.05 millones de dlares.

Una asuncin fue hecha esto el equipo de conmutacin WAN tendr una vida
til de 5 aos antes de que sea obsoleto. De este modo, el coste por ao para
poseer el equipo fue calculado como 1.05 millones de dlares divididos en 5, o
210,000 dlares. El coste por mes para poseer el equipo es 210,000 dlares
divididos en 12, o 17,500 dlares.

El coste mensual debe ser comparado al costo de poseer los multiplexores de
divisin de tiempo existentes (TDMs) que comprenden el diseo corriente. Aquel
coste es 0 porque los TDMs son viejos y totalmente pagados para y se
depreciaron.

Sin embargo, el costo de hacer funcionar la vieja red debe ser comparado al
costo de hacer funcionar la nueva red. El nuevo diseo lo har posible para el
ABC de Cliente de usar 8 lneas T1 en vez de las 20 lneas T1 requeridas en el
viejo diseo. Cada lnea cuesta a ABC de Cliente 1500 dlares por mes. Este
significa que 20 lneas cuestan 30,000 dlares por mes, y 8 lneas cuestan
12,000 dlares por mes.
Los ahorros al ABC de Cliente con el nuevo diseo de red son 30,000 dlares
12,000 dlares, o 18,000 dlares por mes. Considerando que el costo para el
nuevo equipo es aproximadamente 17,500 dlares por mes, una conclusin
puede ser sacada que el equipo pagar por si mismo.

o Apndice del Documento de Diseo
La mayor parte de documentos de diseo incluyen uno o varios apndices que
presentan la informacin suplemental sobre el diseo y realizacin. La
informacin suplemental puede incluir mapas de topologa detallados,
configuraciones de dispositivo, direccin de red y nombramiento de detalles, y
resultados completos de las pruebas del diseo de red.

Usted tambin puede incluir la informacin comercial como una lista de
contactos en el sitio del cliente y en su organizacin, incluso direcciones de
Metodologa Top Down

Marcos Huerta S.
301
correo electrnico, nmeros de telfono, nmeros de buscapersonas, y
direcciones fsicas. La informacin en donde transportar equipo y cualquier
requerimiento de embarque especial o procedimientos es una adicin til en
algunos casos.

Si es necesario, el Apndice puede incluir la informacin exacta en opciones de
pago y fijacin de precios. A veces las copias de rdenes de compra son
incluidas. El Apndice tambin puede contener trminos legales y contractuales
y condiciones, y acuerdos de no divulgacin.

Algunos documentos de diseo incluyen la informacin sobre la compaa que
presenta la oferta de diseo, incluso pginas de informes anuales, catlogos de
producto, o comunicados de prensa recientes favorables a la compaa. El
objetivo de este tipo de informacin es asegurarse que el lector entiende que la
compaa es calificada para desarrollar y poner en prctica el diseo de red
propuesto. De ser asignado, esta seccin puede incluir recomendaciones de
otros clientes para quien la compaa ha proporcionado una solucin.

You might also like