antologia redes convergentes

72
Redes Convergentes Antología 22/04/2010 Universidad Tecnológica de Izúcar de Matamoros Mtro. Sergio Valero Orea

Upload: maria-navas

Post on 25-Oct-2015

49 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: Antologia Redes Convergentes

Redes Convergentes Antología 22/04/2010 Universidad Tecnológica de Izúcar de Matamoros Mtro. Sergio Valero Orea

Page 2: Antologia Redes Convergentes

“Redes convergentes”

Contenido

Unidad I. Diseño de redes ................................................................................................................... 4

1. Sistemas de cableado estructurado ........................................................................................ 4

1.1 Subsistemas de cableado estructurado ................................................................................ 5

1.2 Escalabilidad .......................................................................................................................... 6

1.3 Punto de demarcación .......................................................................................................... 6

1.4 Salas de equipamiento .......................................................................................................... 7

1.5 MC, IC y HC ............................................................................................................................ 8

1.6 Códigos y estándares de cableado estructurado .................................................................. 9

1.7 La Asociación de la Industria de las Telecomunicaciones (TIA) y la Asociación de Industrias

de Electrónica (EIA) ..................................................................................................................... 9

2. Arquitecturas de redes orientadas a servicios ...................................................................... 11

2.1 Diseño jerárquico de redes ..................................................................................................... 11

2.2 La arquitectura de redes orientadas a servicio de Cisco ......................................................... 13

2.3 Tecnologías WLAN ................................................................................................................... 15

2.3.1 Estándares operacionales IEEE 802.11 ............................................................................. 16

2.3.2 RF Site Survey ................................................................................................................... 17

Unidad II. Calidad en el servicio (QoS) .............................................................................................. 18

1. Introducción a la calidad en el servicio (QoS) ....................................................................... 18

2. Modelos de QoS .................................................................................................................... 20

3. Descripción de DiffServ QoS .................................................................................................. 21

4. Clasificación y marcado de tráfico ........................................................................................ 23

5. Mecanismos de QoS para administrar y evitar la congestión de la red ................................ 25

6. AutoQoS ................................................................................................................................ 29

Unidad III. Voz sobre IP (VoIP) ........................................................................................................... 29

1. Introducción a la tecnología y arquitecturas de VoIP ........................................................... 30

2. Funciones y componentes de VoIP ....................................................................................... 31

3. Principales protocolos de VoIP de acuerdo al modelo OSI ................................................... 32

Page 3: Antologia Redes Convergentes

4. Cálculo de requerimientos de ancho de banda .................................................................... 36

5. Configuración de puertos e interfaces de voz en un router ................................................. 38

6. Protocolo H.232 .................................................................................................................... 41

Unidad IV. Tecnologías WAN ............................................................................................................. 46

1. Servicios de banda ancha y 3G .............................................................................................. 46

2. Estándares WAN .................................................................................................................... 50

Unidad V. Switches multicapa ........................................................................................................... 54

1. Introducción a los switches multicapa .................................................................................. 54

2. VLANs .................................................................................................................................... 55

3. STP, RSTP, PVST+, PVRST, MSTP y EtherChannel .................................................................. 63

4. Ruteo InterVLAN.................................................................................................................... 68

5. Alta disponibilidad en un campus ......................................................................................... 70

Unidad VI. IPv6 .................................................................................................................................. 70

1. Esquema de direccionamiento IPv6 ...................................................................................... 70

2. Tipos de tunneling IPv4 a IPv6 .............................................................................................. 72

Page 4: Antologia Redes Convergentes

Unidad I. Diseño de redes

Objetivo. El alumno diseñará redes convergentes aplicando las arquitecturas orientadas al servicio

considerando la infraestructura adecuada para garantizar la transmisión eficiente de información.

1. Sistemas de cableado estructurado

El cableado estructurado es un enfoque sistemático del cableado. Es un método para crear un

sistema de cableado organizado que pueda ser fácilmente comprendido por los instaladores,

administradores de red y cualquier otro técnico que trabaje con cables.

Hay tres reglas que ayudan a garantizar la efectividad y la eficiencia en los proyectos de diseño del

cableado estructurado.

La primera regla es buscar una solución completa de conectividad. Una solución óptima para

lograr la conectividad de redes abarca todos los sistemas que han sido diseñados para conectar,

tender, administrar e identificar los cables en los sistemas de cableado estructurado. La

implementación basada en estándares está diseñada para admitir tecnologías actuales y futuras. El

cumplimiento de los estándares servirá para garantizar el rendimiento y confiabilidad del proyecto

a largo plazo.

La segunda regla es planificar el crecimiento a futuro. La cantidad de cables instalados debe

satisfacer necesidades futuras. Se deben tener en cuenta las soluciones de categoría 5e, categoría

6 y de fibra óptica para garantizar que se satisfagan futuras necesidades. La instalación de la capa

física debe poder funcionar durante diez años o más.

La regla final es conservar la libertad de elección de proveedores. Aunque un sistema cerrado y

propietario puede resultar más económico en un principio, con el tiempo puede resultar mucho

más costoso. Con un sistema provisto por un único proveedor y que no cumpla con los estándares,

es probable que más tarde sea más difícil realizar traslados, ampliaciones o modificaciones.

Page 5: Antologia Redes Convergentes

1.1 Subsistemas de cableado estructurado

Figura 1. Subsistemas de cableado estructurado

Hay siete subsistemas relacionados con sistemas de cableado estructurado como se ve en la figura

1. Cada subsistema realiza funciones determinadas para proveer servicios de datos y voz en toda

la planta de cables:

Punto de demarcación (demarc) dentro de las instalaciones de entrada (EF) en la sala de

equipamiento.

Sala de equipamiento (ER).

Sala de telecomunicaciones (TR).

Cableado backbone, también conocido como cableado vertical.

Cableado de distribución, también conocido como cableado horizontal.

Área de trabajo (WA).

Administración.

El demarc es donde los cables del proveedor externo de servicios se conectan a los cables del

cliente en su edificio. El cableado backbone está compuesto por cables de alimentación que van

desde el demarc hasta la salas de equipamiento y luego a la salas de telecomunicaciones en todo

el edificio. El cableado horizontal distribuye los cables desde las salas de telecomunicaciones hasta

Page 6: Antologia Redes Convergentes

las áreas de trabajo. Las salas de telecomunicaciones es donde se producen las conexiones que

proporcionan una transición entre el cableado backbone y el horizontal.

Estos subsistemas convierten al cableado estructurado en una arquitectura distribuida con

capacidades de administración que están limitadas al equipo activo, como por ejemplo los PC,

switches, hubs, etc. El diseño de una infraestructura de cableado estructurado que enrute,

proteja, identifique y termine los medios de cobre o fibra de manera apropiada, es esencial para el

funcionamiento de la red y sus futuras actualizaciones.

1.2 Escalabilidad

Una LAN que es capaz de adaptarse a un crecimiento posterior se denomina red escalable. Es

importante planear con anterioridad la cantidad de tendidos y de derivaciones de cableado en el

área de trabajo. Es preferible instalar cables de más que no tener los suficientes.

Además de tender cables adicionales en el área de backbone para permitir posteriores

ampliaciones, por lo general se tiende un cable adicional hacia cada estación de trabajo o

escritorio. Esto ofrece protección contra pares que puedan fallar en cables de voz durante la

instalación, y también permite la expansión. Por otro lado, es una buena idea colocar una cuerda

de tracción cuando se instalan los cables para facilitar el agregado de cables adicionales en el

futuro. Cada vez que se agregan nuevos cables, se debe también agregar otra cuerda de tracción.

1.3 Punto de demarcación

El punto de demarcación (demarc) es el punto en el que el cableado externo del proveedor de

servicios se conecta con el cableado backbone dentro del edificio. Representa el límite entre la

responsabilidad del proveedor de servicios y la responsabilidad del cliente. En muchos edificios, el

demarc está cerca del punto de presencia (POP) de otros servicios tales como electricidad y agua

corriente.

El proveedor de servicios es responsable de todo lo que ocurre desde el demarc hasta la

instalación del proveedor de servicios. Todo lo que ocurre desde el demarc hacia dentro del

edificio es responsabilidad del cliente.

El proveedor de telefonía local normalmente debe terminar el cableado dentro de los 15 m (49,2

pies) del punto de penetración del edificio y proveer protección primaria de voltaje. Por lo general,

el proveedor de servicios instala esto.

Page 7: Antologia Redes Convergentes

Asociación de Industrias Electrónicas (EIA) desarrollan y publican estándares para muchas

industrias, incluyendo la industria del cableado. Se deben aplicar estos estándares durante

cualquier proceso de instalación o mantenimiento del cableado de voz o de datos, para garantizar

que el cableado sea seguro, esté correctamente instalado, y tenga el rendimiento adecuado.

El estándar TIA/EIA-569-A especifica los requisitos para el espacio del demarc. Los estándares

sobre el tamaño y estructura del espacio del demarc se relacionan con el tamaño del edificio. Para

edificios de más de 2000 metros cuadrados (21.528 pies cuadrados), se recomienda contar con

una habitación dentro del edificio que sea designada para este fin y que tenga llave.

Las siguientes son pautas generales para determinar el sitio del punto de demarcación.

Calcule 1 metro cuadrado (10,8 pies cuadrados) de un montaje de pared de madera

terciada por cada área de 20-metros cuadrados (215,3 pies cuadrados) de piso.

Cubra las superficies donde se montan los elementos de distribución con madera terciada

resistente al fuego o madera terciada pintada con dos capas de pintura ignífuga.

Ya sea la madera terciada o las cubiertas para el equipo de terminación deben estar

pintadas de color naranja para indicar el punto de demarcación.

1.4 Salas de equipamiento

Una vez que el cable ingresa al edificio a través del demarc, se dirige hacia la instalación de

entrada (EF), que por lo general se encuentra en la sala de equipamiento (ER). La sala de

equipamiento es el centro de la red de voz y datos. La sala de equipamiento es esencialmente una

gran sala de telecomunicaciones que puede albergar el marco de distribución, servidores de red,

routers, switches, PBX telefónico, protección secundaria de voltaje, receptores satelitales,

moduladores y equipos de Internet de alta velocidad, entre otros. Los aspectos de diseño de la

sala de equipamiento se describen en los estándares TIA/EIA-569-A.

En edificios grandes, la sala de equipamiento puede alimentar una o más salas de

telecomunicaciones (TR) distribuidas en todo el edificio. Las TR albergan el equipo del sistema de

cableado de telecomunicaciones para un área particular de la LAN, como por ejemplo, un piso o

parte de un piso. Esto incluye las terminaciones mecánicas y dispositivos de conexión cruzada para

sistemas de cableado backbone y horizontal. Los routers, hubs y switches de departamentos y

grupos de trabajo se encuentran comúnmente en la TR.

El hub de cableado y un panel de conexión de una TR pueden estar montados contra una pared

con una consola de pared con bisagra, un gabinete para equipamiento completo, o un bastidor de

distribución.

La consola de pared con bisagra debe ser colocada sobre un panel de madera terciada que cubra la

superficie de pared subyacente. La bisagra permite que la unidad pueda girar hacia afuera de

Page 8: Antologia Redes Convergentes

modo que los técnicos tengan fácil acceso a la parte posterior de la pared. Es importante dejar 48

cm (19 pulgadas) para que el panel se pueda separar de la pared.

El bastidor de distribución debe tener un mínimo de 1 metro (3 pies) de espacio libre para poder

trabajar en la parte delantera y trasera del bastidor. Para montar el bastidor de distribución, se

utiliza una placa de piso de 55,9 cm (22 pulgadas). La placa de piso brinda estabilidad y determina

la distancia mínima para la posición final del bastidor de distribución. La Figura 2 muestra un

bastidor de distribución.

Un gabinete para equipamiento completo requiere por lo menos 76,2 cm (30 pulgadas) de espacio

libre delante de la puerta para que ésta se pueda abrir. Los gabinetes para equipamiento tienen

por lo general 1,8 m (5,9 pies) de alto, 0,74 m (2,4 pies) de ancho y 0,66 m (2.16 pies) de

profundidad.

Cuando coloque el equipamiento dentro de los bastidores de equipos, tenga en cuenta si el equipo

utiliza electricidad o no. Otras consideraciones a tener en cuenta son el tendido y administración

de los cables y la facilidad de uso. Por ejemplo, un panel de conexión no debe colocarse en la parte

de arriba de un bastidor si se van a realizar modificaciones significativas después de la instalación.

Los equipos pesados como switches y servidores deben ser colocados cerca de la base del bastidor

por razones de estabilidad.

La escalabilidad que permite el crecimiento futuro es otro aspecto a tener en cuenta en la

configuración del equipamiento. La configuración inicial debe incluir espacio adicional en el

bastidor para así poder agregar otros paneles de conexión o espacio adicional en el piso para

instalar bastidores adicionales en el futuro.

La instalación adecuada de bastidores de equipos y paneles de conexión en la TR permitirá, en el

futuro, realizar fácilmente modificaciones a la instalación del cableado.

1.5 MC, IC y HC

Por varias razones, la mayoría de las redes tienen varias TR. Si una red está distribuida en varios

pisos o edificios, se necesita una TR para cada piso de cada edificio. Los medios sólo pueden

recorrer cierta distancia antes de que la señal se comience a degradar o atenuar. Es por ello que

las TR están ubicadas a distancias definidas dentro de la LAN para ofrecer interconexiones y

conexiones cruzadas a los hubs y switches, con el fin de garantizar el rendimiento deseado de la

red. Estas TR contienen equipos como repetidores, hubs, puentes, o switches que son necesarios

para regenerar las señales.

La TR primaria se llama conexión cruzada principal (MC) La MC es el centro de la red. Es allí donde

se origina todo el cableado y donde se encuentra la mayor parte del equipamiento. La conexión

cruzada intermedia (IC) se conecta a la MC y puede albergar el equipamiento de un edificio en el

Page 9: Antologia Redes Convergentes

campus. La conexión cruzada horizontal (HC) brinda la conexión cruzada entre los cables backbone

y horizontales en un solo piso del edificio.

1.6 Códigos y estándares de cableado estructurado

Los estándares son conjuntos de normas o procedimientos de uso generalizado, o que se

especifican oficialmente, y que sirven como modelo de excelencia. Un proveedor especifica ciertos

estándares. Los estándares de la industria admiten la interoperabilidad entre varios proveedores

de la siguiente forma:

Descripciones estandarizadas de medios y configuración del cableado backbone y

horizontal.

Interfaces de conexión estándares para la conexión física del equipo.

Diseño coherente y uniforme que siga un plan de sistema y principios de diseño básicos.

Hay numerosas organizaciones que regulan y especifican los diferentes tipos de cables. Las

agencias locales, estatales, de los condados o provincias y nacionales también emiten códigos,

especificaciones y requisitos.

Una red que se arma según los estándares debería funcionar bien, o interoperar con otros

dispositivos de red estándar. El rendimiento a largo plazo y el valor de la inversión de muchos

sistemas de cableado de red se ven reducidos porque los instaladores no cumplen con los

estándares obligatorios y recomendados.

Muchas organizaciones internacionales tratan de desarrollar estándares universales.

Organizaciones como IEEE, ISO, y IEC son ejemplos de organismos internacionales de

homologación. Estas organizaciones incluyen miembros de muchas naciones, las cuales tiene sus

propios procesos para generar estándares.

1.7 La Asociación de la Industria de las Telecomunicaciones (TIA) y la Asociación de

Industrias de Electrónica (EIA)

La TIA/EIA son asociaciones industriales que desarrollan y publican una serie de estándares sobre

el cableado estructurado para voz y datos para las LAN.

Tanto la TIA como la EIA están acreditadas por el Instituto Nacional Americano de Normalización

(ANSI) para desarrollar estándares voluntarios para la industria de las telecomunicaciones. Muchos

de los estándares están clasificados ANSI/TIA/EIA. Los distintos comités y subcomités de TIA/EIA

desarrollan estándares para fibra óptica, equipo terminal del usuario, equipo de red,

comunicaciones inalámbricas y satelitales.

Page 10: Antologia Redes Convergentes

Estándares TIA/EIA

Aunque hay muchos estándares y suplementos, los que se enumeran a continuación son los que

los instaladores de cableado utilizan con más frecuencia:

TIA/EIA-568-A: Este antiguo Estándar para Cableado de Telecomunicaciones en Edificios

Comerciales especificaba los requisitos mínimos de cableado para telecomunicaciones, la

topología recomendada y los límites de distancia, las especificaciones sobre el

rendimiento de los aparatos de conexión y medios, y los conectores y asignaciones de pin.

TIA/EIA-568-B: El actual Estándar de Cableado especifica los requisitos sobre componentes

y transmisión para los medios de telecomunicaciones. El estándar TIA/EIA-568-B se divide

en tres secciones diferentes: 568-B.1, 568-B.2 y 568-B.3.

o TIA/EIA-568-B.1 especifica un sistema genérico de cableado para

telecomunicaciones para edificios comerciales que admite un entorno de

múltiples proveedores y productos.

o TIA/EIA-568-B.1.1 es una enmienda que se aplica al radio de curvatura del cable

de conexión UTP de 4 pares y par trenzado apantallado (ScTP) de 4 pares.

o TIA/EIA-568-B.2 especifica los componentes de cableado, transmisión, modelos de

sistemas y los procedimientos de medición necesarios para la verificación del

cableado de par trenzado.

o TIA/EIA-568-B.2.1 es una enmienda que especifica los requisitos para el cableado

de Categoría 6.

o TIA/EIA-568-B.3 especifica los componentes y requisitos de transmisión para un

sistema de cableado de fibra óptica.

TIA/EIA-569-A: El Estándar para Recorridos y Espacios de Telecomunicaciones en Edificios

Comerciales especifica las prácticas de diseño y construcción dentro de los edificios y

entre los mismos, que admiten equipos y medios de telecomunicaciones.

TIA/EIA-606-A: El Estándar de Administración para la Infraestructura de

Telecomunicaciones de Edificios Comerciales incluye estándares para la rotulación del

cableado. Los estándares especifican que cada unidad de terminación de hardware debe

tener una identificación exclusiva. También describe los requisitos de registro y

mantenimiento de la documentación para la administración de la red.

TIA/EIA-607-A: Los estándares sobre Requisitos de Conexión a Tierra y Conexión de

Telecomunicaciones para Edificios Comerciales admiten un entorno de varios proveedores

y productos diferentes, así como las prácticas de conexión a tierra para varios sistemas

que pueden instalarse en las instalaciones del cliente. El estándar especifica los puntos

exactos de interfaz entre los sistemas de conexión a tierra y la configuración de la

conexión a tierra para los equipos de telecomunicaciones. El estándar también especifica

las configuraciones de la conexión a tierra y de las conexiones necesarias para el

funcionamiento de estos equipos.

Page 11: Antologia Redes Convergentes

Para saber más…

Cisco Systems. (2003). Suplemento sobre cableado estructurado, Programa de la Academia de

Cisco CCNA 1: Conceptos básicos sobre networking v3.1.

2. Arquitecturas de redes orientadas a servicios

Los modelos de redes jerárquicos permiten diseñar redes que usan especialización de funciones

combinados con una organización jerárquica. Tal diseño simplifica las tareas requeridas para

construir una red que cumplan los requerimientos actuales y puede crecer para cumplir los

requerimientos a futuro. Los modelos jerárquicos utilizan niveles o capas para simplificar las

tareas, así, cada capa se enfoca en una función específica, permitiéndote elegir los sistemas y

características correctos de cada capa. Los modelos jerárquicos aplican a diseños tanto de redes

LAN como WAN.

Los beneficios de utilizar modelos jerárquicos para el diseño de las redes incluyen los siguientes:

Reducción de costos

Facilidad de comprensión o interpretación

Crecimiento modular

Mejora en el aislamiento de errores

2.1 Diseño jerárquico de redes

Como se muestra en la figura 2, un tradicional diseño jerárquico para una LAN tiene 3 capas. Entre

las ventajas que tenemos de separar las redes en 3 niveles tenemos que es más fácil diseñar,

implementar, mantener y escalar la red, además de que la hace más confiable, con una mejor

relación costo/beneficio. Cada capa tiene funciones específicas asignadas y no se refiere

necesariamente a una separación física, sino lógica; así que podemos tener distintos dispositivos

en una sola capa o un dispositivo haciendo las funciones de más de una de las capas.

Las capas y sus funciones son:

Capa de Núcleo (core layer): esta capa es el backbone de alta velocidad de la red, la cual es crucial

para comunicaciones corporativas. Debe tener las siguientes características: transporte rápido,

alta confiabilidad, redundancia, tolerancia a fallos, rápida adaptación a fallos, baja latencia. Su

única función es switchear tráfico tan rápido como sea posible.

Se debe diseñar el core para una alta confiabilidad (high reliability), por ejemplo con tecnologías

de capa dos que faciliten redundancia y velocidad, como FDDI, Gigabit Ethernet (con enlaces

Page 12: Antologia Redes Convergentes

redundantes), ATM, y seleccionamos todo el diseño con la velocidad en mente, procurando la

latencia más baja, y considerando protocolos con tiempo de convergencia más bajos.

Figura 2. Diseño jerárquico de redes

Capa de distribución (distribution layer): routing. Esta capa es el medio de comunicación entre la

capa de acceso y el núcleo. Las funciones de esta capa son proveer ruteo, filtrado, acceso a la red

WAN y determinar qué paquetes deben llegar al core. Aquí se implementan las políticas de red,

por ejemplo: ruteo, access-list, filtrado de paquetes, colas de espera, se implementan la seguridad

y las políticas de red (traducciones NAT y firewalls), la redistribución entre protocolos de ruteo,

ruteo entre VLANs, se definen dominios de broadcast y multicast.

Capa de acceso (access layer): switching. Esta capa proporciona a los usuarios acceso a segmentos

locales de la red, controla a los usuarios y el acceso de grupos de trabajo o los recursos de la red.

Entre las funciones más importantes están la continuación de control de tráfico y políticas,

creación de dominios de colisión separados (segmentación), alta disponibilidad, seguridad en

puertos, limite en tasas de transferencia, inspección del protocolo ARP. En esta capa se lleva a

cabo la segmentación Ethernet, DDR y ruteo estático.

Los switchs LANs de esta capa pueden controlar el acceso a los puertos y limitar la tasa de

transferencia al enviar y recibir tramas hacia y desde el switch. Esto se puede implementar al

identificar las direcciones MAC utilizando ARP y utilizando listas de acceso.

Page 13: Antologia Redes Convergentes

2.2 La arquitectura de redes orientadas a servicio de Cisco

La extremadamente rica variedad de aplicaciones de negocios disponible hoy en día y la necesidad

de integrar dichas aplicaciones conduce a la necesidad de una nueva arquitectura para redes.

La arquitectura SONA (Service Oriented Network Architecture, por sus siglas en inglés), es un

framework arquitectónico que ilustra cómo construir sistemas integrados y guía a la evolución de

las empresas hacia redes más inteligentes. Al utilizar el framework SONA, las empresas pueden

mejorar la flexibilidad e incrementar su eficiencia al optimizar sus aplicaciones, procesos de

negocio y sus recursos al habilitar las Tecnologías de la Información y tener un efecto mayor en los

negocios.

El framework SONA (figura 3), muestra cómo los sistemas integrados pueden permitir una

arquitectura flexible y dinámica al proveer eficiencia operacional a través de la estandarización y la

virtualización.

Figura 3. Framework SONA de Cisco

El framework SONA define las siguientes tres capas:

Capa de infraestructura en red. Es donde todos los recursos de TI están interconectados a través

de los cimientos de la red convergente. Los recursos de TI incluyen servidores, dispositivos de

almacenamiento y clientes. La capa de infraestructura en red representa cómo esos recursos

existen en diferentes lugares en la red, incluyendo campus, sucursales, data centers, WAN, MAN y

Page 14: Antologia Redes Convergentes

trabajadores remotos. El objetivo de esta capa es proporcionar conectividad, en cualquier lugar y a

cualquier hora.

Capa de servicios interactivos. Esta capa incluye servicios de aplicaciones de red así como

servicios de infraestructura. Esta capa permite una asignación eficiente de recursos para

aplicaciones y procesos de negocios provistos a través de la infraestructura de la red. Esta capa

incluye los siguientes servicios: voz y colaboración, movilidad, wireless, identidad y seguridad,

almacenamiento, cómputo, aplicaciones en red, virtualización, QoS, alta disponibilidad, multicast

IP.

Capa de aplicaciones. Esta capa incluye aplicaciones de negocio y colaboración. El objetivo de esta

capa es recibir requerimientos de negocio e impulsar la eficiencia de la capa de los servicios

interactivos. Esta capa incluye las siguientes aplicaciones colaborativas: mensajería instantánea,

telefonía IP, transmisión de video usando el Cisco Digital Media System, entre otros.

Figura 4. Servicios Cisco SONA.

En resumen, el marco de trabajo SONA, ofrece los siguientes beneficios:

Funcionalidad: soporta los requerimientos de la organización.

Escalabilidad: soporta crecimiento y expansión de las tareas de la organización al separar

funciones y productos en capas; esta separación hace más fácil el crecimiento de la red.

Disponibilidad: proporciona los servicios necesarios, confiabilidad, donde sea y cuando

sea.

Page 15: Antologia Redes Convergentes

Desempeño: provee el grado de reacción deseado, rendimiento y utilización a través de

los servicios e infraestructura de la red.

Manejabilidad: provee control, supervisión de desempeño y detección de fallas.

Eficiencia: proporciona los servicios de red e infraestructura requeridos con un costo

operacional razonable e inversión de capital apropiados, al migrar hacia una red más

inteligente, mediante el crecimiento de los servicios de red paso a paso.

Seguridad: provee un balance efectivo entre usabilidad y seguridad al proteger de

amenazas de información y la infraestructura tanto internas como externas.

2.3 Tecnologías WLAN

Un sistema de comunicación inalámbrica utiliza energía de radio frecuencia (RF) para transmitir

datos de un punto a otro a través del aire; el término señal es utilizado para referirse a esta

energía de RF. El dato a transmitirse primero es modulado (convertido) en una señal portadora y

después enviado; los receptores demodulan (convierten) la señal y procesan el dato.

Existen diferentes tipos de tecnologías inalámbricas, cada una cubre un área geográfica distinta:

Redes de área personal (PAN): típicamente cubre un espacio de trabajo personal.

Redes de área local: las LAN’s inalámbricas (WLAN), están diseñadas para ser redes

empresariales que permiten el uso de suites completas de aplicaciones, sin cables.

Redes de área metropolitana (MAN): las redes MAN’s inalámbricas están desarrolladas

dentro de un área metropolitana, permitiendo la conectividad inalámbrica a lo largo de un

área urbana.

Redes de área amplia (WAN): las WAN’s inalámbricas típicamente son más lentas pero

ofrecen mayor cobertura, abarcando áreas rurales.

Las redes WLAN remplazan el medio de transmisión de capa 1 de una red alámbrica tradicional

(usualmente cable categoría 5) con radio transmisión sobre el aire. Las WLAN se pueden conectar

a una red LAN cableada y funcionar sobre ella o pueden ser desarrolladas por sí solas donde el

cableado de red no es posible. Una computadora con una NIC inalámbrica se conecta a una WLAN

mediante un punto de acceso (Access point – AP). Una WLAN desarrollada apropiadamente puede

proveer acceso instantáneo a la red desde cualquier lugar dentro de las instalaciones de manera

que los usuarios puedan “vagar” sin perder su conexión a la red.

Los productos inalámbricos de Cisco admiten las siguientes tres topologías:

Acceso a clientes inalámbricos: para la conectividad de usuarios móviles.

Puente inalámbrico: para interconectar LAN’s que se encuentran físicamente separadas,

por ejemplo, en diferentes edificios.

Page 16: Antologia Redes Convergentes

Red de malla inalámbrica: provee accedo a clientes así como una conexión dinámica y

redundante entre edificios.

Las WLAN usan un identificador (SSID – Service Set Identifier) para identificar el nombre de la

WLAN. Este SSID debe ser de 2 a 32 caracteres de longitud. Todos los dispositivos en la WLAN

deben tener configurado el mismo SSID para comunicarse, es similar a una VLAN en una red

cableada.

La capa de control de acceso al medio (MAC) de la IEEE 802.11 implementa el método de acceso

CSMA/CA (Carrier Sense Multiple Access/ Collision Avoidance). Con este método, cada estación

WLAN “escucha” para ver si algún dispositivo está transmitiendo. Si no ocurre actividad, la

estación transmite. Si existe algún tipo de transmisión, la estación usa un conteo regresivo con un

reloj. Cuando el tiempo expira, la estación transmite.

Algunas de las agencias y grupos de estándares relacionados con redes WLAN son los siguientes:

- Instituto de Ingenieros Eléctricos y Electrónicos (IEEE): crea y mantiene estándares

operacionales.

- Instituto de Estándares de Telecomunicaciones Europeo (ETSI): colegiados para producir

estándares comunes en Europa.

- Wi-Fi Alliance: promueve y prueba interoperabilidad para redes WLAN.

- WLAN Association: educa y promueve el uso de las WLAN.

2.3.1 Estándares operacionales IEEE 802.11

En Septiembre de 1999, la IEEE ratificó el estándar IEEE 802.11 (5 GHz a 54 Mpbs) y el estándar

802.11b (2.4 GHz a 11 Mbps). En Junio del 2003, la IEEE ratificó el estándar 802.11g (2.4 GHz a 54

Mbps); este estándar es compatible con los sistemas 802.11b, ya que ambos usan el mismo ancho

de banda en la misma frecuencia. A continuación se presenta un resumen de los estándares IEEE

802.11 para comunicaciones inalámbricas:

Protocolo IEEE Fecha de lanzamiento

Frecuencia Ancho de banda Ancho de banda máximo

802.11 1997 ISM 1 Mbps 2 Mbps 802.11a 1999 UNII 25 Mbps 54 Mbps 802.11b 1999 ISM 6.5 Mbps 11 Mbps 802.11g 2003 ISM 25 Mbps 54 Mbps 802.11n 2007 ISM o UNII 200 Mbps 540 Mbps

Tabla 1. Resumen estándares IEEE

Page 17: Antologia Redes Convergentes

2.3.2 RF Site Survey

Las redes inalámbricas utilizan un medio compartido, el aire, para transmitir ondas de radio

frecuencia (RF). En este, existen obstáculos e interferencias que afectan la calidad del aire. Dos

redes similares (por ejemplo, dos sucursales bancarias de arquitectura similar) pueden dar

rendimientos muy diferentes por causa del entorno: vecinos, ruidos, materiales de construcción,

decorados, etc. Por lo tanto, es de vital importancia, antes de desplegar una red inalámbrica,

estudiar “el terreno” y el entorno. A ese estudio se le conoce como “site survey” – estudio o

evaluación de sitio.

Un site survey de RF es el primer paso en el diseño y desarrollo de una red inalámbrica, y el más

importante para asegurar la operación deseada. Un estudio de sitio es un proceso en el cual el

“perito” estudia las instalaciones para entender las características de RF en el ambiente, planea y

revisa las áreas de cobertura, verifica la interferencia y determina el lugar apropiado para

establecer los dispositivos inalámbricos de la infraestructura de la red.

La meta principal del site survey es proveer suficiente información para determinar el número y

ubicación de los access points que provean la adecuada cobertura a través del edificio. Un site

survey de RF adicionalmente detecta la presencia de interferencia proveniente de otros orígenes

(microondas, teléfonos inalámbricos) que puedan degradar el performance de la WLAN.

Cuando conducimos un site survey de RF, se realizan los siguientes pasos:

- Definir requisitos de usuario.

- Obtener un diagrama del área.

- Inspección visual del área.

- Identificación de áreas y densidad de usuarios.

- Determinación preliminar de los access points.

- Verificar la locación de los access points.

- Documentar los resultados.

Para saber más…

Teare D. (2007). Designing for Cisco Internetwork Solution. 2nd Ed. Pearson Education.

Bruno A. (2007). CCDA Official Exam Certification Guide. 3rd Ed. Pearson Education.

Page 18: Antologia Redes Convergentes

Unidad II. Calidad en el servicio (QoS)

Objetivo. El alumno implementará y administrará la QoS en las redes de las organizaciones para

aprovechar al máximo la infraestructura de telecomunicaciones.

Figura 5. Ejemplo de QoS

1. Introducción a la calidad en el servicio (QoS)

Hace pocos años, debido básicamente a la baja capacidad de las redes, la posibilidad de llevar a

cabo aplicaciones relacionadas con información multimedia (videoconferencia, audioconferencia,

video bajo demanda, pizarras compartidas, teletrabajo, telemedicina, etc.) eran prácticamente

impensable, pero en estos momentos es una realidad. Se ha avanzado mucho en la comprensión

de audio y video, y en tecnologías de redes.

Afortunadamente, en la actualidad se están implantando nuevas tecnologías de fibra óptica que

proporcionan el gran ancho de banda requerido por las aplicaciones anteriores, pero no basta solo

con el aumento del mismo, es necesario gestionarlo de manera eficiente: utilizarlo en un

porcentaje elevado asegurando una calidad determinada. Esto es la calidad en el servicio (QoS).

Hasta hace poco este término no era importante en la mayoría de los sistemas. Para comprobarlo

tan solo tenemos que pensar en los algoritmos que se usan actualmente en la transmisión de

paquetes por la red (pensar en el sistema Best Effort utilizado en Internet), estos algoritmos suelen

garantizar la llegada de todos los paquetes, pero no dan ninguna cota respecto al límite de su

llegada a destino. Esta forma de transmisión es buena para muchas aplicaciones, como por

ejemplo la transmisión de archivos (FTP), la navegación vía Web, el correo electrónico, donde lo

importante es que los datos lleguen correctamente. Para el tráfico en tiempo real, en cambio, los

datos necesitan llegar a su destino en un tiempo determinado, ya que tardar un poco más implica

que la aplicación se detendría por falta de datos, lo cual sería inadmisible.

Page 19: Antologia Redes Convergentes

La calidad en el servicio (QoS) es el rendimiento de extremo a extremo de los servicios electrónicos

tal y como los percibe el usuario final. Los parámetros de QoS son: el ancho de banda (bandwith),

el retardo (delay), la variación del retardo (jitter) y la pérdida de paquetes (packet loss). Una red

debe garantizar cierto nivel de calidad de servicio para un nivel de tráfico que sigue un conjunto

especificado de parámetros.

La implementación de políticas de calidad de servicio se puede enfocar en varios puntos según los

requerimientos de la red, los principales son:

Asignar ancho de banda en forma diferenciada.

Evitar y/o administrar la congestión de la red.

Manejar prioridades de acuerdo al tipo de tráfico.

Modelar el tráfico de la red.

Ancho de banda (Bandwidth)

El término ancho de banda es una medida de la capacidad de transmisión de datos y se refiere al

número de bits por segundo que pueden viajar a través de un medio. Esta capacidad se ve

disminuida por factores negativos tales como el retardo, que pueden causar un deterioro en la

calidad.

Aumentar el ancho de banda significa poder transmitir más datos (algo así como aumentar el

número de carriles de una autopista), pero también implica un incremento económico y, en

ocasiones, resulta imposible su ampliación sin cambiar de tecnología de red.

Retardo (Delay)

Es la variación temporal y/o retraso de la llegada de los flujos de datos a su destino. Es una

característica que se hace muy evidente en aplicaciones como la videoconferencia donde todos

hemos experimentado alguna vez el retraso en la recepción de algún mensaje vocal enviado por

nosotros y el retardo existente entre la señal de voz y la señal de video. Teniendo en cuenta hacia

qué tipo de aplicaciones se están orientando las telecomunicaciones (es evidente la llegada de voz

sobre IP), es necesario que las en las políticas de QoS definidas para nuestra red este parámetro

sea reducido al mínimo.

Variación del retardo (Jitter)

Es lo que ocurre cuando los paquetes transmitidos en una red no llegan a su destino en debido

orden o en la base de tiempo determinada, es decir, varían en latencia. Algo semejante a la

distorsión de una señal. En redes de conmutación de paquetes, jitter es una distorsión de los

tiempos de llegada de los paquetes recibidos, comparados con los tiempos de los paquetes

transmitidos originalmente. Esta distorsión es particularmente perjudicial para el tráfico

multimedia.

Page 20: Antologia Redes Convergentes

Una solución ante el jitter es la utilización de buffers en el receptor. Pero esta medida es poco

eficaz, dado que sería necesario un gran tamaño para los buffers, lo que implica un costo

económico en los equipos, y porque estos buffers incrementarían el retardo. El tamaño de uno de

estos buffers debería ser al menos dos veces el tamaño del jitter y el retardo adicional introducido

por el buffer podría superar el retardo máximo permitido por la aplicación.

Pérdida de paquetes (packet loss)

Indica el número de paquetes perdidos durante la transmisión. Normalmente se mide en tanto por

ciento. Por ejemplo, los routers pierden/niegan/descartan paquetes por muchas razones, muchas

de las cuales, las herramientas QoS no pueden hacer nada.

2. Modelos de QoS

|

Existen 3 modelos de QoS llamados Best-Effort, IntServ y DiffServ. Los cuales serán definidos a

continuación:

Best-Effort. Este modelo es el más sencillo. Es un modelo simple de servicio, en el cual, una

aplicación envía información cuando ella lo desea, en cualquier cantidad, sin ningún permiso

requerido y sin informar previamente a la red. Es decir, simplemente este modelo quiere decir que

no se aplica calidad en el servicio al tráfico. Además, este modelo no asegura tasa de

transferencia, retraso o fiabilidad. Por último, utiliza el modelo de cola FIFO (First In First Out) para

sus transmisiones.

Decimos que una red o un proveedor ofrece calidad en el servicio cuando se garantiza el valor de

uno o varios de los parámetros que definen esta calidad. Si el proveedor no se compromete en

ningún parámetro decimos que lo que ofrece es un servicio “best-effort”. TCP/IP fue diseñado

para dar un servicio best-effort también. Existen aplicaciones que no pueden funcionan en redes

congestionadas con best-effort, por ejemplo, la videoconferencia o VoIP.

IntServ (Integrated Services). Este modelo se basa en la idea de reserva de recursos en la red por

flujos. Un flujo es una cadena de paquetes que fluyen por la red desde una aplicación en una

computadora origen hasta una aplicación en una computadora destino. Para cada flujo entrante se

definen los recursos (ancho de banda, retardo, etc.) que serán necesarios para este flujo. La

reserva de recursos debe establecerse previamente en cada uno de los routers que forman parte

del camino entre el origen y el destino. Cada nodo en el camino indica si puede asegurar la reserva

y mantiene una tabla con el estado de la reserva por flujo.

La principal limitación de este modelo es la gran cantidad de información que debe almacenar

cada nodo, provocando que la solución no sea aplicable en situaciones con gran cantidad de flujos

entre usuarios finales.

Page 21: Antologia Redes Convergentes

DiffServ (Differentiated Services). Este modelo será descrito a continuación.

3. Descripción de DiffServ QoS

Differentiated Services es un protocolo de QoS propuesto por IETF [RFC 2475 y RFC 2474] que

permite distinguir diferentes clases de servicio marcando los paquetes. Consiste en un método

para marcar o etiquetar paquetes, permitiendo a los routers modificar su comportamiento de

envío. Cada tipo de etiqueta representa un determinado tipo de QoS y el tráfico con la misma

etiqueta se trata de la misma forma.

DiffServ fue desarrollada en respuesta a la necesidad de métodos toscos pero simples de proveer

diferentes niveles de servicio para el tráfico de internet y para soportar diferentes tipos de

aplicaciones y negocios específicos.

Para proporcionar los diferentes niveles de servicio utiliza el campo type of service (ToS) o DiffServ

Codepoint (DSCP) de la cabecera del estándar IPv4 e IPv6. Éste es un campo de 8 bits estando los

últimos 2 reservados. Con los 6 bits restantes se consiguen 64 combinaciones: 48 para el espacio

global y 16 para uso local.

Figura 6. Cabecera IPv4

Para su funcionamiento, DiffServ divide el tráfico en unas pocas clases y los recursos se asignan

con base a las clases (y no a los flujos individuales como IntServ), lo que hace que esta arquitectura

no sufra el problema de agotamiento de recursos de la red.

Para el control del tráfico DiffServ tiene dos enrutadores (routers): los nodos frontera y los nodos

interiores (Figura 7). Solo los nodos frontera clasifican tráfico y marcan paquetes, mientras que

los nodos interiores usan las clases codificadas en la cabecera del paquete (llamadas clases de

retransmisión o forwarding equivalence class) para determinar el tratamiento de los paquetes. El

Page 22: Antologia Redes Convergentes

tratamiento que reciben los paquetes según su clase se denomina tratamiento de retransmisión

(PHB ó Per-Hop Behaviour).

Figura 7. Arquitectura de una red DiffServ

Los conceptos clave de DiffServ se pueden resumir de la siguiente forma:

Toma ventaja de las propiedades escalables de las herramientas QoS basadas en clases

para diferencias entre tipos de paquetes, con la meta de “diferenciar servicios en

Internet”.

En una red simple, los paquetes deberían ser marcados al ingreso a un punto dentro de la

red, con otros dispositivos realizando elecciones QoS basados en el campo marcado.

El campo marcado estará en el encabezado IP y no en el encabezado de la capa de enlace

de datos, ya que el encabezado IP permanece a lo largo de toda la red.

Entre redes, los paquetes pueden ser reclasificados y remarcados al ingresar dentro de

otra red.

Para facilitar el marcado, el encabezado IP ha sido redefinido al incluir un campo de 6 bits

llamado DSCP, el cual permite 64 clasificaciones diferentes.

Page 23: Antologia Redes Convergentes

Aparte de las estrategias generales de QoS, DiffServ realmente provee dos características claves

adicionales: el campo DSCP y algunas sugerencias de cómo usar este campo.

4. Clasificación y marcado de tráfico

La mayoría de las herramientas QoS clasifican el tráfico. El cual, permite a cada clase de tráfico

recibir un trato diferente con respecto a otras clases de tráfico. Estos diferentes tipos de tráfico,

en terminología QoS se les llama típicamente clases de servicio. La clasificación permite a los

dispositivos decidir qué paquetes son parte de cada clase de servicio.

Las herramientas de clasificación y marcado de tráfico no solo clasifican paquetes en clases de

servicio, sino que también marcan los paquetes en la misma clase de servicio con el mismo valor

en un campo en el encabezado. Al marcar los paquetes, otras herramientas QoS que examinan el

paquete más tarde, pueden examinar los bits de marca para que sea más fácil clasificar los

paquetes.

Casi todas las herramientas QoS usan la clasificación en algún nivel. Para poner un paquete en una

cola de espera diferente a otro paquete, el IOS debe diferenciar de alguna forma entre los dos

paquetes, por ejemplo: paquetes de voz (VoIP) y paquetes de datos.

Por ejemplo, muchas herramientas QoS permiten clasificar utilizando listas de control de acceso

(ACL). Si la ACL 101 permite el paso a un paquete, la herramienta de encolado podría poner el

paquete en una cola, si la ACL 102 permite el paso a otro paquete, este es almacenado en una

segunda cola de espera, y así sucesivamente.

Marcado de tráfico basado en clases

El marcado de tráfico basado en clases puede clasificar paquetes en clases de servicio al examinar

directamente el encabezado de la trama, paquete, celda (ATM) y segmento. Este método de

marcado también puede utilizar ACL para igualar (match) paquetes.

Clasificación con NBAR (Network Based Application Recognition)

NBAR provee un router con la capacidad de clasificar paquetes, particularmente paquetes difíciles

de identificar. Independientemente, NBAR puede ser configurado para mantener contadores de

tipo de tráfico y volumen de tráfico de cada tipo.

NBAR clasifica paquetes que, normalmente, son difíciles de clasificar. Por ejemplo, algunas

aplicaciones utilizan números de puertos dinámicos, entonces, un comando “match” configurado

estáticamente, buscando por un número de puerto particular TCP o UDP, simplemente podría no

clasificarlo. NBAR puede buscar en el encabezado TCP y UDP y mandar al nombre del host, URL o

tipo MIME en solicitudes HTTP.

Page 24: Antologia Redes Convergentes

Marcado de tráfico

El marcado de tráfico involucra la configuración de algunos bits dentro del encabezado de la capa

de red, con el objetivo de dejar a otros dispositivos QoS realizar la clasificación basado en los

valores de las marcas. Algunas opciones del marcado de tráfico tienen sentido para todos los

dispositivos de una LAN, mientras otros solamente cuando se utilizan plataformas de hardware

específicas.

Campos QoS del encabezado IP

Los dos campos más populares para el marcado de tráfico para QoS son el campo “prioridad”

(Precedence) y el campo “DSCP” (Differentiated Services Code Point).

Figura 8. Campos IP Precedence y DSCP

Se puede marcar los campos “prioridad” y DSCP con cualquier valor binario válido de 3 o 6 bits,

respectivamente.

Toda la clasificación QoS se resuelve con este campo en el modelo DiffServ, ya que se identifica

cada paquete su agregado de tráfico (BA, Behavior Aggregate). Cada BA es identificado por un

único código DS. En términos concretos un PHB (Per-Hop Behaviors) se refiere a la programación,

encolamiento, definición de políticas o características de un nodo en cualquier paquete, es decir,

cómo se le tratará.

El marcado de tráfico puede ocurrir en dos lugares:

- La fuente original del tráfico, como un servidor web, marca el tráfico.

- Un router, como el primer router que el tráfico encuentra, clasifica y marca el tráfico.

Page 25: Antologia Redes Convergentes

Cuando un paquete entra en un router, la lógica de ruteo selecciona su puerto de salida, y su valor

DSCP es usado para conducir el paquete a una cola específica o tratamiento específico en ese

puerto. El PHB particular es configurado por un mecanismo administrador de la red, estableciendo

la tabla de comportamiento dentro del router.

Clase de servicio LAN (LAN Class of Service – CoS)

Muchos de los switches LAN de hoy en día pueden marcar y reaccionar a campos de capa 2,

llamado clase de servicio (CoS) dentro de los encabezados Ethernet. El campo CoS existe

solamente dentro de las tramas Ethernet cuando los enlaces troncales 802.1Q o ISL (Inter-

Switching Link) están siendo usados. El estándar IEEE 802.1P actualmente define el uso de los bits

CoS dentro del encabezado 802.1Q. se puede utilizar el campo para establecer 8 valores binarios

diferentes, los cuales pueden ser utilizados para la clasificación llevada a cabo por herramientas

QoS, de la misma forma que los campos “prioridad” y “DSCP”. La figura 9 muestra el encabezado

descrito anteriormente.

Figura 9. Campos CoS LAN

5. Mecanismos de QoS para administrar y evitar la congestión de la red

Cisco utiliza el término “administración de la congestión” para referirse a los sistemas de

encolamiento de sus productos. La mayoría de la gente entiende los conceptos básicos de

encolamiento, ya que la mayoría de nosotros lo experimenta día a día: una cola de espera para

pagar los abarrotes en el supermercado, una cola de espera para ser atendidos en el banco y así

sucesivamente.

Page 26: Antologia Redes Convergentes

Los sistemas de encolamiento tienen un impacto en las 4 características mencionadas

anteriormente: ancho de banda, delay, jitter y pérdida de paquetes. Mucha gente escucha el

término QoS e inmediatamente piensa en sistemas de encolamiento, pero QoS incluye muchos

más conceptos y características que solamente encolar. Ciertamente, los sistemas de

encolamiento son muy a menudo las herramientas desarrolladas más importantes.

Los sistemas de encolamiento más básicos utilizan una cola sencilla con un tratamiento FIFO (First

In First Out). Y, ¿qué significa esto? Bueno, cuando el IOS decide tomar el siguiente paquete de la

cola, de todos los que están esperando, toma aquel que llegó primero como se muestra en la

figura 10.

Figura 10. Cola FIFO.

El encolamiento FIFO no requiere las dos características más interesantes de otras herramientas

de encolamiento: clasificación y planeación.

Finalmente, cabe mencionar que el IOS Cisco utiliza por default el método de encolamiento

“weighted fair” (espera equitativa ponderada) en lugar del encolamiento FIFO y que para

cambiarse, los routers proveen los comandos necesarios para ajustar estos parámetros.

Encolamiento por prioridad (PQ – Priority Queuing)

La característica más distintiva de las colas de prioridad es su programación. PQ programa el

tráfico de manera que las colas de prioridad más alta siempre obtienen el servicio, con el efecto

secundario en las colas de baja prioridad. Se pueden establecer un número máximo de 4 colas,

llamadas: alta, medio, normal y baja.

El proceso de este mecanismo es muy simple, siempre inicia en la cola de alta prioridad y ella

transmitirá primero, si esta cola no tiene paquetes en espera, la cola de mediana prioridad tiene la

opción de transmitir paquetes y así sucesivamente. La cola de baja prioridad transmitirá sus

paquetes si ninguna de las anteriores tiene paquetes en espera.

Encolamiento por espera equitativa ponderada (WFQ - Weighted Fair Queuing)

Page 27: Antologia Redes Convergentes

Este método de encolamiento clasifica paquetes en flujos. Un flujo es un conjunto de paquetes

que tienen la misma dirección IP origen y destino y los mismos números de puerto tanto origen

como destino. Dado que WFQ es basado en flujos, cada flujo utiliza diferentes colas FIFOS

separadas, el número de colas alcanza las 4096 colas por interface.

Es un método automatizado que provee una justa asignación de ancho de banda para todo el

tráfico de la red. Como se mencionó, WFQ ordena el tráfico en flujos utilizando una combinación

de parámetros. Por ejemplo, para una conversación TCP/IP, se utiliza el protocolo IP (dirección

origen y destino), etc. Una vez distinguidos estos flujos el router determina cuáles son de uso

intensivo o sensible al retardo, priorizándolos y asegurando que los flujos de alto volumen sean

empujados al final de la cola, y los volúmenes bajos, sensibles al retardo, sean empujados al

principio de la cola.

Esta técnica es apropiada en situaciones donde se desea proveer un tiempo respuesta consistente

ante usuarios que generan altas y bajas cargas en la red, ya que se adapta a las condiciones

cambiantes del tráfico en ésta.

A manera de resumen, mostramos las características más importantes:

Tabla 1. Resumen WFQ

Encolamiento por espera equitativa ponderada basado en clases (CBWFQ –Class Based Weighted

Fair Queuing)

WFQ tiene algunas limitantes de escalamiento, ya que la implementación del algoritmo se ve

afectada a medida que el tráfico por enlace aumenta, colapsa debido a la cantidad numerosa de

flujos que analizar. CBWFQ fue desarrollada para evitar esas limitaciones, tomando el algoritmo de

WFQ y expandiéndolo, permitiendo la definición de clases definidas por el usuario, que permiten

un mayor control sobre las colas de tráfico y asignación de ancho de banda.

Page 28: Antologia Redes Convergentes

Algunas veces es necesario garantizar una determinada tasa de transmisión para cierto tipo de

tráfico, lo cual no es posible mediante WFQ pero sí con CBWFQ. Las clases que son posibles

implementar con CBWFQ pueden ser determinadas según protocolo ACL, valor DSCP o interfaz de

ingreso. Cada clase posee una cola separada y todos los paquetes que cumplen con el criterio

definido para una clase en particular son asignados a dicha cola. Una vez que se establecen los

criterios para las clases, es posible determinar cómo los paquetes pertenecientes a dicha clase

serán manejados. Si una clase no utiliza su porción de ancho de banda, otras pueden hacerlo. Se

pueden configurar específicamente el ancho de banda y el límite de paquetes máximos (o

profundidad de cola) para cada clase. El peso asignado a la cola de la clase es determinado

mediante el ancho de banda asignado a dicha clase.

Encolamiento de baja latencia (LLQ – Low Latency Queueing)

El encolamiento de baja latencia es una mezcla entre PQ y CBWFQ. Es actualmente el método de

encolamiento recomendado para Voz sobre IP (VoIP) y telefonía IP, que también trabajará

apropiadamente con videoconferencias. LLQ consta de colas de prioridad personalizadas, basadas

en clases de tráficos, en conjunto con una cola de prioridad, la cual tiene preferencia absoluta

sobre las otras colas.

Si existe tráfico en la cola de prioridad, ésta es atendida antes que las otras colas de prioridad

personalizadas. Si la cola de prioridad no está encolando paquetes, se procede a atender a otras

colas según su prioridad. Debido a este comportamiento es necesario configurar un ancho de

banda límite reservado para la cola de prioridad, evitando la inanición del resto de las colas. La

cola de prioridad que posee LLQ provee un máximo retardo garantizado para los paquetes

entrantes para esta cola, el cual es calculado como el tamaño del MTU dividido por la velocidad

del enlace.

Evasión de la congestión

Las metodologías de evasión de la congestión se basan en la manera en que los protocolos operan,

con el fin de no llegar a la congestión de la red. Las técnicas de RED (Random Early Detection) y

WRED (Weighted Random Early Detection) evitan el efecto conocido como “sincronización global”.

Cuando múltiples conexiones TCP operan sobre un enlace común todas ellas incrementan el

tamaño de su ventana deslizante a medida que el tráfico llega sin problemas. Este aumento

gradual consume el ancho de banda hasta congestionarlo.

En este punto, las conexiones TCP experimentan errores de transmisión, lo que hace que se

disminuya su tamaño de ventana simultáneamente. Esto conlleva a una sincronización global,

donde todos los flujos comienzan a incrementar su tasa de transmisión nuevamente para llegar a

otro estado de congestión. Este ciclo es repetitivo, creando picos y valles en la utilización del

ancho de banda del enlace. Es debido a este comportamiento que no se utiliza los máximos

recursos de la red.

Page 29: Antologia Redes Convergentes

Los métodos de evasión de la congestión tratan con este tipo de situación, descartando paquetes

de forma aleatoria. RED forza a que el flujo de reduzca el tamaño de su ventana de transmisión,

disminuyendo la cantidad de información enviada. A medida que se alcanza el estado de

congestión de la red, más paquetes entrantes son descartados con el fin de no llegar al punto de

congestión en el enlace. Lo que limita a estas técnicas de evasión de congestión es que sólo sirve

para el tráfico basado en TCP, ya que otros protocolos no utilizan el concepto de ventana

deslizante.

6. AutoQoS

Cisco ha desarrollado una nueva forma de QoS denominada AutoQoS y que tiene como propósito

facilitarle al administrador de la red las pruebas básicas de los atributos de QoS. AutoQoS clasifica

automáticamente el tráfico al implementar los comandos necesarios en la CLI del router.

AutoQoS se encuentra disponible en los routers Cisco IOS desde la serie 2600 hasta la serie 7200 y

también en la mayoría de los routers Cisco que utilizan versiones del IOS 12.2(15)T y posteriores.

AutoQoS ofrece los siguientes beneficios:

No requiere una comprensión avanzada de QoS del mismo modo que sí se desea

configurar desde la línea de comandos.

Se pueden reutilizar las políticas de QoS y reutilizarlas, del mismo modo en que si se

tratara de una plantilla.

Se ahorra mucho tiempo de configuración.

Para saber más…

Wendell O. (2005). IP Telephony Self Study Cisco QoS Exam Certification Guide. 2nd Ed. Pearson

Education.

Unidad III. Voz sobre IP (VoIP)

Objetivo. El alumno configurará protocolos de VoIP en una red convergente para establecer

comunicaciones de voz.

Page 30: Antologia Redes Convergentes

1. Introducción a la tecnología y arquitecturas de VoIP

La red telefónica pública conmutada (PSTN – Public Switched Telephone Network) es una red

masiva de voz. Si alguna vez has hecho alguna llamada desde o hacia un teléfono público o

residencial entonces has experimentado los usos de las líneas telefónicas tradicionales.

Esta red no es distinta a muchas de las redes de datos de hoy en día. Su objetivo primario es

establecer rutas permitiendo a la gente, conectarse, conversar y desconectarse fácilmente. Los

sistemas modernos PSTN son construidos utilizando la tecnología mostrada en la figura 11.

Figura 11. Componentes PSTN

Por otro lado, la telefonía IP conjuga dos mundos históricamente separados: la transmisión de voz

y la de datos. Se trata de transportar la voz, previamente convertida a datos, entre dos puntos

distantes. Esto posibilitaría utilizar las redes de datos para efectuar llamadas telefónicas, y yendo

un poco más allá, desarrollar una única red que se encargue de cursar todo tipo de comunicación,

ya sea vocal o de datos. Es evidente que tener una red en lugar de dos, es beneficioso para

cualquier operador que ofrezca ambos servicios, como gastos de mantenimiento, personal, entre

otros.

El crecimiento y fuerte implantación de las redes IP, tanto local como remoto, el desarrollo de

técnicas avanzadas de digitalización de voz, mecanismos de priorización y control de tráfico,

protocolos de transmisión en tiempo real, así como el estudio de nuevos estándares que permiten

las calidad en el servicio en redes IP, han creado un entorno donde es posible transmitir telefonía

sobre IP lo que no significará en modo alguno la desaparición de las redes telefónicas, sino que

habrá, al menos temporalmente, una fase de coexistencia entre ambas, y por supuesto, la

Page 31: Antologia Redes Convergentes

necesaria interconexión entre gateways, denominados genéricamente gateways IP. El concepto

original es relativamente simple: se trata de transformar la voz en “paquetes de información”

manejables por una red IP.

2. Funciones y componentes de VoIP

Muchas empresas tienen cientos –o tal vez miles- de teléfonos en sus compañías. Si cada

compañía contratara una línea telefónica para cada uno de esos teléfonos el costo sería

demasiado alto. En su lugar, la mayoría de las organizaciones eligen utilizar un conmutador

telefónico (PBX – Private Branch Exchange) para administrar esas líneas telefónicas internas. Con

estos sistemas, se permite realizar llamadas telefónicas a los usuarios internos sin utilizar recursos

extras de la PSTN.

El modelo de referencia OSI fue diseñado para crear métodos de conexión y comunicación

estándares a través de las redes de datos. En el mundo de las transmisiones de voz, existen

modelos de conexión similares que describes este tipo de comunicaciones. Cisco ha desarrollado

un modelo que describe el sistema de comunicaciones unificadas, mostrado en la figura 12.

Figura 12. Capas del modelo de comunicaciones unificadas de Cisco

Page 32: Antologia Redes Convergentes

Como se puede apreciar en la figura 12, existen una serie de capas (infraestructura,

procesamiento de llamadas, aplicaciones y dispositivos de usuario) y en cada una de ellas, existen

dispositivos o componentes de la tecnología de VoIP.

Se describirán brevemente algunos de ellos:

Routers, switches y gateways de voz: estos dispositivos representan la base que sostienen la red

de voz. Estos dispositivos deben proveer redundancia y QoS, esto es un aspecto clave para ellos. El

tiempo de funcionamiento de sistemas de estos tipos es de 99.99% (aproximadamente unos 5

minutos de inactividad al año).

Cisco Unified Communications Manager: esta serie de dispositivos de la compañía Cisco tiene

como función el procesamiento de llamadas y todas las funciones que ello implique. Cuando un

usuario levanta un teléfono estos dispositivos se involucran al generar un tono. Cada dígito que es

marcado es analizado y procesado. Una señal de timbrado es generada en el dispositivo remoto y

la llamada es establecida. Acciones como el reenvío de llamadas, el correo de voz, la

intercomunicación y las comunicaciones móviles son posibles gracias a estos dispositivos.

Teléfonos IP: un teléfono IP (también llamado teléfono softphone), permite hacer llamadas a

cualquier otro teléfono IP, móvil o estándar por medio de la tecnología de VoIP (la voz es

transmitida por internet en lugar de la red PSTN). Puede ser un teléfono basado en software o un

teléfono de hardware analógico o digital. Los teléfonos IP de Cisco ofrecen una gran cantidad de

funcionalidades, entre las que destacan: flexibilidad, escalabilidad, adaptabilidad, conectividad,

simplicidad. Algunos ofrecen la posibilidad de transmisión de video, touchscreen, identificador de

llamadas, PoE, XML, entre otros.

3. Principales protocolos de VoIP de acuerdo al modelo OSI

Figura 13. Pila de protocolos de VoIP

Page 33: Antologia Redes Convergentes

H.323. La arquitectura del protocolo H.323 define todo lo necesario (componentes, protocolos,

señalización, codecs, etc.) para llevar a cabo la comunicación y garantizar así la compatibilidad

entre dispositivos. H.323 consta de una serie de protocolos y una serie de codecs. Esta

arquitectura es descrita en la sección 6 de esta unidad.

SIP. Protocolo para el Inicio de Sesión. Fue diseñado por IETF como una alternativa a H.323.

Comparar los dos protocolos, es como comparar a TCP/IP con FTP: H.323 es una suite de

protocolos mientras que SIP tiene un solo propósito, que es configurar sesiones entre dispositivos

de voz y video. SIP no está diseñado para transferir audio, video y demás. Es un protocolo de

señalización para el establecimiento, mantenimiento y terminación de sesiones interactivas entre

usuarios; estas sesiones pueden tratarse de conferencias multimedia, chat, sesiones de voz o

distribución de contenidos multimedia.

El protocolo SIP adopta el modelo cliente-servidor y es transaccional. El cliente realiza peticiones

que el servidor atiende y genera una o más respuestas. El servidor responde, ya sea rechazando o

aceptando esa petición en una serie de respuestas. Las respuestas llevan un código de estado que

brindan información acerca de si las peticiones fueron realizadas con éxito o si se produjo un

error. La petición inicial y todas sus respuestas constituyen una transacción.

Los servidores por defecto utilizan el puerto 5060 en TCP y UDP para recibir las peticiones de los

clientes SIP. Este protocolo es muy similar a HTTP y comparte con él algunos de sus principios de

diseño: es legible por humanos y sigue una estructura de petición respuesta.

Para implementar las funcionalidades que SIP ofrece, este protocolo se apoya de distintos

componentes: los agentes de usuario y los servidores.

Agentes de usuario (User Agent – UA): están formados por dos partes distintas: el User Agent

Client (UAC) y el User Agen Server (UAS). Un UAC es una entidad lógica que genera peticiones SIP y

recibe respuestas a esas peticiones. Un UAS es una entidad lógica que genera respuestas a las

peticiones SIP. Ambos se encuentran en todos los UA, así permiten la comunicación entre

diferentes agentes usuario mediante comunicaciones de tipo cliente-servidor.

Los servidores SIP pueden ser de tres tipos:

Proxy server: retransmiten solicitudes y deciden a qué otro servidor deben remitir,

alternando los campos de la solicitud en caso de ser necesario. Es una entidad intermedia

que actúa como cliente y servidor con el propósito de establecer llamadas entre los

usuarios. Este servidor tiene una funcionalidad semejante a la de un Proxy HTTP que tiene

una tarea de encaminar las peticiones que recibe de otras entidades más próximas al

destinatario.

Registrar server: es un servidor que acepta invitaciones de registro de los usuarios y

guarda la información de estas peticiones para suministrar un servicio de localización y

traducción de direcciones en el dominio que controla.

Page 34: Antologia Redes Convergentes

Redirect server: es un servidor que genera respuestas de redirección a las peticiones que

recibe. Este servidor reencamina las peticiones hacia el próximo servidor.

La división de estos servidores es conceptual, cualquiera de ellos puede estar físicamente en una

única máquina, la división de ellos puede ser por motivos de escalabilidad y rendimiento.

RTP. Es el Protocolo de Transporte de Tiempo Real. Surgió con la idea de crear un protocolo

específico para la gran demanda de recursos en tiempo real por parte de los usuarios. Algunos de

estos recursos son la música, la videoconferencia, video, telefonía en internet y más aplicaciones

multimedia. Se ejecuta, generalmente, sobre UDP ya que posee menor retardo que TCP. Por

tanto, con UDP se gana en velocidad a cambio de sacrificar la confiabilidad de TCP. Debido a esto,

RTP no garantiza la entrega de todos los paquetes, ni la llegada de éstos en el instante adecuado.

La función básica de RTP es multiplexar varios flujos de datos en tiempo real en un solo flujo de

paquetes UDP, pudiéndose enviar tanto a un solo destino (unicast) o múltiples destinos

(multicast). Los paquetes son numerados de la siguiente manera: se le asigna a cada paquete un

número mayor que su antecesor. Esto será útil para que la aplicación conozca si ha fallado algún

paquete o no en la transmisión.

RTCP. Es el Protocolo de Control de la Transmisión en Tiempo Real. Es el protocolo

complementario a RTP y le brinda a éste un mecanismo de control. Utiliza UDP por el puerto

adyacente siguiente al puerto que se utiliza para RTP. Este protocolo se basa en la periódica

transmisión de paquetes de control a todos los participantes en sesión ofreciéndole información

sobre la calidad de los datos distribuidos por la fuente. El protocolo subyacente debe proveer de la

multiplexación de los datos y de los paquetes del control. Por lo tanto, la función primordial de

RTCP es la de proveer una realimentación de la calidad del servicio.

H.248 (MEGACO). Este protocolo es un esfuerzo colaborativo de la ITU (Union Internacional de

Telecomunicaciones) y la IETF (Internet Engineering Task Force). H.248 es un protocolo para

que el control de pasarela de medios (Media Gateway Controller - MGC) controle a pasarelas de

medios (Media Gateways – MG).

Figura 14. Protocolo H.248

Page 35: Antologia Redes Convergentes

En términos del protocolo H.248, un MGC es un elemento de control de medios y llamadas

externas que maneja el señalamiento y el procesamiento de llamadas. Es decir, controlan a los MG

para una buena gestión en el intercambio de información a través del protocolo MGCP. El MGC

también suele llamarse “Call Agent”. Un MG, son elementos funcionales que median entre los

puntos finales, es decir, los clientes.

Este protocolo se considera complementario a H.323 y SIP, un MGC controlará varios MG

utilizando H.248, pero será capaz de comunicarse con otro MGC utilizando H.323 o SIP.

Para que la comunicación pueda ser realizada, se necesitará un una computadora con micrófono y

bocinas o un teléfono analógico o digital. Si un usuario desea hacer una llamada debe descolgar el

teléfono y marcar el número del destinatario. Esta llamada llega al MG, éste, notifica al MGC que

una llamada está en camino. El MGC busca en su base de datos, el número de teléfono del

destinatario para saber su IP y su número de puerto. Entonces, busca el MG del destinatario y le

envía un mensaje para indicarle que le está llegando una llamada. El MG del destinatario abre una

conexión RTP cuando el usuario descuelga.

MGCP. El Protocolo para el Control de Pasarelas de Medios (Media Gateway Control Protocol)

permite controlar las pasarelas (gateways) de los medios de comunicaciones de los elementos de

control de llamada externas (MGC).

Mucha gente confunde al control de medios con señalización. Señalización (como se describió

anteriormente), es el establecimiento de sesiones entre dos o más partes. En redes VoIP cada una

necesita ser manejada por un diferente tipo de Gateway VoIP: un Gateway de señalización y un

Gateway de control de medio. Los Gateway de señalización traducen los canales de datos en

protocolos de señalización compatibles con VoIP, como H.323 o SIP. Un Gateway de control de

medio proporciona el puente para el tránsito entre datos de redes PSTN y VoIP. Los MGC

controlan MG por medio de MGCP.

Dicho con otras palabras, MGCP es un protocolo que permite comunicar al MGC (también

conocido como Call Agent) con los Gateway de telefonía (PBX o PSTN). Este protocolo es de tipo

maestro-esclavo donde el MGC informa al MG qué hacer. Los mensajes MGCP viajan sobre UDP/IP

por la misma red de transporte IP con seguridad IPSec.

El formato de trabajo genera una inteligencia externa a la red (concentrada en el MGC) y donde la

red de conmutación está formada por routers de la red IP. El Gateway solo realiza funciones de

conversión vocal y genera un camino RTP entre extremos. La sesión de MGCP puede ser punto a

punto o multipunto. El protocolo MGCP entrega al Gateway la dirección IP, el puerto UDP y los

perfiles de RTP.

Page 36: Antologia Redes Convergentes

4. Cálculo de requerimientos de ancho de banda

El punto fundamental en el diseño de redes o rediseño de redes existentes para el transporte de

VoIP, es el cálculo del ancho de banda necesario para la prestación adecuada del servicio. El

requerimiento del ancho de banda necesario para el transporte de VoIP es el resultante de dos

factores:

1. el número de llamadas concurrentes. Es la estimación de la cantidad máxima de llamadas

simultáneas que se podrán gestionar en un enlace. Esta estimación debe considerar la

actual de llamadas telefónicas simultáneas entre diferentes puntos, como el posible

margen de crecimiento y las políticas de la organización al respecto.

2. el requerimiento de ancho de banda para gestionar cada conversación telefónica.

Cuando se implemente VoIP se asume un conjunto de elecciones que impactan en ese

requerimiento: códec, opciones de compresión, enlaces los que se rutearán las llamadas,

etc.

Para entender al método, se hará mediante un ejemplo que permita entenderlo más fácilmente.

Paso 1. Calcular el tamaño de las tramas de voz. Para esta tarea, se puede emplear el siguiente

procedimiento:

a) este parámetro es resultado del códec utilizado, que da como resultado el tamaño de la

porción de datos. A esto debe sumarse el tamaño de los encabezados de capa 4, capa 3 y

capa 2.

Tamaño de la trama = Payload + Encabezado 4 + Encabezado 3 + Encabezado 2

Por ejemplo, las tramas utilizadas al utilizar G.729 tienen una longitud de 20 Bytes, a eso

debemos sumarle los encabezados RTP, UDP e IP necesarios, que son 40 Bytes adicionales,

y luego el encabezado de capa de enlace, que suponiendo que se trata de una trama PPP

agrega 6 Bytes (al final del procedimiento se agregan las tablas de los valores necesarios):

Tamaño de trama = 20B + 40B + 6B = 66 Bytes

b) dado el peso del encabezado en el tamaño de la trama a transmitir, en enlaces de bajo

ancho de banda (menos de 768 Kbps) es conveniente aplicar compresión de los

encabezados de capa 3 y capa 4, lo que se suele denominar compresión de RTP (cRTP).

Esto reduce los 40 Bytes iniciales a 2 o 4. De este modo, el cálculo queda:

Tamaño de trama = 20B + 2B + 6B = 28 Bytes

c) a fin de continuar el cálculo, es conveniente convertir el tamaño expresado en Bytes a bits:

28 Bytes x 8 bits/Byte = 224 bits/trama

Page 37: Antologia Redes Convergentes

Paso 2. Calcular el ancho de banda requerido por una llamada:

a) los códecs actualmente utilizados para la digitalización de voz (G.711, G.728, G.729)

generan 50 tramas por segundo.

b) Para calcular el ancho de banda requerido para cada llamada se debe multiplicar el

tamaño de cada trama por la cantidad de tramas que se envían por segundo:

BW/llamada = tamaño de la trama x tramas por segundo

BW/llamada = 224 bits/trama x 50 tramas/seg = 11200 bps/llamada

Paso 3. Calcular el ancho de banda requerido en la implementación:

a) Se debe considerar primero el número de llamadas concurrentes y multiplicar el ancho de

banda requerido para cada llamada por el número de llamadas concurrentes:

BW requerido = BW/llamada x llamadas recurrentes

Para el ejemplo, supongamos que se trata de administrar un máximo de 10 llamadas

recurrentes generadas con el códec G.729 sobre un enlace PPP con cRTP:

BW requerido = 11,200 bps x 10 = 112,000 bps = 112 Kbps

Finalmente, es preciso tener en cuenta que:

- El tamaño de la porción de datos depende del códec implementado.

- La porción correspondiente a los encabezados de capa 3 y 4 está en función del enlace que

de que se trate. En este ejemplo se ha considerado PPP.

- Cuando se implementa voz sobre VPN IPSec, se debe considerar el overhead

correspondiente a la implementación de IPSec que se esté aplicando.

Figura 15. Códecs y sus valores

Capa OSI Tecnología Encabezado

Page 38: Antologia Redes Convergentes

(bytes)

2

Ethernet 18-20

Frame Relay 4-6

PPP 6

802.1Q 22

3 IP 20

4 UDP 8

5 RTP 20

Sobrecarga

L2TP 24

MPLS 4

IPSec 50-57 Tabla 1. Tecnologías y valores de encabezados

5. Configuración de puertos e interfaces de voz en un router

Puertos FXS (Foreign eXchange Station)

Los puertos FXS conectan dispositivos finales. Generalmente, dispositivos analógicos como

teléfonos, fax o módems. También se les denomina interfaces de abonado, ya que se envía la línea

analógica hacia el abonado. Una interfaz FXS proporciona alimentación eléctrica, señalización de

llamada y tono al dispositivo terminal. Estas interfaces son las que permiten conectar un teléfono

analógico convencional a un router o central de telefonía IP, es decir, estas interfaces -o puertos-

emulan a una línea analógica tradicional.

Puerto FXO (Foreign eXchange Office)

Estos puertos actúan como enlaces troncales para la PSTN o PBX. Es el puerto que recibe la línea

analógica. Es la interfaz que permite conectar un dispositivo terminal a un servicio de telefonía

como PSTN o una PBX. Envía al sistema telefónico una señal de colgado o descolgado (cierre de

loop). Este puerto recibe las señales del puerto FXS. Un teléfono tiene un puerto FXO, es decir,

este puerto no envía señales de tono o timbrado, solo recibe las señales de los FXS.

FXS y FXO son siempre pares que se corresponde mutuamente: una interfaz FXS se conecta en el

otro extremo de la línea a una interfaz FXO.

Figura 16. Interfaces FXS y FXO

Page 39: Antologia Redes Convergentes

Cuando se instala una central telefónica (PBX), la línea telefónica se conecta al puerto FXO de la

PBX, la cual provee múltiples puertos FXS para conectar los teléfonos o aparatos de fax.

Figura 17. Interfaces FXS y FXO con una PBX

Gateway de voz

Es el dispositivo que permite interconectar la red PSTN o las PBX de telefonía tradicional con la red

IP. Este dispositivo puede ser un router o un PBX IP y debe contar con tantos puertos FXO como

líneas telefónicas desee acceder y puertos FXS como PBXs o teléfonos convencionales desee

conectar.

Figura 18. Gateway de Voz

Ejemplo

A partir de ahora, se revisará la configuración de un router Cisco IOS para operar como Gateway

de voz, definiendo un plan de marcación (dial plan) que permitirá utilizar la red de telefonía

pública como la red IP para el transporte de voz, usando el ejemplo que se muestra a

continuación:

Page 40: Antologia Redes Convergentes

Figura 19. Topología de ejemplo para configurar interfaces de voz

Como se puede observar en la figura 19, se tienen 2 routers Cisco conectados entre sí a través de

sus puertos seriales utilizando la subred 172.16.1.0/30. El router 1 tiene conectado un teléfono

analógico (interno 720) a través de un puerto FXS. El router 2 conecta a la PSTN usando un puerto

FXO y da acceso al interno 721 mediante un puerto FXS.

Para permitir la operación es necesario definir un plan de marcación. El código de configuración

mostrado es para el router 2:

!

interface Serial0/0/0

ip address 172.16.1.1 255.255.255.252

!

! Redirige una llamada dirigida al interno 720

! a través del enlace serial (sobre IP)

! hacia el Router1

dial-peer voice 1 voip

destination-pattern 720

session-target ipv4:172.16.1.2

!

! Una llamada al interno 721

! genera señal de ring en el puerto FXS

dial-peer voice 2 pots

destination-pattern 721

port 1/0/0

!

! Define dial-peer para acceso a línea externa

! Marcando 9 se obtiene línea

dial-peer voice 3 pots

destination-pattern 9

port 2/0/0

!

Page 41: Antologia Redes Convergentes

Cada número de interno definido requiere de un "destination-pattern" que define el ID que se

recibe. Cuando se trata de una comunicación telefónica tradicional, a ese destination-pattern se

asocia el puerto de voz correspondiente, es el caso por ejemplo del interno 721.Cuando se trata

de destination-pattern cuyo tráfico debe encaminarse a través de la red IP se define la dirección IP

de destino del dispositivo en el cual se encuentra conectado ese interno, como es el caso del

interno 720.

6. Protocolo H.323

La Unión Internacional de Telecomunicaciones (ITU-T) originalmente creo el protocolo H.323 para

permitir la transmisión de voz, video y datos a través de conexiones ISDN. Ahora ha sido adaptado

para trabajar en ambientes LAN. Los diseñadores de H.323 lo crearon como un protocolo punto a

punto. Esto, le permite a cada dispositivo que ejecuta H.323 una completa independencia de otros

dispositivos. Esto permite configurar cada dispositivo H.323 independientemente y evitar

“reliance” sobre cualquier otro dispositivo para una operación normal. De esta forma, si el

Gateway H.323 pierde comunicación con otros routers, continúa operando y proporciona soporte

a dispositivos de voz sin perder ninguna capacidad de procesamiento de llamadas. La desventaja

de este diseño punto a punto es la cantidad de configuración que debe realizarse en cada

dispositivo. Dado que se configura cada Gateway H.323 independientemente de los demás, se

necesita un conocimiento completo de la red.

Figura 20. Topología con Gateway H.323

Por ejemplo, considere la red mostrada en la figura 20. En esta red, necesitaría configurar cada

Gateway H.323 para conocer acerca de todas las extensiones de las oficinas remotas. Por ejemplo,

sería necesario configurar el Gateway 1 para apuntar a la IP 10.1.1.2 y alcanzar las extensiones

Page 42: Antologia Redes Convergentes

2XXX, apuntar a la 10.1.1.3 para alcanzar las extensiones 3XXX y apuntar a la 10.1.1.4 para alcanzar

las extensiones 4XXX. Sería necesario entonces repetir este proceso en cada uno de los Gateway

H.323 para alcanzar a las demás oficinas. Por último, imagine que su red crece de 4 a 10 o hasta 20

oficinas remotas, la cantidad de configuración de cada uno de estos dispositivos de voz podría

volverse muy difícil de administrar.

Esta configuración se puede facilitar al implementar un Gatekeeper H.323 (también aparece en la

figura 20). Este dispositivo actúa como punto de referencia central en la red H.323 para números

de teléfono, control de acceso y administración de ancho de banda. Por ejemplo, si fuera

necesario configurar la red mostrada en la figura 20 utilizando un gatekeeper, solamente este

dispositivo requeriría conocimiento completo de la red. De esta forma, se configuran los Gateways

para “preguntar” al gatekeeper por la ubicación y los números de marcación en el momento en

que lo necesiten para alcanzar otro dispositivo en la red. Además de actuar como directorio

telefónico en la red, el gatekeeper también provee control para el ingreso de llamadas (CAC – Call

Admission Control) y administración de ancho de banda. Un Gateway no solo pregunta al

gatekeeper por una extensión telefónica dada, sino también pregunta: “¿Estoy autorizado para

hacer esta llamada?” (CAC) y “¿Hay suficiente ancho de banda para hacerla?”. De esta forma, se

habilita a un dispositivo para que administre el ancho de banda disponible en la WAN asegurando

que cada enlace no esté saturado de tráfico.

El H.323 soporta vídeo en tiempo real, audio y datos sobre redes de área local, metropolitana,

regional o de área extensa. Soporta así mismo Internet e intranets. En Mayo de 1997, el Grupo 15

del ITU redefinió el H.323 como la recomendación para "los sistemas multimedia de

comunicaciones en aquellas situaciones en las que el medio de transporte sea una red de

conmutación de paquetes que no pueda proporcionar una calidad de servicio garantizada. Nótese

que H.323 también soporta videoconferencia sobre conexiones punto a punto, telefónicas y

RDSI.En estos casos, se debe disponer un protocolo de transporte de paquetes tal como PPP.

Componentes H.323

• Entidad

La especificación H.323 define el término genérico entidad como cualquier componente que

cumpla con el estándar.

• Extremo

Un extremo H.323 es un componente de la red que puede enviar y recibir llamadas. Puede generar

y/o recibir secuencias de información.

• Terminal

Un terminal H.323 es un extremo de la red que proporciona comunicaciones bidireccionales en

tiempo real con otro terminal H.323, gateway o unidad de control multipunto (MCU). Esta

comunicación consta de señales de control, indicaciones, audio, imagen en color en movimiento

Page 43: Antologia Redes Convergentes

y/o datos entre los dos terminales. Conforme a la especificación, un terminal H.323 puede

proporcionar sólo voz, voz y datos, voz y vídeo, o voz, datos y vídeo.

• Gatekeeper

El gatekeeper (GK) es una entidad que proporciona la traducción de direcciones y el control de

acceso a la red de los terminales H.323, gateways y MCUs. El GK puede también ofrecer otros

servicios a los terminales, gateways y MCUs, tales como gestión del ancho de banda y localización

de los gateways o pasarelas. El Gatekeeper realiza dos funciones de control de llamadas que

preservan la integridad de la red corporativa de datos. La primera es la traslación de direcciones

de los terminales de la LAN a las correspondientes IP o IPX, tal y como se describe en la

especificación RAS. La segunda es la gestión del ancho de banda, fijando el número de

conferencias que pueden estar dándose simultáneamente en la LAN y rechazando las nuevas

peticiones por encima del nivel establecido, de manera tal que se garantice ancho de banda

suficiente para las aplicaciones de datos sobre la LAN. El Gatekeeper proporciona todas las

funciones anteriores para los terminales, Gateways y MCUs, que están registrados dentro de la

denominada Zona de control H.323.

Figura 21. Arquitectura H.323

• Gateway

Un gateway H.323 (GW) es un extremo que proporciona comunicaciones bidireccionales en

tiempo real entre terminales H.323 en la red IP y otros terminales o gateways en una red

conmutada. En general, el propósito del gateway es reflejar transparentemente las características

de un extremo en la red IP a otro en una red conmutada y viceversa.

• MCU (Multipoint Control Units)

La unidad de control multipunto está diseñada para soportar la conferencia entre tres o más

puntos bajo el estándar H.323, llevando la negociación entre terminales para determinar las

capacidades comunes para el proceso de audio y video y controlar la multidifusión.

Page 44: Antologia Redes Convergentes

La comunicación bajo H.323 contempla las señales de audio y video. La señal de audio se digitaliza

y se comprime bajo los algoritmos soportados, tales como G.711 o G.723, y la señal de video

(opcional) se trata con la norma H.261 o H.263. Los datos (opcional) se manejan bajo el estándar

T.120 que permite la compartición de aplicaciones en conferencias punto a punto y multipunto.

Ejemplo H.323

A continuación se analizará detalladamente una llamada. En una llamada H.323 hay varias fases

como se indica en el siguiente gráfico y varios protocolos cada uno de un color.

Figura 22. Fases de una llamada H.323

Page 45: Antologia Redes Convergentes

Una llamada H.323 se caracteriza por las siguientes fases:

1. ESTABLECIMIENTO

- En esta fase lo primero que se observa es que uno de los terminales se registra en el

gatekeeper utilizando el protocolo RAS (Registro, admisión y estado) con los mensajes

ARQ y ACF.

- Posteriormente utilizando el protocolo H.225 (que se utiliza para establecimiento y

liberación de la llamada) se manda un mensaje de SETUP para iniciar una llamada H.323.

Entre la información que contiene el mensaje se encuentra la dirección IP, puerto y alias

del llamante o la dirección IP y puerto del llamado.

- El terminal llamado contesta con un CALL PROCEEDING advirtiendo del intento de

establecer una llamada.

- En este momento el segundo terminal tiene que registrarse con el gatekeeper utilizando el

protocolo RAS de manera similar al primer terminal

- El mensaje ALERTING indica el inicio de la fase de generación de tono.

- Y por último CONNECT indica el comienzo de la conexión.

2. SEÑALIZACIÓN DE CONTROL

- En esta fase se abre una negociación mediante el protocolo H.245 (control de

conferencia), el intercambio de los mensajes (petición y respuesta) entre los dos

terminales establecen quién será master y quién slave, las capacidades de los

participantes y codecs de audio y video a utilizar. Como punto final de esta negociación se

abre el canal de comunicación (direcciones IP, puerto).

- Los principales mensajes H.245 que se utilizan en esta fase son:

o TerminalCapabilitySet (TCS). Mensaje de intercambio de capacidades soportadas

por los terminales que intervienen en una llamada.

o OpenLogicalChannel (OLC). Mensaje para abrir el canal lógico de información que

contiene información para permitir la recepción y codificación de los datos.

Contiene la información del tipo de datos que será transportados.

3. AUDIO

Los terminales inician la comunicación y el intercambio de audio (o video) mediante el protocolo

RTP/RTCP.

4. DESCONEXIÓN

- En esta fase cualquiera de los participantes activos en la comunicación puede iniciar el

proceso de finalización de llamada mediante mensajes CloseLogicalChannel y

EndSessionComand de H.245.

- Posteriormente utilizando H.225 se cierra la conexión con el mensaje RELEASE COMPLETE

- Por último se liberan los registros con el gatekeeper utilizando mensajes del protocolo RAS

Page 46: Antologia Redes Convergentes

Para saber más…

Cioara J. (2009). CCNA Voice Official Exam Certification Guide. Pearson Education. Cisco Press.

ISBN 987-158720-2070.

Unidad IV. Tecnologías WAN

Objetivo. El alumno integrará las tecnologías WAN y de banda ancha en las comunicaciones

actuales para adaptarlas a las necesidades de las empresas.

1. Servicios de banda ancha y 3G

En telecomunicaciones, se conoce como banda ancha a la transmisión de datos en la cual se envía

simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de

transmisión efectiva. En ingeniería de redes, este término se utiliza también para los métodos en

donde dos o más señales comparten un medio de transmisión. Banda base es la señal de una sola

transmisión en un canal, banda ancha significa que lleva más de una señal y cada una de ellas se

transmite en diferentes canales, hasta su número máximo de canal.

Algunas de las variantes de los servicios de Línea Digital de Suscriptor (DSL – Digital Subscriber

Line) son de banda ancha en el sentido de que los datos se envían por un canal y la voz por otro

canal pero compartiendo el mismo par de cables.

El término banda ancha normalmente se refiere al acceso a Internet de alta velocidad. La

Comisión Federal de Comunicaciones de los Estados Unidos (FCC, por sus siglas en inglés) define al

servicio de banda ancha como la transmisión de datos a una velocidad mayor de 200 kilobits por

segundo (Kbps) o 200,000 bits por segundo, en por lo menos una dirección: transmisión de bajada

(del Internet a la computadora del usuario) o de subida (de la computadora del usuario al

Internet).

Tipos de conexiones de banda ancha

Línea Digital de Suscriptor (DSL)

La Línea Digital de Suscriptor (DSL, por sus siglas en inglés) es una tecnología de transmisión

telefónica que transmite datos más rápido a través de las líneas telefónicas de cobre ya instaladas

en casas y empresas. La banda ancha de DSL proporciona velocidades de transmisión que van

Page 47: Antologia Redes Convergentes

desde varios cientos de kilobits por segundo (Kbps) hasta millones de bits por segundo (Mbps). La

disponibilidad y velocidad de su servicio de DSL puede depender de la distancia que hay entre su

casa o negocio a las instalaciones más próximas de la compañía de teléfonos.

Algunos tipos de tecnologías de transmisión de la DSL son:

o Línea digital asimétrica de suscriptor (ADSL, por sus siglas en inglés) - es usada

principalmente por usuarios en residencias que reciben una gran cantidad de

datos pero no mandan muchos datos, como son las personas que navegan por

Internet. La ADSL proporciona una velocidad más rápida en la transferencia de

datos que bajan a la computadora del cliente que en la transferencia de datos que

suben a la central telefónica. El ADSL permite una transmisión de datos de bajada

más rápida a través de la misma línea que usa para proveer el servicio de voz, sin

interrumpir las llamadas telefónicas regulares en esa línea.

o Línea digital simétrica de suscriptor (SDSL, por sus siglas en inglés) - se usa

típicamente en los negocios para servicios tales como video conferencias que

necesitan un ancho de banda importante para la transmisión de datos de subida y

bajada.

Algunas formas más rápidas de DSL disponibles típicamente para empresas son:

o Línea digital de suscriptor de alta velocidad (HDSL, por sus siglas en inglés); y

o Línea digital de suscriptor de muy alta velocidad (VDSL, por sus siglas en inglés).

Módem de Cable

El servicio de módem de cable permite a los operadores de cable suministrar acceso a Internet de

alta velocidad usando los cables coaxiales que envían imágenes y sonidos a su televisor.

La mayoría de los módems de cable son dispositivos externos que tienen dos conectores, uno en la

salida de pared del cable y el otro en la computadora. La velocidad de transmisión de datos es de

1.5 Mbps o más.

Los suscriptores pueden tener acceso al servicio de módem de cable simplemente prendiendo sus

computadores sin tener que marcar al proveedor del servicio de Internet (ISP, por sus siglas en

inglés). Podrá ver la TV por cable y usar el Internet al mismo tiempo. Las velocidades de

transmisión varían dependiendo del tipo de módem de cable, red del cable y carga de tráfico. Las

velocidades son comparables con la DSL.

Fibra óptica

La fibra o fibra óptica es una tecnología muy nueva que proporciona servicio de banda ancha. La

tecnología de fibra óptica convierte las señales eléctricas que llevan los datos en luz y envía la luz a

través de fibras de vidrio transparentes con un diámetro cercano al del cabello humano. La fibra

Page 48: Antologia Redes Convergentes

transmite los datos a velocidades muy superiores a las velocidades de la DSL o módem de cable

actuales, normalmente en diez o cien veces más Mbps.

La velocidad real que experimenta variará dependiendo de diversos factores como qué tan cerca

lleva su proveedor de servicio la fibra a su computadora y la forma como configura el servicio,

incluyendo la cantidad de ancho de banda utilizada. La misma fibra que provee su banda ancha

puede también simultáneamente suministrar servicios de telefonía por Internet (VoIP) y de vídeo,

incluyendo vídeo según demanda.

Los proveedores de servicios de telecomunicaciones (en su mayoría compañías telefónicas) están

ofreciendo banda ancha por fibra óptica en áreas limitadas y han anunciado planes para ampliar

sus redes de fibra y ofrecer un paquete de servicios de voz, acceso a Internet y vídeo.

Las variantes de esta tecnología permiten que la fibra llegue hasta el hogar o empresa del cliente,

hasta la esquina de su casa o algún lugar entre las instalaciones del proveedor y el cliente.

Inalámbrica

La banda ancha inalámbrica conecta su casa o negocio a Internet usando un enlace de radio entre

la localidad del cliente y las instalaciones del proveedor del servicio. La banda ancha inalámbrica

puede ser móvil o fija.

Las tecnologías inalámbricas que usan equipo direccional con un rango mayor proveen el servicio

de banda ancha en áreas remotas o muy poco pobladas donde el servicio de la DSL o del módem

de cable sería muy costoso. Generalmente las velocidades son comparables a las de la DSL y el

módem de cable. Normalmente se requiere de una antena externa.

Cada vez es más frecuente el servicio de banda ancha inalámbrica fija en aeropuertos, parques de

la ciudad, bibliotecas y otros lugares públicos llamados "hotspots". Los "hotspots" usan

generalmente una tecnología de rango corto con velocidades de transmisión de hasta 54 Mbps. La

tecnología de fidelidad inalámbrica (Wi-Fi) se usa con frecuencia también en conjunto con el

servicio de la DSL o módem de cable para conectar los dispositivos de una casa o negocio al

Internet vía una conexión de banda ancha.

Los servicios de banda ancha inalámbrica móvil se pueden obtener también de compañías de

telefonía móvil y otros. Estos servicios generalmente son adecuados para los clientes que tienen

mucha movilidad y requieren una tarjeta especial para PC con una antena integrada que se

conecta a la computadora portátil del usuario. Generalmente proveen velocidades menores de

transmisión en el rango de varios cientos de Kbps.

Satélite

Así como los satélites que giran alrededor de la tierra proveen los enlaces necesarios para los

servicios de telefonía y televisión, también proveen enlaces para la banda ancha. La banda ancha

Page 49: Antologia Redes Convergentes

por satélite es otra forma de banda ancha inalámbrica, muy útil también para dar servicio a áreas

remotas o muy poco pobladas.

Las velocidades de transmisión de datos de subida y bajada para la banda ancha por satélite

dependen de varios factores, incluyendo el paquete de servicios que se compra y el proveedor, la

línea de visibilidad directa del consumidor al satélite y el clima. Normalmente un consumidor

puede esperar recibir (descargar) los datos a una velocidad de aproximadamente 500 Kbps y

enviarlos (cargar) a una velocidad de aproximadamente 80 Kbps. Estas velocidades pueden ser

menores que las que se tienen con la DSL o el módem de cable, pero la velocidad para descargar

los datos es aproximadamente 10 veces más rápida que la velocidad que se tiene con el Internet

de marcación telefónica. El servicio puede interrumpirse en condiciones climáticas severas.

Banda ancha por la línea eléctrica (BPL)

La banda ancha por la línea eléctrica (BPL, por sus siglas en inglés) es el servicio que se

proporciona a través de la red existente de distribución de energía eléctrica de bajo y medio

voltaje. Las velocidades de transmisión de la BPL son comparables a las de la DSL y el módem de

cable. La BPL puede llegar a las casas usando las conexiones y salidas eléctricas existentes.

La BPL es una tecnología emergente, actualmente disponible en áreas muy limitadas. Tiene un

potencial significativo ya que las líneas eléctricas están instaladas virtualmente en todos lados,

aliviando la necesidad de construir nuevas instalaciones de banda ancha para cada consumidor.

Tecnología 3G

La tecnología 3G (tecnología inalámbrica de tercera generación) es un servicio de comunicaciones

inalámbricas que le permite estar conectado permanentemente a Internet a través del teléfono

móvil, computadoras de bolsillo, el Tablet PC o una computadora portátil. La tecnología 3G

promete una mejor calidad y fiabilidad, una mayor velocidad de transmisión de datos y un ancho

de banda superior (que incluye la posibilidad de ejecutar aplicaciones multimedia). Con

velocidades de datos de hasta 384 Kbps, es casi siete veces más rápida que una conexión

telefónica estándar. Lo que permite que podamos tener video llamadas, dado que dichas llamadas

se harán con una conexión directa a internet.

Se dice que los usuarios de GPRS y 3G están "siempre conectados", dado que con estos métodos

de conexión tienen acceso permanente a Internet. Mediante los mensajes de texto cortos, los

empleados de campo pueden comunicar su progreso y solicitar asistencia. Los ejecutivos que se

encuentran de viaje pueden acceder al correo electrónico de la empresa, de igual modo que

puede hacerlo un empleado de ventas, que también puede consultar el inventario. Puede

automatizar su casa o su oficina con dispositivos GPRS y 3G supervisar sus inversiones.

Page 50: Antologia Redes Convergentes

2. Estándares WAN

Una WAN es una red de comunicación de datos que tiene una cobertura geográfica relativamente

grande y suele utilizar las instalaciones de transmisión que ofrecen compañías portadoras de

servicios como las telefónicas. Las tecnologías WAN operan en las 3 capas inferiores del modelo

OSI.

Con frecuencia las organizaciones desean compartir información con otras organizaciones que se

encuentran a grandes distancias. Como, obviamente, no es posible conectar computadoras a nivel

nacional o mundial de la misma manera en que las computadoras de una LAN se conectan con

cables, han evolucionado diferentes tecnologías para cubrir esta necesidad. Internet se está

utilizando cada vez más como una alternativa económica al uso de una WAN empresarial para

algunas aplicaciones. Hay nuevas tecnologías disponibles para las empresas que proporcionan

seguridad y privacidad para las comunicaciones y las transacciones a través de Internet. El uso de

redes WAN solas o en combinación con Internet permite a las organizaciones y a los particulares

satisfacer sus necesidades de comunicaciones de área extensa.

Redes WAN y modelo OSI

Como se describió en relación con el modelo de referencia OSI, las operaciones de una WAN se

centran principalmente en las Capas 1 y 2. Los estándares de acceso WAN normalmente describen

tanto los métodos de entrega de la capa física como los requisitos de la capa de enlace de datos,

incluyendo la dirección física, el control del flujo y la encapsulación. La definición y la

administración de los estándares de acceso WAN están a cargo de varias autoridades reconocidas,

entre ellas la Organización Internacional de Normalización (ISO), la Asociación de la Industria de las

Telecomunicaciones (TIA, Telecommunications Industry Association) y la Asociación de Industrias

Electrónicas (EIA, Electronic Industries Alliance).

Los protocolos de capa física (capa 1 del modelo OSI) describen cómo proporcionar las conexiones

eléctricas, mecánicas, operativas y funcionales a los servicios brindados por un proveedor de

servicios de comunicaciones.

Los protocolos de la capa de enlace de datos (Capa 2 del modelo OSI) definen cómo se encapsulan

los datos para su transmisión a lugares remotos y los mecanismos de transferencia de las tramas

resultantes. Se utiliza una variedad de tecnologías diferentes, como Frame Relay y ATM. Algunos

de estos protocolos utilizan los mismos mecanismos básicos de entramado, control de enlace de

datos de alto nivel (HDLC, High‐Level Data Link Control), una norma ISO o uno de sus subgrupos o

variantes.

Page 51: Antologia Redes Convergentes

Figura 23. Modelo OSI y Tecnologías WAN

Terminología de la capa física de la WAN

Una de las diferencias primordiales entre una WAN y una LAN es que una empresa u organización

debe suscribirse a un proveedor de servicio WAN externo para utilizar los servicios de red de una

portadora WAN. Una WAN utiliza enlaces de datos suministrados por los servicios de una

operadora para acceder a Internet y conectar los sitios de una organización entre sí, con sitios de

otras organizaciones, con servicios externos y con usuarios remotos. La capa física de acceso a la

WAN describe la conexión física entre la red de la empresa y la red del proveedor de servicios. La

imagen muestra la terminología utilizada comúnmente para describir las conexiones físicas de la

WAN, por ejemplo:

Equipo local del cliente (CPE, Customer Premises Equipment): dispositivos y cableado

interno localizados en las instalaciones del suscriptor y conectados con un canal de

telecomunicaciones de una portadora. El suscriptor es dueño de un CPE o le alquila un CPE

al proveedor de servicios. En este contexto, un suscriptor es una empresa que contrata los

servicios WAN de un proveedor de servicios u operadora.

Equipo de comunicación de datos (DCE, Data Communications Equipment): también

llamado equipo de terminación de circuito de datos, el DCE está compuesto por

dispositivos que ponen datos en el bucle local. La tarea principal del DCE es suministrar

una interfaz para conectar suscriptores a un enlace de comunicación en la nube WAN.

Equipo terminal de datos (DTE, Data Terminal Equipment): dispositivos del cliente que

pasan los datos de la red o la computadora host de un cliente para transmisión a través de

la WAN. El DTE se conecta al bucle local a través del DCE.

Punto de demarcación: punto establecido en un edificio o un complejo para separar los

equipos del cliente de los equipos del proveedor de servicios. Físicamente, el punto de

demarcación es la caja de empalme del cableado que se encuentra en las instalaciones del

cliente y que conecta los cables del CPE con el bucle local. Normalmente se coloca en un

lugar de fácil acceso para los técnicos.

PPPoE y PPPoA

Page 52: Antologia Redes Convergentes

PPPoE: Significa “Protocolo de Punto a Punto sobre Ethernet“, se implementa una capa IP sobre

dos puertos Ethernet, dando la posibilidad de transferir paquetes de datos entre los dispositivos

que estén conectados. Estándar oficial RFC 2516 (PPPoE)

PPPoA: Igual que PPPoE pero, en vez de ser un protocolo sobre una capa Ethernet, se realiza sobre

una capa ATM. Gracias a este protocolo, las señales del router pueden negociar los parámetros de

conexión o de red entre el router y el ISP, con lo que sólo necesitas saber tu Identificador de

Usuario y contraseña para poder comenzar a navegar, puesto que el resto de datos se obtienen

automáticamente en el momento en que se efectúa la conexión. Estándar oficial RFC 2364

(PPPoA)

El protocolo PPPoA se utiliza principalmente en conexiones de banda ancha, como cable y DSL.

Este ofrece las principales funciones PPP como autenticación, cifrado y compresión de datos.

Actualmente es algo mejor que PPPoE debido a que reduce la pérdida de calidad en las

transmisiones. Al igual que PPPoE, PPPoA puede usarse en los modos VC‐MUX y LLC.

Con PPPoE el router efectúa el encaminamiento IP con Network Address Translation (NAT) para la

LAN. El router que cuente con PPPoE también es compatible con la asignación dinámica de

direcciones IP a nodos de red local. Cuando se use la asignación dinámica, el router actuará como

servidor DHCP.

Dispositivos WAN

Las WAN utilizan numerosos tipos de dispositivos que son específicos para los entornos WAN,

entre ellos:

o Módem: modula una señal portadora analógica para codificar información digital y demodula

la señal portadora para decodificar la información transmitida.

o CSU/DSU: las líneas digitales, por ejemplo las líneas portadoras T1 o T3, necesitan una unidad

de servicio de canal (CSU, channel service unit) y una unidad de servicio de datos (DSU, data

service unit). Con frecuencia, las dos se encuentran combinadas en una sola pieza del equipo,

llamada CSU/DSU. La CSU proporciona la terminación para la señal digital y garantiza la

integridad de la conexión mediante la corrección de errores y la supervisión de la línea. La DSU

convierte las tramas de la línea Portadora T en tramas que la LAN puede interpretar y

viceversa.

o Servidor de acceso: concentra las comunicaciones de usuarios de servicios de acceso con

marcación. Un servidor de acceso puede tener una mezcla de interfaces analógicas y digitales

y admitir a cientos de usuarios al mismo tiempo.

o Switch WAN: dispositivo de internetworking de varios puertos que se utiliza en redes

portadoras. Estos dispositivos normalmente conmutan el tráfico, por ejemplo Frame Relay,

ATM o X.25, y operan en la capa de enlace de datos del modelo de referencia OSI. Dentro de la

nube también es posible utilizar switches de red pública de telefonía conmutada (PSTN, Public

Page 53: Antologia Redes Convergentes

Switched Telephone Network) para conexiones de conmutación de circuitos, por ejemplo red

digital de servicios integrados (ISDN, Integrated Services Digital Network) o conexión

telefónica analógica.

o Router: proporciona puertos de interfaz de internetworking y acceso WAN que se utilizan para

conectarse con la red del proveedor de servicios. Estas interfaces pueden ser conexiones

seriales u otras interfaces WAN. En algunos tipos de interfaces WAN se necesita un dispositivo

externo, como una CSU/DSU o un módem (analógico, por cable o DSL) para conectar el router

al punto de presencia (POP, point of presence) local del proveedor de servicios.

Estándares de la capa física de una WAN

Los protocolos de la capa física de las WAN describen cómo proporcionar conexiones eléctricas, mecánicas, operativas y funcionales para los servicios WAN. La capa física de la WAN también describe la interfaz entre el DTE y el DCE. La interfaz DTE/DCE utiliza diversos protocolos de capa física, entre ellos:

o EIA/TIA‐232: este protocolo permite velocidades de señal de hasta 64 Kbps en un conector D de 25 pins en distancias cortas. Antiguamente denominado RS‐232. La especificación ITU‐T V.24 es en efecto lo mismo.

o EIA/TIA‐449/530: este protocolo es una versión más rápida (hasta 2 Mbps) del EIA/TIA‐232. Utiliza un conector D de 36 pins y admite cables más largos. Existen varias versiones. Este estándar también se conoce como RS‐422 y RS‐423.

o EIA/TIA‐612/613: este estándar describe el protocolo de interfaz serial de alta velocidad (HSSI, High‐Speed Serial Interface), que brinda acceso a servicios de hasta 52 Mbps en un conector D de 60 pins.

o V.35: este es el estándar de ITU‐T para comunicaciones síncronas entre un dispositivo de acceso a la red y una red de paquetes. Originalmente especificado para soportar velocidades de datos de 48 kbps, en la actualidad soporta velocidades de hasta 2.048 Mbps con un conector rectangular de 34 pins.

o X.21: este protocolo es un estándar de UIT‐T para comunicaciones digitales síncronas. Utiliza un conector D de 15 pins.

Protocolos de enlace de datos Los protocolos de la capa de enlace de datos definen cómo se encapsulan los datos para su transmisión a lugares remotos, así como también los mecanismos de transferencia de las tramas resultantes. Se utiliza una variedad de tecnologías diferentes, como ISDN, Frame Relay o ATM. Muchos de estos protocolos utilizan los mismos mecanismos básicos de entramado, HDLC, un estándar ISO o uno de sus subgrupos o variantes. ATM se diferencia de los demás porque utiliza celdas pequeñas de un tamaño fijo de 53 bytes (48 bytes para datos), mientras que las demás tecnologías de conmutación de paquetes utilizan paquetes de tamaño variable. Los protocolos de enlace de datos WAN más comunes son:

Page 54: Antologia Redes Convergentes

HDLC

PPP

Frame Relay

ATM ISDN y X.25 son protocolos de enlace de datos más antiguos que en la actualidad se utilizan con menor frecuencia. Sin embargo, ISDN se sigue incluyendo en este curso porque se utiliza para proporcionar redes VoIP con enlaces PRI. X.25 se menciona para ayudar a explicar la importancia de Frame Relay. Frame Relay Frame Relay ofrece una conectividad permanente, compartida, de ancho de banda mediano, que envía tanto tráfico de voz como de datos. Frame Relay es ideal para conectar las LAN de una empresa. El router de la LAN necesita sólo una interfaz, aún cuando se estén usando varios VC. La línea alquilada corta que va al extremo de la red Frame Relay permite que las conexiones sean económicas entre LAN muy dispersas.

Unidad V. Switches multicapa

Objetivo. El alumno configurará switches multicapa aplicando los protocolos de capa 2 y 3 para

mejorar el rendimiento de la red.

1. Introducción a los switches multicapa

Un switch multicapa (multilayer switch) es un dispositivo que integra funciones de conmutación y

enrutamiento basado en hardware dentro de una misma plataforma. Un switch multicapa realiza,

a una trama y un paquete, lo que hacen los switches y routers tradicionales, incluyendo:

Proveer múltiples rutas simultáneas.

Segmentar dominios de broadcast.

Proveer reenvío de tramas a un destino específico basados en información de capa 2.

Determinar la ruta de reenvío basado en información de capa 3.

Validar la integridad de la trama de capa 2 y el paquete de capa 3 a través de sumas de

verificación (checksums) y otros métodos.

Verificar la expiración del paquete y sus actualizaciones.

Tener la habilidad de soportar QoS.

Tener la habilidad de soportar VoIP.

Entre otros.

Page 55: Antologia Redes Convergentes

Debido a que son diseñados para manejar tráfico LAN de alto rendimiento, un switch multicapa

puede ser ubicado en cualquier lugar dentro de la red, reemplazando a los switches y routers

tradicionales.

Mientras que muchos switches operan a nivel 2 (enlace de datos) según el modelo OSI, algunos

incorporan funciones de router y operan a nivel 3 (red) también. De hecho, un multilayer switch o

switch de nivel 3 es increíblemente similar a un router. Cuando un router recibe un paquete, mira

dentro de él y verifica las direcciones de origen y destino para determinar el camino que el

paquete debería tomar. Un switch estándar relega en la dirección MAC para determinar el origen y

destino de un paquete, lo cual es puramente nivel 2.

La diferencia fundamental entre un router y un multilayer switch es que estos últimos tienen

hardware optimizado para pasar datos igual de rápido que los switches de nivel 2. Sin embargo,

toman decisiones de cómo debe ser transmitido el tráfico a nivel 3, igual que un router. Dentro de

un entorno LAN, un multilayer switch es normalmente más rápido que un router porque está

construido en la electrónica que usan los switches.

La manera que tienen los multilayer switches de tratar los paquetes y gestionar el tráfico es muy

similar a la de los routers. Ambos usan un protocolo de enrutamiento y una tabla de rutas para

determinar el mejor camino. Sin embargo, un switch de nivel 3 tiene la habilidad de reprogramar

el hardware de una forma dinámica con la información de rutas que tiene. Esto es lo que le

permite procesar los paquetes mucho más deprisa. En los multilayer switches actuales, la

información que se recibe de los protocolos de routing, es usada para actualizar las tablas

hardware de almacenamiento caché.

Normalmente estos equipos se usan compañías para uso interno donde hacen de punto central de

comunicaciones en edificio, comunicándolo con otros edificios o nodos. Tienen las típicas tarjetas

de red donde los usuarios se pueden conectar a sus puertos, y una tarjeta que hace la función de

enrutar tráfico a nivel 3. Decimos que hacen de punto central porque también suele interconectar

otros switches de nivel 2 que están distribuidos por las plantas del edificio.

2. VLANs

Básicamente, una vlan es una colección de nodos que están agrupadas en un solo dominio

broadcast, el cual no está limitado estrictamente a una localización física. Los routers no pasan los

broadcast o paquetes de amplia difusión.

Un dominio broadcast es una red, o porción de red, que recibirá un paquete broadcast de

cualquier nodo localizado dentro de la red. En una red típica, todo lo que está en el mismo lado del

router, forma parte del mismo dominio broadcast. En un switch donde se han creado muchas

vlans, tiene múltiples dominios broadcast. Aun así, se sigue necesitando un router, o un multilayer

Page 56: Antologia Redes Convergentes

switch, para realizar un enrutamiento de paquetes de una vlan a otra – el switch no puede hacer

esto por sí mismo.

Una Red de Área Local Virtual (VLAN) puede definirse como una serie de dispositivos conectados

en red que a pesar de estar conectados en diferentes equipos de interconexión (hubs o switches),

zonas geográficas distantes, diferentes pisos de un edificio e, incluso, distintos edificios,

pertenecen a una misma Red de Área Local.

Con los switches, el rendimiento de la red mejora en los siguientes aspectos:

Aísla los “dominios de colisión” por cada uno de los puertos.

Dedica el ancho de banda a cada uno de los puertos y, por lo tanto, a cada computadora.

Aísla los “dominios de broadcast”, en lugar de uno solo, se puede configurar el switch para

que existan más “dominios”.

Proporciona seguridad, ya que si se quiere conectar a otro puerto del switch que no sea el

suyo, no va a poder realizarlo, debido a que se configuraron cierta cantidad de puertos

para cada VLAN.

Controla más la administración de las direcciones IP. Por cada VLAN se recomienda asignar un bloque de IPs, independiente uno de otro, así ya no se podrá configurar por parte del usuario cualquier dirección IP en su máquina y se evitará la repetición de direcciones IP en la LAN.

No importa en donde nos encontremos conectados dentro del edificio de oficinas, si estamos configurados en una VLAN, nuestros compañeros de área, dirección, sistemas, administrativos, etc., estarán conectados dentro de la misma VLAN, y quienes se encuentren en otro edificio, podrán “vernos” como una Red de Área Local independiente a las demás.

El funcionamiento e implementación de las VLANs está definido por un organismo internacional

llamado IEEE Computer Society y el documento en donde se detalla es el IEEE 802.1Q. En el

estándar 802.1Q se define que para llevar a cabo esta comunicación se requerirá de un dispositivo

dentro de la LAN, capaz de entender los formatos de los paquetes con que están formadas las

VLANs. Este dispositivo es un equipo de capa 3, mejor conocido como enrutador o router, que

tendrá que ser capaz de entender los formatos de las VLANs para recibir y dirigir el tráfico hacia la

VLAN correspondiente

Una VLAN es una subred IP separada de manera lógica. Las VLAN permiten que redes de IP y

subredes múltiples existan en la misma red conmutada. La figura 24 muestra una red con tres

computadoras. Para que las computadoras se comuniquen en la misma VLAN, cada una debe

tener una dirección IP y una máscara de subred consistente con esa VLAN. En el switch deben

darse de alta las VLANs y cada puerto asignarse a la VLAN correspondiente. Un puerto de switch

con una VLAN singular configurada en el mismo se denomina puerto de acceso. Recuerde que si

dos computadoras están conectadas físicamente en el mismo switch no significa que se puedan

comunicar. Los dispositivos en dos redes y subredes separadas se deben comunicar a través de un

Page 57: Antologia Redes Convergentes

router (Capa 3), se utilicen o no las VLAN. No necesita las VLAN para tener redes y subredes

múltiples en una red conmutada, pero existen ventajas reales para utilizar las VLAN.

Figura 24. VLANs

Ventajas de las VLAN

La productividad del usuario y la adaptabilidad de la red son impulsores clave para el crecimiento y

el éxito del negocio. La implementación de la tecnología de VLAN permite que una red admita de

manera más flexible las metas comerciales. Los principales beneficios de utilizar las VLAN son los

siguientes:

Seguridad: los grupos que tienen datos sensibles se separan del resto de la red,

disminuyendo las posibilidades de que ocurran violaciones de información confidencial.

Como se ve en la figura 25, las computadoras del cuerpo docente se encuentran en la

VLAN 10 y están completamente separadas del tráfico de datos del Invitado y de los

estudiantes.

Reducción de costo: el ahorro en el costo resulta de la poca necesidad de actualizaciones

de red caras y más usos eficientes de enlaces y ancho de banda existente.

Mejor rendimiento: la división de las redes planas de Capa 2 en múltiples grupos lógicos de

trabajo (dominios de broadcast) reduce el tráfico innecesario en la red y potencia el

rendimiento.

Mitigación de la tormenta de broadcast: la división de una red en las VLAN reduce la

cantidad de dispositivos que pueden participar en una tormenta de broadcast. La

segmentación de LAN impide que una tormenta de broadcast se propague a toda la red.

Page 58: Antologia Redes Convergentes

En la figura 25 puede observar que, a pesar de que hay seis computadoras en esta red, hay

sólo tres dominios de broadcast: Cuerpo docente, Estudiante y Invitado .

Mayor eficiencia del personal de TI: las VLAN facilitan el manejo de la red debido a que los

usuarios con requerimientos similares de red comparten la misma VLAN. Cuando

proporciona un switch nuevo, todas las políticas y procedimientos que ya se configuraron

para la VLAN particular se implementan cuando se asignan los puertos. También es fácil

para el personal de TI identificar la función de una VLAN proporcionándole un nombre. En

la figura 25, para una identificación más fácil se nombró "Estudiante" a la VLAN 20, la

VLAN 10 se podría nombrar "Cuerpo docente" y la VLAN 30 "Invitado ".

Administración de aplicación o de proyectos más simples: las VLAN agregan dispositivos de

red y usuarios para admitir los requerimientos geográficos o comerciales. Tener funciones

separadas hace que gestionar un proyecto o trabajar con una aplicación especializada sea

más fácil, por ejemplo una plataforma de desarrollo de e-learning para el cuerpo docente.

También es fácil determinar el alcance de los efectos de la actualización de los servicios de

red.

Figura 25. Ventajas de las VLANs

Tipos de VLAN

Hoy en día, existe fundamentalmente una manera de implementar las VLAN: VLAN basada en

puerto. Una VLAN basada en puerto se asocia con un puerto denominado acceso VLAN.

Page 59: Antologia Redes Convergentes

Sin embargo, en las redes existe una cantidad de términos para las VLAN. Algunos términos

definen el tipo de tráfico de red que envían y otros definen una función específica que desempeña

una VLAN. A continuación, se describe la terminología común de VLAN:

VLAN de Datos

Una VLAN de datos es una VLAN configurada para enviar sólo tráfico de datos generado por el

usuario. Una VLAN podría enviar tráfico basado en voz o tráfico utilizado para administrar el

switch, pero este tráfico no sería parte de una VLAN de datos. Es una práctica común separar el

tráfico de voz y de administración del tráfico de datos. La importancia de separar los datos del

usuario del tráfico de voz y del control de administración del switch se destaca mediante el uso de

un término específico para identificar las VLAN que sólo pueden enviar datos del usuario: una

"VLAN de datos". A veces, a una VLAN de datos se la denomina VLAN de usuario.

VLAN Predeterminada

Todos los puertos de switch se convierten en un miembro de la VLAN predeterminada luego del

arranque inicial del switch. Hacer participar a todos los puertos de switch en la VLAN

predeterminada los hace a todos parte del mismo dominio de broadcast. Esto admite cualquier

dispositivo conectado a cualquier puerto de switch para comunicarse con otros dispositivos en

otros puertos de switch. La VLAN predeterminada para los switches de Cisco es la VLAN 1. La VLAN

1 tiene todas las características de cualquier VLAN, excepto que no la puede volver a denominar y

no la puede eliminar. El tráfico de control de Capa 2, como CDP y el tráfico del protocolo spanning

tree se asociará siempre con la VLAN 1: esto no se puede cambiar.

VLAN Nativa

Una VLAN nativa está asignada a un puerto troncal 802.1Q. Un puerto de enlace troncal 802.1Q

admite el tráfico que llega de muchas VLAN (tráfico etiquetado) como también el tráfico que no

llega de una VLAN (tráfico no etiquetado). El puerto de enlace troncal 802.1Q coloca el tráfico no

etiquetado en la VLAN nativa. Las VLAN se establecen en la especificación IEEE 802.1Q para

mantener la compatibilidad retrospectiva con el tráfico no etiquetado común para los ejemplos de

LAN antigua. Una VLAN nativa sirve como un identificador común en extremos opuestos de un

enlace troncal. Es una optimización usar una VLAN diferente de la VLAN 1 como la VLAN nativa.

VLAN de Administración

Una VLAN de administración es cualquier VLAN que usted configura para acceder a las

capacidades de administración de un switch. La VLAN 1 serviría como VLAN de administración si

no definió proactivamente una VLAN única para que sirva como VLAN de administración. Se asigna

una dirección IP y una máscara de subred a la VLAN de administración. Se puede manejar un

switch mediante HTTP, Telnet, SSH o SNMP. Debido a que la configuración lista para usar de un

switch de Cisco tiene a VLAN 1 como la VLAN predeterminada, puede notar que la VLAN 1 sería

una mala opción como VLAN de administración; no querría que un usuario arbitrario se conectara

a un switch para que se configurara de manera predeterminada la VLAN de administración.

Page 60: Antologia Redes Convergentes

VLAN de voz

Es fácil apreciar por qué se necesita una VLAN separada para admitir la Voz sobre IP (VoIP).

Imagine que está recibiendo una llamada de urgencia y de repente la calidad de la transmisión se

distorsiona tanto que no puede comprender lo que está diciendo la persona que llama. El tráfico

de VoIP requiere:

Ancho de banda garantizado para asegurar la calidad de la voz

Prioridad de la transmisión sobre los tipos de tráfico de la red

Capacidad para ser enrutado en áreas congestionadas de la red

Demora de menos de 150 milisegundos (ms) a través de la red

Para cumplir estos requerimientos, se debe diseñar la red completa para que admita VoIP. Los

detalles sobre cómo configurar una red para que admita VoIP están más allá del alcance del curso,

pero es útil resumir cómo una VLAN de voz funciona entre un switch, un teléfono IP de Cisco y una

computadora.

En la figura 26, la VLAN 150 se diseña para enviar tráfico de voz. La computadora del estudiante

PC5 está conectada al teléfono IP de Cisco y el teléfono está conectado al switch S3. La PC5 está en

la VLAN 20 que se utiliza para los datos de los estudiantes. El puerto F0/18 en S3 se configura para

que esté en modo de voz a fin de que diga al teléfono que etiquete las tramas de voz con VLAN

150. Las tramas de datos que vienen a través del teléfono IP de Cisco desde la PC5 no se marcan.

Los datos que se destinan a la PC5 que llegan del puerto F0/18 se etiquetan con la VLAN 20 en el

camino al teléfono, que elimina la etiqueta de la VLAN antes de que los datos se envíen a la PC5.

Etiquetar se refiere a la adición de bytes a un campo en la trama de datos que utiliza el switch para

identificar a qué VLAN se debe enviar la trama de datos.

Figura 26. VLAN de Voz

Page 61: Antologia Redes Convergentes

VLAN por Puerto

Este tipo es el más sencillo ya que un grupo de puertos forma una VLAN ‐un puerto solo puede

pertenecer a una VLAN ‐, el problema se presenta cuando se quieren hacer VLAN por MAC ya que

la tarea es compleja. Aquí el puerto del switch pertenece a una VLAN, por tanto, si alguien posee

un servidor conectado a un puerto y este pertenece a la VLAN amarilla, el servidor estará en la

VLAN amarilla.

VLAN por MAC

Se basa en MAC Address, por lo que se realiza un mapeo para que el usuario pertenezca a una

determinada VLAN. Obviamente dependerá de la política de creación. Este tipo de VLAN ofrece

mayores ventajas, pero es complejo porque hay que meterse con las direcciones MAC y si no se

cuenta con un software que las administre, será muy laborioso configurar cada una de ellas.

VLAN por Protocolo

Lo que pertenezca a IP sé enrutara a la VLAN de IP e IPX se dirigirá a la VLAN de IPX, es decir, se

tendrá una VLAN por protocolo. Las ventajas que se obtienen con este tipo de VLAN radican en

que dependiendo del protocolo que use cada usuario, este se conectara automáticamente a la

VLAN correspondiente.

VLAN por subredes de IP o IPX

Aparte de la división que ejecuta la VLAN por protocolo, existe otra subdivisión dentro de este

para que el usuario aunque esté conectado a la VLAN del protocolo IP sea asignado en otra VLAN

subred que pertenecerá al grupo 10 o 20 dentro del protocolo.

VLAN definidas por el usuario

En esta política de VLAN se puede generar un patrón de bits, para cuando llegue el frame. Si los

primeros cuatro bits son 1010 se irán a la VLAN de ingeniería, sin importar las características del

usuario protocolo, dirección MAC y puerto. Si el usuario manifiesta otro patrón de bits, entonces

se trasladara a la VLAN que le corresponda; aquí el usuario define las VLAN.

VLAN Binding

Se conjugan tres parámetros o criterios para la asignación de VLAN: si el usuario es del puerto x,

entonces se le asignara una VLAN correspondiente. También puede ser puerto, protocolo y

dirección MAC, pero lo importante es cubrir los tres requisitos previamente establecidos, ya que

cuando se cumplen estas tres condiciones se coloca al usuario en la VLAN asignada, pero si alguno

de ellos no coincide, entonces se rechaza la entrada o se manda a otra VLAN.

VLAN por DHCP

Page 62: Antologia Redes Convergentes

Aquí ya no es necesario proporcionar una dirección IP, sino que cuando el usuario enciende la

computadora automáticamente el DHCP pregunta al servidor para que tome la dirección IP y con

base en esta acción asignar al usuario a la VLAN correspondiente. Esta política de VLAN es de las

últimas generaciones.

¿Qué es un enlace troncal?

Es difícil describir las VLAN sin mencionar los enlaces troncales de la VLAN. Aprendió acerca de

controlar broadcasts de la red con segmentación de la VLAN y observó la manera en que los

enlaces troncales de la VLAN transmitieron tráfico a diferentes partes de la red configurada en una

VLAN. En la figura 27, los enlaces entre los switches S1 y S2 y entre S1 y S3 están configurados para

transmitir el tráfico que proviene de las VLAN 10, 20, 30 y 99. Es posible que esta red no funcione

sin los enlaces troncales de la VLAN. El usuario descubrirá que la mayoría de las redes que

encuentra están configuradas con enlaces troncales de la VLAN. Esta sección une su conocimiento

previo sobre el enlace troncal de la VLAN y proporciona los detalles necesarios para poder

configurar el enlace troncal de la VLAN en una red.

Figura 27. Enlace troncal

Definición de enlace troncal de la VLAN

Un enlace troncal es un enlace punto a punto, entre dos dispositivos de red, que transporta más

de una VLAN. Un enlace troncal de VLAN le permite extender las VLAN a través de toda una red.

Cisco admite IEEE 802.1Q para la coordinación de enlaces troncales en interfaces Fast Ethernet y

Gigabit Ethernet. Más adelante en esta sección, aprenderá acerca de 802.1Q.

Page 63: Antologia Redes Convergentes

Un enlace troncal de VLAN no pertenece a una VLAN específica, sino que es un conducto para las

VLAN entre switches y routers.

¿Cuál es el problema que resuelve un enlace troncal?

Sin “trunking” se requiere de varios puertos dedicados a cada vlan. Utilizando “trunking” se

requiere un único puerto etiquetando las tramas.

3. STP, RSTP, PVST+, PVRST, MSTP y EtherChannel

Es claro que las redes de computadoras representan un componente fundamental para la mayoría

de las pequeñas y medianas empresas. En consecuencia, los administradores de TI deben

implementar la redundancia en sus redes jerárquicas. Sin embargo, cuando se agregan enlaces

adicionales a switches y routers de la red, se generan bucles en el tráfico que deben ser

administrados de manera dinámica. Cuando se pierde la conexión con un switch, otro enlace debe

reemplazarlo rápidamente sin introducir nuevos bucles en el tráfico. El protocolo spanning-tree

(STP) evita los inconvenientes relacionados con bucles en la red y la manera en que STP ha

evolucionado en un protocolo que determina de forma rápida aquellos puertos que deben

bloquearse, de forma que una red basada en red de área local virtual (VLAN, Virtual Local Area

Network) no experimente bucles en el tráfico.

Spanning Tree Protocol (STP)

La redundancia aumenta la disponibilidad de la topología de red al proteger la red de un único

punto de falla, como un cable de red o switch que fallan. Cuando se introduce la redundancia en

un diseño de la Capa 2, pueden generarse bucles y tramas duplicadas. Los bucles y las tramas

duplicadas pueden tener consecuencias graves en la red. El protocolo spanning tree (STP) fue

desarrollado para enfrentar estos inconvenientes.

STP asegura que exista sólo una ruta lógica entre todos los destinos de la red, al bloquear de forma

intencional aquellas rutas redundantes que puedan ocasionar un bucle. Un puerto se considera

bloqueado cuando el tráfico de la red no puede ingresar ni salir del puerto. Esto no incluye las

tramas de unidad de datos del protocolo de puentes (BPDU) utilizadas por STP para evitar bucles.

El bloqueo de las rutas redundantes es fundamental para evitar bucles en la red. Las rutas físicas

aún existen para proporcionar la redundancia, pero las mismas se deshabilitan para evitar que se

generen bucles. Si alguna vez la ruta es necesaria para compensar la falla de un cable de red o de

un switch, STP vuelve a calcular las rutas y desbloquea los puertos necesarios para permitir que la

ruta redundante se active.

Page 64: Antologia Redes Convergentes

STP utiliza el algoritmo spanning tree (STA) para determinar los puertos de switch de la red que

deben configurarse para el bloqueo, y así evitar que se generen bucles. El STA designa un único

switch como puente raíz y lo utiliza como punto de referencia para todos los cálculos de rutas. En

la figura 28, el puente raíz, el switch S1, se escoge a través de un proceso de elección. Todos los

switches que comparten STP intercambian tramas de BPDU para determinar el switch que posee

el menor ID de puente (BID) en la red. El switch con el menor BID se transforma en el puente raíz

de forma automática según los cálculos del STA.

Figura 28. Algoritmo STA

La BPDU es la trama de mensaje que se intercambia entre los switches en STP. Cada BPDU

contiene un BID que identifica al switch que envió la BPDU. El BID contiene un valor de prioridad,

la dirección MAC del switch emisor y un ID de sistema extendido opcional. Se determina el BID de

menor valor mediante la combinación de estos tres campos.

Después de determinar el puente raíz, el STA calcula la ruta más corta hacia el mismo. Todos los

switches utilizan el STA para determinar los puertos que deben bloquearse. Al determinar el STA

las mejores rutas hacia el puente raíz para todos los destinos del dominio de broadcast, se evita

que todo el tráfico sea enviado a través de la red. El STA considera los costos tanto de la ruta como

del puerto cuando determina la ruta que debe permanecer desbloqueada. Los costos de la ruta se

calculan mediante los valores de costo de puerto asociados con las velocidades de los puertos para

cada puerto de switch que atraviesa una ruta determinada. La suma de los valores de costo de

puerto determina el costo de ruta total para el puente raíz. Si existe más de una ruta a escoger, el

STA elige la de menor costo de ruta.

Cuando el STA determina las rutas que deben permanecer disponibles, configura los puertos de

switch de acuerdo con distintas funciones. Las funciones de los puertos describen su relación en la

Page 65: Antologia Redes Convergentes

red con el puente raíz y si los mismos pueden enviar tráfico.

Puertos raíz: los puertos de switch más cercanos al puente raíz. En el ejemplo, el puerto

raíz del switch S2 es F0/1, configurado para el enlace troncal entre el switch S2 y el switch

S1. El puerto raíz del switch S3 es F0/1, configurado para el enlace troncal entre el switch

S3 y el switch S1.

Puertos designados: todos los puertos que no son raíz y que aún pueden enviar tráfico a la

red. En el ejemplo, los puertos de switch F0/1 y F0/2 del switch S1 son puertos

designados. El switch S2 también cuenta con su puerto F0/2 configurado como puerto

designado.

Puertos no designados: todos los puertos configurados en estado de bloqueo para evitar

los bucles. En el ejemplo, el STA configura al puerto F0/2 del switch S3 en la función no

designado. El puerto F0/2 del switch S3 se encuentra en estado de bloqueo.

Al igual que con muchos estándares de redes, la evolución de STP se ha enfocado en la necesidad

de crear especificaciones para toda la industria cuando los protocolos de propiedad son

estándares de hecho. Cuando un protocolo de propiedad es tan predominante que todos sus

competidores del mercado deben contar con soporte para el mismo, las agencias como el IEEE

intervienen y crean una especificación pública.

Existen muchos tipos de variantes de STP. Algunas de estas variantes son propiedad de Cisco y

otras son estándares de IEEE.

Protocolo Spanning Tree por VLAN (PVST)

Mantiene una instancia de spanning-tree para cada VLAN configurada en la red. Utiliza el

protocolo de enlace troncal ISL propiedad de Cisco que permite que un enlace troncal de la VLAN

se encuentre en estado de enviar para algunas VLAN y en estado de bloqueo para otras. Debido a

que PVST trata a cada VLAN como una red independiente, puede balancear la carga de tráfico de

la Capa 2 mediante el envío de algunas VLAN de un enlace troncal y otras de otro enlace troncal

sin generar bucles. Para PVST, Cisco desarrolló varias extensiones de propiedad del IEEE 802.1D

STP original, como BackboneFast, UplinkFast y PortFast.

PVST+

Cisco desarrolló PVST+ para que una red pueda ejecutar una instancia de STP para cada VLAN de la

red. Con PVST+ puede bloquearse más de un enlace troncal en una VLAN y puede implementarse

la carga compartida. Sin embargo, implementar PVST+ implica que todos los switches de la red se

comprometan con la convergencia de la red y los puertos de switch deben ajustarse al ancho de

banda adicional utilizado para cada instancia de PVST+ a fin de poder enviar sus propias BPDU.

Page 66: Antologia Redes Convergentes

En un entorno de PVST+ de Cisco se pueden ajustar los parámetros de spanning-tree de manera

que la mitad de las VLAN puedan enviar en todos los enlaces troncales. En la figura 29, el puerto

F0/3 del switch S2 es el puerto emisor para la VLAN 20 y F0/2 del switch S2 es el puerto emisor

para la VLAN 10. Esto se logra mediante la configuración de un switch para elegirlo como puente

raíz para la mitad de la cantidad total de VLAN de la red y de otro para elegirlo como puente raíz

para la otra mitad de las VLAN. En la figura 29, el switch S3 es el puente raíz para la VLAN 20 y el

switch S1 es el puente raíz para la VLAN 10. La creación de distintos switches raíz en STP por VLAN

genera una red más redundante.

Figura 29. Protocolo PVST+

Protocolo Spanning Tree por VLAN rápido (PVST+ rápido)

PVST+ rápido es una implementación de Cisco de RSTP. Admite spanning tree para cada VLAN y es la variante rápida de STP para utilizar en redes de Cisco. Se basa en el estándar IEEE 802.1w y posee una convergencia más veloz que STP (estándar 802.1D). PVST+ rápido incluye las extensiones propiedad de Cisco, como BackboneFast, UplinkFast y PortFast.

Protocolo Rapid Spanning Tree (RSTP)

RSTP (IEEE 802.1w) es una evolución del estándar 802.1D. Principalmente, la terminología de

802.1w STP sigue siendo la misma que la del IEEE 802.1D STP. La mayoría de los parámetros no se

modifican, de modo que los usuarios familiarizados con STP puedan configurar rápidamente el

nuevo protocolo.

Page 67: Antologia Redes Convergentes

En la figura 30, la red muestra un ejemplo de RSTP. El switch S1 es el puente raíz con dos puertos

designados en estado de enviar. RSTP admite un nuevo tipo de puerto. El puerto F0/3 del switch

S2 es un puerto alternativo en estado de descarte. Observe que no existen puertos bloqueados.

RSTP no posee el estado de puerto de bloqueo. RSTP define los estados de puertos como de

descarte, aprender o enviar.

Figura 30. Protocolo RTSP

STP Múltiple (MSTP)

Permite que se asignen VLAN múltiples a la misma instancia de spanning‐tree, de modo tal que se reduce la cantidad de instancias necesarias para admitir una gran cantidad de VLAN. MSTP se inspiró en STP de instancias múltiples (MISTP) propiedad de Cisco y es una evolución de STP y RSTP. Se introdujo en el IEEE 802.1s como enmienda de la edición de 802.1Q de 1998. El estándar IEEE 802.1Q‐2003 ahora incluye a MSTP. MSTP proporciona varias rutas de envío para el tráfico de datos y permite el balanceo de carga.

Etherchannel

Cisco EtherChannel® construye su tecnología en base a estándares 802.3 full-duplex de Fast Ethernet. EtherChannel agrupa varios enlaces Ethernet en un único enlace lógico, proveyendo así más ancho de banda de hasta 16 veces la capacidad máxima del enlace (full-duplex). Por ejemplo, agrupando enlaces Fast Ethernet de 100 Mbps cada uno, pudiéndose agrupar hasta 8 enlaces, se puede lograr una capacidad de hasta 1600 Mbps en full-duplex. Esta tecnología aplica tanto para Fast EthernetChannel (FEC) o Gigabit EtherChannel (GEC). Las características más resaltantes que se puede lograr con esta tecnología son:

Incremento de ancho de banda.

Convergencia rápida con tolerancia a fallas.

Balanceo de cargas.

Page 68: Antologia Redes Convergentes

Figura 31. Etherchannel

4. Ruteo InterVLAN

Ahora que ya conoce cómo configurar las VLAN en un switch de redes, el siguiente paso es

permitir a los dispositivos conectados a las distintas VLAN comunicarse entre sí. Anteriormente,

aprendió que cada VLAN es un dominio de broadcast único. Por lo tanto, de manera

predeterminada, las computadoras en VLAN separadas no pueden comunicarse. Existe una

manera para permitir que estas estaciones finales puedan comunicarse; esta manera se llama

enrutamiento inter VLAN.

Tradicionalmente, el enrutamiento de la LAN utiliza routers con interfaces físicas múltiples. Es

necesario conectar cada interfaz a una red separada y configurarla para una subred diferente.

En una red tradicional que utiliza VLAN múltiples para segmentar el tráfico de la red en dominios

de broadcast lógicos, el enrutamiento se realiza mediante la conexión de diferentes interfaces

físicas del router a diferentes puertos físicos del switch. Los puertos del switch conectan al router

en modo de acceso; en el modo de acceso, diferentes VLAN estáticas se asignan a cada interfaz del

puerto. Cada interfaz del switch estaría asignada a una VLAN estática diferente. Cada interfaz del

router puede entonces aceptar el tráfico desde la VLAN asociada a la interfaz del switch que se

encuentra conectada, y el tráfico puede enrutarse a otras VLAN conectadas a otras interfaces.

El enrutamiento inter VLAN tradicional requiere de interfaces físicas múltiples en el router y en el

switch. Sin embargo, no todas las configuraciones del enrutamiento inter VLAN requieren de

interfaces físicas múltiples. Algunos software del router permiten configurar interfaces del router

como enlaces troncales. Esto abre nuevas posibilidades para el enrutamiento inter VLAN.

"Router-on-a-stick" es un tipo de configuración de router en la cual una interfaz física única enruta

el tráfico entre múltiples VLAN en una red. La interfaz del router se configura para funcionar como

enlace troncal y está conectada a un puerto del switch configurado en modo de enlace troncal. El

router realiza el enrutamiento inter VLAN al aceptar el tráfico etiquetado de la VLAN en la interfaz

troncal proveniente del switch adyacente y enrutar en forma interna entre las VLAN, mediante

subinterfaz. El router luego reenvía el tráfico enrutado de la VLAN etiquetada para la VLAN de

destino, por la misma interfaz física.

Page 69: Antologia Redes Convergentes

Figura 32. Enrutamiento interVLAN usando router

Las subinterfaces son interfaces virtuales múltiples, asociadas a una interfaz física. Estas interfaces

están configuradas en software en un router configurado en forma independiente con una

dirección IP y una asignación de VLAN para funcionar en una VLAN específica. Las subinterfaces

están configuradas para diferentes subredes que corresponden a la asignación de la VLAN, para

facilitar el enrutamiento lógico antes de que la VLAN etiquete las tramas de datos y las reenvíe por

la interfaz física.

Algunos switches pueden realizar funciones de Capa 3, reemplazando la necesidad de utilizar

routers dedicados para realizar el enrutamiento básico en una red. Los switches multicapas

pueden realizar el enrutamiento inter VLAN.

Figura 33. Enrutamiento interVLAN usando un switch multicapa

Page 70: Antologia Redes Convergentes

5. Alta disponibilidad en un campus

Las redes que usan segmentos en campus, obtienen su funcionalidad basada en la organización, políticas, aplicaciones, equipos de trabajo o simplemente por ubicaciones geográficas. Para lograr ahorros considerables en servicios, costos y equipos se utiliza la arquitectura de las VLAN en vez de instalar redes independientes físicamente y unidas por routers Se recomienda el uso de VLANs que además estén basadas en una segmentación a través de subredes.

Figura 34. Redes en un campus

Para saber más…

Cisco Systems (2006). Building Cisco Multilayer Switched Networks, Student Guide.

Unidad VI. IPv6

Objetivo. El alumno configurará los esquemas de direccionamiento IPv6 y los tipos de tunneling

de IPv4 a IPv6 para su implementación en la empresa.

1. Esquema de direccionamiento IPv6

El esquema de direccionamiento IPv6 ha sido desarrollado para ser compatible con el actual

esquema de direccionamiento IPv4, lo cual, permite a las actuales redes IPv6 coexistir con la redes

Page 71: Antologia Redes Convergentes

IPv4. El esquema de direccionamiento IPv6 incrementa el tamaño de direcciones al usar, de 32 bits

a 128 bits, el cual provee 340,282,366,920,938,463,374,607,431,768,211,456 o 3.4 x 1038

direcciones IP.

IPv6 también mejora el enrutamiento, la seguridad y características de QoS al simplificar el

encabezado IP. Este direccionamiento esta descrito en RFC 3513, el cual define cómo será utilizado

el espacio de direcciones.

Formato de direcciones IPv6

A diferencia del formato decimal separado por puntos de IPv4, IPv6 es representado por números

hexadecimales. Un número hexadecimal es equivalente a 4 bits, y su representación va del 0 - 9 y

de la A – F. La dirección IPv6 es un valor numérico hexadecimal de 32 dígitos, 8 grupos de 4 dígitos

hexadecimales, separados por dos puntos (:), representando una dirección de 128 bits. Por

ejemplo, 1041:0000:130B:0000:0000:09C0:586C:1305.

Existen 3 formatos para representar una dirección IPv6:

Forma hexadecimal-dos puntos. Ésta es la forma preferida n:n:n:n:n:n:n:n. Cada n

representa el valor hexadecimal de uno de los ocho elementos de 16 bits de la dirección.

Por ejemplo: 3FFE:FFFF:7654:FEDA:1245:BA98:3210:4562.

Forma comprimida. Debido a la longitud de la dirección, resulta habitual tener direcciones

que contengan una larga cadena de ceros. Para simplificar la escritura de estas

direcciones, se utiliza la forma comprimida, en la que una única secuencia contigua de

bloques de 0 se representa mediante un doble signo de dos puntos (::). Este símbolo sólo

puede aparecer una vez en una dirección. Por ejemplo, la dirección de multidifusión

FFED:0:0:0:0:BA98:3210:4562 en formato comprimido es FFED::BA98:3210:4562. La

dirección de unidifusión 3FFE:FFFF:0:0:8:800:20C4:0 en formato comprimido es

3FFE:FFFF::8:800:20C4:0. La dirección de bucle invertido 0:0:0:0:0:0:0:1 en formato

comprimido es ::1. La dirección no especificada 0:0:0:0:0:0:0:0 en formato comprimido es

::.

Forma mixta. Esta forma combina las direcciones IPv4 e IPv6. En este caso, el formato de

dirección es n:n:n:n:n:n:d.d.d.d, donde cada n representa a los valores hexadecimales de

los seis elementos de dirección de 16 bits de nivel superior de IPv6, y cada d representa al

valor decimal de una dirección de IPv4.

Tipos de direcciones IP

IPv6 define 3 tipos de direcciones: unicast, anycast y multicast.

Unicast. Este tipo de direcciones son bastante conocidas. Un paquete que se envía a una dirección unicast debería llegar a la interfaz identificada por dicha dirección. Anycast. Las direcciones anycast son sintácticamente indistinguibles de las direcciones unicast pero sirven para identificar a un conjunto de interfaces. Un paquete destinado a una dirección

Page 72: Antologia Redes Convergentes

anycast llega a la interfaz “más cercana” (en términos de métrica de “routers”). Las direcciones anycast sólo se pueden utilizar en “routers”. Multicast. Las direcciones multicast identifican un grupo de interfaces. Un paquete destinado a una dirección multicast llega a todas los interfaces que se encuentran agrupados bajo dicha dirección.

2. Tipos de tunneling IPv4 a IPv6

Los mecanismos de transición son un conjunto de mecanismos y de protocolos implementados en hosts y routers, junto con algunas guías operativas de direccionamiento designadas para hacer la transición de Internet al IPv6 con la menor interrupción posible. Dichos mecanismos están diseñados para ser usados por hosts y routers IPv6 que necesitan interoperar con hosts IPv4 y utilizar infraestructuras de ruteo IPv4. Se espera que muchos nodos necesitarán compatibilidad por mucho tiempo y quizás indefinidamente. No obstante, IPv6 también puede ser usado en ambientes donde no se requiere interoperabilidad con IPv4. Nodos diseñados para esos ambientes no necesitan usar ni implementar estos mecanismos. El tunneling es un mecanismo de transición que permite a máquinas con IPv6 instalado comunicarse entre sí a través de una red IPv4. El mecanismo consiste en crear los paquetes IPv6 de forma normal e introducirlos en un paquete IPv4. El proceso inverso se realiza en la máquina destino, que recibe un paquete IPv6. Los nodos o redes IPv6 que se encuentran separadas por infraestructuras IPv4 pueden construir un enlace virtual, configurando un túnel. Paquetes IPv6 que van hacia un dominio IPv6 serán encapsulados dentro de paquetes IPv4. Los extremos del túnel son dos direcciones IPv4 y dos IPv6. Se pueden utilizar dos tipos de túneles: configurados y automáticos. Los túneles configurados son creados mediante configuración manual. Un ejemplo de redes conteniendo túneles configurados es el 6bone. Los túneles automáticos no necesitan configuración manual. Los extremos se determinan automáticamente determinados usando direcciones IPv6 IPv4-compatible.

Figura 35. Tunneling IPv6