UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
TELETRÁFICO
Unidad 2: Paso 3 - Desarrollar esquema de mecanismos de QoS
GRUPO No. 208022_3 JHON FREDY PEREZ LUIS EDUARDO URRESTE JUAN DOMINGO GONZALEZ
PRESENTADO A: JAMES HERNAN BETANCOURT
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA NOVIEMRBE 2017
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Contenido INTRODUCCION INTRODUCCION ............................................................................................................... 3 ACTIVIDAD ACTIVIDAD ....................................................................................................................... 4 Nodo .................................................................................................................................. 4 E/S de un nodo .................................................................................................................. 5 Procesamiento Procesamiento de un nodo ................................................................................................ 5 CONCLUSIONES CONCLUSIONES ............................................................................................................ 37 REFERENCIAS REFERENCIAS BIBLIOGRÁFICAS BIBLIOGRÁFICAS ................................................................................. 38
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Contenido INTRODUCCION INTRODUCCION ............................................................................................................... 3 ACTIVIDAD ACTIVIDAD ....................................................................................................................... 4 Nodo .................................................................................................................................. 4 E/S de un nodo .................................................................................................................. 5 Procesamiento Procesamiento de un nodo ................................................................................................ 5 CONCLUSIONES CONCLUSIONES ............................................................................................................ 37 REFERENCIAS REFERENCIAS BIBLIOGRÁFICAS BIBLIOGRÁFICAS ................................................................................. 38
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
INTRODUCCION MPLS es hoy día una solución clásica y estándar al transporte de información en las redes. Aceptado por toda la comunidad de Internet, ha sido hasta hoy una solución aceptable para el envío de información, utilizando Routing de paquetes con ciertas garantías de entrega. A su vez, vez, los avances avances en el hardware hardware y una nueva nueva visión a la hora de de manejar las redes, están dando lugar al empleo creciente de las tecnologías de Conmutación, encabezadas por la tecnología ATM. Aportando velocidad, calidad de servicio y facilitando la gestión de los recursos en la red. De aquí derivan los siguientes problemas: el paradigma del Routing está muy extendido en todos los entornos, tanto empresariales como académicos, etc. El rediseño total del software existente hacia la Conmutación supondría un enorme gasto de tiempo y dinero. Igualmente sucede con el hardware que está funcionando hoy día.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
ACTIVIDAD
Nodo Cuando se hace referencia a un Nodo en QoS, se hace referencia al funcionamiento de un nodo en una red. Según Manuel Castells, Un nodo es: Un nodo es el punto en el que una curva se interseca consigo mismo. Lo que un nodo es concretamente, depende del tipo de redes a que nos refiramos. [1]
Dependiendo del tipo de red se pueden pensar en un nodo como:
Un computador:
Un servidor:
Un segmento de red:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
E/S de un nodo De forma sencilla, lo que hace valiosa a una red es la transmisión de datos entre estos nodos y que eventualmente permitirán a un usuario de uno de estos nodos acceder a la información total de la red; es decir, todo lo que fluye a través de los nodos es información tanto en la entrada como en su salida.
Pero este proceso de transmisión de información está compuesto por múltiples capas que existen para asegurar la integridad del mensaje. Procesamiento de un nodo Esta parte queda para investigar más debido a falta de documentación.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Queuing y Schedulling: FIFO ¿Que procesa los nodo? ¿Que ingresa y sale de un nodo? ¿Cómo se forman las colas en un nodo? ¿Cuál es el esquema de trabajo de un nodo de tal forma que se dé servicio a los paquetes? La congestión se define como una excesiva cantidad de paquetes almacenados en los buffers de varios nodos en espera de ser transmitidos. La congestión es indeseable porque aumenta los tiempos de viaje de los paquetes y retrasa la comunicación entre usuarios. Este es un gran problema que debe ser evitado Para entender el fenómeno de la congestión es necesario analizar el comportamiento de la subred de conmutación de paquete como una subred de colas. En cada nodo, asociado a cada canal de entrada o salida habrá una cola de entrada o salida respectivamente. Si la velocidad de llegada de los paquetes al nodo excede la velocidad con que estos pueden ser transmitidos, la cola asociada al canal de salida empieza a crecer y los paquetes irán experimentando un retardo creciente, que podría llegar a tender a infinito si la longitud de las colas lo permitiera. El retardo crece de forma alarmante cuando la tasa de ocupación de la línea, para la que los paquetes están encolados, sobrepasa el 80% 1.
- ¿Cómo se forman las colas en un nodo?
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
La teoría de colas es el estudio matemático de las colas o líneas de espera dentro de un sistema. Esta teoría estudia factores como el tiempo de espera medio en las colas o la capacidad de trabajo del sistema sin que llegue a colapsar. Dentro de las matemáticas, la teoría de colas se engloba en la investigación de operaciones y es un complemento muy importante a la teoría de sistemas y la teoría de control. Se trata así de una teoría que encuentra aplicación en una amplia variedad de situaciones como negocios, comercio, industria, ingenierías, transporte y logística o telecomunicaciones. En el caso concreto de la ingeniería, la teoría de colas permite modelar sistemas en los que varios agentes que demandan cierto servicio o prestación, confluyen en un mismo servidor y, por lo tanto, pueden registrarse esperas desde que un agente llega al sistema y el servidor atiende sus demandas. En este sentido, la teoría es muy útil para modelar procesos tales como la llegada de datos a una cola en ciencias de la computación, la congestión de red de computadoras o de telecomunicación, o la implementación de una cadena productiva en la ingeniería industrial. En el contexto de la informática y de las tecnologías de la información y la comunicación las situaciones de espera dentro de una red son más frecuentes. Así, por ejemplo, los procesos enviados a un servidor para su ejecución forman colas de espera mientras no son atendidos; la información solicitada, a través de Internet, a un servidor Web puede recibirse con demora debido a la congestión en la red; también se puede recibir la señal de línea de la que depende nuestro teléfono móvil ocupada si la central está colapsada en ese momento, etc. .
QoS en ATM Una de las grandes ventajas de ATM (Asynchronous Transfer Mode – Modo de Transferencia Asíncrona) respecto de técnicas como el Frame Relay y Fast Ethernet es que admite niveles de QoS. Esto permite que los proveedores de servicios ATM garanticen a sus clientes que el retardo de extremo a extremo no excederá un nivel específico de tiempo o que garantizarán un ancho de banda específico para un servicio. Esto es posible marcando los paquetes que provengan de una dirección IP determinada de los nodos conectados a un gateway (como por ejemplo la IP de un teléfono IP, según la puerta del router, etc.). Además, en los servicios satelitales da una nueva perspectiva en la utilización del ancho de banda, dando prioridades a las aplicaciones de extremo a extremo con una serie de reglas. Una red IP está basada en el envío de paquetes de datos. Estos paquetes de datos tienen una cabecera que contiene información sobre el resto del paquete. Existe una parte del paquete que se llama ToS (Type of Service), en realidad pensada para llevar banderas o marcas. Lo que se puede hacer para darle prioridad a un paquete sobre el resto es marcar una de esas banderas (flags, en inglés). Para ello, el equipo que genera el paquete, por ejemplo una puerta de enlace (gateway, en inglés) de voz sobre IP, coloca una de esas banderas en un estado determinado. Los dispositivos por donde pasa ese paquete después de ser transmitido deben tener la capacidad para poder discriminar los paquetes para darle prioridad sobre los que no fueron marcados o los que se marcaron con una prioridad menor a los anteriores. De esta manera podemos generar prioridades altas a paquetes que requieren una cierta calidad de envío, como por ejemplo la voz o el vídeo en tiempo real, y menores al resto. ¿Cómo se maneja la congestión y se suministra QoS en el nodo? ¿Cuándo es útil y viable QoS?
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
QoS o Calidad de Servicio (Quality of Service, en inglés) es el rendimiento promedio de una red de telefonía o de computadoras, particularmente el rendimiento visto por los usuarios de la red.1 Cuantitativamente mide la calidad de los servicios que son considerados en varios aspectos del servicio de red, tales como tasas de errores, ancho de banda, rendimiento, retraso en la transmisión, disponibilidad, jitter, etc. Calidad de servicio es particularmente importante para el transporte de tráfico con requerimientos especiales. En particular, muchas tecnologías han sido desarrolladas para permitir a las redes de computadoras ser tan útiles como las redes de teléfono para conversaciones de audio, así como el soporte de nuevas aplicaciones con demanda de servicios más estrictos. Ejemplos de mecanismos de QoS son la priorización de tráfico y la garantía de un ancho de banda mínimo. La aplicación de QoS es un requisito básico para poder implantar servicios interactivos (por ejemplo voip)2. 1. QosDevice 2. QosPolicyHolder 3. QosManager La relación entre estos servicios puede verse en la figura (2) en la que se muestra un diagrama con la arquitectura UPnP QoS. El QosManager calcula además los puntos intermedios en la ruta desde el origen al destino del flujo, y con la información de la política, configura los QosDevices que hay en dicha ruta. En función de los dispositivos QosDevices, o bien ellos mismos o bien la pasarela pueden realizar control de admisión de flujos. Estas interacciones entre los distintos componentes de la arquitectura
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Adelante! aprópiense de los procesos realizados en un nodo para manejar la congestión y proporcionar QoS[Classification y Marking, Queueing Schedulling, Chaping y Policing, congestion Avoidance], luego seleccionan uno de los mecanismos de QoS para que puedan estudiarlo y participar en el foro: seleccionen uno de los mecanismo de QoS Schedulling o planificación como FIFO, PQ,CQ, WFQ,LLQ, Policing como Token Bucket y Leaky Bucket, congestion avoidance como RED, WRED,ECN - Planificación FIFO Planificación Primero en Entrar-Primero en Salir (FIFO, Firs t In Firs t Out ) Es muy simple, los procesos se despachan de acuerdo con su tiempo de llegada a la cola de listos. Una vez que el proceso obtiene la cpu, se ejecuta hasta terminar, ya que es una disciplina “no apropiativa”.
Puede ocasionar que procesos largos hagan esperar a procesos cortos y que procesos no importantes hagan esperar a procesos importantes. Es más predecible que otros esquemas. No puede garantizar buenos tiempos de respuesta interactivos. Suele utilizarse integrado a otros esquemas, por ejemplo, de la siguiente manera: Los procesos se despachan con algún esquema de prioridad.
Los procesos con igual prioridad se despachan “FIFO”.
Primero en entrar, primero en salir (FIFO): Las solicitudes se procesan en un orden secuencial. Es una estrategia justa para todos los procesos Esta técnica se parece mucho a la planificación aleatoria si hay muchos procesos. Prioridad:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
No persigue la optimización del uso del disco, sino cumplir con otros objetivos Los trabajos por lotes que sean cortos tienen una prioridad más alta. Proporciona un buen tiempo de respuesta interactiva. Enlace de simulacion Fifo Algunas de las características de este algoritmo es que es no apropiativo y justo en el sentido formal, aunque injusto en el sentido de que: los trabajos largos hacen esperar a los cortos y los trabajos sin importancia hacen esperar a los importantes. Por otro lado es predecible pero no garantiza buenos tiempos de respuesta y por ello se emplea como esquema secundario3.
Encolado FIFO/FCFS Encolado FIFO/FCFS First-In, First Out (FIFO) o First-Come, First-Served (FCFS) es el algoritmo más simple. Los paquetes son atendidos y enrutados a través del sistema enviándose por la correspondiente interfaz de salida de acuerdo al orden en que llegaron. Todos los paquetes son tratados por igual. Cuando un paquete llega, y el sistema (router) está ocupado, se coloca en una cola de salida ´única (espacio de buffer). Dado que la cantidad de memoria en cada router es finita, el espacio se podría llenar. Si no hay suficiente espacio los paquetes deberán, de acuerdo a la política de descarte, ser descartados. En el caso FIFO la política es muy sencilla, los paquetes nuevos que arriban cuando la cola está llena se descartan y los más viejos permanecerán esperando a los que se encolaron previamente. Esta política de descarte se conoce como Tail Drop. Cuando es el turno para el paquete, se quita de la cola, se procesa y, finalmente, se envía a través de una interfaz de salida (si el router encuentra con ´éxito una ruta). Las colas FIFO son el mecanismo por default utilizado en los dispositivos de red para procesar paquetes. La mayoría de los routers de Internet funcionaban de una manera FIFO estricta. Se trata de una solución básica, pero que no proporciona mecanismos para QoS, todos los paquetes
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
obtendrán la misma manipulación por lo que los retardos pueden variar en función de la carga del router. Este manejo no permite a los dispositivos de red organizar, reordenar los paquetes en forma diferente, por lo tanto, no pueden dar un servicio a un flujo de datos particular de manera diferente que el resto del tráfico. En ocasiones un flujo “brusty” en una cola FIFO permite que se consuma todo el espacio en memoria de la misma, haciendo que todos los otros flujos (tal vez de buen comportamiento) no puedan recibir un servicio adecuado. El llenado de la cola produce un bloqueo durante un intervalo de tiempo. El trafico TCP es más susceptible a sufrir una negación temporal de servicio.
Modelo FIFO Las colas FIFO pueden ofrecer los siguientes beneficios:
Carga computacional baja. Tiene un comportamiento muy predecible para los paquetes, aunque no bajo carga. El retardo máximo puede ser determinado por la longitud máxima de la cola. Las colas FIFO son adecuados para sistemas que siempre funciona sin carga extrema o tienen interfaces muy rápidas.
La limitación más importante es la incapacidad de proporcionar un planificador de QoS durante periodos de congestión Espera Equitativa Ponderada (en inglés Weighted Fair Queuing (WFQ)) se trata de una técnica de encolamiento que proporciona QoS en redes convergentes. Trata de evitar la congestión. Controla directamente las colas de los nodos mediante un tratamiento diferencial del tráfico proporcionado por una determinada disciplina de servicio. WFQ es una generalización de la cola de prioridad (Fair Queuing,FQ). Tanto en FQ como en WFQ, cada flujo de datos tiene una cola FIFO separada. En FQ, con un enlace de velocidad de transmisión de datos de R, en un momento dado los N flujos de datos activos (los únicos con colas no vacías) son servidos a la vez, cada uno a un promedio velocidad de transmisión de datos de R / N . Dado que cada flujo de datos tiene su propia cola, un mal comportamiento de flujo (que ha enviado los paquetes más grandes o más paquetes por segundo que los otros desde que esta activo) solo se castigará a sí mismo y no a otras sesiones. Contrario a FQ, WFQ permite a las diferentes sesiones tener diferentes cuotas de servicio. Si actualmente N flujos de datos están activos con pesos w 1 , w 2 . . . w N , número de flujo de datos i alcanzará un promedio de velocidad de transmisión de datos:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
R w i /( w 1 + w 2 + . . . + w N ) Puede ser demostrado que al usar una red con conmutadores WFQ y un flujo de datos con limitación Leaky Bucket y un retraso obligado de extremo a extremo se puede garantizar. Regulando los pesos del WFQ dinámicamente, WFQ puede ser utilizado para controlar la calidad del servicio QoS por ejemplo para lograr garantizar la velocidad de transmisión de datos. Proporcional equidad se puede lograr mediante el establecimiento de los pesos en wi=1/ci , donde c i es el coste por bits de datos del flujo de datos i. Por ejemplo en CDMA redes celulares de espectro ensanchado el coste puede ser la energía necesaria (el nivel de interferencia), y en sistemas Dynamic Channel Allocation el coste puede ser el número de sitios cercanos a la estación base que no pueden usar el mismo canal de frecuencia, en vista de evitar la interferencia co-canal. COLAS EQUITATIVAS PONDERADAS (WFQ) Encolamiento por espera equitativa ponderada (WFQ - Weighted Fair Queuing)
Este método de encolamiento clasifica paquetes en flujos. Un flujo es un conjunto de paquetes que tienen la misma dirección IP origen y destino y los mismos númer os de puerto tanto origen como destino. Dado que WFQ es basado en flujos, cada flujo utiliza diferentes colas FIFOS separadas, el número de colas alcanza las 4096 colas por interface. Es un método automatizado que provee una justa asignación de ancho de banda para todo el tráfico de la red. Como se mencionó, WFQ ordena el tráfico en flujos utilizando una combinación de parámetros. Por ejemplo, para una conversación TCP/IP, se utiliza el protocolo IP (dirección origen y destino), etc. Una vez distinguidos estos flujos el router determina cuáles son de uso intensivo o sensible al retardo, priorizándolos y asegurando
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
que los flujos de alto volumen sean empujados al final de la cola, y los volúmenes bajos, sensibles al retardo, sean empujados al principio de la cola. Esta técnica es apropiada en situaciones donde se desea proveer un tiempo respuesta consistente ante usuarios que generan altas y bajas cargas en la red, ya que se adapta a las condiciones cambiantes del tráfico en ésta. A manera de resumen, mostramos las características más importantes: WFQ tiene algunas limitantes de escalamiento, ya que la implementación del algoritmo se ve afectada a medida que el tráfico por enlace aumenta, colapsa debido a la cantidad numerosa de flujos que analizar. CBWFQ fue desarrollada para evitar esas limitaciones, tomando el algoritmo de WFQ y expandiéndolo, permitiendo la definición de clases definidas por el usuario, que permiten un mayor control sobre las colas de tráfico y asignación de ancho de banda.Algunas veces es necesario garantizar una determinada tasa de transmisión para cierto tipo de tráfico, lo cual no es posible mediante WFQ pero sí con CBWFQ. Las clases que son posibles implementar con CBWFQ pueden ser determinadas según protocolo ACL, valor DSCP o interfaz de ingreso. Cada clase posee una cola separada y todos los paquetes que cumplen con el criterio definido para una clase en particular son asignados a dicha cola. Una vez que se establecen los criterios para las clases, es posible determinar cómo los paquetes pertenecientes a dicha clase serán manejados. Si una clase no utiliza su porción de ancho de banda, otras pueden hacerlo. Se pueden configurar específicamente el ancho de banda y el límite de paquetes máximos (o profundidad de cola) para cada clase. El peso asignado a la cola de la clase es determinado mediante el ancho de banda asignado a dicha clase. Funcionamiento
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Configuración en Routers Router (Config)#interface serial 0/0 Router (Config-if)#fair-queue Switch(Config-if) no switchport (3550,6500) Características de Colas Equitativas Ponderadas (WFQ) WFQ es adaptativo a los cambios en la red. Los otros mecanismos son estáticos, y por lo tanto no se adaptan a los cambios producidos en la red. Por ello ha sido necesario un mecanismo como WFQ, que es adaptativo. Proporciona un buen tiempo de respuesta
WFQ es adecuado para situaciones donde se necesite un buen tiempo de respuesta, para usuarios que hagan tanto un uso elevado de la red, tanto como para los que hagan un uso más leve, sin añadir ancho de banda adicional. Cisco lo utiliza por defecto en enlaces inferiores aT1 (1,5 Mbps) WFQ es un algoritmo basado en flujos
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
WFQ es un algoritmo de cola basado en flujos (o sesiones), que realizados tareas simultáneamente y de forma automática:
Organiza el tráfico (de tiempo real), poniéndolo al principio de la cola, reduciendo así el tiempo de respuesta. Comparte equitativamente el resto del ancho de banda, entre el resto de tráfico de alta prioridad. Permitiendo que los paquetes sean atendidos justamente en términos de conteo de bits, en otras palabras se distribuyen los flujos de datos en cada cola de manera justa para poder brindar un servicio eficiente Cada flujo posee su propia cola para almacenar en caso de congestión del enlace WFQ asegura que las diferentes colas no se queden privadas de un mínimo ancho de banda, de modo que el servicio proporcionado al tráfico es más predecible. Considera flujos de poco caudal con flujos sensibles al retardo, por ejemplo VOIP. No es escalable dentro de una gran red.
TÉCNICAS DE ENCOLAMIENTO Las políticas de QoS implementadas en una red se activan únicamente cuando ocurre algún tipo de congestión en la red. Las técnicas de encolamiento son una de las técnicas empleadas para administrar las congestiones que ocurren en una red, técnicas que permiten almacenar, priorizar y si se requiere, re ordenar los paquetes antes de ser transmitidos. Existen algunos métodos de encolamiento, entre los más importantes están:
FIFO - Fist-Input-First-Output y Weighted Fair Queuing ( WFQ)
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Class-Based WFQ y Low Latency Queuing (LLQ)
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
DIAGRAMA DE RED Use esta configuración para ilustrar cómo funciona WFQ:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Mecanismo de cola QoS: Priority Queuing PQ Garantiza que en cada punto de la red el tráfico importante reciba el servicio de forma rápida. Esquema Gráfico PQ El esquema se evidencia las 4 clases de priorización de tráfico, donde cada paquete se debe ubicar en una de las cuatro colas de prioridad: alta, media, normal, baja, aunque se corre el riesgo de inanición, es decir, dejar fuera de servicio a tráfico menos prioritario. La prioridad de los paquetes se puede diferenciar por el protocolo de red, interfaz del router por el que llegue el paquete, su tamaño y dirección origen o destino, de igual manera los paquetes que no pueden clasificar se asignan a la cola de prioridad normal.
Mecanismo planificación LLQ (Low Latency Queueing) (Juan Domingo)
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
LLQ, Usado para el tráfico real-time como voz y videoconferencia muy sensibles al delay. Con LLQ, los datos sensibles al retardo, como la voz, son colocados en la cola de mayor prioridad y son los primeros en ser enviados. - Esquema del Mecanismo de QoS LLQ (Low latency queue):
Tomado de: https://networkingcontrol.wordpress.com/page/9/
- Ejemplo de aplicación del mecanismo de QoS LLQ:
Tomado de: https://es.slideshare.net/GianpietroLavado/calidad-de-servicio-ip-mpls-v22 - Esquema del modelo Diff-Serv entre nodos de red:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Tomado de: https://www.icesi.edu.co/revistas/index.php/sistemas_telematica/article/.../1040
Es importante comprender inicialmente que CBWFD Class-Based Weighted Fair Queueing [24][29][30] es un mecanismo usado para proporcionar un ancho de banda mínimo garantizado a las diferentes clases de tráfico durante periodos de congestión. CBWFQ extiende la funcionalidad estándar de Weighted Fair Queueing (WFQ) para dar soporte a clases de tráfico definidas por el usuario. Para CBWFQ, se definen clases de trafico basadas en criterios de selección incluyendo protocolos, listas de control de acceso (access control lists ACLs) e interfaces de entrada. Los paquetes que satisfagan los criterios de
selección para una clase constituyen el tráfico para esa clase. Se reserva una cola para cada clase, y el tráfico perteneciente a una clase se mete directamente en la cola de esa clase. Una vez que la clase ha sido definida de acuerdo con los criterios de selecc ión, se le pueden asignar características. Para caracterizar una clase, se le asigna su ancho de banda, peso y límite máximo de paquete. El ancho de banda asignado para la clase es el ancho de banda garantizado para esa clase durante periodos de congestión. LLQ es un mecanismo QoS para dar manejo a la congestión, es decir, que LLQ controla la congestión una vez que ocurre. Una forma de que los elementos de la red manejen un desbordamiento de tráfico de entrada consiste en usar un algoritmo de encolamiento para
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
parar el tráfico y determinar entonces algún método que establezca prioridades a la hora de usar el enlace de salida. La herramienta de encolamiento de baja latencia (Low Latency Queueing) lleva la disciplina de servicio de colas encolamiento de prioridad estricta (Strict Priority Queueing) a CBWFQ. Se emplea para dar soporte a la clase Expedited Forwarding EF de los Servicios Diferenciados, ya que esta clase tiene necesidades de baja latencia que LLQ soluciona. Strict priority Queueing permite que el tráfico sensible al retardo como el tráfico de voz sea
desencolado y enviado antes que paquetes de otras colas, dándole al tráfico sensible al retardo un tratamiento preferente sobre otros tipos de tráfico. Sin LLQ, CBWFQ sirve todos los paquetes de manera equitativa basándose en su peso, pero no proporciona prioridad estricta (strict priority) para ninguna clase de paquetes. Esto puede suponer un problema para el tráfico de voz que es muy sensible al retardo y especialmente a la varianza del retardo o jitter . LLQ proporciona Strict Priority Queueing a CBWFQ reduciendo la varianza del retardo jitter
en las conversaciones de voz. Cuando se activa LLQ se emplea una única cola de prioridad estricta (Strict Priority Queue) dentro de CBWFQ a nivel de clase, permitiendo llevar el tráfico perteneciente a una clase a una CBWFQ Strict Priority Queue . Descripción Modelo Diff-Serv: El modelo se compone básicamente de los nodos externos o de frontera y los nodos internos o centrales, cada tipo de nodo tiene responsabilidades distintas. Los nodos externos realizan funciones tales como el control de admisión, vigilancia, acondicionamiento y contabilidad del tráfico. El comportamiento de los nodos internos por su parte dependerá de la clase de servicio asociada a cada paquete. El modelo Diff Serv plantea la asignación de prioridades a cada uno de los paquetes que son enviados a la red. Cada Router debe analizar y dar un tratamiento diferencial a cada uno de los paquetes. En este enfoque nos es necesario asignar ni ngún estado ni establecer algún proceso de señalización en cada nodo.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Los elementos de la arquitectura Diff-Serv comprende un clasificador que guía los paquetes con características similares hacia los procedimientos de condicionamiento de tráfico, un medidor que pasa su información hacia el bloque de acondicionamiento para determinar alguna acción para cada paquete se encuentre fuera o dentro del perfil de trafico, un marcador de paquetes que trabajo con un conjunto de códigos DS, un acondicionador que realiza el descarte de paquetes cuando no existe espacio en la cola y un descartador de paquetes que se usa para evitar la congestión. Tomado de: https://www.icesi.edu.co/revistas/index.php/sistemas_telematica/article/.../1040
INGENIERÍA DE TRÁFICO CON MPLS MPLS (Multi-Protocol Label Switching) es una red privada IP que combina la flexibilidad de las comunicaciones punto a punto o Internet y la fiabilidad, calidad y seguridad de los servicios Prívate Line, Frame Relay o ATM. Ofrece niveles de rendimiento diferenciados y priorización del tráfico, así como aplicaciones de voz y multimedia. Y todo ello en una única red. Contamos con distintas soluciones, una completamente gestionada que incluye el suministro y la gestión de los equipos en sus instalaciones (CPE). O bien, que sea usted quien los gestione
MPLS (Multiprotocol Label Switching) intenta conseguir las ventajas de ATM, pero sin sus inconvenientes Asigna a los datagramas de cada flujo una etiqueta única que permite una conmutación rápida en los routers intermedios (solo se mira la etiqueta, no la dirección de destino) Las principales aplicaciones de MPLS son:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA o
Funciones de ingeniería de tráfico (a los flujos de cada usuario se les asocia una etiqueta diferente)
o
Policy Routing
o
Servicios de VPN
o
Servicios que requieren QoS
MPLS se basa en el etiquetado de los paquetes en base a criterios de prioridad y/o calidad (QoS). La idea de MPLS es realizar la conmutación de los paquetes o datagramas en función de las etiquetas añadidas en capa 2 y etiquetar dichos paquetes según la clasificación establecida por la QoS en la SLA. Por tanto MPLS es una tecnología que permite ofrecer QoS, independientemente de la red sobre la que se implemente. El etiquetado en capa 2 permite ofrecer servicio multiprotocolo y ser portable sobre multitud de tecnologías de capa de enlace: ATM, Frame Relay, líneas dedicadas, LANs.
Orígenes de MPLS Para poder crear los circuitos virtuales como en ATM, se pensó en la utilización de etiquetas añadidas a los paquetes. Estas etiquetas definen el circuito virtual por toda la red.
Estos circuitos virtuales están asociados con una QoS determinada, según el SLA. Inicialmente se plantearon dos métodos diferentes de etiquetamiento, o en capa 3 o en capa 2. La opción de capa 2 es más interesante, porque es independiente de la capa de red o capa 3 y además permite una conmutación más rápida, dado que la cabecera de capa 2 está antes de capa 3.
Ejemplo de arquitectura
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
MPLS
Conmutación MPLS
Conmutación de etiquetas en un LSR a la llegada de un paquete: o
Examina la etiqueta del paquete entrante y la interfaz por donde llega
o
Consulta la tabla de etiquetas
o
Determina la nueva etiqueta y la interfaz de salida para el paquete
Funcionamiento de MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
MPLS y pila de etiquetas J erarquía MPL S .
MPLS funciona sobre multitud de tecnologías de nivel de enlace. La etiqueta MPLS se coloca delante del paquete de red y detrás de la cabecera de nivel de enlace. Las etiquetas pueden anidarse, formando una pila con funcionamiento LIFO (Last In, First Out). Esto permite ir agregando (o segregando) flujos. El mecanismo es escalable. Cada nivel de la pila de etiquetas define un nivel de LSP ® Túneles MPLS Así dentro de una red MPLS se establece una jerarquía de LSPs. En ATM y Frame Relay la etiqueta MPLS ocupa el lugar del campo VPI/VCI o en el DLCI, para aprovechar el mecanismo de conmutación inherente
Etiquetas MPLS
Las etiquetas MPLS identifican a la FEC asociada a cada paquete
Etiqueta MPLS genérica:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Formato de la etiqueta MPLS: 32 bits
Situación de la etiqueta MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Routing MPLS
Los paquetes se envían en función de las etiquetas.
o
No se examina la cabecera de red completa
o
El direccionamiento es más rápido
Cada paquete es clasificado en unas clases de tráfico denominadas FEC (Forwarding Equivalence Class) Los LSPs por tanto definen las asociaciones FEC-etiqueta.
Ejemplo de MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Esta es una red MPLS en la cual se ven todos sus componentes
La línea azul representa el LDP entre el LSR de entrada y el LSR de salida.
Ideas preconcebidas sobre MPLS Durante el tiempo en que se ha desarrollado el estándar, se han extendido algunas ideas falsas o inexactas sobre el alcance y objetivos de MPLS. Hay quien piensa que MPLS se ha desarrollado para ofrecer un estándar a los vendedores que les permitiese evolucionar los conmutadores ATM a routers de backbone de altas prestaciones. Aunque esta puede haber sido la finalidad original de los desarrollos de conmutación multinivel, los recientes avances en tecnologías de silicio ASIC permite a los routers funcionar con una rapidez similar para la consulta de tablas a las de los conmutadores ATM. Si bien es cierto que MPLS mejora notablemente el rendimiento del mecanismo de envío de paquetes, éste no era el principal objetivo del grupo del IETF. Los objetivos establecidos por ese grupo en la elaboración del estándar eran:
MPLS debía funcionar sobre cualquier tecnología de transporte, no sólo ATM
MPLS debía soportar el envío de paquetes tanto unicast como multicast
MPLS debía ser compatible con el Modelo de Servicios Integrados del IETF, incluyendo el protocolo RSVP MPLS debía permitir el crecimiento constante de la Internet MPLS debía ser compatible con los procedimientos de operación, administración y mantenimiento de las actuales redes IP
También ha habido quien pensó que el MPLS perseguía eliminar totalmente el encaminamiento convencional por prefijos de red. Esta es otra idea falsa y nunca se planteó
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
como objetivo del grupo, ya que el encaminamiento tradicional de nivel 3 siempre sería un requisito en la Internet por los siguientes motivos:
El filtrado de paquetes en los cortafuegos (FW) de acceso a las LAN corporativas y en los límites de las redes de los NSPs es un requisito fundamental para poder gestionar la red y los servicios con las necesarias garantías de seguridad. Para ello se requiere examinar la información de la cabecera de los paquetes, lo que impide prescindir del uso del nivel 3 en ese tipo de aplicaciones. No es probable que los sistemas finales (hosts) implementen MPLS. Necesitan enviar los paquetes a un primer dispositivo de red (nivel 3) que pueda examinar la cabecera del paquete para tomar luego las correspondientes decisiones sobre su envío hasta su destino final. En este primer salto se puede decidir enviarlo por routing convencional o asignar una etiqueta y enviarlo por un LSP. Las etiquetas MPLS tienen solamente significado local (es imposible mantener vínculos globales entre etiquetas y hosts en toda la Internet). Esto implica que en algún punto del camino algún dispositivo de nivel 3 debe examinar la cabecera del paquete para determinar con exactitud por dónde lo envía: por routing convencional o entregándolo a un LSR, que lo expedirá por un nuevo LSP. Del mismo modo, el último LSR de un LSP debe usar encaminamiento de nivel 3 para entregar el paquete al destino, una vez suprimida la etiqueta, como se verá seguidamente al describir la funcionalidad MPLS.
Descripción funcional del MPLS La operación del MPLS se basa en las componentes funcionales de envío y control, aludidas anteriormente, y que actúan ligadas íntimamente entre sí. Empecemos por la primera. a) Funcionamiento del envío de paquetes en MPLS La base del MPLS está en la asignación e intercambio de etiquetas ya expuesto, que permiten el establecimiento de los caminos LSP por la red. Los LSPs son simplex por naturaleza (se establecen para un sentido del tráfico en cada punto de entrada a la red); el tráfico dúplex requiere dos LSPs, uno en cada sentido. Cada LSP se crea a base de concatenar uno o más saltos (hops) en los que se intercambian las etiquetas, de modo que cada paquete se envía de un "conmutador de etiquetas" (LabelSwiching Router ) a otro, a través del dominio MPLS. Un LSR no es sino un router especializado en el envío de paquetes etiquetados por MPLS. Al igual que en las soluciones de conmutación multinivel, MPLS separa las dos componentes funcionales de control (routing) y de envío (forwarding). Del mismo modo, el envío se implementa mediante el intercambio de etiquetas en los LSPs. Sin embargo, MPLS no utiliza ninguno de los protocolos de señalización ni de encaminamiento definidos por el ATM Forum; en lugar de ello, en MPLS o bien se utiliza el protocolo RSVP o bien un nuevo
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
estándar de señalización (el Label Distribution Protocol, LDP, del que se tratará más adelante). Pero, de acuerdo con los requisitos del IETF, el transporte de datos puede ser cualquiera. Si éste fuera ATM, una red IP habilitada para MPLS es ahora mucho más sencilla de gestionar que la solución clásica IP/ATM. Ahora ya no hay que administrar dos arquitecturas diferentes a base de transformar las direcciones IP y las tablas de encaminamiento en las direcciones y el encaminamiento ATM: esto lo resuelve el procedimiento de intercambio de etiquetas MPLS. El papel de ATM queda restringido al mero transporte de datos a base de celdas. Para MPLS esto es indiferente, ya que puede utilizar otros transportes como Frame Relay, o directamente sobre líneas punto a punto.
Un camino LSP es el circuito virtual que siguen por la red todos los paquetes asignados a la misma FEC. Al primer LSR que interviene en un LSP se le denomina de entrada o de cabecera y al último se le denomina de salida o de cola. Los dos están en el exterior del dominio MPLS. El resto, entre ambos, son LSRs interiores del dominio MPLS. Un LSR es como un router que funciona a base de intercambiar etiquetas según una tabla de envío. Esta tabla se construye a partir de la información de encaminamiento que proporciona la componente de control, según se verá más adelante. Cada entrada de la tabla contiene un par de etiquetas entrada/salida correspondientes a cada interfaz de entrada, que se utilizan para acompañar a cada paquete que llega por ese interfaz y con la misma etiqueta. A un paquete que llega al LSR por el interfaz 3 de entrada con la etiqueta 45 el LSR le asigna la etiqueta 22 y lo envía por el interfaz 4 de salida al siguiente LSR, de acuerdo con la información de la tabla.
El algoritmo de intercambio de etiquetas requiere la clasificación de los paquetes a la entrada del dominio MPLS para poder hacer la asignación por el LSR de cabecera. En la
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
figura el LSR de entrada recibe un paquete normal (sin etiquetar) cuya dirección de destino es 212.95.193.1. El LSR consulta la tabla de encaminamiento y asigna el paquete a la clase FEC definida por el grupo 212.95/16. Asimismo, este LSR le asigna una etiqueta y envía el paquete al siguiente LSR del LSP. Dentro del dominio MPLS los LSR ignoran la cabecera IP; solamente analizan la etiqueta de entrada, consultan la tabla correspondiente (tabla de conmutación de etiquetas) y la reemplazan por otra nueva, de acuerdo con el algoritmo de intercambio de etiquetas. Al llegar el paquete al LSR de cola (salida), ve que el siguiente salto lo saca de la red MPLS; al consultar ahora la tabla de conmutación de etiquetas quita ésta y envía el paquete por routing convencional.
Como se ve, la identidad del paquete original IP queda enmascarada durante el transporte por la red MPLS, que no "mira" sino las etiquetas que necesita para su envío por los diferentes saltos LSR que configuran los caminos LSP. Las etiquetas se insertan en cabeceras MPLS, entre los niveles 2 y 3. Según las especificaciones del IETF, MPLS debía funcionar sobre cualquier tipo de transporte: PPP, LAN, ATM, Frame Relay, etc. Por ello, si el protocolo de transporte de datos contiene ya un campo para etiquetas (como ocurre con los campos VPI/VCI de ATM y DLCI de Frame Relay), se utilizan esos campos nativo para las etiquetas. Sin embargo, si la tecnología de nivel 2 empleada no soporta un campo para, entonces se emplea una cabecera genérica MPLS de 4 octetos, que contiene un campo específico para la etiqueta y que se inserta entre la cabecera del nivel 2 y la del paquete (nivel 3). En la figura se representa el esquema de los campos de la cabecera genérica MPLS y su relación con las cabeceras de los otros niveles. Según se muestra en la figura, los 32 bits de la cabecera MPLS se reparten en: 20 bits para la etiqueta MPLS, 3 bits para identificar la clase de servicio en el campo EXP (experimental, anteriormente llamdo CoS), 1 bit de stack para poder apilar etiquetas de forma jerárquica (S) y 8 bits para indicar el TTL (timeto-live) que sustenta la funcionalidad estándar TTL de las redes IP. De este modo, las cabeceras MPLS permiten cualquier tecnología o combinación de tecnologías de transporte, con la flexibilidad que esto supone para un proveedor IP a la hora de extender su red.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
b) Control de la información en MPLS Hasta ahora se ha visto el mecanismo básico de envío de paquetes a través de los LSPs mediante el procedimiento de intercambio de etiquetas según las tablas de los LSRs. Pero queda por ver dos aspectos fundamentales:
Cómo se generan las tablas de envío que establecen los LSPs
Cómo se distribuye la información sobre las etiquetas a los LSRs
El primero de ellos está relacionado con la información que se tiene sobre la red: topología, patrón de tráfico, características de los enlaces, etc. Es la información de control típica de los algoritmos de encaminamiento. MPLS necesita esta información de routing para establecer los caminos virtuales LSPs. Lo más lógico es utilizar la propia información de encaminamiento que manejan los protocolos internos IGP (OSPF, IS-IS, RIP...) para construir las tablas de encaminamiento (recuérdese que los LSR son routers con funcionalidad añadida). Esto es lo que hace MPLS precisamente: para cada "ruta IP" en la red se crea un "camino de etiquetas" a base de concatenar las de entrada/salida en cada tabla de los LSRs; el protocolo interno correspondiente se encarga de pasar la información necesaria. El segundo aspecto se refiere a la información de "señalización". Pero siempre que se quiera establecer un circuito virtual se necesita algún tipo de señalización para marcar el camino, es decir, para la distribución de etiquetas entre los nodos. Sin embargo, la arquitectura MPLS no asume un único protocolo de distribución de etiquetas; de hecho se están estandarizando algunos existentes con las correspondientes extensiones; unos de ellos es el protocolo RSVP del Modelo de Servicios Integrados del IETF. Pero, además, en el IETF se están definiendo otros nuevos, específicos para la distribución de etiquetas, cual es el caso del Label Distribution Protocol (LDP). Consúltese las referencias correspondientes del IETF. c) Funcionamiento global MPLS Una vez vistos todos los componentes funcionales, el esquema global de funcionamiento es el que se muestra en la figura, donde quedan reflejadas las diversas funciones en cada uno de los elementos que integran la red MPLS. Es importante destacar que en el borde de la nube MPLS tenemos una red convencional de routers IP. El núcleo MPLS proporciona una arquitectura de transporte que hace aparecer a cada par de routers a una distancia de un sólo salto. Funcionalmente es como si estuvieran unidos todos en una topología mallada (directamente o por PVCs ATM). Ahora, esa unión a un solo salto se realiza por MPLS
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
mediante los correspondientes LSPs (puede haber más de uno para cada par de routers). La diferencia con topologías conectivas reales es que en MPLS la construcción de caminos virtuales es mucho más flexible y que no se pierde la visibilidad sobre los paquetes IP. Todo ello abre enormes posibilidades a la hora de mejorar el rendimiento de las redes y de soportar nuevas aplicaciones de usuario, tal como se explica en la sección siguiente.
Aplicaciones de MPLS
Redes de alto rendimiento: las decisiones de encaminamiento que han de tomar los routers MPLS en base a la LIB son mucho más sencillas y rápidas que las que toma un router IP ordinario (la LIB es mucho más pequeña que una tabla de rutas normal) . La anidación de etiquetas permite agregar flujos con mucha facilidad, por lo que el mecanismo es escalable. Ingeniería de Tráfico: se conoce con este nombre la planificación de rutas en una red en base a previsiones y estimaciones a largo plazo con el fin de optimizar los recursos y reducir congestión. QoS: es posible asignar a un cliente o a un tipo de tráfico una FEC a la que se asocie un LSP que discurra por enlaces con bajo nivel de carga. VPN: la posibilidad de crear y anidar LSPs da gran versatilidad a MPLS y hace muy sencilla la creación de VPNs. Soporte multiprotocolo: los LSPs son válidos para múltiples protocolos, ya que el encaminamiento de los paquetes se realiza en base a la etiqueta MPLS estándar, no a la cabecera de nivel de red.
INGENIERÍA DE TRÁFICO El objetivo básico de la ingeniería de tráfico es adaptar los flujos de tráfico a los recursos físicos de la red. La idea es equilibrar de forma óptima la utilización de esos recursos, de manera que no haya algunos que estén suprautilizados, con posibles puntos calientes y
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
cuellos de botella, mientras otros puedan estar infrautilizados. A comienzos de los 90 los esquemas para adaptar de forma efectiva los flujos de tráfico a la topología física de las redes IP eran bastante rudimentarios. Los flujos de tráfico siguen el camino más corto calculado por el algoritmo IGP correspondiente. En casos de congestión de algunos enlaces, el problema se resolvía a base de añadir más capacidad a los enlaces. La ingeniería de tráfico consiste en trasladar determinados flujos seleccionados por el algoritmo IGP sobre enlaces más congestionados, a otros enlaces más descargados, aunque estén fuera de la ruta más corta (con menos saltos). En el esquema de la figura se comparan estos dos tipos de rutas para el mismo par de nodos origen-destino. El camino más corto entre A y B según la métrica normal IGP es el que tiene sólo dos saltos, pero puede que el exceso de tráfico sobre esos enlaces o el esfuerzo de los routers correspondientes haga aconsejable la utilización del camino alternativo indicado con un salto más. MPLS es una herramienta efectiva para esta aplicación en grandes backbones, ya que:
Permite al administrador de la red el establecimiento de rutas explícitas, especificando el camino físico exacto de un LSP. Permite obtener estadísticas de uso LSP, que se pueden utilizar en la planificación de la red y como herramientas de análisis de cuellos de botella y carga de los enlaces, lo que resulta bastante útil para planes de expansión futura. Permite hacer "encaminamiento restringido" (Constraint-based Routing, CBR), de modo que el administrador de la red pueda seleccionar determinadas rutas para servicios especiales (distintos niveles de calidad). Por ejemplo, con garantías explícitas de retardo, ancho de banda, fluctuación, pérdida de paquetes, etc.
La ventaja de la ingeniería de tráfico MPLS es que se puede hacer directamente sobre una red IP, al margen de que haya o no una infraestructura ATM por debajo, todo ello de manera más flexible y con menores costes de planificación y gestión para el administrador, y con mayor calidad de servicio para los clientes.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Clases de servicio (CoS) MPLS está diseñado para poder cursar servicios diferenciados, según el Modelo DiffServ del IETF. Este modelo define una variedad de mecanismos para poder clasificar el tráfico en un reducido número de clases de servicio, con diferentes prioridades. Según los requisitos de los usuarios, DiffServ permite diferenciar servicios tradicionales tales como el WWW, el correo electrónico o la transferencia de ficheros (para los que el retardo no es crítico), de otras aplicaciones mucho más dependientes del retardo y de la variación del mismo, como son las de vídeo y voz interactiva. Para ello se emplea el campo ToS (Type of Service), rebautizado en DiffServ como el octeto DS. (Véase más información sobre el modelo DiffServ en las referencias correspondientes a QoS). Esta es la técnica QoS de marcar los paquetes que se envían a la red. MPLS se adapta perfectamente a ese modelo, ya que las etiquetas MPLS tienen el campo EXP para poder propagar la clase de servicio CoS en el correspondiente LSP. De es te modo, una red MPLS puede transportar distintas clases de tráfico, ya que:
el tráfico que fluye a través de un determinado LSP se puede asignar a diferentes colas de salida en los diferentes saltos LSR, de acuerdo con la información contenida en los bits del campo EXP entre cada par de LSR exteriores se pueden provisionar múltiples LSPs, cada uno de ellos con distintas prestaciones y con diferentes garantías de ancho de banda. P. ej., un LSP puede ser para tráfico de máxima prioridad, otro para una prioridad media y un tercero para tráfico best-effort, tres niveles de servicio, primero, preferente y turista, que, lógicamente, tendrán distintos precios.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
Como resumen, las ventajas que MPLS ofrece para IP VPNs son:
proporcionan un modelo "acoplado" o "inteligente", ya que la red MPLS "sabe" de la existencia de VPNs (lo que no ocurre con túneles ni PVCs)
evita la complejidad de los túneles y PVCs
la provisión de servicio es sencilla: una nueva conexión afecta a un solo router
tiene mayores opciones de crecimiento modular
permiten mantener garantías QoS extremo a extremo, pudiendo separar flujos de tráfico por aplicaciones en diferentes clases, gracias al vínculo que mantienen el campo EXP de las etiquetas MPLS con las clases definidas a la entrada permite aprovechar las posibilidades de ingeniería de tráfico para poder garantizar los parámetros críticos y la respuesta global de la red (ancho banda, retardo, fluctuación...), lo que es necesario para un servicio completo VPN.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONCLUSIONES La evolución imparable de las tecnologías de redes hace extenuante la labor de análisis y recopilación de soluciones para la red. Más cuando hablamos de ideas abiertas a opiniones y expuestas a posibles (y probables) modificaciones. En lo que respecta a la integración de IP sobre ATM, nunca podremos dar un "sí" rotundo y sin objeciones a una solución. MPLS apareció solventando los problemas y aportando escalabilidad y control sobre la red. De modo que una de las mayores dudas que se plantean ahora es ¿cuánto tiempo podrá estar MPLS en la cabeza de las propuestas IP - ATM?. ¿Batirá record de permanencia como IP , que va a cumplir 25 años?. Igualmente, la idea con la que partíamos hace ya un año, de que la principal ventaja que aportaban los switches era la velocidad, ha pasado a un segundo plano. La aparición de los gigabit routers hace que el problema de la velocidad en el routing sea un mal menor. La creatividad de los ingenieros y diseñadores de redes nos ha enseñado que el paradigma de la conmutación aporta mayor escalabilidad de redes, mayor control en la QoS y , lo que más importa a las empresas, mayor control sobre la Ingeniería del Tráfico (accounting y gestión de recursos). Siendo MPLS, a m nuestro parecer, el ejemplo que engloba todas estas características.