lunes, 21 de enero de 2008

Semestre 3 CCNA, Módulo 4

Módulo 4: Conceptos sobre la conmutación

Descripción general

El diseño de las LAN ha evolucionado. Hasta hace poco, los diseñadores de redes utilizaban hubs y puentes para construir redes. Hoy los switches y los routers son los componentes claves del diseño de las LAN, y las capacidades y el desempeño de estos dispositivos son cada vez mejores.

Este módulo describe las raíces de las LAN Ethernet modernas con énfasis en la evolución de Ethernet/802.3, la arquitectura de LAN de implementación más generalizada. Un vistazo al contexto histórico del desarrollo de las LAN y diversos dispositivos de red que se pueden utilizar en las diversas capas del modelo OSI ayudarán a los estudiantes a comprender mejor las razones por las cuales los dispositivos de red han evolucionado como lo han hecho.

Hasta hace poco, la mayoría de las redes Ethernet usaban repetidores. El desempeño de red sufría, dado que demasiados dispositivos compartían el mismo segmento. Entonces, los ingenieros de redes agregaron puentes para crear múltiples dominios de colisión. A medida que las redes crecieron en tamaño y complejidad, el puente evolucionó hasta transformarse en el switch moderno, que permite la microsegmentación de la red. Hoy en día las redes modernas se construyen con switches y routers, a menudo con ambas funcionalidades en el mismo dispositivo.

Muchos switches modernos pueden realizar tareas variadas y complejas en la red. Este módulo proporciona una introducción a la segmentación de redes y describirá los aspectos básicos de la operación de switches.

Los switches y puentes realizan una gran parte del trabajo duro en las LAN, donde deben tomar decisiones casi instantáneas al recibir las tramas. Este módulo describe en detalle la forma en que los switches conocen las direcciones físicas de los nodos, y cómo los switches transmiten y filtran tramas. También se describen los principios de la segmentación de LAN y los dominios de colisión.

Los switches son dispositivos de Capa 2 que se utilizan para aumentar el ancho de banda disponible y reducir la congestión de redes. Un switch puede segmentar una LAN en microsegmentos, que son segmentos de un solo host. La microsegmentación crea múltiples dominios libres de colisión a partir de un dominio grande. Como dispositivo de Capa 2, el switch de LAN aumenta el número de dominios de colisión, pero todos los hosts conectados al switch siguen perteneciendo al mismo dominio de broadcast.

Este módulo abarca algunos de los objetivos de los exámenes CCNA 640-801 e ICND 640-811.

Los estudiantes que completen este módulo deberán ser capaces de realizar las siguientes tareas:

* Describir la historia y función de Ethernet compartida o half-duplex
* Definir colisión en relación con las redes Ethernet
* Definir microsegmentación
* Definir CSMA/CD
* Describir algunos de los elementos claves que afectan el desempeño de la red
* Describir la función de los repetidores.
* Definir latencia de red
* Definir tiempo de transmisión
* Definir la segmentación de red mediante routers, switches y puentes
* Definir la latencia del switch Ethernet
* Explicar las diferencias entre la conmutación de Capa 2 y Capa 3
* Definir la conmutación simétrica y asimétrica
* Definir la creación de búferes en la memoria
* Señalar las similitudes y diferencias entre la conmutación por almacenamiento y envío y por método de corte
* Comprender las diferencias entre los hubs, puentes y switches
* Describir las funciones principales de los switches
* Enumerar los modos principales de transmisión de tramas
* Describir el proceso mediante el cual los switches apreden las direcciones
* Identificar y definir los modos de envío
* Definir la segmentación de LAN
* Definir la microsegmentación mediante el uso de switches
* Describir el proceso de filtrado de trama
* Establecer las similitudes y diferencias entre dominios de colisión y de broadcast
* Identificar los cables necesarios para conectar los switches a las estaciones de trabajo
* Identificar los cables necesarios para conectar los switches a otros switches


4.1 Introducción a las LAN Ethernet/802.3

4.1.1 Desarrollo de LAN Ethernet/802.3

En esta página se presentará un repaso de los dispositivos que se encuentran en una red.

Las tecnologías LAN más antiguas usaban infraestructuras de Ethernet de cable fino o grueso. Es importante comprender las limitaciones de estas infraestructuras, como se muestra en la Figura , para comprender los avances en la conmutación de LAN.

La adición de hubs o concentradores a la red representó un avance en la tecnología de Ethernet de cable fino o grueso. Un hub es un dispositivo de Capa 1 que a veces se denomina concentrador de Ethernet o repetidor multipuerto. Los hubs permiten un mejor acceso a la red para un número mayor de usuarios. Los hubs regeneran las señales de datos que permiten que las redes se amplíen a distancias mayores. Un hub logra esto regenerando la señal de datos. Los hubs no toman decisiones cuando reciben señales de datos. Los hubs simplemente regeneran y amplifican las señales de datos a todos los dispositivos conectados, salvo el dispositivo que envió originalmente la señal.

Ethernet es básicamente una tecnología compartida donde todos los usuarios en un segmento LAN dado compiten por el mismo ancho de banda disponible. Esta situación es similar a lo que ocurre cuando varios automóviles intentan acceder a una carretera de un solo carril al mismo tiempo. Como la carretera consta de un solo carril, sólo puede entrar un automóvil a la vez. A medida que se agregaban hubs a la red, más usuarios entraban a la competencia por el mismo ancho de banda.

Las colisiones son un producto secundario de las redes Ethernet. Si dos o más dispositivos intentan transmitir señales al mismo tiempo, se produce una colisión. Esta situación es similar a lo que ocurre cuando dos automóviles intentan entrar al mismo tiempo en un solo carril de carretera y provocan una colisión. El tráfico debe interrumpirse hasta que se despeje la carretera. La consecuencia del exceso de colisiones en una red son los tiempos de respuesta de red lentos. Esto indica que la red se encuentra demasiado congestionada o que demasiados usuarios necesitan acceder a la red al mismo tiempo.

Los dispositivos de Capa 2 son más inteligentes que los de Capa 1. Los dispositivos de Capa 2 toman decisiones de envío en base a las direcciones de Control de Acceso a los Medios (MAC) que forman parte de los encabezados de tramas de datos transmitidas.

Un puente es un dispositivo de Capa 2 que se utiliza para dividir, o segmentar una red. Los puentes reúnen y hacen pasar tramas de datos entre dos segmentos de red de forma selectiva. Para lograr esto, los puentes aprenden las direcciones MAC de los dispositivos de cada segmento conectado. Con esta información, el puente construye una tabla de puenteo, y envía o bloquea el tráfico de acuerdo a esa tabla. El resultado son dominios de colisión más pequeños, y mayor eficiencia de la red. Los puentes no restringen el tráfico de broadcast. Sin embargo, ofrecen mayor control de tráfico dentro de una red.

Un switch es también un dispositivo de Capa 2 que a veces se denomina puente multipuerto. Los switches toman decisiones de envío sobre en base a las direcciones MAC que se encuentran en las tramas de datos transmitidos. Los switches aprenden las direcciones MAC de los dispositivos conectados a cada puerto, y esta información se guarda en una tabla de conmutación.

Los switches crean un circuito virtual entre dos dispositivos conectados que desean comunicarse. Al crearse el circuito virtual, se establece una comunicación dedicada entre los dos dispositivos. La implementación de un switch en la red proporciona la microsegmentación. Esto crea un entorno libre de colisiones entre el origen y el destino, que permite la máxima utilización del ancho de banda disponible. Los switches pueden facilitar conexiones múltiples y simultáneas entre circuitos virtuales. Esto es análogo a una carretera que se divide en varios carriles, en la que cada automóvil tiene su propio carril exclusivo.

La desventaja de los dispositivos de Capa 2 es que envían tramas de broadcast a todos los dispositivos conectados de la red. Un exceso de broadcasts en una red produce tiempos de respuesta de red lentos.

Un router es un dispositivo de Capa 3. Los routers toman decisiones en base a los grupos de direcciones de red o clases, en lugar de las direcciones MAC individuales. Los routers usan tablas de enrutamiento para registrar las direcciones de Capa 3 de las redes que se encuentran directamente conectadas a las interfaces locales y las rutas de red aprendidas de los routers vecinos.

* Las siguientes son funciones de un router: Examinar los paquetes entrantes de datos de Capa 3
* Seleccionar la mejor ruta para los datos a través de la red
* Enrutar los datos al puerto de salida correspondiente

Los routers no envían los broadcasts a menos que estén programados para hacerlo. Por lo tanto, los routers reducen el tamaño de los dominios de colisión y de broadcast en una red. Los routers son los dispositivos de regulación de tráfico más importantes en las redes de gran envergadura. Los routers posibilitan la comunicación entre dos computadores sin importar la ubicación o el sistema operativo.

Las LAN normalmente utilizan una combinación de dispositivos de Capa 1, Capa 2 y Capa 3. La implementación de estos dispositivos depende de las necesidades específicas de la organización.

La Actividad de Medios Interactivos requiere que los estudiantes establezcan la correspondencia entre los dispositivos de red y las capas del modelo OSI.

En la página siguiente se analiza la congestión de redes.

4.1.2 Factores que afectan el rendimiento de la red

En esta página se describen algunos factores que hacen que las LAN se congestionen y sobrecarguen.

En la actualidad, las LAN están cada vez más congestionadas y sobrecargadas. Además de una gran cantidad de usuarios de red, algunos otros factores se han combinado para poner a prueba las capacidades de las LAN tradicionales:

* El entorno multitarea, presente en los sistemas operativos de escritorio actuales como Windows, Unix/Linux y MAC OS X, permite transacciones de red simultáneas. Esta capacidad aumentada ha dado como resultado una mayor demanda de recursos de red.
* El uso de las aplicaciones que hacen uso intensivo de la red, como la World Wide Web, ha aumentado. Las aplicaciones de cliente/servidor permiten que los administradores centralicen la información, facilitando así el mantenimiento y la protección de la información.
* Las aplicaciones de cliente/servidor no requieren que las estaciones de trabajo mantengan información ni proporcionen espacio del disco duro para almacenarla. Debido a la relación costo-beneficio de las aplicaciones cliente/servidor, es probable que dichas aplicaciones se utilicen aún con más frecuencia en el futuro.

En la página siguiente se analizan las redes Ethernet.

4.1.3 Elementos de las redes Ethernet/802.3

En esta página se describen algunos de los factores que pueden afectar el desempeño de una red Ethernet de forma negativa.

Ethernet es una tecnología de transmisión en broadcast. Por lo tanto, los dispositivos de red como los computadores, las impresoras y los servidores de archivos se comunican entre sí a través de un medio de red compartida. El rendimiento de una LAN Ethernet/802.3 de medio compartido puede verse afectado de forma negativa por distintos factores:

* La naturaleza de broadcast de la entrega de trama de datos de las LAN Ethernet/802.3.
* El método de acceso múltiple con detección de portadora y detección de colisiones (CSMA/CD) sólo permite que una estación a la vez pueda transmitir.
* Las aplicaciones multimediales con mayor demanda de ancho de banda, tales como vídeo e Internet, sumadas a la naturaleza de broadcast de Ethernet, pueden crear congestión de red.
* Se produce latencia normal a medida que las tramas recorren el medio de red y atraviesan los dispositivos de red.

Ethernet usa CSMA/CD y puede admitir velocidades de transmisión rápidas. Fast Ethernet, o 100BASE-T, proporciona velocidades de transmisión de hasta 100 Mbps. Gigabit Ethernet proporciona velocidades de transmisión de hasta 1000 Mbps y 10-Gigabit Ethernet ofrece velocidades de transmisión de hasta 10.000 Mbps. El objetivo de Ethernet es proporcionar un servicio de entrega de mejor intento y permitir que todos los dispositivos en el medio puedan transmitir de forma equitativa. La producción de cierta cantidad de colisiones en el diseño de Ethernet y CSMA/CD es de esperarse. Las colisiones son un hecho natural en las redes Ethernet y pueden transformarse en un problema grave.

En la página siguiente se describirán las redes half-duplex.

4.1.4 Redes half-duplex

En esta página se explica de qué maneras se producen colisiones en una red half-duplex.

Originalmente, Ethernet era una tecnología half duplex. Half-duplex permite que los hosts transmitan o reciban en un momento dado, pero no permite que hagan ambas cosas a la vez. Cada host verifica la red para comprobar si se están transmitiendo datos antes de transmitir datos adicionales. Si la red está en uso, la transmisión se retarda. A pesar de la demora de transmisión, dos hosts o más pueden transmitir al mismo tiempo. Esto produce una colisión. Cuando se produce una colisión, el host que detecta primero la colisión envía una señal de atascamiento a los demás hosts. Cuando se recibe una señal de atascamiento, cada host interrumpe la transmisión de datos, y luego espera por un período aleatorio de tiempo para retransmitir los datos. El algoritmo de retroceso genera este retardo aleatorio. A medida que más hosts se agregan a la red y empiezan a transmitir, es más probable que se produzcan colisiones.

Las LAN Ethernet se saturan porque los usuarios ejecutan software que utiliza intensivamente la red, como aplicaciones cliente/servidor que hacen que los hosts deban transmitir con mayor frecuencia y durante períodos de tiempo más prolongados. La tarjeta de interfaz de red (NIC) utilizada por los dispositivos LAN proporciona varios circuitos para que se pueda producir la comunicación entre dispositivos.

En la página siguiente se analizan otros factores que causan congestión de redes.

4.1.5 Congestión de redes

En esta página se analizan algunos factores que crean la necesidad de mayor ancho de banda en una red.

Los avances de la tecnología están produciendo computadores de escritorio y estaciones de trabajo cada vez más rápidos e inteligentes. La combinación de estaciones de trabajo más potentes y de aplicaciones que hacen mayor uso de la red ha creado la necesidad de una capacidad mayor de red, o ancho de banda. Todos estos factores representan una gran exigencia para las redes de 10 Mbps de ancho de banda disponible, y por este motivo, muchas redes ahora ofrecen anchos de banda de 100 Mbps en sus LAN.

* Los siguientes tipos de medios se están transmitiendo a través de redes con cada vez mayor frecuencia: Grandes archivos de gráficos
* Imágenes
* Video totalmente móvil
* Aplicaciones multimedia

También existe un mayor número de usuarios en una red. Mientras más personas utilizan las redes para compartir grandes archivos, acceder a servidores de archivo y conectarse a Internet, se produce más congestión de red. Esto puede dar como resultado tiempos de respuesta más lentos, transferencias de archivos muy largas y usuarios de red menos productivos. Para aliviar la congestión de red, se necesita más ancho de banda o bien, el ancho de banda disponible debe usarse con mayor eficiencia.

En la página siguiente se analiza la latencia de redes.

4.1.6 Latencia de red

En esta página se ayuda a los estudiantes a que comprendan los factores que aumentan la latencia de las redes.

La latencia, o retardo, es el tiempo que una trama o paquete tarda en hacer el recorrido desde la estación origen hasta su destino final. Es importante determinar con exactitud la cantidad de latencia que existe en la ruta entre el origen y el destino para las LAN y las WAN. En el caso específico de una LAN Ethernet, un buen entendimiento de la latencia y de su efecto en la temporización de la red es de importancia fundamental para determinar si CSMA/CD podrá funcionar correctamente.

La latencia consiste en por lo menos tres componentes:

* En primer lugar, el tiempo que tarda la NIC origen en colocar pulsos de voltaje en el cable y el tiempo que tarda la NIC destino en interpretar estos pulsos. A esto se le denomina a veces retardo NIC (típicamente es de 1 microsegundo para las NIC 10BASE-T.
* En segundo lugar, el retardo de propagación en sí, ya que la señal tarda en recorrer el cable. Normalmente, éste es de unos 0,556 microsegundos por 100 m para Cat 5 UTP. Los cables más largos y la velocidad nominal de propagación menor (NVP) tiene como resultado un retardo de propagación mayor.
* En tercer lugar, la latencia aumenta por los dispositivos de red que se encuentren en el camino entre dos computadores. Estos pueden ser dispositivos de Capa 1, Capa 2 o Capa 3.

La latencia no depende únicamente de la distancia y de la cantidad de dispositivos. Por ejemplo, si dos estaciones de trabajo están separadas por tres switches correctamente configurados, las estaciones de trabajo pueden experimentar una latencia menor de la que se produciría si estuvieran separadas por dos routers correctamente configurados. Esto se debe a que los routers ejecutan funciones más complejas y que llevan más tiempo. Un router debe analizar los datos de la Capa 3.

En la página siguiente se analiza el tiempo de transmisión.

4.1.7 Tiempo de transmisión de Ethernet 10BASE-T

En esta página se explica de qué manera se determina el tiempo de transmisión para 10BASE-T.

Todas las redes cuentan con lo que se denomina tiempo de bit. En muchas tecnologías LAN tales como Ethernet, el tiempo de bit se define como la unidad básica de tiempo en la que se puede transmitir un bit de datos. Para que los dispositivos electrónicos u ópticos puedan reconocer un dígito binario (uno o cero), se debe definir un lapso mínimo durante el cual el bit se considera encendido o apagado.

El tiempo de transmisión equivale al número de bits enviados multiplicado por el tiempo de bit de una tecnología determinada. Otra forma de considerar al tiempo de transmisión es como el intervalo entre el comienzo y el fin de una transmisión de trama, o entre el inicio de una transmisión de trama y una colisión. Las tramas pequeñas tardan menos tiempo. Las tramas grandes tardan más tiempo.

Cada bit de Ethernet de 10 Mbps cuenta con una ventana de 100 ns para realizar la transmisión. Éste es el tiempo de bit. Un byte equivale a ocho bits. Por lo tanto, 1 byte tarda un mínimo de 800 ns para transmitirse. Una trama de 64 bytes, que es la trama 10BASE-T más pequeña que permite que CSMA/CD funcione correctamente, tiene un tiempo de transmisión de 51.200 ns o 51,2 microsegundos. La transmisión de una trama completa de 1000 bytes desde el origen requiere 800 microsegundos. El tiempo requerido para que la trama llegue a la estación destino depende de la latencia adicional introducida por la red. Esta latencia puede deberse a una serie de retardos, incluyendo todas las siguientes posibilidades:

* Retardos de NIC
* Retardos de propagación
* Retardos de dispositivos de Capa 1, Capa 2 o Capa 3

La Actividad de Medios Interactivos ayudará a los estudiantes a determinar los tiempos de transmisión 10BASE-T para cuatro tamaños de trama diferentes.

En la página siguiente se describen las ventajas de los repetidores.

4.1.8 Ventajas del uso de repetidores

En esta página se explica de qué manera se puede usar un repetidor para ampliar la distancia de una LAN.

La distancia que una LAN puede cubrir se encuentra limitada por la atenuación. La atenuación significa que la señal se debilita a medida que recorre la red. La resistencia del cable o medio recorrido por la señal provoca la pérdida de la potencia de señal. Un repetidor de Ethernet es un dispositivo de capa física de la red que incrementa o regenera la señal en una LAN Ethernet. Al utilizar un repetidor para extender la distancia de una LAN, una sola red puede abarcar una distancia mayor y más usuarios pueden compartir esta misma red. Sin embargo, el uso de repetidores y hubs produce problemas adicionales asociados con los broadcasts y las colisiones. También tiene un efecto negativo en el desempeño general de las LAN de medios compartidos.

La Actividad de Medios Interactivos enseñará a los estudiantes los detalles del Micro Hub Cisco 1503.

En la página siguiente se analiza la tecnología full-duplex.

4.1.9 Transmisión full duplex

En esta página se explica de qué manera Ethernet full duplex permite la transmisión de un paquete y la recepción de un paquete distinto al mismo tiempo. Esta transmisión y recepción simultánea requiere del uso de dos pares de hilos dentro del cable y una conexión conmutada entre cada nodo. Esta conexión se considera de punto a punto y está libre de colisiones. Debido a que ambos nodos pueden transmitir y recibir al mismo tiempo, no existen negociaciones para el ancho de banda. Ethernet full duplex puede utilizar una infraestructura de cables ya implementada, siempre y cuando el medio cumpla con los estándares de Ethernet mínimos.

Para transmitir y recibir de forma simultánea, se necesita un puerto de switch dedicado para cada nodo. La conexiones full duplex pueden utilizar medios 10BASE-T, 100BASE-TX o 100BASE-FX para crear conexiones punto a punto. Las NIC en todos los dispositivos conectados deben tener capacidades full-duplex.

El switch Ethernet full-duplex aprovecha los dos pares de hilos en un cable y crea una conexión directa entre el transmisor (TX) en un extremo del circuito y el receptor (RX) en el otro extremo. Con las dos estaciones conectadas de esta manera, se crea un dominio libre de colisiones debido a que se produce la transmisión y la recepción de los datos en circuitos distintos no competitivos.

Ethernet generalmente puede usar únicamente 50%-60% del ancho de banda de 10 Mbps disponible debido a las colisiones y la latencia. Ethernet full duplex ofrece 100% del ancho de banda en ambas direcciones. Esto produce una tasa de transferencia potencial de 20 Mbps, lo que resulta de 10 Mbps TX y 10 Mbps RX.

La Actividad Interactiva de Medios ayudará a los estudiantes a aprender las diferentes características de los estándares Ethernet full-duplex.

Con esta página se concluye la lección. En la siguiente lección se presenta la conmutación LAN. La primera página describe la segmentación LAN.

4.2.1 Segmentación LAN

En esta página se explica la segmentación LAN. La figura muestra un ejemplo de una red Ethernet segmentada. La red consta de quince computadores. De esos quince computadores, seis son servidores y nueve son estaciones de trabajo. Cada segmento utiliza el método de acceso CSMA/CD y mantiene el tráfico entre los usuarios del segmento. Cada segmento se considera como su propio dominio de colisión.

La segmentación permite que la congestión de red se reduzca de forma significativa dentro de cada segmento. Al transmitir datos dentro de un segmento, los dispositivos dentro de ese segmento comparten el ancho de banda total. Los datos que pasan entre los segmentos se transmiten a través del backbone de la red por medio de un puente, router o switch.

En la siguiente página se analizan los puentes.

4.2.2 Segmentación LAN con puentes

En esta página se describen las funciones principales de un puente en una LAN.

Los puentes son dispositivos de Capa 2 que envían tramas de datos basados en la dirección MAC. Los puentes leen la dirección MAC origen de los paquetes de datos para detectar los dispositivos en cada segmento. Las direcciones MAC se utilizan entonces para construir una tabla de puenteo. Esto permite que los puentes bloqueen paquetes que no necesitan salir del segmento local.

Aunque los puentes son transparentes para los otros dispositivos de red, la latencia de una red aumenta en un diez a treinta por ciento cuando se utiliza un puente. Este aumento en la latencia se debe a las decisiones que toman los puentes antes de que se envíen las tramas. Un puente se clasifica como un dispositivo de almacenamiento y envío. Los puentes examinan el campo de dirección destino y calculan la verificación por redundancia cíclica (CRC) en el campo de Secuencia de Verificación de Tramas antes de enviar la trama. Si el puerto destino se encuentra ocupado, el puente puede almacenar la trama temporalmente hasta que el puerto esté disponible.

En la página siguiente se analizan los routers.

4.2.3 Segmentación de LAN con routers

En esta página se explica de qué manera se utilizan los routers para segmentar una LAN.

Los routers proporcionan segmentación de red que agrega un factor de latencia del veinte al treinta por ciento a través de una red conmutada. Esta mayor latencia se debe a que el router opera en la capa de red y usa la dirección IP para determinar la mejor ruta al nodo de destino. La Figura muestra un router Cisco.

Los puentes y switches proporcionan segmentación dentro de una sola red o subred. Los routers proporcionan conectividad entre redes y subredes.

Además, los routers no envían broadcasts, mientras que los switches y puentes deben enviar tramas de broadcast.

Las Actividades de Medios Interactivos ayudarán a los estudiantes a familiarizarse con los routers Cisco 2621 y 3640.

En la página siguiente se analizan los switches.

4.2.4 Segmentación de LAN con switches

En esta página se explica de qué manera se utilizan los switches para segmentar una LAN.

Los switches reducen la escasez de ancho de banda y los cuellos de botella en la red, como los que surgen entre varias estaciones de trabajo y un servidor de archivos remoto. La Figura muestra un switch Cisco. Los switches segmentan las LAN en microsegmentos, lo que reduce el tamaño de los dominios de colisión. Sin embargo, todos los hosts conectados a un switch siguen en el mismo dominio de broadcast.

En una LAN Ethernet totalmente conmutada, los nodos de origen y destino funcionan como si fueran los únicos nodos de la red. Cuando estos dos nodos establecen un enlace o circuito virtual, tienen acceso al ancho de banda máximo disponible. Estos enlaces proporcionan una tasa de transferencia mucho mayor que las LAN de Ethernet conectadas por puentes o hubs. Este circuito de red virtual se establece dentro del switch y existe solamente cuando los dos nodos necesitan comunicarse.

En la siguiente página se explica la función de un switch en una LAN.

4.2.5 Operaciones básicas de un switch

En esta página se describen las funciones básicas de un switch en una LAN.

La conmutación es una tecnología que reduce la congestión en las LAN Ethernet, Token Ring y la Interfaz de datos distribuida por fibra (FDDI). Los switches utilizan la microsegmentación para reducir los dominios de colisión y el tráfico de red. Esta reducción da como resultado un uso más eficiente del ancho de banda y mayor tasa de transferencia. Con frecuencia, se utilizan los switches de LAN para reemplazar los hubs compartidos y están diseñados para funcionar con infraestructuras de cable ya instaladas.

Las siguientes son las dos operaciones básicas que realizan los switches:

* Conmutación de tramas de datos: Los switches reciben tramas en una interfaz, seleccionan el puerto correcto por el cual enviar las tramas, y entonces envían la trama de acuerdo a la selección de ruta.
* Mantenimiento de operaciones de switch: Los switches elaboran y mantienen las tablas de envío. Los switches también elaboran y mantienen una topología sin bucles en toda la LAN.

Las Figuras a muestran las operaciones básicas de un switch.

En la siguiente página se analiza la latencia.

4.2.6 Latencia del switch Ethernet

En esta página se explica de qué manera los switches Ethernet contribuyen a la latencia.

La latencia de switch es el período transcurrido desde el momento que una trama entra a un switch hasta que la trama sale del switch. La latencia se relaciona directamente con el proceso de conmutación y el volumen de tráfico.

La latencia se mide en fracciones de segundo. Los dispositivos de red operan a velocidades increiblemente rápidas, de manera que cada nanosegundo adicional de latencia afecta de forma adversa el desempeño de la red.

En la siguiente página se describe la conmutación de Capa 2 y Capa 3

4.2.7 Conmutación de Capa 2 y Capa 3

En esta página se muestra a los estudiantes cómo se produce la conmutación en las capas de enlace de datos y de red.

Los routers y los switches de Capa 3 utilizan direcciones IP para enrutar un paquete. Los switches LAN o de la Capa 2 envían tramas en base a la información de la dirección MAC. Se puede decir que en la actualidad los términos conmutación de Capa 3 y enrutamiento se utilizan con frecuencia de manera indistinta.

Existen dos métodos de conmutación de trama de datos: la conmutación de Capa 2 y de Capa 3. Los routers y los switches de Capa 3 utilizan la conmutación de Capa 3 para conmutar los paquetes. Los switches de Capa 2 y los puentes utilizan la conmutación de Capa 2 para enviar tramas.

La diferencia entre la conmutación de Capa 2 y Capa 3 es el tipo de información que se encuentra dentro de la trama y que se utiliza para determinar la interfaz de salida correcta. La conmutación de la Capa 2 se basa en la información de la dirección MAC. La conmutación de la Capa 3 se basa en las direcciones de la capa de red o en las direcciones IP. Las funciones y la funcionalidad de los switches de Capa 3 y los routers son muy parecidas. La única diferencia importante entre la operación de conmutación de paquetes de un router y de un switch de Capa 3 es la implementación física. En los routers de propósito general, la conmutación de paquetes se produce en el software, mediante motores basados en el microprocesador, mientras que un switch de Capa 3 realiza el envío de paquetes por medio del hardware de circuito integrado de aplicación específica (ASIC). La conmutación de la Capa 2 busca una dirección MAC destino en el encabezado de la trama y envía la trama a la interfaz o puerto apropiado basándose en la dirección MAC de la tabla de conmutación. La tabla de conmutación se encuentra en la Memoria de contenido direccionable (CAM). Si el switch de Capa 2 no sabe dónde enviar la trama, envía la trama en broadcast por todos los puertos hacia la red, excepto por el puerto por el que se recibió la trama. Cuando se recibe una respuesta, el switch registra la nueva dirección en la CAM.

La conmutación de Capa 3 es una función de la capa de red. La información de encabezado de la Capa 3 se examina y el paquete se envía de acuerdo a la dirección IP.

El flujo de tráfico en una red conmutada o plana es de por sí diferente del flujo de tráfico en una red enrutada o jerárquica. Las redes jerárquicas ofrecen un flujo de tráfico más flexible que las redes planas.

En la siguiente página se analizará la conmutación simétrica y asimétrica.

4.2.8 Conmutación simétrica y asimétrica

En esta página se explica la diferencia que existe entre la conmutación simétrica y asimétrica.

La conmutación LAN se puede clasificar como simétrica o asimétrica según la forma en que el ancho de banda se asigna a los puertos de conmutación. Un switch simétrico ofrece conexiones conmutadas entre puertos con el mismo ancho de banda. Un switch LAN asimétrico proporciona conexiones conmutadas entre puertos con distinto ancho de banda, tal como una combinación de puertos de 10 Mbps y de 100 Mbps.

Una conmutación permite la dedicación de más ancho de banda al puerto de conmutación del servidor a fin de evitar un cuello de botella. Esto permite flujos de tráfico más parejos, donde varios clientes se comunican con un servidor al mismo tiempo. Se requieren búferes de memoria en un switch asimétrico. El uso de búferes mantiene las tramas contiguas entre distintos puertos de velocidad de datos.

En la siguiente página se describen los búferes de memoria.

4.2.9 Búferes de memoria

En esta página se explica lo que es un búfer de memoria y de qué manera se utiliza.

Un switch Ethernet puede usar una técnica de búferes para almacenar y enviar tramas. Los búferes también pueden utilizarse cuando el puerto destino está ocupado. El área de la memoria en la que el switch almacena los datos se denomina "búfer de memoria". Este búfer de memoria puede utilizar dos métodos para enviar tramas, el búfer de memoria basado en puerto y el búfer de memoria compartida.

En el búfer de memoria basado en puerto, las tramas se almacenan en colas conectadas a puertos de entrada específicos. Una trama se transmite al puerto de salida una vez que todas las tramas que están delante de ella en la cola se hayan transmitido con éxito. Es posible que una sola trama retarde la transmisión de todas las tramas almacenadas en la memoria debido al tráfico del puerto destino. Este retardo se produce aunque las demás tramas se puedan transmitir a puertos destino abiertos.

El búfer de memoria compartida deposita todas las tramas en un búfer de memoria común que comparten todos los puertos del switch. La cantidad de memoria de búfer que requiere un puerto se asigna de forma dinámica. Las tramas en el búfer se vinculan de forma dinámica al puerto destino. Esto permite la recepción del paquete por un puerto y la transmisión por otro puerto, sin tener que colocarlo en otra cola.

El switch conserva un mapa de enlaces de trama a puerto que indica por dónde una trama debe transmitirse. El enlace del mapa se elimina una vez que la trama se haya transmitido con éxito. El búfer de memoria se comparte. La cantidad de tramas almacenadas en el búfer se encuentra limitada por el tamaño del búfer de memoria en su totalidad y no se limita a un solo búfer de puerto. Esto permite la transmisión de tramas más amplias descartando menos tramas. Esto es importante para la conmutación asimétrica, donde las tramas se intercambian entre puertos de distintas velocidades.

En la siguiente página se describen dos métodos de conmutación.

4.2.10 Dos métodos de conmutación

En esta página se presenta la conmutación de almacenamiento y envío y por método de corte.

Los siguientes dos modos de conmutación están disponibles para el envío de tramas:

* Almacenamiento y envío: La trama completa se recibe antes de que se realice cualquier tipo de envío. Se leen las direcciones destino y origen y se aplican filtros antes de enviar la trama. La latencia se produce mientras la trama se está recibiendo. La latencia es mayor con tramas más grandes dado que toda la trama debe recibirse antes de que empiece el proceso de conmutación. El switch puede verificar toda la trama para ver si hay errores, lo que permite detectar más errores.
* Método de corte: La trama se envía a través del switch antes de que se reciba la trama completa. Como mínimo, la dirección destino de la trama debe leerse antes de que la trama se pueda enviar. Este modo reduce la latencia de la transmisión, pero también reduce la detección de errores.

A continuación, presentamos dos formas de conmutación por método de corte:

* Conmutación rápida: La conmutación rápida ofrece el nivel más bajo de latencia. La conmutación rápida envía un paquete inmediatamente después de leer la dirección destino. Como la conmutación rápida empieza a realizar los envíos antes de recibir el paquete completo, de vez en cuando los paquetes se pueden entregar con errores. Sin embargo, esto ocurre con poca frecuencia y además el adaptador de red destino descarta los paquetes defectuosos en el momento de su recepción. En el modo rápido, la latencia se mide desde el primer bit recibido al primer bit transmitido.
* Libre de fragmentos: La conmutación libre de fragmentos filtra los fragmentos de colisión antes de empezar el envío. Los fragmentos de colisión representan la mayoría de los errores de paquete. En una red que funciona correctamente, los fragmentos de colisión deben ser menores de 64 bytes. Cualquier cosa superior a 64 bytes es un paquete válido y se recibe generalmente sin errores. La conmutación libre de fragmentos espera hasta que se determine si el paquete es un fragmento de colisión o no antes de enviar el paquete. En el modo libre de fragmentos, la latencia también se mide desde el primer bit recibido al primer bit transmitido.

La latencia de cada modo de conmutación depende de la manera en que el switch envía las tramas. Para agilizar el envío de la trama, el switch dedica menos tiempo a la verificación de errores. Sin embargo, reducir la verificación de errores puede resultar en el aumento de la cantidad de retransmisiones.

Con esta página se concluye la lección. En la siguiente lección se describen los switches Ethernet. La primera página explica las principales funciones de los switches.

4.3.1 Funciones de los switches Ethernet

En esta página se analizan las funciones de los switches de la Capa 2.

Un switch es un dispositivo que conecta los segmentos LAN mediante una tabla de direcciones MAC para determinar el segmento al que una trama necesita transmitirse. Los switches y los puentes operan en la capa 2 del modelo OSI.

A veces, los switches se denominan puentes multipuerto o hubs de conmutación. Los switches toman decisiones en base a las direcciones MAC y por lo tanto, son dispositivos de la Capa 2. Por otra parte, los hubs regeneran las señales de la Capa 1 y las envían por todos los puertos sin tomar ninguna decisión. Dado que un switch tiene la capacidad de tomar decisiones de selección de la ruta, la LAN se vuelve mucho más eficiente. Con frecuencia, en una red Ethernet, las estaciones de trabajo están conectadas directamente al switch. Los switch aprenden qué hosts están conectados a un puerto leyendo la dirección MAC origen en las tramas. El switch abre un circuito virtual sólo entre los nodos origen y destino. Esto limita la comunicación a estos dos puertos sin afectar el tráfico en otros puertos. Por su parte, un hub envía datos fuera de todos sus puertos de manera que todos los hosts puedan ver los datos y tengan que procesarlos, aunque no sean el destino final de los datos. Las LAN de alto rendimiento por lo general están totalmente conmutadas.

* Un switch concentra la conectividad, convirtiendo a la transmisión de datos en un proceso más eficiente. Las tramas se conmutan desde puertos de entrada a puertos de salida. Cada puerto o interfaz puede ofrecer el ancho de banda completo de la conexión al host.
* En un hub Ethernet típico, todos los puertos conectados a un backplane común o a una conexión física dentro del hub y todos los dispositivos adjuntos al hub comparten el ancho de banda de la red. Si dos estaciones establecen una sesión que utiliza un nivel significativo del ancho de banda, se degrada el rendimiento de la red de todas las demás estaciones conectadas al hub.
* Para reducir la degradación, el switch trata cada interfaz como un segmento individual. Cuando las estaciones en las distintas interfaces necesitan comunicarse, el switch envía tramas a la velocidad máxima que el cable admite, de una interfaz a otra, para asegurarse de que cada sesión reciba el ancho de banda completo.

Para conmutar con eficiencia las tramas entre las distintas interfaces, el switch mantiene una tabla de direcciones. Cuando una trama llega al switch, se asocia la dirección MAC de la estación transmisora con la interfaz en la cual se recibió.

Las principales funciones de los switches Ethernet son:

* Aislar el tráfico entre los segmentos
* Obtener un ancho de banda más grande por usuario creando dominios de colisión más pequeños

La primera función, aislar el tráfico entre los segmentos, permite lograr mayor seguridad para los hosts de la red. Cada segmento utiliza el método de acceso CSMA/CD para mantener el flujo del tráfico de datos entre los usuarios del segmento. Dicha segmentación permite a varios usuarios enviar información al mismo tiempo a través de los distintos segmentos sin causar demoras en la red.

Al utilizar los segmentos de la red, menos usuarios y/o dispositivos comparten el mismo ancho de banda al comunicarse entre sí. Cada segmento cuenta con su propio dominio de colisión. Los switches Ethernet filtran el tráfico redireccionando los datagramas hacia el puerto o puertos correctos, que están basados en las direcciones MAC de la Capa 2.

La segunda función se denomina microsegmentación. La microsegmentación permite la creación de segmentos de red dedicados con un host por segmento. Cada host recibe acceso al ancho de banda completo y no tiene que competir por la disponibilidad del ancho de banda con otros hosts. Los servidores más populares se pueden colocar entonces en enlaces individuales de 100-Mbps. Con frecuencia en las redes de hoy, un switch Fast Ethernet puede actuar como el backbone de la LAN, con hubs Ethernet, switches Ethernet o hubs Fast Ethernet que ofrecen las conexiones de escritorio en grupos de trabajo. A medida que aumenta la popularidad de nuevas aplicaciones como por ejemplo las aplicaciones multimedia de escritorio o las de videoconferencia, algunos equipos de escritorio individuales tendrán enlaces dedicados de 100-Mbps para la red.

La siguiente página introduce tres modos de transmisión de trama.

4.3.2 Modos de transmisión de la trama

En esta página se describen los tres modos principales de transmisión de trama:

* Método de corte: Un switch que efectúa la conmutación por método de corte sólo lee la dirección destino cuando recibe la trama. El switch empieza a enviar la trama antes de que la trama llegue en su totalidad. Este modo reduce la latencia de la transmisión pero la detección de errores es pobre. A continuación, presentamos dos formas de conmutación por método de corte:
o Conmutación rápida: La conmutación rápida ofrece el nivel de latencia más bajo, enviando el paquete inmediatamente después de recibir la dirección destino. La latencia se mide desde el primer bit recibido al primer bit transmitido, o bien el primero en entrar y el primero en salir (FIFO). Este modo tiene una detección deficiente de errores de conmutación LAN.
o Conmutación libre de fragmentos: La conmutación libre de fragmentos filtra los fragmentos de colisión, que constituyen la mayoría de los errores de paquete, antes de iniciar el envío. Por lo general, los fragmentos de colisión son inferiores a 64 bytes. La conmutación libre de fragmentos espera hasta que se determine si el paquete no es un fragmento de colisión antes de enviar el paquete. La latencia también se mide como FIFO.
o Almacenamiento y envío: La trama completa se recibe antes de que se realice cualquier tipo de envío. Se leen las direcciones destino y origen y se aplican filtros antes de enviar la trama. La latencia se produce mientras la trama se está recibiendo. La latencia es mayor con tramas más grandes dado que toda la trama debe recibirse antes de que empiece el proceso de conmutación. El switch tiene suficiente tiempo para verificar los errores, lo que permite una mayor detección de los errores.

* Método de corte adaptado: Este modo de transmisión es un modo híbrido que es una combinación del método de corte con el método de almacenamiento y envío. En este modo, el switch utiliza el método de corte hasta que detecta una determinada cantidad de errores. Una vez que se alcanza el umbral de error, el switch cambia al modo almacenamiento y envío.

La Actividad de Medios Interactivos ayudará a los estudiantes a comprender los tres métodos principales de conmutación.

En la siguiente página se explica de qué manera los switches obtienen información sobre la red.

4.3.3 De qué manera los switches y los puentes aprenden las direcciones

En esta página se explica de qué manera los puentes y los switches aprenden las direcciones y envían las tramas.

Los puentes y los switches sólo envían tramas que necesitan viajar de un segmento LAN a otro. Para lograr esta tarea, deben aprender qué dispositivos están conectados a qué segmento de la LAN.

Se considera que un puente es un dispositivo inteligente porque puede tomar decisiones basadas en las direcciones MAC. Para hacerlo, un puente consulta una tabla de direcciones. Cuando un puente se enciende, se envían mensajes en broadcast pidiendo a todas las estaciones del segmento local de la red que respondan. A medida que las estaciones contestan el mensaje de broadcast, el puente va creando una tabla de direcciones locales. Este proceso se denomina aprendizaje.

Los puentes y los switches aprenden de la siguiente manera:

* Leyendo la dirección MAC origen de cada trama o datagrama recibidos
* Registrando el puerto por el cual se recibió la dirección MAC

De esta forma, el puente o el switch aprenden qué direcciones pertenecen a los dispositivos conectados a cada puerto.

Las direcciones aprendidas y el puerto o interfaz asociado se almacenan en la tabla de direccionamiento. El puente examina la dirección destino de todas las tramas recibidas. El puente luego explora la tabla de direcciones en busca de la dirección destino.

* La tabla de conmutación se almacena en la Memoria de contenido direccionable (CAM). Éste es un tipo de memoria a cuyo contenido se accede rápidamente. CAM se utiliza en las aplicaciones de switch para realizar las siguientes funciones: Para obtener y procesar la información de dirección desde los paquetes de datos entrantes
* Para comparar la dirección destino con una tabla de direcciones almacenada dentro de la misma memoria

La CAM almacena direcciones MAC de host y números de puerto asociados. La CAM compara la dirección MAC destino recibida con el contenido de la tabla CAM. Si la comparación muestra una coincidencia, se proporciona el puerto y el control de enrutamiento envía el paquete al puerto y dirección correctos.

Un switch Ethernet puede aprender la dirección de cada dispositivo de la red leyendo la dirección origen de cada trama transmitida y anotando el puerto por donde la trama se introdujo en el switch. El switch entonces agrega esta información a su base de datos de envío. Las direcciones se aprenden de forma dinámica. Esto significa que, a medida que se leen las nuevas direcciones, éstas se aprenden y se almacenan en la CAM. Cuando no se encuentra una dirección origen en la CAM, se aprende y se almacena para su uso futuro.

Cada vez que una dirección se almacena, se le agrega una marca horaria. Esto permite almacenar las direcciones durante un período de tiempo determinado. Cada vez que se hace referencia a una dirección o que se encuentra en CAM, recibe una nueva marca horaria. Las direcciones a las cuales no se hace referencia durante un determinado período de tiempo, se eliminan de la lista. Al eliminar direcciones antiguas, CAM mantiene una base de datos de envío precisa y funcional.

La CAM sigue los procesos que se describen a continuación:

1. Si no se encuentra la dirección, el puente envía la trama por todos los puertos salvo el puerto por el cual se recibió la trama. Este proceso se denomina inundación. Es posible el puente haya borrado la dirección porque el software del puente se reinició recientemente, quedó sin entradas de direcciones en la tabla de direcciones o borró la dirección porque era demasiado antigua. Como el puente no sabe qué puerto utilizar para enviar la trama, la enviará por todos los puertos salvo el por donde recibió esta trama. Se sobreentiende que no es necesario enviarla al mismo segmento de cable por el que la recibió dado que todos los demás equipos o puentes en ese cable ya habrán recibido el paquete.
2. Si se encuentra la dirección en una tabla de direcciones y que la dirección está asociada con el puerto en el que se recibió la trama, ésta se descarta. El destino ya lo habrá recibido.
3. Si se encuentra la dirección en una tabla de direcciones y la dirección no está asociada al puerto que recibió la trama, el puente envía la trama por el puerto asociado con la dirección.

Si se encuentra la dirección en una tabla de direcciones y la dirección no está asociada al puerto que recibió la trama, el puente envía la trama por el puerto asociado con la dirección.

En la página siguiente se describe el proceso utilizado para filtrar tramas.

4.3.4 Proceso de filtrado de tramas por parte de switches y puentes

En esta página se explica de qué manera los switches y los puentes filtran las tramas. Durante esta lección, los términos "switch" y "puente" son sinónimos.

La mayoría de los puentes pueden filtrar tramas basándose en cualquier campo de trama de Capa 2. Por ejemplo, se puede programar un puente para que rechace, sin enviar, todas las tramas que se originan desde una red en particular. Como la información de la capa de enlace a menudo incluye la referencia de un protocolo de capa superior, los puentes generalmente pueden hacer filtrado en base a este parámetro. Además, los filtros pueden ser útiles para manejar paquetes innecesarios de broadcast y de multicast.

Una vez que el puente ha creado la tabla de direcciones local, está listo para operar. Cuando recibe la trama, examina la dirección destino. Si la dirección de la trama es local, el puente la pasa por alto. Si la trama tiene la dirección de otro segmento LAN, el puente copia la trama al segundo segmento.

* Pasar por alto una trama se denomina filtrar.
* Copiar la trama se denomina enviar.

El filtrado básico mantiene las tramas locales como locales y envía las tramas remotas a otro segmento LAN.

El proceso de filtrado en base a direcciones origen y destino específicas logra lo siguiente:

* Evita que una estación envíe tramas fuera de su segmento LAN local
* Detiene todas las tramas "externas" destinadas a una estación en particular, restringiendo por lo tanto a las demás estaciones de trabajo con las cuales puede comunicar.

Ambos tipos de filtrado ofrecen algún control sobre el tráfico de internetwork y pueden aumentar la seguridad.

La mayoría de los puentes Ethernet pueden filtrar las tramas de broadcast y multicast. Los puentes y los switches que pueden filtrar tramas en base a su dirección MAC también se pueden utilizar para filtrar tramas Ethernet con direcciones de multicast y broadcast. Este filtrado se logra a través de la implementación de redes de área local virtuales o VLAN. Las VLAN permiten a los administradores de red evitar la transmisión de mensajes de multicast y broadcast innecesarios a través de una red. A veces, es posible que un dispositivos funcione mal y envíe continuamente tramas de broadcast, que se copian por toda la red. Esto se denomina tormenta de broadcast y puede reducir significativamente el rendimiento de la red. Un puente que puede filtrar las tramas de broadcast hace que la tormenta de broadcast provoque daños menores. En la actualidad, los puentes también pueden filtrar según el tipo de protocolo de capa de red. Esto hace más difusa la demarcación entre los puentes y los routers. Un router opera en la capa de red mediante un protocolo de enrutamiento para dirigir el tráfico alrededor de la red. Un puente que implementa técnicas de filtrado avanzadas normalmente se denomina brouter. Los brouters filtran buscando la información de capa de red pero no usan un protocolo de enrutamiento.

La siguiente página explicará cómo se utilizan los puentes para segmentar una LAN.

4.3.5 ¿Por qué segmentar las LAN?

En esta página se explican las dos razones principales para segmentar una LAN.

Hay dos motivos fundamentales para dividir una LAN en segmentos. La primera es aislar el tráfico entre segmentos. La segunda razón es lograr más ancho de banda por usuario mediante la creación de dominios de colisión más pequeños.

Sin la segmentación LAN, las LAN más grandes que un pequeño grupo de trabajo podrían atascarse rápidamente con el tráfico y las colisiones.

La segmentación LAN se puede implementar mediante el uso de puentes, switches y routers. Cada uno de estos dispositivos tiene ventajas y desventajas particulares.

Con la adición de los dispositivos como puentes, switches y routers, la LAN está segmentada en una serie de dominios de colisión más pequeños. En el ejemplo, se han creado cuatro dominios de colisión.

Al dividir redes de gran tamaño en unidades autónomas, los puentes y los switches ofrecen varias ventajas. Un puente, o switch, reduce el tráfico que experimentan los dispositivos en todos los segmentos conectados ya que sólo se envía un determinado porcentaje de tráfico. Los puentes y switches reducen el dominio de colisión pero no el dominio de broadcast.

Cada interfaz en el router se conecta a una red distinta. Por lo tanto, la inserción del router en una LAN creará pequeños dominios de colisión y dominios de broadcast más pequeños. Esto sucede porque los routers no envían los broadcasts a menos que sean programados para hacerlo.

Un switch emplea "microsegmentación" para reducir el dominio de colisión en una LAN. El switch hace esto creando segmentos de red dedicados o conexiones punto a punto. El switch conecta estos segmentos en una red virtual dentro del switch.

Este circuito de red virtual existe solamente cuando dos nodos necesitan comunicarse. Esto se denomina circuito virtual ya que existe sólo cuando es necesario y se establece dentro del switch.

En la siguiente página se analiza la microsegmentación.

4.3.6 Implementación de la microsegmentación

En esta página se explican las funciones de un switch en una LAN como resultado de la microsegmentación.

Los switches de LAN se consideran puentes multipuerto sin dominio de colisión debido a la microsegmentación. Los datos se intercambian a altas velocidades conmutando la trama hacia su destino. Al leer la información de Capa 2 de dirección MAC destino, los switches pueden realizar transferencias de datos a altas velocidades de forma similar a los puentes. Esto provoca niveles de latencia bajos y una alta velocidad para el envío de tramas.

La conmutación Ethernet aumenta el ancho de banda disponible en la red. Esto se hace creando segmentos de red dedicados, o conexiones punto a punto, y conectando estos segmentos en una red virtual dentro del switch. Este circuito de red virtual existe solamente cuando dos nodos necesitan comunicarse. Esto se denomina circuito virtual ya que existe sólo cuando es necesario y se establece dentro del switch.

Aunque el switch LAN reduce el tamaño de los dominios de colisión, todos los hosts conectados al switch pertenecen al mismo dominio de broadcast. Por lo tanto, un broadcast emitido de un nodo seguirá siendo percibido por todos los demás nodos conectados a través del switch LAN.

Los switches son dispositivos de enlace de datos que, al igual que los puentes, permiten la interconexión de múltiples segmentos físicos de LAN para formar una sola red de mayor tamaño. De forma similar a los puentes, los switches envían e inundan el tráfico basándose en las direcciones MAC. Dado que la conmutación se ejecuta en el hardware en lugar del software, es significativamente más veloz. Cada puerto de switch puede considerarse como un micropuente que actúa como un puente distinto y ofrece el ancho de banda completo del medio a cada host.

En la siguiente página se analizan las colisiones.

4.3.7 Switches y dominios de colisión

En esta página se estudian las colisiones, que son una de las principales desventajas de las redes Ethernet 802.3.

Las colisiones se producen cuando dos hosts transmiten tramas de forma simultánea. Cuando se produce una colisión, las tramas transmitidas se dañan o se destruyen en la colisión. Los hosts transmisores detienen la transmisión por un tiempo aleatorio, conforme a las reglas de Ethernet 802.3 de CSMA/CD. El exceso de colisiones puede hacer que las redes resulten improductivas.

El área de red donde se originan las tramas y se producen las colisiones se denomina dominio de colisión. Todos los entornos de medios compartidos son dominios de colisión. Cuando un host se conecta a un puerto de switch, el switch crea una conexión dedicada. Esta conexión se considera como un dominio de colisión individual. Por ejemplo, si un switch de doce puertos tiene un dispositivo conectado a cada puerto, entonces se crean doce dominios de colisión.

Un switch crea una tabla de conmutación al aprender las direcciones MAC de los hosts que están conectados a cada puerto de switch. Cuando dos hosts conectados desean comunicarse entre sí, el switch analiza la tabla de conmutación y establece una conexión virtual entre los puertos. El circuito virtual se mantiene hasta que la sesión se termina.

En la Figura , el Host B y el Host C desean comunicarse entre sí. El switch crea la conexión virtual, conocida como microsegmento. El microsegmento se comporta como una red de sólo dos hosts, un host que envía y otro que recibe, y se utiliza el máximo ancho de banda disponible.

Los switches reducen las colisiones y aumentan el ancho de banda en los segmentos de red ya que ofrecen un ancho de banda dedicado para cada segmento de red.

En la siguiente página se analizan tres métodos de transmisión de datos en una red.

4.3.8 Switches y dominios de broadcast

En esta página se describen tres métodos de transmisión de datos que se utilizan en una red. La forma de comunicación más común se realiza por transmisión unicast. En una transmisión unicast, un transmisor intenta comunicarse con un receptor.

Otra forma de comunicarse se conoce como transmisión multicast. La transmisión multicast se produce cuando un transmisor trata de comunicarse con sólo un subconjunto o un grupo del segmento.

La última forma de comunicarse es envío en broadcast. La transmisión en broadcast se produce cuando un transmisor trata de comunicarse con todos los receptores de la red. La estación servidora envía un mensaje y todos los que se encuentran en el segmento reciben el mensaje.

Cuando un dispositivo desea enviar un broadcast de Capa 2, la dirección MAC destino en la trama se establece en sólo unos. Una dirección MAC de sólo unos es FF:FF:FF:FF:FF:FF en números hexadecimales. Al configurar el destino en este valor, todos los dispositivos aceptarán y procesarán la trama de broadcast.

El dominio de broadcast de la Capa 2 se conoce como dominio MAC de broadcast. El dominio MAC de broadcast incluye todos los dispositivos de la LAN que reciben broadcasts de trama a través de un host a todas las demás máquinas en la LAN.

El switch es un dispositivo de la Capa 2 cuando un switch recibe un broadcast, lo envía por cada puerto del switch salvo por el puerto receptor. Cada dispositivo adjunto debe procesar la trama de broadcast. Esto lleva a la reducción de la eficiencia de red, dado que se utiliza el ancho de banda disponible con propósitos de enviar un broadcast.

Cuando se conectan dos switches, el dominio de broadcast aumenta. En este ejemplo, una trama de broadcast se envía a todos los puertos conectados al Switch 1. El Switch 1 está conectado al Switch 2. La trama se propaga a todos los dispositivos conectados al Switch 2.

El resultado general es una reducción del ancho de banda disponible. Esto ocurre porque todos los dispositivos en el dominio de broadcast deben recibir y procesar la trama de broadcast.

Los routers son dispositivos de la Capa 3 los routers no propagan los broadcasts. Los routers se utilizan para segmentar los dominios de colisión y de broadcast.

En la siguiente página se explica cómo se conecta una estación de trabajo a una LAN.

4.3.9 Comunicación entre los switches y la estación de trabajo

En esta página se explica cómo los switches obtienen información sobre las estaciones de trabajo en una LAN.

Cuando una estación de trabajo se conecta a una LAN, no se preocupa por los demás dispositivos que estén conectados a los medios de la LAN. La estación de trabajo simplemente transmite las tramas de datos a los medios de la red mediante una NIC.

La estación de trabajo se puede conectar directamente a otra estación de trabajo con un cable de interconexión cruzada. Los cables de interconexión cruzada se utilizan para conectar los siguientes dispositivos:

* Estación de trabajo a estación de trabajo
* Switch a switch
* Switch a hub
* Hub a hub
* Router a router
* Router a PC

Los cables de conexión directa se utilizan para conectar los siguientes dispositivos:

* Switch a router
* Switch a estación de trabajo o servidor
* Hub a estación de trabajo o servidor

Los switches son dispositivos de la Capa 2 que usan la inteligencia para aprender las direcciones MAC de los dispositivos conectados a los puertos del switch. Estos datos se introducen en una tabla de conmutación. Una vez que la tabla se completa, el switch puede leer la dirección MAC destino de una trama de datos que llega a un puerto y enviarla inmediatamente. Hasta que un dispositivo no empieza a transmitir, el switch no sabe su dirección MAC.

Los switches ofrecen una escalabilidad significativa en una red y se pueden conectar directamente. La Figura muestra una situación de transmisión de trama que utiliza una red multiswitch.

Con esta página se concluye la lección. En la siguiente página se resumen los puntos principales de este módulo.

Resumen

En esta página se resumen los temas analizados en este módulo.

Ethernet es la arquitectura LAN más común y fue diseñada para transmitir datos entre los dispositivos de una red. Originalmente, Ethernet era una tecnología half duplex. Mediante la tecnología half-duplex, un host podía transmitir o recibir directamente pero no al mismo tiempo. Cuando dos o más hosts Ethernet transmiten al mismo tiempo en un medio compartido, el resultado es una colisión. El tiempo que tarda una trama o a un paquete en viajar de la estación origen al destino final se conoce como latencia o retardo. Las tres fuentes de latencia incluyen el retardo NIC, el retardo de propagación real y el retardo debido a dispositivos de red específicos.

El tiempo de bit es la unidad básica de tiempo en la cual se puede enviar un solo bit. Debe de existir un período mínimo durante el cual el bit está activado o desactivado para que el dispositivo pueda reconocer un uno o un cero binario.

La atenuación significa que una señal se debilita a medida que recorre la red. Esto limita la distancia que una LAN puede abarcar. Un repetidor puede extender la distancia de una LAN pero también tendrá un efecto negativo sobre el rendimiento general de la LAN.

La transmisión full-duplex entre estaciones se logra por medio de conexiones Ethernet punto a punto. La transmisión full-duplex ofrece un entorno de transmisión libre de colisiones. Ambas estaciones pueden transmitir y recibir al mismo tiempo, no existen negociaciones para el ancho de banda. La infraestructura de cable existente se puede utilizar siempre y cuando el medio cumpla con los estándares Ethernet mínimos.

La segmentación divide una red en unidades más pequeñas para reducir la congestión de la red y mejorar la seguridad. El método de acceso CSMA/CD en cada segmento mantiene el tráfico entre los usuarios. La segmentación con un puente de Capa 2 es transparente para otros dispositivos de red pero la latencia aumenta significativamente. Cuanto más trabajo realiza un dispositivo de red, más latencia podrá introducir el dispositivo en la red. Los routers ofrecen segmentación de redes pero pueden agregar un factor de latencia de 20% a 30% sobre una red conmutada. Esta mayor latencia se debe a que el router opera en la capa de red y usa la dirección IP para determinar la mejor ruta al nodo de destino. Un switch puede segmentar una LAN en microsegmentos que disminuyen el tamaño de los dominios de colisión. Sin embargo, todos los hosts conectados al switch siguen estando en el mismo dominio de broadcast.

La conmutación es una tecnología que reduce la congestión en las LAN Ethernet, Token Ring y la Interfaz de datos distribuida por fibra (FDDI). La conmutación es el proceso de recibir una trama que llega de una interfaz y enviarla a través de otra interfaz. Los routers utilizan la conmutación de Capa 3 para enrutar un paquete. Los switches utilizan conmutación de Capa 2 para enviar tramas. Un switch simétrico ofrece conexiones conmutadas entre puertos con el mismo ancho de banda. Un switch LAN asimétrico proporciona conexiones de conmutación entre puertos con distinto ancho de banda por ejemplo, una combinación de puertos de 10 Mbps y de 100 Mbps.

Un búfer de memoria es un área de la memoria donde el switch almacena datos. Puede utilizar dos métodos para enviar tramas, el búfer de memoria basado en puerto y el búfer de memoria compartida.

Existen dos modos que se utilizan para enviar tramas. El almacenamiento y envío recibe la trama completa antes de enviarla mientras que el método de corte envía la trama a medida que la va recibiendo, reduciendo de esta manera la latencia. Conmutación rápida y libre de fragmentos son dos formas de envío de método de corte.

by sdominguez.com

No hay comentarios: