martes, 29 de enero de 2008

Bug web de Renault

Como podéis ver de momento están teniendo algunos bugs y no disponen de versión en castellano sólo en francés e ingles.

http://www.ing-renaultf1.com




Semestre 4 CCNA, Módulo 6

Módulo 6: Introducción a la administración de redes

Descripción general

Las primeras PC fueron diseñadas como equipos de escritorio independientes. El sistema operativo (OS) permitía el acceso a los archivos y recursos del sistema a un solo usuario a la vez. El usuario debía tener acceso físico a la PC. A medida que las redes de computación basadas en PC ganaron popularidad en el mundo corporativo, las compañías de software desarrollaron los NOS, los sistemas operativos especializados para redes. Los programadores diseñaron los NOS para brindar seguridad a nivel de archivos, privilegios de usuario y el acceso a los recursos por parte de múltiples usuarios. El crecimiento explosivo de la Internet llevó a los programadores a crear los NOS actuales alrededor de tecnologías relacionadas con la Internet y de servicios como la World Wide Web (WWW).

La conectividad a redes es esencial hoy en día para la computación de escritorio. Ya no es tan clara la distinción entre los sistemas operativos modernos de escritorio, en la actualidad cargados con funciones y servicios para networking, y sus contrapartidas los NOS. En la actualidad, los sistemas operativos más populares, tales como Windows 2000 de Microsoft y Linux, se pueden encontrar tanto en servidores de gran potencia para redes y en los escritorios de los usuarios.

El conocimiento de los distintos sistemas operativos garantizará la selección del sistema operativo correcto, el cual ofrezca todos los servicios requeridos. A continuación se hará una introducción de los sistemas operativos UNIX, Linux y Mac OS X, así como varias versiones de Windows.

La efectiva administración de las LAN y WAN constituye el elemento clave para mantener un entorno productivo en el mundo del networking. A medida que un mayor número de usuarios dispone de más y más servicios, el rendimiento de las redes se ve afectado negativamente. Los administradores de redes, a través de un constante monitoreo, deben reconocer los problemas y ser capaces de corregirlos antes de que se hagan evidentes a los usuarios finales.

Se dispone de diversos protocolos y herramientas para monitorear las redes de forma local y remota. El entendimiento profundo de estas herramientas es fundamental para una efectiva administración de las redes.

Los estudiantes que completen este módulo deberán ser capaces de:

* Identificar diversas tareas que posiblemente deba realizar una estación de trabajo.
* Identificar varias funciones posibles de un servidor.
* Describir el papel de los equipos en un entorno cliente/servidor.
* Describir las diferencias entre un NOS y un sistema operativo de escritorio.
* Enumerar varios sistemas operativos Windows y sus características.
* Enumerar diferentes alternativas a los sistemas operativos Windows y sus características.
* Identificar las herramientas para la administración de redes.
* Identificar las fuerzas que impulsan la administración de redes.
* Describir el modelo de administración de redes y el modelo OSI.
* Describir el Protocolo Simple de Administración de Redes (SNMP) y el Protocolo de Información de Administración Común (CMIP)
* Describir de qué manera el software de administración recopila información y lleva un registro de los problemas.

6.1 Estaciones de trabajo y servidores

6.1.1 Estaciones de trabajo

Una estación de trabajo es una computadora cliente la cual se utiliza para ejecutar aplicaciones. Está conectada y obtiene datos de un servidor el cual comparte datos con otras computadoras. Un servidor es una computadora que ejecuta un NOS. Una estación de trabajo utiliza un software especial, como por ejemplo un programa shell de interconexión con la red, para realizar las siguientes tareas:

* Interceptar los datos del usuario y los comandos de las aplicaciones.
* Decidir si el comando está dirigido al sistema operativo local o al NOS.
* Enviar el comando hacia el sistema operativo local o hacia la tarjeta de interfaz de red (NIC) para ser procesado y transmitido a la red.
* Enviar transmisiones recibidas de la red a la aplicación que se ejecuta en la estación de trabajo.

Algunos de los sistemas operativos Windows pueden instalarse tanto en estaciones de trabajo como en servidores. Las versiones NT, 2000 y XP de Windows proveen capacidades de servidor de red. Las versiones Windows 9x y ME sólo proporcionan soporte para estaciones de trabajo.

El UNIX o el Linux pueden funcionar como sistemas operativos de escritorio pero generalmente se les encuentra en computadoras de alto nivel. Estas estaciones de trabajo se utilizan en aplicaciones científicas y de ingeniería, las cuales requieren de computadoras dedicadas de alto rendimiento. Algunas de las aplicaciones específicas que con frecuencia se ejecutan en estaciones de trabajo UNIX figuran en la siguiente lista:

* Diseño asistido por computadora (CAD).
* Diseño de circuitos electrónicos.
* Análisis de datos climatológicos.
* Animación gráfica por computadora.
* Administración de equipos para telecomunicaciones.

La mayoría de los actuales sistemas operativos de escritorio incluyen capacidades de networking y permiten el acceso a múltiples usuarios. Por esta razón, es cada vez más común el clasificar las computadoras y los sistemas operativos de acuerdo con el tipo de aplicaciones que ejecuta la computadora. Esta clasificación se basa en el papel o en la función que desempeña la computadora, por ejemplo, una estación de trabajo o un servidor. Las aplicaciones típicas de las estaciones de trabajo de bajo nivel o de escritorio pueden incluir el procesamiento de palabras, hojas de cálculo y programas de administración financiera. En las estaciones de trabajo de alto nivel, las aplicaciones pueden incluir el diseño gráfico o la administración de equipos y otras más, como se ha mencionado antes.

Una estación de trabajo sin disco es una clase especial de computadora diseñada para funcionar en una red. Como su nombre lo indica, no tiene disco duro pero sí incluye monitor, teclado, memoria, instrucciones de arranque en la ROM y una tarjeta de interfaz de red. El software que se utiliza para establecer una conexión con la red se carga desde un chip de ROM que se encuentra en la NIC.

Como las estaciones de trabajo sin disco no cuentan con unidad de disco, no es posible subir datos desde ellas o descargar nada en ellas. Una estación de trabajo sin disco no puede transmitir un virus a la red ni tampoco puede utilizarse para tomar datos desde la red y copiarlos a una unidad de disco. Como resultado, las estaciones de trabajo sin disco ofrecen mayor seguridad que las estaciones de trabajo comunes. Es por esto que dichas estaciones de trabajo se utilizan en las redes donde la seguridad es prioritaria.

Las laptops pueden usarse como estaciones de trabajo en una LAN y pueden conectarse a la red mediante una estación docking, un adaptador LAN externo o una tarjeta PCMCIA (Personal Computer Memory Card International Association). Una estación docking es un aditamento que convierte una laptop en una computadora de escritorio.

6.1.2 Servidores

En el entorno de un sistema operativo de red, muchos sistemas cliente tienen acceso a uno o más servidores y comparten los recursos de éstos. Los sistemas cliente de escritorio están equipados con su propia memoria y dispositivos periféricos, tales como teclado, monitor y disco duro. Los sistemas de los servidores deben equiparse para permitir el acceso simultáneo de múltiples usuarios y la realización de múltiples tareas, en la medida que los clientes soliciten los recursos remotos del servidor.

Para la administración de redes, los NOS cuentan con herramientas y funciones adicionales diseñadas para permitir el acceso de numerosos usuarios a la vez. En todas las redes, excepto en las de menor tamaño, los NOS se instalan en servidores de alto nivel. Muchos usuarios, conocidos como clientes, comparten dichos servidores. A menudo, los servidores cuentan con discos duros de gran velocidad y capacidad, con NIC de alta velocidad y, en algunos casos, con múltiples CPU. Dichos servidores en general se configuran para ofrecer uno o más servicios de red utilizando la familia de protocolos de la Internet, TCP/IP.

Los servidores que ejecutan NOS también se utilizan para autenticar usuarios y brindar acceso a recursos compartidos. Estos servidores están diseñados para manejar peticiones de distintos clientes al mismo tiempo. Antes de que un cliente pueda tener acceso a los recursos del servidor, debe identificarse y recibir la autorización para el uso de dichos recursos. La identificación y autorización se efectúa mediante la asignación de un nombre de cuenta y una contraseña a cada cliente. Un servicio de autenticación verifica el nombre de cuenta y la contraseña para permitir o denegar el acceso a la red. Al centralizar las cuentas de los usuarios, la seguridad y el control de acceso, las redes basadas en servidores simplifican el trabajo de administración de la red.

Los servidores son generalmente sistemas de mayor magnitud que las estaciones de trabajo. Disponen de memoria adicional para dar soporte simultáneo a múltiples tareas activas, es decir, residentes en la memoria. También es necesario espacio adicional en los discos de los servidores para guardar los archivos compartidos y para funcionar como extensión de la memoria interna del sistema. Es usual que los servidores requieran de ranuras de expansión adicionales en sus tarjetas madre para conectar los dispositivos compartidos, tales como impresoras y múltiples interfaces de red.

Otra característica de los sistemas capaces de actuar como servidores es la alta capacidad de procesamiento. Por lo general, las computadoras cuentan con una sola CPU que ejecuta las instrucciones que conforman una tarea o un proceso dados. A fin de trabajar de forma eficiente y responder con rapidez a las peticiones de los clientes, un servidor NOS requiere de una CPU potente para ejecutar sus tareas o programas. Los sistemas de procesador único con una CPU pueden satisfacer la mayoría de las necesidades si la CPU tiene la velocidad necesaria. Para lograr mayores velocidades de ejecución, algunos sistemas cuentan con más de una CPU. Dichos sistemas reciben el nombre de sistemas multiprocesador. Los sistemas multiprocesador son capaces de ejecutar múltiples tareas en paralelo, al asignar cada tarea a un procesador diferente. La cantidad total de trabajo que el servidor puede realizar en un tiempo dado es mucho mayor en los sistemas multiprocesador.

Como los servidores funcionan como depósitos centrales de recursos vitales para la operación de los sistemas cliente, deben ser eficientes y robustos. El término robusto expresa que los sistemas de servidores deben ser capaces de funcionar con eficiencia bajo grandes cargas de trabajo. También significa que los sistemas deben ser capaces de sobrevivir a la falla de uno o más procesos o componentes sin experimentar una falla general del sistema. Este objetivo se cumple creando redundancia en los sistemas de servidores. La redundancia es la incorporación de componentes de hardware adicionales que puedan hacer las funciones de otro componente en caso de fallas. La redundancia es una característica de los sistemas tolerantes a fallas. Estos sistemas están diseñados para sobrevivir a las fallas y es posible repararlos sin interrupciones mientras los sistemas se encuentran activos y en funcionamiento. Como los NOS dependen del funcionamiento continuo de su servidor, se justifica el gasto adicional de los componentes de hardware redundantes.

Las aplicaciones y funciones de los servidores incluyen servicios web mediante el Protocolo de transferencia de hipertexto (HTTP), el Protocolo de transferencia de archivos (FTP) y el Sistema de nombres de dominios (DNS). Los protocolos estándar de correo electrónico usados en los servidores de las redes incluyen el Protocolo sencillo de transferencia de correo (SMTP), el Protocolo de oficina de correos Versión 3 (POP3) y el Protocolo Internet de acceso a mensajes (IMAP). Los protocolos usados para compartir archivos incluyen el Sistema de archivos en red de Sun Microsystems (NFS) y el Bloque de mensajes del servidor de Microsoft (SMB).

Los servidores de redes a menudo proveen servicios de impresión. Un servidor también puede proveer el Protocolo de configuración de host dinámico (DHCP), el cual automáticamente asigna las direcciones IP a las estaciones de trabajo. Además de brindar servicios para los clientes en la red, es posible configurar un servidor para que actué como un firewall básico para la red. Esto se logra mediante el esquema proxy o el de Traducción de direcciones de red (NAT), los cuales esconden las direcciones privadas internas de la red.

Un único servidor que ejecuta un NOS puede funcionar bien cuando brinda servicios a unos pocos clientes. Pero la mayoría de las organizaciones deben instalar varios servidores a fin de lograr un rendimiento aceptable. En un diseño típico, los servicios están separados de modo que un servidor está a cargo del correo electrónico, otro de compartir archivos y otro del FTP.

La concentración en servidores de los recursos de la red, tales como archivos, impresoras y aplicaciones, también hace que los datos generados sean más fáciles de mantener y respaldar. En vez de tener dichos recursos distribuidos en muchos equipos individuales, los recursos de la red pueden asignarse a servidores dedicados y especializados para facilitar el acceso y los respaldos.

6.1.3 Relación cliente-servidor

El modelo de computación cliente-servidor distribuye el procesamiento entre múltiples computadoras. El procesamiento distribuido permite el acceso a sistemas remotos con el fin de compartir información y los recursos de la red. En un entorno cliente-servidor, el cliente y el servidor comparten o se distribuyen las responsabilidades de procesamiento. La mayoría de los sistemas operativos de redes usan el modelo cliente-servidor para proporcionar los servicios de red a los usuarios. Las computadoras en una red pueden denominarse hosts, estaciones de trabajo, clientes o servidores. Cualquier computadora que ejecute TCP/IP, ya sea una estación de trabajo o un servidor, es considerada una computadora host.

Las siguientes son definiciones de otros términos de uso común:

* Host local: el equipo en el que el usuario trabaja en ese momento.
* Host remoto: un sistema al que el usuario tiene acceso desde otro sistema.
* Servidor: proporciona recursos a uno o más clientes por medio de una red.
* Cliente: un equipo que utiliza los servicios de uno o más servidores de una red.

Un ejemplo de relación cliente-servidor es el de una sesión FTP. El FTP es un método universal para transferir archivos de una computadora a otra. Para que el cliente intercambie archivos con el servidor, éste debe estar ejecutando el servicio o "daemon" FTP. En este caso, el cliente solicita la transferencia del archivo. El servidor provee los servicios necesarios para enviar o recibir dicho archivo.

La Internet también es un buen ejemplo de una relación cliente-servidor de procesamiento distribuido. El cliente o "front end" generalmente maneja las funciones de interfaz al usuario tales como la presentación en pantalla, los formularios de ingreso y la edición de datos. Esto se realiza con navegadores como el Netscape o el Internet Explorer. Los navegadores envían peticiones a los servidores web. Cuando el navegador solicita datos al servidor, éste responde y el navegador recibe una respuesta del servidor web. Entonces, el navegador muestra los datos HTTP recibidos. El servidor o "back end" maneja las peticiones de páginas web del cliente y provee servicios HTTP/WWW.

Otro ejemplo de una relación cliente-servidor es el servidor de una base de datos y la realización de una consulta o un ingreso de datos por parte de un cliente en una LAN. El cliente puede estar ejecutando una aplicación escrita en C o Java y el servidor puede estar ejecutando Oracle u otro software de administración de bases de datos. En este caso el cliente maneja las tareas de presentación al usuario. El servidor provee los servicios de almacenamiento y recuperación de datos para el usuario.

En un entorno típico de servidor de archivos, el cliente podría trasladar grandes cantidades de archivos de la base de datos para procesarlos localmente. El traslado de los archivos desde la base de datos podría producir un excesivo tráfico en la red. En el modelo cliente-servidor en cambio, el cliente envía una consulta al servidor y el software de base de datos del servidor puede procesar centenares de miles de registros y transferir sólo unos pocos al cliente para satisfacer la consulta. Los servidores son usualmente mucho más poderosos que las computadoras cliente y están mejor dotados para el procesamiento de grandes cantidades de datos. En la computación cliente-servidor, el almacenamiento de la base de datos y su procesamiento se realiza en el servidor. El cliente sólo debe generar y enviar la consulta. Una cantidad relativamente pequeña de datos o de resultados podría pasar por la red. Se satisface la consulta del cliente y se utiliza una porción menor del ancho de banda de la red. El gráfico muestra un ejemplo de un esquema cliente-servidor. Cabe notar que usualmente la estación de trabajo y el servidor se conectan a la LAN por medio de un hub o concentrador o un switch.

La distribución de las funciones en redes cliente-servidor tiene ventajas significativas, pero también genera algunos costos. Aunque la concentración de recursos en los servidores brinda mayor seguridad, además de facilitar el acceso y el control coordinado, el servidor se convierte en un elemento indispensable en la red, lo que se conoce como un punto único de falla. Sin un servidor operativo, la red no puede funcionar en lo absoluto. Además, los servidores requieren de personal experto y capacitado para su administración y mantenimiento, lo que aumenta los gastos de operación de la red. Los servidores requieren de hardware adicional y software especializado, lo cual aumenta sustancialmente los costos.

6.1.4 Introducción a los NOS

El OS (sistema operativo) de una computadora conforma los cimientos de software sobre los cuales se ejecutan las aplicaciones y los servicios en una estación de trabajo. De igual manera, un NOS permite la comunicación entre múltiples dispositivos y el compartir recursos a través de la red. Los servidores de red UNIX, Microsoft Windows NT, o Windows 2000 incluyen un NOS.

Las funciones comunes de los OS para estaciones de trabajo incluyen el control del hardware de la computadora, la ejecución de programas y el proveer una interfaz al usuario. Los OS llevan a cabo estas funciones para los usuarios individuales. Varios usuarios pueden compartir el equipo pero no se pueden registrar en él al mismo tiempo. Los NOS en cambio distribuyen las funciones entre varias computadoras en la red. Los NOS dependen de los servicios de los OS locales de cada computadora individual. Los NOS agregan entonces funciones adicionales que permiten el acceso a los recursos compartidos por varios usuarios al mismo tiempo.

Las estaciones de trabajo funcionan como clientes en un entorno NOS. Cuando una estación de trabajo se convierte en un cliente en un entorno NOS, un software especializado adicional permite que el usuario local tenga acceso a recursos no locales o remotos, tal como si estos recursos formaran parte del sistema local. Los NOS aumentan el alcance de las estaciones de trabajo clientes, haciendo que los servicios remotos estén disponibles como extensiones del sistema operativo local.

Un sistema capaz de operar como servidor NOS debe estar capacitado para permitir el acceso de múltiples usuarios simultáneos. El administrador de la red crea una cuenta para cada usuario, lo que permite que éstos se registren y se conecten al servidor. La cuenta del usuario en el servidor permite que el servidor reconozca a dicho usuario y le asigne los recursos que se le han otorgado. Los sistemas que proveen esta capacidad reciben el nombre de sistemas multiusuario.

Un NOS para servidores es un sistema multitarea capaz de ejecutar múltiples tareas o procesos al mismo tiempo. El software de secuenciación del NOS divide el tiempo del procesador interno, la memoria y el uso de otros elementos del sistema entre diferentes tareas a fin de compartir los recursos del sistema. Cada usuario del sistema multiusuario está soportado por una tarea o proceso individual interno del servidor. Estas tareas internas se crean de forma dinámica a medida que los usuarios se conectan al sistema y se eliminan cuando los usuarios se desconectan.

Las características principales a considerar en la selección de un NOS son el rendimiento, las herramientas disponibles de administración y monitoreo, la seguridad, la escalabilidad y la robustez o tolerancia a las fallas. La siguiente sección define brevemente cada una de estas características.

Rendimiento
Un NOS debe tener un alto rendimiento en cuanto a las funciones de lectura y escritura de archivos a través de la red entre clientes y servidores. Debe ser capaz de mantener un ágil rendimiento bajo grandes cargas de trabajo, cuando muchos clientes realizan peticiones simultáneamente. Un desempeño estable bajo gran demanda es un estándar importante para un NOS.

Administración y monitoreo
La interfaz de administración del NOS del servidor provee las herramientas para el monitoreo del servidor, la administración de clientes, de archivos, de los servicios de impresión y del almacenamiento en discos. La interfaz de administración provee las herramientas para la instalación de nuevos servicios y su configuración. Además, los servidores requieren de monitoreo y ajustes periódicos.

Seguridad
Un NOS debe proteger los recursos compartidos que controla. La seguridad incluye el control del acceso de los usuarios a los servicios para prevenir el acceso no autorizado a los recursos de la red. La seguridad también involucra el cifrado de la información, a fin de protegerla cuando se transfiere entre clientes y servidores.

Escalabilidad
La escalabilidad es la capacidad que tiene un NOS para crecer sin degradación de su rendimiento. Un NOS debe ser capaz de mantener su rendimiento a medida que nuevos usuarios se incorporen a la red y nuevos servidores se agreguen para brindarles soporte.

Robustez/tolerancia a las fallas
La medida de la robustez es la capacidad de brindar servicios eficazmente bajo grandes cargas y de mantener dichos servicios aun en caso de fallas en los componentes o procesos. El uso de discos redundantes y el equilibrio de la carga de trabajo entre múltiples servidores puede mejorar la robustez del NOS.

6.1.5 Microsoft NT, 2000 y .NET

Desde el lanzamiento de Windows 1.0 en noviembre de 1985, Microsoft ha creado muchas versiones del sistema operativo Windows, con mejoras y cambios para adecuarse a una diversidad de usuarios y propósitos. La Figura hace un resumen del Windows OS actual.

El NT 4 fue diseñado para brindar un entorno de misión crítica para corporaciones, el cual sería más estable que los sistemas operativos Microsoft para consumidores. Está disponible en versiones de escritorio (NT 4.0 Workstation) así como para servidores (NT 4.0 Server). Una ventaja que presenta el NT sobre las versiones anteriores de los OS de Microsoft es que el DOS y los programas Windows antiguos pueden ejecutarse en máquinas virtuales (VM). Los programas se ejecutan de forma aislada y al ocurrir una falla no es necesario reiniciar el sistema.

El Windows NT provee una estructura de dominio para controlar el acceso de usuarios y clientes a los recursos de los servidores. Se administra a través de la aplicación "Administrador de usuarios para dominios" en el controlador de dominio. Todos los dominios NT requieren de un controlador primario de dominio el cual guarda la Base de datos de administración de cuentas de seguridad (SAM) y además pueden disponer de uno o más controladores de respaldo, cada uno de los cuales cuenta con una copia de solo-lectura de la SAM. Cuando un usuario intenta registrarse, la información enviada por éste se transfiere a la base de datos SAM. Si la información de dicha cuenta existe en la base de datos, el usuario recibirá la autenticación para el dominio y tendrá acceso a los recursos de la red y de la estación de trabajo.

El Windows 2000 es una versión más reciente desarrollada a partir del núcleo básico del NT y presenta versiones de escritorio y para servidores. El Windows 2000 soporta la tecnología "plug-and-play" que permite la instalación de nuevos dispositivos sin necesidad de reiniciar el sistema. El Windows 2000 también incluye un sistema de cifrado de archivos para dar seguridad a los datos en el disco duro.

El Windows 2000 permite que objetos, tales como usuarios y recursos, sean colocados en objetos contenedores que reciben el nombre de unidades de organización (OU). La autoridad administrativa sobre cada OU puede delegarse a un usuario o a un grupo. Esta característica permite un control más específico que el que es posible con Windows NT 4.0.

La versión Professional del Windows 2000 no está diseñada para ser un NOS completo. No provee un controlador de dominio, servidor DNS, servidor DHCP ni brinda muchos de los servicios que pueden ser activados en el Windows 2000 Server. El objetivo principal del Windows 2000 Professional es formar parte de un dominio como un sistema operativo cliente. El tipo de hardware que se puede instalar en este OS es limitado. El Windows 2000 Professional puede brindar capacidades de servidor limitadas para redes pequeñas y para redes de par a par. Puede ser un servidor de archivos, un servidor de impresión, un servidor FTP y un servidor web pero sólo soportará hasta diez conexiones a la vez.

A las características del Windows 2000 Professional, el Windows 2000 Server agrega muchas de las nuevas funciones específicas de los servidores. También puede operar como servidor de archivos, de impresión, de web y de aplicaciones. Los Servicios de directorio activo de Windows 2000 Server funcionan como punto centralizado de administración de usuarios, grupos, servicios de seguridad y recursos de red. Incluye las capacidades multipropósito necesarias para grupos de trabajo y sucursales, así como para la implementación de servidores de impresión, de archivos, de páginas web y de comunicación a nivel de departamentos.

El Windows 2000 Server se utiliza para entornos de pequeñas y medianas empresas. Brinda conectividad integrada con los sistemas Novell NetWare, UNIX y redes AppleTalk. También puede configurarse como servidor de comunicaciones para brindar servicios de interconexión mediante líneas telefónicas para usuarios móviles. El Windows 2000 Advanced Server brinda el soporte adicional de hardware y software que necesitan las empresas y las redes de gran tamaño.

Microsoft desarrolló el servidor Windows .NET con la habilidad de proveer un sistema seguro y confiable para ejecutar sitios web y FTP de nivel corporativo para competir con Linux, UNIX y One NET de Novell. El Windows .NET Server Ofrece los Servicios Web XML a compañías que requieren de tráfico web de volumen medio a alto.

6.1.6 UNIX, Sun, HP y LINUX

Los orígenes del UNIX
UNIX es el nombre de un grupo de sistemas operativos que tienen sus orígenes en el año 1969 en los laboratorios Bell. Desde su concepción, el UNIX fue diseñado para soportar usuarios y tareas múltiples. El UNIX también fue uno de los primeros sistemas operativos que incorporó soporte para los protocolos de redes conectadas a la Internet. La historia de UNIX, que hasta hoy abarca tres décadas, es complicada porque muchas compañías y organizaciones han contribuido a su desarrollo.

En un principio, el UNIX se escribió en lenguaje de máquina, un conjunto de instrucciones de bajo nivel que controlan los comandos internos de una computadora en particular. Debido a ello, el UNIX sólo podía ejecutarse en un tipo específico de computadora. En 1971, Dennis Ritchie creó el lenguaje C. En 1973, Ritchie y Ken Thompson, un colega programador de los laboratorios Bell, reescribieron los programas del sistema UNIX en lenguaje C. Como C era un lenguaje de mayor nivel, el UNIX pudo trasladarse a otras computadoras con mucho menor esfuerzo de programación. La decisión de desarrollar un sistema operativo portátil probó ser la clave para el éxito del UNIX. Durante los años 70, el UNIX evolucionó a través del trabajo de los programadores de los laboratorios Bell y de los de distintas universidades, principalmente los de la Universidad de California en Berkeley. –

Cuando el UNIX comenzó a comercializarse por primera vez en los años 80, se utilizó en poderosos servidores de redes y no en computadoras de escritorio. En la actualidad, existen decenas de versiones diferentes del UNIX que incluyen entre otros:

* El UNIX de Hewlett Packard (HP-UX)
* El UNIX de Berkeley Software Design, Inc. (BSD UNIX), del cual han surgido derivados como el FreeBSD
* El UNIX de Santa Cruz Operation (SCO)
* El de Sun Solaris
* El UNIX de IBM (AIX)

El UNIX, en sus diversas formas, continúa afianzándose en su posición como la primera opción para aplicaciones de misión crítica, cruciales para el funcionamiento de las corporaciones u otras organizaciones. El UNIX también está integrado estrechamente al TCP/IP. Los protocolos TCP/IP surgieron a partir de UNIX debido a la necesidad de comunicaciones en LAN y WAN.

El entorno operativo Solaris de Sun Microsystems y su OS base, el SunOS, es una implementación de UNIX de 64 bits, versátil y de alto rendimiento. El Solaris funciona en una amplia gama de computadoras, desde equipos personales de tecnología Intel hasta poderosos mainframes y supercomputadoras. En la actualidad, Solaris es la versión más utilizada del UNIX en el mundo para grandes redes y sitios web de la Internet. Sun también ha desarrollado la tecnología Java, la cual proclama "Codifique una vez y córralo donde sea (Write Once, Run Anywhere)".

A pesar de la popularidad del Windows de Microsoft en las LAN corporativas, gran parte de la Internet funciona sobre poderosos sistemas UNIX. Aunque el UNIX se asocia con frecuencia a hardware costoso y no es amigable para el usuario, ha habido mejoras recientes, entre ellas la creación de Linux, que han cambiado dicha imagen.

Orígenes de Linux
En 1991, un estudiante finlandés llamado Linus Torvalds comenzó a trabajar en un sistema operativo para computadoras con procesador Intel 80386. Torvalds se sintió frustrado por la situación de los sistemas operativos de escritorio tales como el DOS, y por el costo y las trabas de licenciamiento de los UNIX comerciales. Torvalds se propuso desarrollar un sistema operativo que fuera como UNIX en su funcionamiento pero que utilizara un código de software abierto y fuese absolutamente gratis para el usuario.

El trabajo de Torvalds condujo a un esfuerzo de colaboración mundial para desarrollar el Linux, un sistema operativo de código fuente abierto que luce y se siente como el UNIX. Para finales de los años 90, el Linux se había convertido en una alternativa viable de UNIX para los servidores, y de Windows para los ambientes de escritorio. La popularidad de Linux en las PC de escritorio también ha contribuido al interés en el uso de otras versiones del UNIX, tales como la FreeBSD y la Solaris de Sun, en equipos de escritorio. En la actualidad existen versiones de Linux que pueden funcionar en casi cualquier procesador de 32 bits, y hasta en chips Intel 80386, Motorola 68000, Alpha y PowerPC.

Al igual que con el UNIX, existen numerosas versiones de Linux. Algunas son descargas gratis de la web y otras se distribuyen comercialmente. Las siguientes son algunas de las versiones más populares de Linux:

* El Red Hat Linux: distribuido por Red Hat Software
* El OpenLinux; distribuida por Caldera
* El Corel Linux
* El Linux de Slackware
* El Debian GNU/Linux
* El SuSE Linux

El Linux es hoy uno de los sistemas operativos más confiables y poderosos del mundo. Por ello, ya ha hecho avances como una plataforma para usuarios avanzados y en el escenario de los servidores corporativos. El Linux no es muy utilizado como sistema operativo de escritorio en las empresas. Aunque cuenta con interfaces gráficas de usuario (GUI) para hacerlo más amigable, la mayoría de los usuarios encuentran a Linux más difícil de utilizar que el Mac OS o el Windows. En la actualidad, muchas compañías tales como Red Hat, SuSE, Corel y Caldera se esfuerzan por hacer de Linux un sistema operativo de escritorio viable. –

Se debe tener en cuenta la disponibilidad de software al implementar Linux en sistemas de escritorio. La cantidad de programas de uso empresarial es limitada en comparación con el caso de Windows. Sin embargo, algunos distribuidores proveen programas de emulación de Windows como el WABI y el WINE, los cuales permiten que muchas de las aplicaciones de Windows se ejecuten sobre Linux. Además, compañías como Corel están fabricando versiones Linux de sus conjuntos de programas de uso empresarial y de otros paquetes populares de software.

Networking con Linux
Las versiones recientes de Linux incorporan componentes de red para conexión a LAN, conexión telefónica con la Internet o con redes remotas.. De hecho, los protocolos TCP/IP están integrados al kernel del Linux en lugar de estar implementados como un subsistema separado.

Algunas de las ventajas del Linux como sistema operativo de escritorio y como cliente de red son las siguientes:

* Es un verdadero sistema operativo de 32 bits.
* Soporta tareas múltiples aisladas y memoria virtual.
* El código fuente es abierto (open source) y por lo tanto está disponible para cualquiera que desee ampliarlo y mejorarlo.

6.1.7 Apple

Las computadoras Apple Macintosh fueron diseñadas para facilitar su conexión a redes en situaciones de grupos de trabajo par a par. Las interfaces de red se incluyen como parte del hardware original de fábrica y los componentes de networking están incorporados al sistema operativo Macintosh. Están disponibles adaptadores para redes Ethernet y Token Ring para las Macintosh.

Las computadoras Macintosh, o Macs, son populares en muchos departamentos gráficos de empresas y en instituciones educativas. Las Macs pueden conectarse entre ellas en grupos de trabajo y pueden tener acceso a servidores AppleShare de archivos. También pueden conectarse a LAN de PC que incluyan servidores Microsoft, NetWare o UNIX.

El Mac OS X (10)
El sistema operativo Mac OS X de Macintosh a veces recibe el nombre de Apple System 10.

Algunas de las características del Mac OS X se observan en su interfaz de usuario o GUI, llamada Aqua. La GUI Aqua luce como una combinación entre la GUI del Microsoft Windows XP y la X-windows del Linux. El Mac OS X está diseñado para ofrecer funciones para computadoras de uso en el hogar tales como navegación por Internet, edición fotográfica y de videos, y juegos, a la vez que continúa brindando características que proveen de poderosas herramientas adaptables que los profesionales de IT exigen de un sistema operativo.

El Mac OS X es totalmente compatible con las versiones anteriores de los sistemas operativos Macintosh. El Mac OS X provee una nueva característica que permite la conectividad a redes AppleTalk así como a redes Windows. El núcleo central del Mac OS X recibe el nombre de Darwin. El Darwin es un poderoso sistema basado en UNIX el cual brinda estabilidad y rendimiento. Estas mejoras proveen al Mac OS X de capacidades de memoria protegida, tareas múltiples aisladas , administración avanzada de la memoria y multiprocesamiento simétrico. Esto hace del Mac OS X un formidable competidor entre los sistemas operativos.

6.1.8 Concepto de servicio en los servidores

Los NOS están diseñados para proveer procesos de red a los clientes. Los servicios de red incluyen servidores web, el compartir archivos, intercambiar correo electrónico, los servicios de directorio, de administración remota y los servicios de impresión. La administración remota es un servicio poderoso que permite a los administradores configurar sistemas en red en lugares lejanos. Es importante comprender que estos procesos de red se denominan "servicios" en Windows 2000 y "daemons" en UNIX y Linux. Todos los procesos de red proveen las mismas funciones, pero la forma en que se cargan e interactúan con el NOS es diferente en cada sistema operativo.

Según cada NOS en particular, algunos de estos procesos claves de red pueden ser habilitados durante una instalación por defecto. Los procesos de red más populares se apoyan en el conjunto de protocolos TCP/IP. Como el TCP/IP es un conjunto de protocolos abierto y bien conocido, los servicios que se basan en TCP/IP son vulnerables a rastreos no autorizados y ataques malintencionados. Los Ataques de negación de servicio (DoS), los virus de computadora y los gusanos de Internet de rápida distribución han forzado a los creadores de NOS a reevaluar cuáles servicios de red se deben habilitar de forma automática.

Las versiones recientes de los NOS populares, tales como el Windows 2000 y el Red Hat Linux 7, restringen la cantidad de servicios de red que se habilitan por defecto. Al instalar un NOS, los servicios de red claves deben habilitarse de forma manual.

Cuando un usuario decide imprimir en un entorno de impresión en red, la tarea se envía a la cola correspondiente a la impresora elegida. Las colas de impresión ordenan los trabajos entrantes y los atienden siguiendo el esquema FIFO, "primero en entrar, primero en salir". Cuando se agrega un trabajo a la cola, se le coloca al final de la lista de espera y es el último en imprimirse. El tiempo de espera para la impresión a veces puede ser prolongado, en función del tamaño de los trabajos de impresión que se encuentren adelante en la cola. Un servicio de impresión en red proporciona a los administradores del sistema las herramientas necesarias para administrar un gran número de trabajos de impresión que se enrutan a través de la red. Esto incluye la capacidad de asignar prioridades, suspender temporalmente e inclusive eliminar los trabajos de impresión en la cola.

Compartir archivos
La capacidad de compartir archivos en una red es un importante servicio de red. Hoy en día existen muchos protocolos y aplicaciones para compartir archivos. Dentro de una red casera o corporativa, los archivos se comparten generalmente mediante Windows File Sharing o el protocolo NFS. En tales entornos, los usuarios finales podrían no necesitar saber si un archivo dado se encuentra en un disco duro local o en un servidor remoto. Al usar Windows File Sharing y NFS los usuarios pueden fácilmente trasladar, crear y borrar archivos en directorios remotos.

FTP
Muchas organizaciones hacen que los archivos estén disponibles para empleados remotos, clientes y para el público general mediante el protocolo FTP. Los servicios FTP se ofrecen al público en conjunto con los servicios web. Por ejemplo, un usuario puede navegar por un sitio web, leer acerca de una actualización de un software en una página web y luego descargar dicha actualización mediante FTP. Las compañías de menor tamaño pueden utilizar un único servidor para proveer los servicios FTP y HTTP, mientras que compañías de mayor tamaño podrían elegir utilizar servidores FTP dedicados.

Aunque los clientes FTP deben registrarse en el servidor, muchos servidores FTP están configurados para permitir el acceso anónimo. Cuando los usuarios se conectan de forma anónima, no necesitan tener una cuenta de usuario en el sistema. El protocolo FTP permite que los usuarios puedan cargar archivos al servidor así como cambiarles el nombre o borrarlos. Los administradores deben ser cuidadosos al configurar los niveles de acceso de un servidor FTP.

El FTP es un protocolo orientado a sesión. Los clientes deben abrir una sesión en la capa de aplicaciones con el servidor y luego realizar una acción como una descarga o una carga por ejemplo. Si la sesión del cliente permanece inactiva durante un cierto tiempo, el servidor desconecta al cliente. Este lapso de inactividad recibe el nombre de tiempo de espera. La duración del tiempo de espera del FTP varía según el software.

Servicios web
La World Wide Web es el servicio de red más notorio. En menos de una década, la World Wide Web se ha convertido en una red global de información, comercio, educación y entretenimiento. Millones de compañías, organizaciones e individuos mantienen sitios web en la Internet. Los sitios web son conjuntos de páginas web almacenadas en un servidor o grupo de servidores.

La World Wide Web se basa en el modelo cliente-servidor. Los clientes solicitan establecer sesiones TCP con servidores web. Una vez establecida la sesión, un cliente puede solicitar datos al servidor. Las peticiones del cliente y las transferencias del servidor son regidas por el protocolo HTTP. El software del cliente de la web incluye navegadores de interfaz gráfica tales como el Netscape Navigator y el Internet Explorer.

Las páginas web se alojan en computadoras que ejecutan el software de servicios web. Los dos paquetes de software para servidores web más comunes son el Microsoft Internet Information Services (IIS) y el Apache Web Server. El Microsoft IIS funciona sobre plataformas Windows y el Apache Web Server funciona sobre plataformas UNIX y Linux. Están disponibles paquetes de software de servicios web para casi todos los sistemas operativos vigentes hoy en día.

DNS
El protocolo DNS traduce un nombre de Internet, como por ejemplo "www.cisco.com", en una dirección IP. Muchas aplicaciones se apoyan en los servicios de directorio que provee el DNS para esta tarea. Todos lo navegadores de web, los programas de correo electrónico y los programas de transferencia de archivos utilizan nombres para identificar a los sistemas remotos. El protocolo DNS permite que estos clientes soliciten a los servidores DNS de la red la traducción de dichos nombres a direcciones IP. Las aplicaciones pueden entonces utilizar dichas direcciones para enviar sus mensajes. Sin este servicio de directorios de búsqueda, la Internet sería casi imposible de usar.

DHCP
El objetivo del protocolo DHCP es permitir que las computadoras individuales de una red IP reciban su configuración TCP/IP de uno o varios servidores DHCP. Los servidores DHCP no tienen información acerca de las computadoras individuales en la red hasta que reciben una solicitud de ellas. El objetivo global de este esquema es reducir el trabajo necesario para administrar una red IP de gran tamaño. La unidad de información más significativa que se distribuye de esta forma es la dirección IP, la cual identifica a cada host en la red. El DHCP también permite la captura y la renovación automática de las direcciones IP mediante un mecanismo de uso temporal. Este mecanismo asigna una dirección IP durante un tiempo específico, luego la libera y asigna al host una nueva dirección IP. El protocolo DHCP hace estas funciones mediante un servidor DHCP, el cual reduce significativamente el tiempo de administración del sistema.

6.2.1 Introducción a la administración de redes

A medida que una red evoluciona y crece, se convierte en un recurso cada vez más indispensable y crítico para la organización. A medida que los usuarios disponen de más recursos en la red, la red se vuelve más compleja y su mantenimiento se torna más complicado. La pérdida de los recursos de la red y el bajo rendimiento son el resultado de una mayor complejidad y son inaceptables para los usuarios. Los encargados de la red deben administrarla de forma activa, diagnosticar los problemas, evitar que se produzcan incidentes y brindar a los usuarios el mejor rendimiento de la red. Llega un momento en el que las redes se vuelven demasiado grandes para ser administradas sin herramientas automatizadas.

La administración de redes incluye las siguientes tareas:

* Monitoreo de la disponibilidad de la red.
* Mejoras en la automatización.
* Monitoreo del tiempo de respuesta.
* Proveer funciones de seguridad.
* Re-enrutamiento del tráfico.
* Capacidades de restauración.
* Registro de usuarios.

Las fuerzas que impulsan la administración de redes se muestran en la Figura y se explican a continuación:

* Control de los activos empresariales: si los recursos de una red no se controlan de forma efectiva, no proporcionarán los resultados exigidos por los procesos gerenciales.
* Control de la complejidad: con el crecimiento masivo del número de componentes, usuarios, interfaces, protocolos y proveedores de equipos, la pérdida de control de la red y de sus recursos amenaza los procesos gerenciales.
* Mejor nivel de servicio: los usuarios esperan un nivel de servicio igual o mejor a medida que crece la red y que aumente la distribución de los recursos.
* Equilibrio de las diversas necesidades: los usuarios deben poder contar con diversas aplicaciones a un nivel de servicio dado, con requisitos específicos en cuanto a rendimiento, disponibilidad y seguridad.
* Reducción de las interrupciones del servicio: garantizar una alta disponibilidad de los recursos mediante un adecuado diseño redundante.
* Control de costos: monitorear y controlar la utilización de los recursos a fin de satisfacer las necesidades del usuario a un costo razonable.

La Figura presenta algunos términos básicos relacionados con la administración de redes.

6.2.2 Modelo OSI y modelo de administración de redes

La Organización de Estándares Internacionales (ISO) creó una comisión para crear un modelo de administración de redes, bajo la dirección del grupo OSI.

Este modelo consta de cuatro partes:

* Organizacional.
* Informativo.
* Comunicacional.
* Funcional.

Esta es una visión de arriba hacia abajo de la administración de redes, dividida en cuatro submodelos y reconocida por el estándar OSI.

El submodelo Organizacional describe los componentes de la administración de redes tales como administrador, agente y otros, y sus interrelaciones. La estructura de estos componentes conduce a distintos tipos de arquitectura, los cuales se tratarán más adelante.

El submodelo Informativo trata de la estructura y almacenamiento de la información relativa a la administración de la red. Esta información se guarda en una base de datos la cual recibe el nombre de Base de datos de información sobre administración (MIB). La ISO definió la estructura de la información de administración (SMI) para especificar la sintaxis y la semántica de la información sobre administración que se guarda en la MIB. Más adelante se hablará de las MIB y la SMI en más detalle.

El submodelo Comunicacional trata de la forma como se comunican los datos de administración en el proceso agente-administrador. Atiende lo relacionado con el protocolo de transporte, el protocolo de aplicaciones y los comandos y respuestas entre pares.

El submodelo Funcional atiende las aplicaciones de administración de redes que residen en la estación de administración de la red (NMS). El modelo de administración de redes OSI distingue cinco áreas funcionales y a veces recibe el nombre de modelo FCAPS:

* Falla
* Configuración
* Responsabilidad
* Rendimiento
* Seguridad

Este modelo de administración de redes ha ganado una amplia aceptación por parte de los proveedores, como una forma útil de describir los requisitos de cualquier sistema de administración de red.

6.2.3 Estándares SNMP y CMIP

Para permitir la interoperabilidad de la administración en las distintas plataformas de red, se han creado estándares de administración de redes para que los proveedores puedan implementarlos y cumplirlos. Existen dos estándares principales:

* El Protocolo simple de administración de red (SNMP) – Comunidad IETF
* El Protocolo de información de administración común – Comunidad de las telecomunicaciones.

El SNMP en realidad se refiere a un conjunto de estándares para la administración de redes el cual incluye un protocolo, una especificación de la estructura de la base de datos y un conjunto de objetos de datos. El SNMP se adoptó como estándar para las redes TCP/IP en 1989 y se hizo muy popular. En 1993 se adoptó una actualización conocida como el SNMP versión 2c (SNMPv2c). El SNMPv2c brinda soporte a las estrategias administrativas distribuidas y centralizadas e incluía mejoras en la estructura de la información de administración (SMI), las operaciones de protocolo, la arquitectura administrativa y la seguridad. Se diseñó para operar en redes basadas tanto en OSI como en TCP/IP. El SNMPv3 surgió después. Para resolver las limitaciones del SNMPv1 y el SNMPv2c, el SNMPv3 brinda acceso seguro a las MIB mediante la autenticación y el cifrado de los paquetes que viajan por la red. El CMIP es un protocolo OSI de administración de redes creado y estandarizado por la ISO para el monitoreo y control de redes heterogéneas.

6.2.4 Operación del SNMP

El SNMP es un protocolo de la capa de aplicación diseñado para facilitar el intercambio de la información de administración entre los dispositivos de red. Al usar el SNMP para tener acceso a los datos de información de administración, tales como los paquetes enviados a una interfaz cada segundo o el número de conexiones TCP abiertas, los encargados de las redes pueden administrar más fácilmente el rendimiento a fin de encontrar y resolver los problemas en las redes.

El SNMP es en la actualidad el protocolo más popular para la administración de redes corporativas, universitarias y de investigación.

La actividad de estandarización continúa aun cuando los proveedores desarrollan y lanzan al mercado aplicaciones administrativas novedosas basadas en el SNMP. El SNMP es un protocolo sencillo, aunque su conjunto de funciones es lo suficientemente poderoso como para manejar los difíciles problemas relacionados con la administración de redes heterogéneas.

El submodelo Organizacional para la administración de redes basada en el SNMP incluye cuatro elementos:

* Estación de administración (NMS)
* Agente de administración
* Datos de información de administración
* Protocolo de administración de red

La NMS es generalmente una sola estación de trabajo independiente, pero puede implementarse entre varios sistemas. Incluye un conjunto de programas los cuales se denominan la Aplicación de administración de redes (NMA). La NMA incluye una interfaz de usuario que permite a los administradores autorizados la administración de la red. Responde a comandos de usuario emitidos en toda la red. Los agentes de administración son módulos de software de administración de red que residen en dispositivos de red claves tales como otros hosts, routers, puentes y hubs. Responden a peticiones de información y a peticiones de acción por parte de la NMS, tales como peticiones de sondeo, y pueden proporcionar a la NMS información importante pero no solicitada tales como las notificaciones de incidentes conocidas como traps. Toda la información de administración de un agente en particular se guarda en la base de datos de información de administración de dicho agente. Un agente puede realizar el seguimiento de:

* Cantidad y estado de sus circuitos virtuales.
* Cantidad recibida de ciertos tipos de mensajes de error.
* Cantidad de bytes y de paquetes que entran y salen del dispositivo.
* Longitud máxima de la cola de entrada para los routers y otros dispositivos de internetworking.
* Mensajes de broadcast enviados y recibidos.
* Interfaces de red que se desactivan y que se activan.

La NMS realiza la función de monitoreo mediante la recuperación de los datos de la MIB. La NMS puede hacer que se inicie una acción en un agente. La comunicación entre el administrador y el agente se realiza mediante un protocolo de administración de la red de la capa de aplicaciones. El SNMP utiliza el Protocolo de datagrama de usuario (UDP) y se comunica mediante los puertos 161 y 162. Actúa mediante un intercambio de mensajes. Los tipos de mensajes más comunes son tres:

* Get (Obtener): permite a la estación administrativa recuperar el valor de los objetos de la MIB correspondientes al agente.
* Set (Establecer): permite a la estación administrativa establecer el valor de los objetos de la MIB correspondientes al agente.
* Trap: permite al agente notificar de eventos significativos a la estación administrativa.

Este modelo se conoce como un modelo de dos niveles. Sin embargo, este modelo considera que todos los elementos de la red se pueden administrar mediante SNMP. Ese no es siempre el caso ya que algunos dispositivos cuentan con una interfaz de administración propietaria. En esos casos se requiere de un modelo de tres niveles. Un administrador de redes que desee obtener información o controlar ese dispositivo propietario se comunica con un agente intermediario. El agente intermediario traduce entonces esta petición SNMP del administrador a la forma adecuada para el dispositivo en cuestión y utiliza el protocolo de administración propietario que sea apropiado para comunicarse con el dispositivo. Las respuestas del dispositivo hacia el agente intermediario se traducen en mensajes SNMP y se envían de vuelta al administrador.

Las aplicaciones administrativas de red a menudo descargan parte de la funcionalidad administrativa en una sonda RMON (de monitoreo remoto). La sonda RMON recoge información de administración a nivel local y el administrador de la red recupera periódicamente un resumen de dicha información.

La NMS es una estación de trabajo común que ejecuta un sistema operativo típico. Cuenta con una gran cantidad de RAM para guardar todas las aplicaciones administrativas que funcionan simultáneamente. En ella se ejecuta una pila convencional de protocolos de red, como TCP/IP. Las aplicaciones administrativas de la red se apoyan en el sistema operativo del host y en su arquitectura de comunicaciones. Ejemplos de aplicaciones administrativas de red son la Ciscoworks2000, la HP Openview y el IBM NetView.

Como ya se ha mencionado, el administrador puede ser una estación de trabajo independiente centralizada que envía peticiones a todos los agentes, sin tener en cuenta dónde están ubicados. En una red distribuida, una arquitectura descentralizada resulta más apropiada, al proveer una NMS local para cada red local. Estas NMS distribuidas pueden actuar de acuerdo a una arquitectura cliente-servidor, en la que una NMS actúa como un servidor maestro y las otras como clientes. Los clientes envían sus datos al servidor maestro para que éste centralice su almacenamiento. Una alternativa es que todas las NMS distribuidas tengan responsabilidades similares, cada una con sus bases de datos de administración propias, de modo que la información de administración se distribuya de par a par entre las NMS.

6.2.5 Estructura de la información de administración y de las MIB

Las MIB se utilizan para guardar información estructurada que representa los elementos de la red y sus atributos. La estructura en sí está definida por un estándar llamado SMI, el cual define los tipos de datos que se pueden utilizar para guardar un objeto, cómo se les da nombre a dichos objetos y cómo se codifican para su transmisión a través de la red.

Las MIB son depósitos muy estructuradas de información sobre los dispositivos. Existen muchas MIB estándar, pero son más numerosas las MIB propietarias utilizadas para administrar los dispositivos de los diversos proveedores. La MIB original constaba de ocho grupos diferentes que totalizan 114 objetos administrados. Se agregaron grupos adicionales al definir la MIB-II, la cual reemplaza hoy en día a la MIB-I.

Todos los objetos administrados en el entorno SNMP se encuentran dispuestos en una estructura jerárquica también conocida como de árbol. Los objetos que representan las hojas de los árboles, que son los elementos que aparecen en la parte inferior del diagrama, son los objetos administrados propiamente dichos. Cada objeto administrado representa algún recurso, actividad o información relativa que se debe administrar. Un identificador único del objeto, el cual es un número en notación punteada, identifica a cada uno de los objetos administrados. Cada identificador de objeto es descrito mediante la notación de sintaxis abstracta (ASN.1).

El SNMP utiliza estos identificadores de objeto para identificar las variables de la MIB a recuperar o modificar. Los objetos de dominio público, no propietarios, se describen en las MIB introducidas en la correspondiente solicitud de comentarios (RFC). Es posible encontrarlas en: http://www.ietf.org

Se insta a todos los proveedores a hacer públicas sus definiciones de MIB. Una vez otorgado el código de empresa, el proveedor es responsable de crear y mantener los sub-árboles.

6.2.6 Protocolo SNMP

Los agentes son funciones de software incorporados a la mayoría de los dispositivos de red como por ejemplo los routers, switches, hubs administrados, impresoras y servidores. Son responsables de procesar las solicitudes SNMP del administrador. También son responsables de ejecutar las rutinas que mantienen las variables, según se definen en las diversas MIB que soportan.

El SNMP facilita la interacción entre el administrador y los agentes. El término "sencillo" en "Protocolo Sencillo de Administración de Redes" (SNMP) viene del número restringido de tipos de mensajes que forman parte de la especificación de protocolo inicial. La estrategia fue establecida para facilitar a los programadores la creación de capacidades de administración en los dispositivos de red. La especificación de protocolo inicial se conoce como SNMPv1 (versión 1).

Los tipos de mensajes SNMP que emite la NMS son tres. Ellos son GetRequest, GetNextRequest y SetRequest. El agente acusa recibo de los tres mensajes en forma de un mensaje GetResponse. Un agente puede emitir un mensaje Trap en respuesta a un incidente que afecte a la MIB y a los recursos subyacentes.

El desarrollo del SNMPv2c buscó resolver las limitaciones del SNMPv1. Las mejoras más notables fueron la introducción del tipo de mensaje GetBulkRequest y la adición de contadores de 64 bits a la MIB. El recuperar información mediante GetRequest y GetNextRequest era un método ineficiente para recolectar la información. En el SNMPv1 sólo se podía solicitar una variable a la vez. El tipo de mensaje GetBulkRequest soluciona esta debilidad ya que solicita más información con una sola petición. En segundo lugar, los contadores de 64 bits resolvieron el problema del rápido reinicio de los contadores, especialmente con los enlaces de mayor velocidad como Gigabit Ethernet.

A la entidad de administración también se la conoce como el administrador o NMS. Es responsable de solicitar información al agente. Las solicitudes se basan en peticiones muy específicas. El administrador procesa la información recuperada de diversas maneras. Puede llevarse un registro de la información recuperada para su análisis posterior, puede mostrarse mediante un programa de graficación o puede compararse con valores preconfigurados para comprobar si se ha cumplido con alguna condición en particular.

No todas las funciones de administración se basan en la recuperación de datos. También está la capacidad de efectuar cambios en un valor en el dispositivo administrado. Esta característica le permite al administrador configurar un dispositivo administrado mediante el SNMP.

La interacción entre el administrador y el dispositivo administrado introduce tráfico en la red. Se debe tener cuidado al introducir administradores en la red. Las estrategias agresivas de monitoreo pueden afectar negativamente el rendimiento de la red. La utilización del ancho de banda será mayor y también puede ser un problema en los entornos WAN. El monitoreo tiene además un impacto en el rendimiento de los dispositivos monitoreados, ya que se ocupan de procesar las peticiones del administrador. Este procesamiento no debe tomar precedencia sobre los servicios de producción.

La regla general es que se debe solicitar la mínima cantidad de información con la menor frecuencia posible. Se debe determinar cuáles son los dispositivos y enlaces más críticos y que tipo de información se requiere.

El SNMP utiliza el protocolo de datagrama de usuario (UDP) como protocolo de transporte. Como el UDP no está orientado a conexiones y no es confiable, es posible que se pierdan mensajes a nivel del SNMP. El SNMP en sí mismo no cuenta con mecanismos que garanticen la entrega de los mensajes, de modo que la aplicación que utiliza SNMP está a cargo de resolver las pérdidas de mensajes.

Cada mensaje SNMP contiene una cadena de texto no cifrado denominada cadena de comunidad. La cadena de comunidad se utiliza como una contraseña para restringir el acceso a los dispositivos administrados. El SNMPv3 busca resolver los problemas de seguridad que surgen de la transmisión de la cadena de comunidad en texto no cifrado.

Una muestra de cómo es la apariencia de un mensaje SNMPv2c se puede ver en la Figura . Una presentación detallada del protocolo se encuentra en el estándar RFC1905 de la Internet.

El hecho de que la cadena de comunidad no esté cifrada no será sorpresa para alguien que haya estudiado el conjunto de protocolos IP. Todos los campos especificados en dicho conjunto de protocolos usan texto sin cifrar, excepto en lo relativo a las especificaciones de cifrado y la autenticación de seguridad.

La cadena de comunidad creó una previsión en el estándar hasta que el grupo de trabajo de SNMPv2 pudo ratificar los mecanismos de seguridad. Se encargó ese desarrollo al grupo de trabajo del SNMPv3. Todas las aplicaciones de administración basadas en el SNMP necesitan configurarse para utilizar las cadenas de comunidad apropiadas. Es frecuente que algunas organizaciones cambien los valores de la cadena de comunidad para reducir el riesgo de actividades malintencionadas que hacen uso no autorizado del servicio SNMP.

A pesar de la debilidad asociada con la autenticación a nivel de comunidad, las estrategias de administración aun se basan en el SNMPv1. Los dispositivos Cisco soportan los tipos de mensaje del SNMPv3 y sus capacidades aumentadas de seguridad, pero la mayoría de las aplicaciones administrativas del software no soportan el SNMPv3.

El SNMPv3 permite la convivencia de múltiples modelos de seguridad.

6.2.7 Configuración del SNMP

Para que la NMS se comunique con los dispositivos de red, éstos deben habilitar el SNMP y configurar sus cadenas de comunidad. Estos dispositivos se configuran mediante los comandos que se describen en los párrafos a continuación.

Permite más de una cadena de sólo-lectura. En la mayoría de los sistemas dicha cadena de comunidad es pública por defecto. No se recomienda utilizar el valor por defecto en redes corporativas. Para establecer la cadena de comunidad de sólo-lectura que utilizará el agente, utilice el siguiente comando:

Router(config)#snmp-server community string ro

* String : la cadena de comunidad que actúa como contraseña y le da acceso al protocolo SNMP.
* ro: (Opcional) especifica el acceso en modo sólo-lectura. Las estaciones de administración autorizadas sólo pueden recuperar objetos MIB.

Soporta más de una cadena de lectura-escritura. Todos los objetos SNMP permiten el acceso a la escritura. En la mayoría de los sistemas esta cadena de comunidad es privada por defecto. No se recomienda utilizar el valor por defecto en redes corporativas. Para establecer la cadena de comunidad de lectura-escritura que utilizará el agente, utilice el siguiente comando:

Router(config)#snmp-server community string rw

* rw: (Opcional) Especifica el acceso de lectura-escritura. Las estaciones de administración autorizadas pueden tanto recuperar como modificar los objetos MIB.

Existen diversas cadenas que pueden ser utilizadas para especificar la ubicación de un dispositivo administrado y el contacto principal en relación a dicho dispositivo.

Router(config)#snmp-server locationtext
Router(config)#snmp-server contact text

* location text : Cadena que indica la información acerca de la ubicación del dispositivo en el sistema.
* contact text : Cadena que indica la información acerca del contacto principal en relación a dicho dispositivo.

Estos valores se guardan en los objetos MIB sysLocation y sysContact.

6.2.8 RMON

El RMON es un gran paso hacia la administración de redes interconectadas. Define una MIB de monitoreo remoto la cual complementa a la MIB-II y provee información vital sobre la red al administrador de redes. La característica más notable del RMON es que a pesar de que es sólo una sencilla especificación de una MIB, sin cambios en el protocolo SNMP subyacente, brinda una importante expansión en la funcionalidad del SNMP.

Con la MIB-II, el administrador de la red puede obtener información que es exclusivamente particular de los dispositivos individuales. Suponga una LAN con un número de dispositivos conectados, cada uno con un agente SNMP. Un administrador SNMP puede conocer la cantidad de tráfico que entra y sale de cada dispositivo, pero con la MIB-II no puede conocer fácilmente la información acerca del tráfico global de la LAN.

La administración de redes en entornos de redes interconectadas requiere por lo general de un monitor por cada subred.

El estándar RMON se designaba originalmente como IETF RFC 1271, hoy conocido como la RFC 1757, y se diseñó para proporcionar el monitoreo y diagnóstico proactivo de redes distribuidas. Los dispositivos de monitoreo, llamados agentes o sondas, en segmentos críticos de la red permiten la creación de alarmas definidas por el usuario y la recolección de gran cantidad de estadísticas vitales mediante el análisis de cada trama en un segmento.

El estándar RMON divide las funciones de monitoreo en nueve grupos para soportar las topologías de Ethernet y agrega un décimo grupo en la RFC 1513 para los parámetros que son exclusivos de Token Ring. El estándar RMON se creó para ser implementada según una arquitectura de computación distribuida, donde los agentes y las sondas se comunican con una estación central de administración, un cliente, por medio del SNMP. Estos agentes han definido estructuras MIB para los nueve o diez grupos RMON Token Ring y Ethernet, lo que permite la interoperabilidad entre los diversos proveedores de herramientas de diagnóstico basadas en RMON. Los grupos RMON se definen como:

* Grupo de estadísticas: lleva las estadísticas de errores y de utilización para la subred o segmento que se monitorea. Unos ejemplos son la utilización de ancho de banda, broadcast, multicast, alineación de CRC, fragmentos entre otros.
* Grupo de historial: conserva muestras estadísticas periódicas del grupo de estadística y las almacena para su posterior recuperación. Unos ejemplos son la utilización, el recuento de errores y el recuento de paquetes.
* Grupo de alarma: permite que el administrador establezca un intervalo y umbral de muestreo para cualquier elemento que registre el agente. Unos ejemplos son los valores absolutos o relativos y umbrales ascendentes y descendentes.
* Grupo de hosts: define la medición de los distintos tipos de tráfico desde y hacia los hosts conectados a la red. Unos ejemplos son paquetes enviados o recibidos, bytes enviados o recibidos, errores y paquetes de multicast y broadcast.
* Grupo Host TopN: proporciona un informe de los hosts TopN que se basa en las estadísticas del grupo host.
* Grupo de matriz de tráfico: almacena los errores y las estadísticas de utilización para pares de nodos que se comunican en la red. Unos ejemplos son errores, bytes y paquetes.
* Grupo de filtro: un software de filtro el cual genera una corriente de paquetes a partir de las tramas que coinciden con el patrón especificado por el usuario.
* Grupo de captura de paquetes: define cómo los paquetes que coinciden con los criterios del filtro se guardan internamente en la memoria buffer.
* Grupo de incidentes: permite que se lleve un registro de los incidentes, también llamado generación de traps, junto con la fecha y hora en la cual se produjeron. Unos ejemplos son los informes confeccionados según el tipo de alarma.

6.2.9 Syslog

El programa de registro syslog de Cisco se basa en el programa syslog de UNIX. En general, los sucesos del sistema se registran en la consola del sistema a menos que no esté activa. El programa syslog es un mecanismo para las aplicaciones, procesos y el sistema operativo de los dispositivos de Cisco el cual permite informar acerca de condiciones de error y de actividad. El protocolo syslog se utiliza para que los dispositivos Cisco puedan enviar mensajes no solicitados a una estación de administración de la red.

Cada mensaje de syslog registrado está asociado a una marca horaria, un equipo, una severidad y un mensaje textual de registro. Estos mensajes son a veces el único medio para diagnosticar las fallas de un dispositivo.

El nivel de severidad indica la importancia del mensaje de error. Existen ocho niveles de severidad, entre el 0 y el 7. El nivel 0 (cero) es el más crítico y el nivel 7 es el menos crítico. Los niveles son los siguientes:

0
Emergencias

1
Alertas

2
Crítico

3
Errores

4
Advertencias

5
Notificaciones

6
Informativo

7
Depuración

Los campos de equipo y nivel de severidad se utilizan para procesar los mensajes. Los niveles 0 (cero) a 7 identifican tipos de equipos a efectos del procesamiento particular de los mensajes de registro. El IOS de Cisco establece por defecto el nivel de severidad 6. Este ajuste es configurable.

Para que la NMS pueda recibir y hacer el registro de los mensajes del sistema provenientes de un dispositivo, este último debe tener configurado el syslog. A continuación se da una breve descripción de los comandos que se usan para configurar estos dispositivos:

Para permitir el registro a todos los destinos soportados:

Router(config)#logging on

Para enviar mensajes de registro a un host de un servidor syslog, como por ejemplo CiscoWorks2000:

Router(config)#logginghostname | ip address

Para establecer el nivel de severidad del registro en el nivel 6, Informativo:

Router(config)#logging trap informational

Para incluir una marca horaria con el mensaje de syslog:

Router(config)#service timestamps log datetime

Resumen

Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave:

* Funciones de una estación de trabajo y de un servidor.
* El papel de los diversos equipos en un entorno cliente/servidor.
* El desarrollo de los Sistemas operativos para networking (NOS).
* Generalidades sobre las distintas plataformas Windows.
* Generalidades sobre algunas de las alternativas a los sistemas operativos Windows.
* Razones para la administración de redes.
* Las capas del modelo de administración de redes y el modelo OSI.
* Tipos y aplicación de las herramientas de administración de redes.
* El papel que el SNMP y el CMIP desempeñan en el monitoreo de las redes.
* Cómo el software de administración recopila información y lleva un registro de los problemas.
* Cómo recopilar informes acerca del desempeño de la red.

by sdominguez.com

Prepara tu certificación o examén ccna y ccnp.

Semestre 4 CCNA, Módulo 5

Módulo 5: Frame Relay

Descripción general

La tecnología Frame Relay se creó originalmente como una extensión de la tecnología ISDN. Fue diseñada para permitir que la tecnología de conmutación por circuitos viaje por redes conmutadas por paquetes. Frame Relay se ha convertido en un esquema independiente y económico de crear WANs.

Los switches Frame Relay crean circuitos virtuales para la interconexión de LANs remotas a WANs. La red Frame Relay se establece entre un dispositivo de frontera de una LAN, por lo general un router, y el switch del proveedor del servicio. La tecnología utilizada por el proveedor para transportar los datos entre los switches no es importante en el caso de Frame Relay.

La complejidad de la tecnología requiere una profunda comprensión de los términos utilizados para describir el funcionamiento de la tecnología Frame Relay. Sin una completa comprensión de la tecnología Frame Relay, es difícil diagnosticar las fallas de desempeño.

La tecnología Frame Relay se convirtió en uno de los protocolos WAN más utilizados. Una de las razones de su popularidad es que resulta atractiva económicamente cuando se la compara con líneas arrendadas. Otra razón por la que es tan popular es que la configuración del equipo del usuario en las redes Frame Relay es muy sencilla.

Este módulo explica cómo configurar Frame Relay en un router Cisco. Las conexiones Frame Relay se crean al configurar routers u otros dispositivos para comunicarse con un switch Frame Relay. El proveedor del servicio, en general, configura el switch Frame Relay. Esto ayuda a mantener las tareas de configuración del usuario final al mínimo.

Los estudiantes que completen este módulo deberán ser capaces de:

* Explicar el alcance y propósito de Frame Relay.
* Analizar la tecnología Frame Relay.
* Comparar las topologías punto a punto y punto a multipunto.
* Examinar la topología de una red Frame Relay.
* Configurar un Circuito virtual permanente (PVC) de Frame Relay.
* Crear un mapa de asignaciones Frame Relay en una red remota.
* Explicar los problemas de una red multiacceso sin broadcast.
* Analizar la necesidad de subinterfaces y cómo configurarlas.
* Verificar y diagnosticar fallas en una conexión Frame Relay.


5.1 Conceptos de Frame Relay

5.1.1 Introducción a la tecnología Frame Relay

La tecnología Frame Relay es un estándar del Sector de Normalización de Telecomunicaciones de la Unión Internacional de Telecomunicaciones (UIT-T) y del Instituto Nacional Americano de Normalización (ANSI). Frame Relay es un servicio WAN de conmutación de paquetes, orientado a conexión. Opera en la capa de enlace de datos del modelo de referencia OSI. Frame Relay utiliza un subconjunto del protocolo de Control de enlace de datos de alto nivel (HDLC) llamado Procedimiento de acceso a enlaces para Frame Relay (LAPF) Las tramas transportan datos entre los dispositivos de usuarios, llamados equipo terminal de datos (DTE), y el equipo de comunicaciones de datos (DCE) en la frontera de la WAN.

Originalmente, Frame Relay fue diseñada para permitir que los equipos ISDN tuvieran acceso a servicios conmutados por paquetes en un canal B. Sin embargo, Frame Relay es ahora una tecnología independiente.

Una red Frame Relay puede ser privada, pero es más común que se use los servicios de una compañía de servicios externa. Una red Frame Relay consiste, en general, de muchos switches Frame Relay esparcidos geográficamente, los cuales se interconectan mediante líneas troncales.

Con frecuencia, se usa Frame Relay para la interconexión de LANs. En estos casos, un router en cada una de las LANs será el DTE. Una conexión serial, como una línea arrendada T1/E1, conecta el router al switch Frame Relay de la compañía de servicio en su punto de presencia más cercano al router. El switch Frame Relay es un dispositivo DCE. Las tramas se envian y entregan desde un DTE a otro DTE utilizando la red de Frame Relay creada por los DCE de la compañía de servicios.

Otros equipos de computación que no se encuentren en la LAN pueden también enviar datos a través de la red Frame Relay. Dichos equipos utilizan como DTE a un dispositivo de acceso a Frame Relay (FRAD).

5.1.2 Frame Relay - Terminología

La conexión a través de la red Frame Relay entre dos DTE se denomina circuito virtual (VC). Los circuitos virtuales pueden establecerse de forma dinámica mediante el envío de mensajes de señalización a la red. En este caso se denominan circuitos virtuales conmutados (SVC). Sin embargo, los SVC no son muy comunes. Por lo general se usan circuitos virtuales permanentes (PVC), previamente configurados por la compañía de servicios. Un VC se crea al almacenar la información de asignación de puerto de entrada a puerto de salida en la memoria de cada switch y así se enlaza un switch con otro hasta que se identifica una ruta continua de un extremo del circuito al otro.

Frame Relay no tiene mecanismos de recuperación de errores, porque fue diseñada para operar en líneas digitales de alta calidad. Si un nodo detecta un error en la trama, se descarta sin notificación.

El FRAD o router conectado a la red Frame Relay puede disponer de múltiples circuitos virtuales que lo conectan a diversos destinos. Esto hace que Frame Relay sea una alternativa muy económica a las marañas de líneas de acceso. Con esta configuración, todos los destinos comparten una sola línea de acceso y una sola interfaz. Se generan ahorros adicionales ya que la capacidad de la línea de acceso se establece según las necesidades de ancho de banda promedio de los circuitos virtuales, y no según las necesidades máximas de ancho de banda.

Los diversos circuitos virtuales en la línea de acceso única se diferencian mediante un identificador de canal de enlace de datos (DLCI) para cada circuito. El DLCI se almacena en el campo de dirección de cada trama transmitida. El DLCI en general tiene sólo importancia local y puede ser diferente en cada extremo de un VC.

5.1.3 Frame Relay - Soporte de las capas de la pila OSI

La tecnología Frame Relay opera de acuerdo al siguiente esquema:

* Toma los paquetes de datos provenientes de un protocolo de capa de red como IP o IPX.
* Los encapsula como la porción de datos de una trama Frame Relay
* Los pasa a la capa física para que su envío por el cable

La Secuencia de verificación de trama (FCS) se utiliza para determinar si durante la transmisión se produjo algún error en el campo de dirección de la Capa 2. La FCS se calcula antes de la transmisión y el resultado se inserta en el campo de la FCS. En el otro extremo, un segundo valor de FCS se calcula y compara con la FCS de la trama. Si los resultados son iguales, se procesa la trama. Si existe una diferencia, la trama se descarta. No se envía una notificación a la fuente cuando se descarta una trama. El control de errores tiene lugar en las capas superiores del modelo OSI.

5.1.4 Frame Relay - Control de flujo y ancho de banda

La conexión serial o el enlace de acceso a la red Frame Relay se hace, generalmente, mediante una línea arrendada. La velocidad de la línea es la velocidad de acceso o velocidad de puerto. Las velocidades de puerto por lo general son de 64 Kbps y 4 Mbps. Algunos proveedores ofrecen velocidades de hasta 45 Mbps.

En general, hay varios PVC operando en el enlace de acceso y cada VC tiene disponibilidad de ancho de banda dedicada. Esto se denomina velocidad de información suscrita (CIR). La CIR es la velocidad a la que el proveedor del servicio acuerda aceptar bits en el VC.

Las CIR individuales son por lo general menores a la velocidad del puerto. Sin embargo, la suma de las CIR, en general, será mayor que la velocidad del puerto. Algunas veces, este factor es de 2 o 3. La multiplexión estadística aprovecha el hecho de que las comunicaciones en computación son usualmente por ráfagas, lo que hace improbable que los diversos canales estén a su máxima velocidad de transmisión de datos al mismo tiempo.

Mientras se transmite una trama, todos sus bits se envían a la velocidad del puerto. Por esta razón, debe haber un intervalo entre tramas en el VC si la velocidad promedio va a ser la de CIR.

El switch acepta las tramas del DTE a velocidades que exceden al CIR. Esto efectivamente brinda a cada canal un ancho de banda por demanda, cuyo máximo es la velocidad del puerto. Algunos proveedores de servicio imponen un máximo a cada VC, el cual es inferior a la velocidad del puerto. La diferencia entre la CIR y la velocidad máxima, ya sea que el máximo corresponda a la velocidad de puerto o sea menos, se llama Velocidad de información excesiva (EIR).

El intervalo de tiempo con el cual se calculan las velocidades se llama tiempo suscrito (Tc). El número de bits suscritos durante un período Tc es la ráfaga suscrita (Bc). El número adicional de bits que exceda la ráfaga suscrita, hasta la velocidad máxima del enlace de acceso, es la ráfaga excesiva (Be).

Aunque el switch acepta el tráfico de tramas que excede la CIR, el switch activa (es decir, coloca en "1";) el bit elegible de descarte (DE) en el campo de la dirección a todas las tramas que se excedan.

El switch mantiene un contador de bits para cada VC. Cualquier trama entrante que lleve al contador mayor a la Bc se marca como DE. Una trama entrante se descarta si lleva el contador mayor a la suma de Bc + Be. Después de cada Tc segundos se reinicia el contador. El contador no puede ser negativo, de modo que no es posible acumular el tiempo de inactividad.

Las tramas que entran a un switch se ponen en cola en un buffer de memoria antes de su envío. Como en cualquier sistema de colas, es posible que haya una acumulación excesiva de tramas en el switch. Eso causa retardos. Los retardos acarrean retransmisiones innecesarias que tienen lugar cuando los protocolos de las capas superiores no reciben acuses de recibo dentro de un tiempo determinado. En casos severos esto puede provocar un descenso importante en la velocidad de la red.

Para evitar este problema, los switches Frame Relay incorporan una política de descarte de tramas para acortar las colas. Las tramas con el bit DE activo son las primeras en eliminarse.

Cuando un switch detecta el crecimiento de su cola, trata de reducir el flujo de tramas hacia él. Esto lo hace notificando a los DTE de la existencia del problema, al activar los bits de la notificación explícita de congestión (ECN) en el campo de dirección de las tramas.

El bit de Notificación explícita de congestión hacia adelante (FECN) se activa en cada trama que el switch recibe en el enlace congestionado. El bit de Notificación explícita de congestión hacia atrás (BECN) se configura en cada trama que el switch coloca en el enlace congestionado. Se espera que los DTE que reciben tramas con el grupo de bits ECN activos intenten reducir el flujo de tramas hasta que la congestión desaparezca.

Si la congestión tiene lugar en un troncal interno, los DTE pueden recibir una notificación aun cuando ellos no sean la causa.

Los bits DE, FECN y BECN forman pare del campo de dirección de las tramas LAPF.

5.1.5 Frame Relay - Topología y mapas de direcciones

Cuando se requiere interconectar más de dos lugares, es necesario tener en cuenta la topología de las conexiones entre ellos.

Es improbable que Frame Relay sea económica cuando sólo se necesita interconectar dos lugares mediante una conexión punto a punto. Frame Relay resulta más atractiva económicamente cuando se requiera interconectar múltiples lugares.

Con frecuencia, las WAN se interconectan mediante una topología en estrella.

El nodo central aloja los servicios primarios y se conecta a todos los lugares remotos que necesitan tener acceso a los servicios.

En una topología en estrella, la ubicación de el nodo central se elige de modo que resulte en el menor costo de líneas arrendadas. Al implementar una topología en estrella con Frame Relay, cada ubicación remota tiene un enlace de acceso a la nube de Frame Relay mediante un único VC. El nodo central tiene un enlace de acceso con múltiples VC, uno por cada ubicación remota. Debido a que las tarifas de Frame Relay no se establecen en función de la distancia, el nodo central no necesita estar situado en el centro geográfico de la red.

Se elige una topología de malla completa cuando los servicios a los que se debe tener acceso están geográficamente dispersos y se necesita de un acceso altamente confiable a los mismos. Con una malla completa, todos los sitios están interconectados entre ellos. A diferencia de lo que ocurre con las interconexiones mediante líneas arrendadas, con Frame Relay se puede implementar una malla completa sin hardware adicional. Es necesario configurar VC adicionales en los enlaces existentes para pasar de una topología en estrella a una de malla completa. En general, los múltiples VC en un enlace de acceso harán mejor uso del Frame Relay que un VC único. Esto se debe a que ellos aprovechan la multiplexión estadística integrada.

En las redes de gran tamaño la topología de malla completa rara vez resulta atractiva económicamente. Esto se debe a que el número de enlaces necesario para una topología de malla completa crece hasta alcanzar casi el cuadrado del número de lugares. Aunque en Frame Relay los equipos no son un problema, hay un límite de 1000 VC por enlace. En la práctica el límite es inferior y las redes de mayor tamaño usan por lo general una topología de malla parcial. Con la malla parcial, hay más interconexiones que las de una disposición en estrella, pero no tantas como en una malla completa. El esquema a usar depende en mucho de las necesidades de flujo de datos.

Puede haber problemas de alcance, sin importar la topología de Frame Relay, cuando se usa una sola interfaz para interconectar varios lugares. Esto se debe a la naturaleza de acceso múltiple sin broadcast (NBMA) de la tecnología Frame Relay. El horizonte dividido es una técnica que se utiliza en los protocolos de enrutamiento para prevenir los loops de enrutamiento. El horizonte dividido no permite el envío de actualizaciones de enrutamiento por la misma interfaz que originó la información de la ruta. Esto puede causar problemas en las actualizaciones de enrutamiento en un entorno de Frame Relay donde múltiples PVC comparten una sola interfaz física.

No importa cuál sea la topología subyacente de la red física, todos los FRAD o routers necesitan una vinculación entre las direcciones Frame Relay de la capa de enlace de datos y las dirección de la capa de red, por ejemplo: las direcciones IP. Principalmente, el router necesita saber cuáles redes se pueden alcanzar más allá de una interfaz en particular. Existe el mismo problema si una línea arrendada ordinaria se conecta a una interfaz. La diferencia es que el extremo remoto de una línea arrendada se conecta directamente a un único router. Las tramas del DTE viajan a través de la línea arrendada hasta el switch de la red, donde pueden esparcirse a muchos routers, hasta 1000. El DLCI de cada VC debe estar vinculado a la dirección de red de su router remoto. La información se puede configurar de forma manual mediante los comandos de asignaciones. El DLCI puede configurarse de manera automática mediante el protocolo ARP inverso. Este proceso se describe en más detalle en otra sección.

5.1.6 Frame Relay - LMI

La tecnología Frame Relay fue diseñada para ofrecer transferencias de datos conmutados por paquetes con un mínimo retardo de extremo a extremo. Se omitió todo lo que pudiera contribuir a los retardos. Cuando los fabricantes implementaron la Frame Relay como una tecnología separada y no como un componente de ISDN, decidieron que era necesario disponer de DTE para obtener información sobre el estado de la red de forma dinámica. Esta característica no estaba incluida en el diseño original. Las extensiones creadas para habilitar la transferencia de la información de estado se llaman Interfaz de administración local (LMI).

El campo de 10 bits del DLCI permite identificadores de VC que van desde 0 hasta 1023. Las extensiones LMI se reservan algunos de estos identificadores. Esto reduce el número de VC permitidos. Los mensajes LMI se intercambian entre los DTE y los DCE utilizando los DLCI reservados.

Las extensiones LMI incluyen las siguientes:

* El mecanismo de actividad, el cual comprueba que un VC esté en funcionamiento
* El mecanismo multicast
* El control de flujo
* La capacidad de dar significado global a los DLCIs.
* El mecanismo de estado de los VC

Existen varios tipos de LMI, todos incompatibles entre ellos. El tipo de LMI configurado en el router debe coincidir con el utilizado por el proveedor de servicios. Los routers Cisco soportan tres tipos de LMI:

* Cisco: las extensiones LMI originales
* ANSI: las correspondientes al estándar ANSI T1.617 Anexo D
* q933a: las correspondientes al estándar UIT Q933 Anexo A

Los mensajes LMI se envían a través de una variante de las tramas LAPF. Esta variante incluye cuatro campos adicionales en el encabezado, a fin de hacerlos compatibles con las tramas LAPD que se utilizan en la tecnología ISDN. El campo de dirección lleva uno de los DLCI reservados. Seguido a esto se encuentran los campos de control, de discriminación de protocolos y el de referencia de llamadas, los cuales no cambian. El cuarto campo indica el tipo de mensaje LMI.

Hay uno o más elementos de información (IE) que siguen a la trama. Cada IE consta de lo siguiente:

* Un identificador del IE, de un byte
* Un campo que indica la longitud del IE
* Uno o más bytes que contienen los datos propiamente dichos, que por lo general incluyen el estado de un DLCI

Los mensajes de estado ayudan a verificar la integridad de los enlaces físico y lógico. Esta información resulta fundamental en un entorno de enrutamiento, ya que los protocolos de enrutamiento toman decisiones según la integridad del enlace.

5.1.7 Etapas del ARP inverso y operación de los LMI

Los mensajes de estado LMI combinados con los mensajes del ARP inverso permiten que un router vincule direcciones de capa de red con direcciones de la capa de enlace de datos.

Cuando un router que está conectado a una red Frame Relay arranca, envía un mensaje de consulta de estado LMI a la red. La red contesta con un mensaje de estado LMI que contiene detalles de cada VC configurado en el enlace de acceso.

Periódicamente el router repite la consulta de estado, pero las respuestas siguientes sólo incluyen los cambios en el estado. Después de un determinado número de respuestas abreviadas, la red enviará un mensaje de estado completo.

Si el router necesita asignar los VC a direcciones de capa de red, enviará un mensaje ARP inverso desde cada VC. El mensaje ARP inverso incluye la dirección de capa de red del router, de modo que el DTE o el router remoto, pueda realizar la vinculación. La respuesta ARP inversa permite que el router haga los registros necesarios en su tabla de asignaciones de direcciones a DLCIs. Si el enlace soporta varios protocolos de capa de red, se enviarán mensajes ARP inversos para cada uno de ellos.

5.2.1 Frame Relay - Configuración básica

Esta sección explica cómo configurar un PVC de Frame Relay básico. La Frame Relay se configura en una interfaz serial. El tipo de encapsulamiento por defecto es una versión propietaria de Cisco del HDLC. Para cambiar el encapsulamiento de Frame Relay use el comando encapsulation frame-relay [cisco | ietf].

cisco


Usa el encapsulamiento Frame Relay propietario de Cisco. Use esta opción para conectarse a otro router Cisco. Muchos dispositivos de otras marcas también soportan este tipo de encapsulamiento. Esta es la opción por defecto.

ietf


Establece el método de encapsulamiento para cumplir con el estándar de la Fuerza de Tareas de Ingeniería de Internet (IETF) RFC 1490. Elija ésta si se conecta a un router que no es Cisco.

El encapsulamiento Frame Relay propietario de Cisco usa encabezados de 4 bytes, con dos bytes para indicar el identificador de conexión de enlace de datos (DLCI) y dos bytes para identificar el tipo de paquete.

Configure una dirección IP en la interfaz mediante el comando ip address. Configure el ancho de banda de la interfaz serial mediante el comando bandwidth. El ancho de banda se indica en Kilobits por segundo (Kbps). Este comando se usa para notificar al protocolo de enrutamiento que el ancho de banda del enlace se configuró estáticamente. El Protocolo de enrutamiento de gateway interior (IGRP), el Protocolo de enrutamiento de gateway interior mejorado (EIGRP) y el protocolo Primero la ruta libre más corta (OSPF) utilizan el valor del ancho de banda para determinar la métrica de los enlaces. El comando ip address se usa para establecer una dirección IP en una interfaz dada. Por otra parte, para establecer el ancho de banda de la misma interfaz, se usa el comando bandwidth.

El comando frame-relay lmi-type [ansi | cisco | q933a] establece y configura la conexión LMI. Este comando es necesario sólo si se usa el Cisco IOS Release 11.1 o una versión anterior. Con la versión 11.2 del software Cisco IOS o posterior, el tipo LMI se detecta automáticamente y no se requiere configuración. El tipo de LMI por defecto es Cisco. El tipo LMI se configura interfaz por interfaz y se muestra en la resultado del comando show interfaces.

Estos pasos de configuración son los mismos, independientemente de los protocolos de capa de red que operan a través de la red.

5.2.2 Configuración de un mapa estático de Frame Relay

Se debe asignar de forma estática el DLCI local a la dirección de capa de red de un router remoto cuando el router remoto no soporte el protocolo ARP inverso. Esto también es válido cuando se deba controlar el tráfico de broadcast y de multicast a través de un PVC. Este método de asignación de DLCI se denominan en Frame Relay asignaciones estáticas.

Utilice el comando frame-relay map protocol protocol-address dlci [broadcast] para asignar de forma estática la dirección de capa de red remota al DLCI local.

5.2.3 Problemas de alcance de las actualizaciones de enrutamiento en NBMA

Por defecto, una red Frame Relay ofrece conectividad de acceso múltiple sin broadcast (NBMA) entre dos sitios remotos. Un entorno NBMA se considera igual a otros entornos de medios de acceso múltiple, por ejemplo Ethernet, en el que todos los routers se encuentran en la misma subred. Sin embargo, para reducir los costos, las nubes NBMA generalmente se construyen siguiendo una topología en estrella. En la topología en estrella, la topología física no provee las funciones de acceso múltiple que sí brinda Ethernet. La topología física consta de múltiples PVCs.

La topología NBMA de Frame Relay puede causar dos problemas:

* Problemas de alcance relativos a las actualizaciones de enrutamiento.
* La necesidad de replicar los paquetes broadcast en cada uno de los PVCs cuando una interfaz física contiene más de un PVC

La actualización mediante horizonte dividido reduce los loops de enrutamiento al no permitir que una actualización de enrutamiento recibida en una interfaz sea reenviada por la misma interfaz. Si el router B, un router en una punta de la estrella, envía una actualización de enrutamiento broadcast al router A, el router de el nodo central, y el router A tiene varios PVCs en una sola interfaz física, entonces el router A no puede enviar la actualización de enrutamiento a través de la misma interfaz física a otro router en una punta de la estrella. Si el horizonte dividido está inhabilitado, es posible enviar la actualización de enrutamiento a través de la misma interfaz física por la que se recibió. El horizonte dividido no presenta problemas cuando hay un único PVC en la interfaz física. Esta sería una conexión Frame Relay punto a punto.

Los routers que dan soporte a conexiones múltiples a través de una interfaz física tienen varios PVCs que terminan en un único router. Este router debe replicar los paquetes broadcast, por ejemplo: los broadcasts de actualización de enrutamiento, en todos los PVCs y enviarlos a los routers remotos. Los paquetes broadcast replicados pueden consumir ancho de banda y aumentar significativamente la latencia en el tráfico de usuario. Puede parecer lógico apagar el horizonte dividido para resolver los problemas de alcance que origina. Sin embargo, no todos los protocolos de la capa de red permiten inhabilitar el horizonte dividido y el desconectarlo aumenta la probabilidad de que ocurran loops de enrutamiento.

Una forma de resolver los problemas del horizonte dividido es utilizar una topología de malla completa. Sin embargo, esto aumentará el costo porque se requieren más PVCs. La solución de mayor aceptación es el uso de subinterfaces.

5.2.4 Subinterfaces en Frame Relay

Para permitir el envío de las actualizaciones broadcast de enrutamiento en una topología Frame Relay en estrella, configure el router de la central con interfaces asignadas lógicamente. Estas interfaces reciben el nombre de subinterfaces. Las subinterfaces son subdivisiones lógicas de una interfaz física.

En entornos de horizonte dividido, es posible reenviar las actualizaciones de enrutamiento recibidas en una subinterfaz a través de otra subinterfaz. En una configuración de subinterfaces, cada circuito virtual puede configurarse como una conexión punto a punto. Esto permite que cada subinterfaz actúe de modo similar a una línea arrendada. Al utilizar una interfaz Frame Relay punto a punto, cada pareja de routers punto a punto se encuentra en su propia subred.

Las subinterfaces Frame Relay pueden configurarse en modo punto a punto y en modo multipunto:

* Punto a punto: se utiliza una sola subinterfaz punto a punto para establecer una conexión PVC a otra interfaz física o subinterfaz de un router remoto. En este caso, cada pareja de routers punto a punto está en su propia subred y cada subinterfaz punto a punto tiene un solo DLCI. En un entorno punto a punto, cada subinterfaz actúa como una interfaz punto a punto. Entonces, el tráfico de actualización de enrutamiento no está sujeto a la regla del horizonte dividido.
* Multipunto: se utiliza una sola subinterfaz multipunto para establecer múltiples conexiones PVC a múltiples interfaces físicas o subinterfaces en routers remotos. Todas las interfaces involucradas se encuentran en la misma subred. La subinterfaz actúa como una interfaz Frame Relay NBMA de modo que el tráfico de actualización de enrutamiento está sujeto a la regla de horizonte dividido.

El comando encapsulation frame-relay está asignado a la interfaz física. Todos los demás aspectos de la configuración, tales como la dirección de capa de red y los DLCI se asignan a cada subinterfaz.

Las configuraciones multipunto pueden utilizarse para ahorrar direcciones, lo que puede ser de utilidad si no se está utilizando una Máscara de subred de longitud variable (VLSM). Sin embargo, las configuraciones multipunto podrían funcionar inapropiadamente dadas las consideraciones de tráfico de broadcasts y del horizonte dividido. La opción de la subinterfaz punto a punto se creó para evitar esos problemas.

5.2.5 Configuración de las subinterfaces Frame Relay

El proveedor de servicios Frame Relay asignará los números DLCI. Estos números van del 16 al 992, y por lo general, sólo tienen importancia local. Los DLCI pueden tener importancia global en algunas circunstancias. Este intervalo numérico varía de acuerdo con el LMI utilizado.

En la figura, el Router A tiene dos subinterfaces punto a punto. La subinterfaz s0/0.110 se conecta al router B y la subinterfaz s0/0.120, al router C. Cada subinterfaz se encuentra en una subred diferente. Para configurar las subinterfaces en una interfaz física, siga los pasos siguientes.

* Configure el encapsulamiento Frame Relay en la interfaz física mediante el comando encapsulation frame-relay.
* Para cada uno de los PVCs definidos, cree una subinterfaz lógica

router(config-if)#interface serialnumber.subinterface-number [multipoint | point-to-point]

Para crear una subinterfaz, utilice el comando interface serial. Especifique el número de puerto, seguido de un punto (.), y luego del número de la interfaz. Por lo general, se usa como el número de la subinterfaz el del DLCI. Esto facilita la detección de fallas. El parámetro final requerido establece si la subinterfaz es punto a punto o punto a multipunto. Se necesita la palabra clave multipoint o point-to-point. No hay valor por defecto. Los comandos siguientes crean la subinterfaz del PVC al router B.

routerA(config-if)#interface serial 0/0.110 point-to-point

Si la subinterfaz se configura como point-to-point (punto a punto), entonces el DLCI local para la subinterfaz debe también configurarse para distinguirlo de la interfaz física. También se requiere el DLCI para las subinterfaces multipoint (multipunto) en las que se habilita el ARP inverso. No es necesario que las subinterfaces multipunto estén configuradas con mapas de enrutamiento estáticos. El comando frame-relay interface-dlci se utiliza para configurar el DLCI local en la subinterfaz.

router(config-subif)#frame-relay interface-dlcidlci-number

5.2.6 Verificación de la configuración de Frame Relay

El comando show interfaces muestra la información relativa al encapsulamiento y estado de la Capa 1 y la Capa 2. También muestra la información acerca de lo siguiente:

* El tipo de LMI
* La LMI del DLCI
* El tipo de equipo terminal de datos Frame Relay/equipo de terminación de circuito (DTE/DCE)

Normalmente, el router se considera como un dispositivo de terminal de datos (DTE). Sin embargo, los routers Cisco pueden configurarse como switches Frame Relay. El router se convierte en el dispositivo de terminación de circuito (DCE) cuando se le configura como un switch Frame Relay.

Utilice el comando show frame-relay lmi para mostrar las estadísticas de tráfico LMI. Por ejemplo, este comando muestra el número de mensajes de estado intercambiados entre el router local y el switch Frame Relay local.

Utilice el comando show frame-relay pvc [interfaceinterface] [dlci] para mostrar el estado de cada PVC configurado así como las estadísticas de tráfico. Este comando resulta útil para ver el número de los paquetes de BECN y FECN que el router recibe. El estado del PVC puede ser activo, inactivo o eliminado.

El comando show frame-relay pvc muestra el estado de todos los PVCs configurados en el router. Al indicar un PVC se verá sólo el estado de ese PVC. En la Figura , el comando show frame-relay pvc 100 muestra sólo el estado del PVC 100.

Utilice el comando show frame-relay map para mostrar las asignaciones actuales e información acerca de las conexiones. La siguiente información interpreta el resultado del comando show frame-relay map que se muestra en la figura :

* 10.140.1.1 es la dirección IP de un router remoto, que se aprende de forma dinámica a través de un proceso ARP inverso.
* 100 es el valor decimal del número DLCI local.
* 0x64 es la conversión hexadecimal del número DLCI, , 0x64 = 100 decimal
* 0x1840 es el valor tal como se mostraría en el cable debido a la forma en que los bits DLCI se reparten en el campo de dirección de la trama Frame Relay.
* La capacidad broadcast/multicast está habilitada en el PVC.
* El estado del PVC es activo.

Para borrar, de forma dinámica, los mapas de asignación Frame Relay creados mediante ARP inverso, use el comando clear frame-relay-inarp.

5.2.7 Diagnóstico de fallas de la configuración de Frame Relay

Utilice el comando debug frame-relay lmi para determinar si el router y el switch Frame Relay están enviando y recibiendo paquetes LMI de manera adecuada. "Out" (salida) se refiere a los mensajes de estado enviados por el router. "In" (entrada) se refiere a los mensajes recibidos del switch Frame Relay. Un mensaje de estado LMI completo es del tipo 0 ("type 0";). Un intercambio LMI es del tipo 1 ("type 1";). El texto "dlci 100, estado 0x2" significa que el estado del DLCI 100 es activo. Los valores posibles del campo de estado son los siguientes.

* 0x0: agregado/inactivo. Significa que el switch tiene el DLCI programado pero, por alguna razón no se puede usar. Es posible que esto ocurra porque el extremo opuesto del PVC está desactivado.
* 0x2: agregado/activo. Significa que el switch Frame Relay tiene el DLCI y que todo está en funcionamiento.
* 0x4: eliminado. Significa que el switch Frame Relay no tiene este DLCI programado para el router, pero que estuvo programado en algún momento en el pasado. Esto puede deberse a una reversión del DLCI en el router, o que el proveedor de servicios haya eliminado el PVC en la nube Frame Relay.

Resumen

Se debe haber obtenido una comprensión adecuada de los siguientes puntos clave:

* Alcance y propósito de Frame Relay.
* Tecnología de Frame Relay.
* Topologías punto a punto y punto a multipunto.
* La topología de una red Frame Relay.
* Cómo configurar un Circuito virtual permanente (PVC) de Frame Relay.
* Cómo crear un mapa de asignaciones Frame Relay en una red remota.
* Los problemas potenciales en el enrutamiento de una red de acceso múltiple sin broadcast.
* Por qué se necesitan subinterfaces y cómo se las configura.
* Cómo verificar y hacer diagnóstico de fallas de una conexión Frame Relay.

by sdominguez.com

Prepara tu certificación o examén ccna y ccnp.