LA SUBCAPA DE ACCESO AL MEDIO

 

 

 

 

            En cualquier red de difusión se debe determinar quien puede usar el canal cuando hay competencia por él. A los canales de difusión se les llama canales multiacceso o canales de acceso aleatorio. Los protocolos usados pertenecen a una subcapa de la capa de enlace de datos llamada subcapa MAC (medium access control, control de acceso al medio). Esta subacapa es de gran importancia para las Lan ya que usan un canal multiacceso como base de su comunicación, mientras que las WAN usan enlaces punto a punto. La subcapa MAC es la parte inferior de la capa de enlace de datos.

 

 

 

REPARTO ESTATICO DE CANAL EN LAS LAN Y LAS MAN

 

 

            La manera tradicional de repartir un canal es la multiplexion por división en frecuencia ( FDM ) . Si solo hay N usuarios, el ancho de banda se divide en N partes iguales una para cada usuario por lo que no hay interferencias. Cuando hay una poca cantidad de usuarios y fija FDM es eficiente; Si el numero de transmisores en grande y varia continuamente , si el espectro se divide en N regiones y hay menos de N usuarios interesados en comunicarse se desperdiciara una parte del espacio. Si mas de N usuarios quieren comunicarse a algunos se les negara el permiso por falta de ancho de banda.

 

 

            El retardo medio de un canal de C bps de capacidad con una tasa de recepción  de l marcos/seg es:

 

T = 1 /( mC-l )

 

Si dividimos el canal en N el retardo medio al usar FDM es N veces peor:

 

TFDM   = N / ( mC-l ) = NT

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Reparto dinámico de canales en las LAN y MAN

 

 

Primeramente se debe formular el problema de reparto basado en 5 supuestos.

 

  1. Modelo de estación. Consiste en N estaciones independientes cada una con programa o usuario que genera marcos para transmisión. Una vez que se ha generado un marco, la estación sé bloque a hasta que el marco sea transmitido con éxito.
  2. Modelo de canal único. Hay un solo canal disponible para todas las comunicaciones transmisión y recepción, en hardware todas las estaciones son iguales y con el software se asignan prioridades.
  3. Supuesto de colisión. Si dos marcos se transmiten simultáneamente se traslapan en el tiempo y la función resultante se altera a esto se le llama colisión. Todas las estaciones las pueden detectar, no hay otros errores solo los causados por colisiones.
  4.  Tiempo continuo. La transmisión de un marco puede comenzar en cualquier momento. No hay reloj que divida el tiempo en intervalos discretos.
  5. Tiempo ranurado. El tiempo se divide en intervalos discretos (ranuras ) la transmisión de los marcos siempre comienza al inicio de una ranura.
  6. Detección de portadora. Las estaciones pueden saber si el canal esta en uso antes de intentar usarlo.
  7. Sin detección de portadora. Las estaciones no pueden detectar si el canal esta en uso antes de usarlo. Simplemente transmiten.

 

 

PROTOCOLOS DE ACCESO MULTIPLE

 

 

ALOHA

 

            En este algoritmo se uso la radiotransmicion basada en tierra, hay dos versiones de aloha: la pura y la ranura. Difieren en si se divide el tiempo o no, en ranuras discretas. El aloha puro no requiere sincronización de tiempo global; el aloha ranurado si.

 

Aloha puro:

 

            Consiste en permitir que los usuarios transmitan cuando tengan datos por enviar. Habrá colisiones y los marcos en colisión se destruirán pero por retroalimentación un  transmisor puede saber si el marco fue destruido o no.

 

Aloha ranurado:

 

            Con este método se intento duplicar la capacidad de un sistema aloha puro dividiendo el tiempo en intervalos de tiempo discreto, correspondientes cada uno a un marco. Necesita que los usuarios acuerden limites de ranura. Una manera de lograr la sincronización es tener una estación especial que emita una señal al inicio de cada intervalo. En este método no se permite enviar marcos cundo sea si no que se tiene que esperar al inicio de la siguiente ranura.

 

           

PROTOCOLOS DE ACCESO MÚLTIPLE CON DETECCIÓN PORTADORA

 

PROTOCOLOS DE DETECCIÓN DEPORTADORA

 

 

CSMA persistente-1

 

            (Acceso múltiple con detección de portadora) cuando una estación tiene datos por transmitir, primero escucha al canal para ver si otra esta transmitiendo; si esta ocupado, espera hasta que se desocupa, entonces transmite un marco. Si hay una colisión la estación espera una cantidad aleatoria de tiempo y comienza de nuevo. Este protocolo se llama persistente-1 porque la estación transmite con una probabilidad de 1 cuando el canal esta en reposo.

 

 

CSMA no persistente

 

            Antes de enviar una estación detecta el canal. Si nadie esta transmitiendo, comienza a hacerlo. Sin embargo si el canal ya esta en uso, la estación no observa continuamente al canal para tomarlo en cuando se desocupe en cambio, espera un tiempo aleatorio y repite el algoritmo.

 

 

CSMA persistente-p

 

            Se aplica a canales ranurados. Cuando una estación esta lista para enviar, escucha al canal. Si el canal esta en reposo, la estación transmite con una probabilidad de p. Con una probabilidad q = 1-p , se espera hasta la siguiente ranura, si esta en reposo transmite o espera nuevamente con una probabilidad de p y q.

 

 

CSMA / CD

 

            (Acceso múltiple con detección de colisiones) las colisiones pueden detectarse detectando la potencia o el ancho de pulso de la señal recibida y comparándola con la transmitida. Una vez que una estación detecta la colisión aborta la transmisión , espera un periodo de tiempo aleatorio e intenta de nuevo por lo que el modelo CSMA/ CD consistirá en periodos alternantes de contención y transmisión, ocurriendo periodos muertos cuando todas las estaciones están  calladas.

 

 

 

 

 

 

 

PROTOCOLOS LIBRES DE COLISIONES

 

Protocolo de mapa de bits

 

            Cada periodo de contención consiste en exactamente N ranuras. Si la estación 0 tiene un marco por enviar, transmite un bit 1 durante la ranura 0. no esta transmitido a otra estación transmitir durante ese intervalo. Sin importar lo que haga la estación 0, la estación 1 tiene la posibilidad de transmitir un 1 durante la ranura 1, pero solo si tiene en cola un marco. A estos protocolos en los que el deseo de transmisión se difunde antes de la transmisión se llaman protocolos de reservación.

 

 

 

Conteo descendente binario

 

            Se usan direcciones de estación binarias. Una estación que quiere transmitir ahora difunde su dirección como una cadena binaria de bits, comenzando por el bit de orden mayor. Todas las direcciones tienen la misma longitud. A los bits en cada posición de  dirección de las diferentes estaciones se les aplica un OR booleano a todos juntos.

 

 

 

PROTOCOLOS DE CONTENCIÓN LIMITADA

 

 

            En condiciones de carga baja , la contención (ALOHA) es preferible debido a su bajo retardo. A medida que aumenta la carga la contención se vuelve menos atractiva; lo inverso se cumple paro los protocolos libres de colisiones. Con carga baja tienen un retardo alto y conforme aumenta la carga aumenta su eficiencia. A los protocolos que combinan las mejores propiedades de los anteriores se llaman protocolos de contención limitada.

 

 

 

 

Protocolo de recorrido de árbol adaptable

 

 

            Se deben pensar las estaciones como hojas de  un árbol binario. En la primera ranura, ranura 0, se permite que todas las estaciones intenten adquirir el canal. Si una lo logra, que bueno. Si hay una colisión, entonces durante la ranura 1, solo aquellas estaciones que queden bajo el nodo 2 del árbol podrán competir. Si una de ellas adquiere el canal, la ranura que sigue al marco se reserva para leas estaciones que están bajo el nodo 3. si por otra parte, dos o mas estaciones bajo el nodo 2, quieren transmitir, abr una colisión durante la ranura 1, en cuyo caso es el turno del nodo 4 durante la ranura 2.

 

 

 

 

PROTOCOLOS DE ACCESO MÚLTIPLE DE DIVISIÓN EN LONGITUD DE ONDA

 

            Para permitir múltiples transmisiones, se divide el espectro en canales ( bandas de longitud de onda ), WDMA, se asignan dos canales a cada estación, uno angosto para mandar señales de control a la estación, y uno ancho para que la estación pueda mandar marcos de datos

 

 

   GSM-Sistema global para comunicaciones móviles.

 

La primera generación de teléfonos celulares era analógica pero la actual es digital y utiliza radio por paquetes. La transmisión digital tiene varias ventajas sobre la analógica para la comunicación móvil. Primero, pueden integrarse en un solo sistema voz, datos y fax. Segundo, a medida que se descubran mejores algoritmos de compresión de voz, se requerirá menos ancho de banda por canal. Se pueden usar códigos de corrección de errores para mejorar la calidad de la transmisión. Por último, las señales digitales pueden cifrarse para mejorar la seguridad.

GSM fue diseñado como un completo sistema digital, sin compromisos de compatibilidad con sistemas analógicos. Se diseñó originalmente para usarse en la banda de 900 MHZ. Después, se repartieron frecuencias a 1800 MHz y se estableció ahí un segundo sistema, diseñado de manera muy semejante a GSM. Este sistema se llama DCS1800 (ó GSM extendido), pero esencialmente es GSM.

Un sistema GSM tiene un máximo de 200 canales por celda. Cada canal consiste en una frecuencia de enlace descendente y una frecuencia de enlace ascendente. Cada banda de frecuencia tiene un ancho de 200 KHz.

 

Figura 4-13

 
 

 

 


Cada uno de los 124 canales de frecuencia maneja ocho colecciones separadas que usan multiplexión por división en el tiempo. Se asigna una ranura de tiempo en un canal a cada estación activa. En teoría, pueden reconocerse 992 canales por celda, pero la mayoría de ellos no están disponibles, a fin de evitar conflictos de frecuencia con las celdas vecinas. En la figura 4-13 las ocho ranuras de tiempo sombreadas pertenecen al mismo canal, cuatro de ellas para cada dirección. La tasa bruta de cada canal es de 270 Kbps, dividida entre 8 usuarios. Descontando la información extra, cada conexión puede enviar una señal compartida de voz o 9600 bps de datos (fax o e-mail).

 

Figura 4-14

 
 

 

Como puede verse en la figura 4-14, ocho marcos de datos constituyen un macro TMD, y 26 marcos TMD constituyen un multimarco de 120 mseg. De los 26 marcos TMD en un multimarco, la ranura 12 se usa para control y la ranura 25 se reserva para su uso futuro. Además del multimarco de 26 ranuras se utiliza uno de 51 ranuras. Algunas de estas ranuras se usan para contener varios canales de control con los que se maneja el sistema. El canal de control de difusión es una corriente continua de salida de la estación base que contiene su identidad y el estado del canal.

El canal de control dedicado se usa para la actualización de la ubicación, el registro y la preparación de llamadas. La información necesaria para mantener esta base de datos se envía por el canal de control dedicado.

 

 

Por último, está el canal de control común, que se divide en tres subcanales lógicos. El subcanal de anunciación, el de acceso aleatorio y el de otorgamiento de acceso.

 

CDPD-Paquete celular digital de datos.

 

Un enfoque para resolver los altos costos de las llamadas inalámbricas es un servicio de datagrama digital conmutado por paquete llamado CDPD, este está construido encima de AMPS y es completamente compatible con AMPS. Básicamente, cualquier canal de 30 KHz inactivo se puede tomar temporalmente para enviar marcos de datos a una tasa bruta de 19.2 Kbps. Como CDPD implica información extra, la tasa neta de datos es más cercana a 9600 bps. Aun así, un sistema de datagramas inalámbrico para enviar, digamos, paquetes IP aprovechando el sistema existente de telefonía celular es una propuesta interesante para muchos usuarios, por lo que está creciendo con rapidez.

 

CDMA-Acceso múltiple por división de código.

 

El CDMA permite que cada estación transmita en el espectro completo de frecuencia todo el tiempo. Las trasmisiones múltiples simultáneas se separan usando la teoría de codificación. El CDMA también relaja el supuesto de que los marcos en colisión se alteran completamente. En cambio, supone que las señales múltiples se suman linealmente.

Para entender esto consideremos la teoría de la fiesta de cóctel de acceso a un canal. En un cuarto grande, muchas personas están conversando. TMD es cuando toda la gente está en el centro del cuarto, pero se turnan para hablar, primero uno, luego otro. FMD es cuando la gente se encuentra junta en grupos ampliamente dispersos, llevando cada grupo su propia conversación al mismo tiempo que los demás, pero independientemente. CDMA es cuando todos están en el centro del salón hablando al mismo tiempo, pero hablando cada pareja en un lenguaje distinto. Por tanto, la clave de CDMA es ser capaz de extraer la señal deseada mientras se rechaza todo lo demás como ruido aleatorio.

 

4.3 ESTANDAR IEEE 802 PARA LAN Y MAN.

 

Los estándares IEEE802 se dividen en dos partes, cada uno publicado como libro independiente. El estándar 802.1 es una introducción al grupo de estándares y define las primitivas de la interfaz. El estándar 802.2 describe la capa superior de enlace de datos, que usa el protocolo LLC (control de enlace lógico). Las partes 802.3 a 802.5 describen los tres estándares para LAN, CSMA/CD, token bus y token ring, respectivamente. Cada estándar cubre la capa física y el protocolo de la subcapa MAC.

 

4.3.1 Estándar IEEE 802.3 y Ethernet.

 

Ethernet fue el nombre dado por Xerox a su sistema de transmisión de 3 Mbps CSMA/CD, luego acelerado a 10 Mbps por DEC, Xerox e Intel. Este estándar formó la base del 802.3. El estándar 802.3 publicado difiere de la especificación Ethernet en cuanto a que describe una familia completa de sistemas CSMA/CD persistente-1, operando a velocidades de 1 a 10 Mbps en varios medios

 

Cableado del 802.3

 

Dado que el nombre “Ethernet” se refiere al cable (el éter). Comúnmente se usan cinco tipos de cableado, como se muestra en la figura 4-17.

Nombre

Cable

Segmento máximo

Nodos/seg.

Ventajas

10Base5

Coaxial grueso

500 m

100

Bueno para backbones

10Base2

Coaxial delgado

200 m

30

Sistema más barato

10Base-T

Par trensado

100 m

1024

Fácil mantenimiento

10Base-F

Fibra óptica

2000 m

1024

Mejor entre edificios

 

Figura 4-17

 
 

 

El primer cable fue 10Base5 o Ethernet grueso, la notación 10base5 significa que opera a 10Mbps, usa señalización de banda base y puede manejar segmentos de hasta 500 metros.

El segundo tipo fue 10base2 o Ethernet delgado que a diferencia con el Ethernet grueso se dobla con facilidad. Este es mucho más barato y fácil de instalar, pero puede extenderse solo 200 metros y puede manejar sólo 30 máquinas por segmento de cable.

El tipo 10Base-T o par trenzado surgió como solución a los problemas de rupturas entre los cables coaxiales.

 

Estos tres esquemas de alambrado se muestran en la figura 4-18. para 10Base-T, se sujeta fuertemente a un transceptor alrededor del cable, de modo que su derivación haga contacto con el núcleo interno. El transceptor contiene la electrónica que maneja detección de portadora y detección de colisiones.

Con 10Base5, un cable de transceptor conecta el transceptor a una tarjeta de interfaz en la computadora. El cable de transceptor puede tener hasta 50 metros de longitud y contiene cinco pares trenzados aislados individualmente.

Con 10Base 2, la conexión al cable es sólo un conector BNC pasivo de unión T. la electrónica del transceptor está en la tarjeta controladora, y cada cesión tiene su propio transceptor.

Con 10Base-T no hay cable en absoluto, sólo el concertador (hub). Agregar o remover estaciones es más sencillo con esta configuración, y las rupturas de cable pueden detectarse con facilidad, 10Base-T se está volviendo cada vez mas común debido a su facilidad de mantenimiento.

En la figura 4-19 se muestran diferentes maneras de alambrar un edificio.

Figura 4-19

 

 

 

En la figura 4-19(a), un solo cable se pasa entre cuarto y cuarto, conectándose cada estación a él en el punto más cercano. En la figura 4-19(b) una columna vertical corre del sótano al techo, conectándose a él cables horizontales en cada piso mediante amplificadores especiales. La topología más general es la de árbol, como en la figura 4-19(c), porque una red con dos trayectorias entre algunos pares de estaciones sufrirá interferencia entre las dos señales.

Cada versión de 802.3 tiene una longitud máxima de cable por segmento. Para permitir redes mayores, se pueden conectar cables múltiples mediante repetidores, como se muestra en la figura 4-49(d).

 

Codificación Manchester

 

Esta codificación es usada para ebitar ambiguedades, en esta cada periodo de bit se divide en dos intervalos iguales. Un bit binario 1 se envía teniendo el voltaje alto durante el primer intervalo y bajo durante el segundo. Un bit cero es justamente lo inverso. Este esquema asegura que cada periodo de bit tiene una transición a la mitad, facilitando que el transmisor se sincronice con el receptor.Todos los sistemas 802.3 de banda base usan codificación Manchester debido a su sencillez. La señal alta es de +0.85 volts, y la señal baja es de –0.85 volts, dando un valor de cc de 0 volts.

Figura 4-20

 

 

 

 

Protocolo de subcapa MAC del 802.3

 

La estructura de marco del 802.3 se muestra en la figura 4.21. Cada marco comienza con un preámbulo de 7 bytes, cada uno de los cuales contiene el patrón de bits 10101010. La codificación Manchester de este patrón produce una onda cuadrada  de 10 MHz durante 5.6 microsegundos para permitir que el reloj del receptor se sincronice con el del transmisor.

 

Figura 4-19

 

 

 

El marco contiene dos direcciones, una para el destino y una para el origen. El bit de orden mayor de la dirección de destino es 0 para direcciones ordinarias y 1 para direcciones de grupo. El envío a un grupo de estacione se llama multidifución, el bit 46 es empleado para distingir las direcciones globales de las locales, el campo de longitud indica cuántos bytes están presentes en el campo de datos, de un mínimo de cero a un máximo de 1500, el 802.3 establece que los marcos válidos deben tener 64 bytes de longitud, desde la dirección de destino hasta la suma de la comprobación.

Otra razón para tener un marco de longitud mínima es evitar que una estación complete la transmisión de un marco corto antes de que el primer bit llague al extremo más alejado del cable, donde podría tener coalición con otro marco, este problema se ilustra en la figura 4-22.

 


 


En el momento 0, la estación A, en un extremo de la red, envía un marco, justo antes de que el marco llegue al otro extremo la estación B empieza a transmitir. Cuando B detecta que ha ocurrido una colisión aborta su transmisión y genera una ráfaga de 48 bits para avisar a las demás estaciones. En el momento en que el transmisor ve la ráfaga de ruido aborta su transmisión y luego espera un tiempo aleatorio para reintentar su transmisión.

 

Algoritmo de retroceso exponencial binario

 

Este algoritmo es usado para crear el proceso de aleatorizazión cuando ocurre una colisión. Tras una colisión, el tiempo se divide en ranuras de 51.2 microsegundos. Tras la primera colisión, cada estación espera 0 o 1 tiempos de ranura antes de intentarlo de nuevo. Si dos estaciones entran en colisión y ambas escogen el mismo número aleatorio, habrá una nueva colisión. Tras la segunda colisión, cada una escoge 0, 1, 2 o 3 al azar y espera ese número de tiempos de ranura. Si ocurre una tercera colisión, entonces la siguiente vez el número de ranuras a esperar se escogerá al azar del intervalo 0 a . En general tras i colisiones, se escoge un número aleatorio entre  y se salta ese número de ranuras. Sin embargo el intervalo de aleatorizazión se congela en un máximo de 1023 ranuras. Este algoritmo, llamado retroceso exponencial binario, se escogió para adaptar dinámicamente el número de estaciones que intentan transmitir.

 

Desempeño.

 

Gran cantidad de análisis teóricos de desempeño del 802.3 y prácticamente todos han supuesto que el tráfico es de Poisson. A medida que los investigadores han comenzado a examinar datos reales, se ha hecho evidente que el tráfico en redes pocas veces es Poisson, sino autosimilar. Lo que esto significa es que la premediación durante periodos grandes de tiempo no hace más uniforme el tráfico. El número medio de paquetes en cada minuto de una hora tiene tanta variación como el número medio de paquetes en cada segundo de un minuto. La consecuencia de este descubrimiento es que la mayoría de los modelos de tráfico de red no se aplican al mundo real y deben tomarse con escepticismo.

 

LAN 802.3 conmutadas.

 

A medida que se agregan más y más estaciones a una LAN 802.3, aumenta el tráfico. En algún momento, la LAN se saturará. Una solución al problema es utilizar una velocidad mayor, digamos 100 Mbps en lugar de 10 Mbps. Está solución obliga a desechar todas las tarjetas adaptadoras de 10 Mbps y comprar nuevas, lo cual es muy costoso.

Afortunadamente existe otra solución, una LAN 802.3 conmutada. El corazón de este sistema es un conmutador que contiene un canal en segundo plano de alta velocidad y espacio para 4 o 32 tarjetas de línea, conteniendo cada una de uno a ocho conectores. Lo más común es que cada conector tenga una conexión de par trenzado 10Base-T a una sola cumputadora anfitriona.

Cuando la estación quiere transmitir un marco 802.3, envía un marco estándar al conmutador. La tarjeta que recibe el marco lo revisa para ver si está destinado a una de las otras estaciones conectadas a la misma tarjeta. De sea así, el marco se envía a través del canal en segundo plano de alta velocidad a la tarjeta de la estación destino. El canal de alta velocidad funciona a más de 1 Gbps usando un protocolo patentado.

 

 

 

 

 

 

 

 

4.3.3. Estándar IEEE 802.5: token ring

 

Las redes en anillo no son nada nuevo, pues (Pierce, 1972) se han utilizado desde hace mucho para redes tanto locales como de área amplia. Entre sus muchas características atractivas está el que un anillo no es realmente un medio de difusión, sino un conjunto de enlaces punto a punto individuales que, coincidentemente, forman un círculo. Los enlaces punto a punto implican una tecnología bien entendida y probada en el campo que puede operar en par trenzado, cable coaxial y fibra óptica. La ingeniería de anillos es casi completamente digital. En contraste, por ejemplo, el 802.3 tiene una componente analógica considerable para la detección de colisiones. Un anillo también es equitativo y tiene un límite superior conocido de acceso a canal. Por estas razones, IBM escogió el anillo como su LAN y el IEEE ha incluido el estándar token ring como el 802.5 (IEEE, 1985c; Latif e: al., 1992).

Como se mencionó antes, un anillo en realidad consiste en un conjunto de interfaces de anillo conectadas por líneas punto a punto. Cada bit que llega a una interfaz se copia en un buffer de 1 bit y luego se copia en el anillo nuevamente. Mientras está en el buifer, el bit se puede inspeccionar y posiblemente modificar antes de enviarse. Este paso de copiado introduce un retardo de 1 bit en cada interfaz. En la figura 4-28 se muestra un anillo y sus interfaces.


En un token ring (anillo con ficha) circula un patrón de bit especial, llamado ficha (token) alrededor del anillo cuando todas las estaciones están inactivas. Cuando una estación quiere transmitir un marco, debe tomar la ficha y retirarla del anillo antes de transmitir. Esta acción se lleva a cabo invirtiendo un solo bit de la ficha de 3 bytes, lo que instantáneamente la conviene en los tres primeros bytes de un marco de datos normal. Debido a que sólo hay una ficha, sólo una estación puede transmitir en un instante dado, resolviendo por tanto el problema de acceso al canal de la misma manera en que lo resuelve el token bus.

Las interfaces del anilló tienen dos modos operativos, escuchar y transmitir. En el modo de escuchar, los bits de entrada simplemente se copian en la salida, con un retardo de un tiempo de bit, como se muestra en la figura 4-28(b). En el modo de transmitir, al que se entra una vez que se tiene la ficha, la interfaz rompe la conexión entre la entrada y la salida, introduciendo sus propios datos en el anillo. Para poder conmutar del modo de escuchar al de transmitir en un tiempo de 1 bit, la interfaz generalmente necesita almacenar en su buifer uno o más marcos, en lugar de obtenerlos de la estación con tan poca anticipación.

El manejo de acuses de recibo es directo en un token ring. El formato de marco sólo necesita incluir un campo de 1 bit para acuse de recibo, inicialmente cero. Cuando la estación de destino ha recibido un marco, establece el bit. Por supuesto, si el acuse significa que la suma de comprobación ha sido verificada, el bit debe seguir a la suma de comprobación y la interfaz con el anillo debe ser capaz de verificar la suma de comprobación tan pronto haya recibido el último bit. Cuando un marco se difunde a múltiples estaciones, debe usarse un mecanismo de acuse más complicado (si es que se usa uno).

Cuando el tráfico es ligero, la ficha pasará la mayor parte del tiempo circulando inactivamente alrededor del anillo. Ocasionalmente, una estación la tomará, transmitirá un marco, y entonces emitirá una ficha nueva. Sin embargo, cuando el tráfico es pesado, de modo que hay una cola en cada estación, tan pronto una estación termina su transmisión y regenera la ficha la siguiente estación verá y retirará la ficha. De esta manera, el permiso para enviar gira continuamente, por turno circular. La eficiencia de la red puede acercarse al 100% en condiciones de carga pesada.

Ahora pasemos de los token rings en general al estándar 802.5 en particular. En la capa física, el 802.5 especifica par trenzado operando a 1 o 4 Mbps, aunque IBM posteriormente introdujo una versión de 16 Mbps. Las señales se codifican usando codificación Manchester diferencial [véase la figura 4-.20(c)], siendo alto (HI) y bajo (LO) señales positivas y negativas de magnitudes absolutas de 3.0 a 4.5 volts. Normalmente, la codificación Manchester diferencial usa Hl-LO o LO-Hl para cada bit, pero el 802.5 también usa Hl-Hl y LO-LO en ciertos bytes de control (por ejemplo, para marcar el inicio y el final de un marco). Estas señales que no son de datos ocurren en pares consecutivos y no introducen una componente de cc (DC colnponenl) en el voltaje del anillo.

Un problema con las redes de anillo es que, si se rompe el cable en alguna parte, el anillo se inhabilita. Este problema puede resolverse de manera muy elegante mediante el uso de un centro de alambrado, como se muestra en la figura 4-29. Si bien la red sigue siendo lógicamen­te un anillo, físicamente cada estación está conectada al centro de alambrado que contiene (cuando menos) dos pares trenzados, uno de datos a la estación y otro de datos de la estación.


Dentro del centro de alambrado hay relevadores de paso (bypass relavs) que se energizan mediante corriente de las estaciones. Si se rompe el anillo o se inactiva una estación, la pérdida de la comente de operación desactivará el relevador, poniendo en puente la estación. Los relevadores también pueden operarse mediante software que permita a los programas de diag­nóstico remover estaciones una a la vez para encontrar estaciones y segmentos de anillo con fallas. El anillo entonces puede continuar su operación teniendo en puente la sección dañada. Aunque el estándar 802.5 no requiere formalmente este tipo de anillo, llamado con frecuencia anillo en estrella (Saltzer eral., 1983) de hecho la mayoría de las LAN 802.5 usan centros de alambrado para mejorar su confiabilidad y mantenimiento.

Cuando una red consiste en muchos grupos de estaciones muy separados, puede usarse una topología con muchos centros de alambrado. Sólo imagine que el cable a una de las estaciones de la figura 4-29 fuera reemplazado por un cable a un centro de alambrado distante. Aunque lógicamente todas las estaciones están en el mismo anillo, los requisitos de alambrado se


En condiciones normales, el primer bit del marco recorrerá el anillo y regresará al transmi­sor antes de que el marco completo haya sido transmitido. Sólo un anillo muy grande será capaz de contener incluso un marco muy corto. En consecuencia, la estación transmisora debe drenar el anillo mientras continúa transmitiendo. Como se muestra en la figura 4-28(c), ~to significa que los bits que han completado el viaje alrededor del anillo regresan al transmisor y ahí son removidos.

Una estación puede retener la ficha durante el tiempo de retención de la ficha, que es de 10 mseg a menos que una instalación establezca un valor distinto. Si queda suficiente tiempo tras la transmisión del primer marco para enviar más marcos, éstos pueden enviarse también. Una vez que han sido transmitidos todos los marcos pendientes, o si la transmisión de otro marco excedería el tiempo de retención de la ficha, la estación regenera el marco de ficha de 3 bits y lo pone en el anillo.

Los campos de delimitador inicial y delimitador final de la figura 4-30(b) marcan el inicio y el fin del marco. Cada uno contiene patrones Manchester diferenciales no válidos (HH y LL) para distinguirlos de los bytes de datos. El byte de control de acceso contiene el bit de ficha y también ~‘ el bit de revisión, los bits de prioridad y los bits de reservación (descritos más adelante). El byte

decontrol de marco distingue los marcos de datos de los diferentes marcos de control posibles.

El delimitador final contiene un bit E que se establece cuando cualquier interfaz detecta un error (por ejemplo, un patrón no Manchester donde no está permitido). También contiene un bit que puede servir para marcar el último marco de una secuencia lógica, algo parecido a un bit de fin de archivo.

El protocolo 802.5 tiene un elaborado esquema para manejar marcos con distintas priorida­des. El marco de ficha de 3 bytes contiene un campo en el byte de enmedio que indica la prioridad de la ficha. Cuando una estación quiere transmitir un marco de prioridad n, debe esperar hasta que pueda capturar una ficha cuya prioridad sea menor o igual que n. Además, al pasar un marco de datos, una estación puede tratar de reservar la siguiente ficha escribiendo la prioridad del marco que quiere enviar en los bits de reservación del marco. Sin embargo, si se ha reservado ahí una prioridad mayor, la estación podría no hacer la reservación. Cuando el marco actual ha terminado, se genera la siguiente ficha con la prioridad reservada.

 

Mantenimiento del anillo

 

El protocolo de token bus se esfuerza mucho por efectuar el mantenimiento del anillo de una manera completamente descentralizada. El protocolo de token ring maneja el mantenimiento de manera bastante diferente. Cada token ring tiene una estación monitor que supervisa el anillo. Si se inactiva el monitor, un protocolo de contención asegura que otra estación será electa rápidamente como monitor. (Cada estación tiene la capacidad de convertirse en monitor.) Cuan­do el monitor funciona adecuadamente, sólo él es responsable de ver que el anillo opere de manera correcta.

Cuando el anillo se activa o alguna estación nota que no hay monitor, puede transmitir un marco de control 5OUCITAR FIcHA. Si este marco recorre todo el anillo antes del envío de otros marcos 5OLlC~AR FIcHA, el transmisor se convierte en el nuevo monitor (cada estación tiene capacidad de monitor integrada). Los marcos de control de token ring se muestran en la figura

4-3 1.

 

 

 

Campo de control

Nombre

Significado

00000000

Pnieba dirección duplicada

Prueba sí dos estaciones tienen la misma dirección

00000010

indcaclón o faro

Usado para localizar rupturas en el anillo

00000011

Soicitar ticha

intenta convertirse en monitor

00000100

Purga

Reiniclailza el anillo

00000101

MorítOr activo presente

Emitido periódicamente por el monitor

00000110

Montor en espera presente

Anuncia la presencia de monitores potenciales


 

1~1gura 4-31. Marcos de control del token ring.

 

 

 

Entre las funciones del monitor están ver que no se pierda la ficha, emprender acciones cuando se rompe el anillo, limpiar el anillo después de la aparición de marcos alterados y buscar marcos huérfanos. Aparece un marco huérfano cuando una estación transmite un marco corto completo por un anillo grande y luego se inactiva o apaga antes de que el marco pueda ser drenado. Si no se hace nada, el marco circulará eternamente.

Para buscar fichas perdidas, el monitor tiene un temporizador que se establece al mayor intervalo posible sin ficha: cuando cada estación transmite durante el tiempo completo de retención de la ficha. Si se vence este temporizador, el monitor drena el anillo y envía una ficha nueva.

 

El comité del 802.5, por otro lado, pensó que tener un monitor centralizado haría mucho más sencillo el manejo de las fichas perdidas, los marcos huérfanos, etc. Además, en un sistema normal, las estaciones pocas veces se inactivan involuntariamente, por lo que tener que manejar ocasionalmente una contienda por un monitor nuevo no representa gran sufrimiento. El precio que se paga es que, si el monitor alguna vez realmente enloquece pero continúa enviando periódicamente marcos de control de MONITOR ACTIVO PRESENTE, ninguna estación se lo disputará. Los monitores no pueden ser impugnados.

Esta diferencia de enfoque surge de las distintas áreas de aplicación que tenían en mente los dos comités. El comité del 802.4 estaba pensando en términos de fábricas con grandes masas de metal en movimiento controladas por computadora. Las fallas de red podrían res~jltar en daños severos y tenían que evitarse a toda costa. El comité del 802.5 estaba interesado en la automatización de oficinas, donde podía tolerarse una falla de vez en cuando como el precio de tener un sistema más sencillo. Que el 802.4 sea, de hecho, más confiable que el 802.5 es tema de controversia.

 

4.3.4.      Comparación del 802.3, el 802.4 y el 802.5

 

Al estar disponibles tres LAN diferentes e incompatibles, cada una con distintas propiedades, muchas organizaciones enfrentan la pregunta: ¿cuál debemos instalar? En esta sección veremos los tres estándares de LAN 802, señalando sus virtudes y sus defectos, comparándolos y ponién­dolos en contraste. fibra óptica. El par trenzado estándar es barato y sencillo de instalar. El uso de centros de alambrado hace al token ring la única LAN que puede detectar y eliminar automáticamente fallas de cableado.

Al igual que en el token bus, puede haber prioridades, aunque el esquema no es equitativo. También, como el token bus, son posibles los marcos cortos pero, a diferencia suya, también son

posibles los arbitrariamente grandes, limitados sólo por el tiempo de retención de la ficha. Por último, el rendimiento y la eficiencia cuando la carga es alta son excelentes, como en el token bus y a diferencia del 802.3.

El punto negativo principal es la presencia de una función de supervisión centralizada, que introduce un componente crítico. Aun cuando un monitor muerto puede reemplazarse, uno enfermo puede causar dolores de cabeza. Además, como en todos los esquemas de paso de ficha, siempre hay un retardo a muy baja carga, porque el transmisor debe esperar la ficha.

También vale la pena señalar que ha habido numerosos estudios de las tres LAN. La conclu­sión principal que podemos sacar de estos estudios es que no podemos sacar conclusiones de ellos. Siempre se puede encontrar un grupo de parámetros que hacen que una de las LAN se vea mejor que las demás. En la mayoría de las circunstancias, las tres se desempeñan bien, por lo que probablemente son más importantes los factores distintos del desempeño al hacer una elección.

 

4.3.5.      Estándar IEEE 802.6: bus doble de colas distribuidas

 

Ninguna de las LAN 802 que hemos estudiado hasta ahora es adecuada para usarse como MAN. Las limitaciones de longitud del cable y los problemas de desempeño cuando se conectan miles de estaciones las limitan a áreas de extensión pequeña. Para redes que cubren una ciudad completa, IEEE definió una MAN, llamada DQDB (Distributed Queue Dual Bus, bus doble de colas distribuidas), como el estándar 802.6. En esta sección estudiaremos su funcionamiento. Para información adicional, véase (Kessler y Train, 1992). En (Sadiku y Arvind, 1992) se da una bibliografía que lista 171 artículos sobre el DQDB.

En la figura 1-4 se ilustra la geometría básica del 802.6. Dos buses unidireccionales parale­los serpentean a través de la ciudad, con estaciones conectadas a ambos buses en paralelo. Cada bus tiene un head-end, que genera una cadena constante de células de 53 bytes. Cada célula viaja corriente abajo del head-end. Cuando la célula llega al final, sale del bus.

A diferencia de los otros protocolos de LAN 802, el 802.6 no es ávido. En todos los demás, si una estación tiene la oportunidad de enviar, lo hará. Aquí las estaciones se ponen en cola en el orden en el que van quedando listas para enviar y transmitir, en orden FIFO (fi rst in, flrst out, el que entra primero sale primero). La parte interesante del protocolo es la manera en la que logra el orden FIFO sin tener una cola central.

La regla básica es que las estaciones son amables: ceden el paso a estaciones más abajo de ellas. Esta amabilidad es necesaria para evitar una situación en la que la estación más cercana al head-end simplemente toma todas las células vacías a medida que pasan y las llena, haciendo que las otras más abajo mueran de hambre. Por sencillez, sólo examinaremos la transmisión en el bus A, pero la misma historia se aplica también al bus B.

Para simular la cola FIFO, cada estación mantiene dos contadores, RC y CD. RC (Request Counter, contador de solicitudes) cuenta el número de solicitudes pendientes corriente abajo hasta que la estación misma tiene un marco por enviar. En ese punto, RC se copia en CD, RC se restablece a O y ahora cuenta el número de solicitudes hechas después de que la estación quedó lista. Por ejemplo, si CD = 3 y RC = 2 para la estación k, las siguientes tres células vacías que pasen por la estación k se reservarán para estaciones corriente abajo, después la estación k podrá enviar, luego dos células más se reservarán para estaciones corriente abajo. Por sencillez, supon­dremos que una estación puede tener lista a la vez sólo una célula para transmisión.

En este punto, el head-end del bus A genera una célula vacía. Cuando la célula pasa por E, esa estación ve que su CD > O, por lo que no puede usar la célula vacía. (Cuando una estación tiene una célula en cola, CD representa su posición en la cola, siendo O el inicio de la cola.) En cambio, ¡a estación disminuye CD. Cuando la célula aún vacía llega a B, esa estación ve que CD =0, lo que significa que no hay nadie adelante de ella en la cola, por lo que hace un OR de sus datos en la célula y establece el bit de ocupado. Una vez que se ha efectuado la transmisión, tenemos la situación de la figura 4-32(d).

Cuando se genera la siguiente célula vacía, la estación D ve que ahora está al frente de la cola, y toma la célula (estableciendo un bit), como se ilustra en la figura 4-32(e). De esta manera, las estaciones se ponen en cola para tomar turnos, sin un administrador centralizado de colas.

Los sistemas DQDB ya están siendo instalados por muchas portadoras a través de ciudades enteras; típicamente operan hasta a 160 km a velocidades de 44.736 Mbps (T3).

 

4.3.6. Estándar IEEE 802.2: control lógico de enlace

 

El uso típico del LLC es el siguiente. La capa de red de la máquina transmisora pasa un paquete al LLC usando las primitivas de acceso del LLC. La subcapa LLC entonces agrega una cabecera LLC que contiene los números de secuencia y acuse. La estructura resultante se introduce entonces en el campo de carga útil de un marco 802.x y se transmite. En el receptor ocurre el proceso inverso.

El LLC proporciona tres opciones de servicio: servicio no confiable de datagramas, servicio reconocido de datagramas y servicio confiable orientado a conexión. La cabecera del LLC está basada en el antiguo protocolo HDLC. Se usa una variedad de formatos diferentes para datos y control. En el caso de datagramas reconocidos y servicio orientado a conexión, los marcos de datos contienen una dirección de origen, una dirección de destino, un número de secuencia, un número de acuse y unos cuantos bits misceláneos. En el servicio de datagramas no confiable, se omiten el número de secuencia y el número de acuse.

 

 

4.4.    PUENTES

 

Muchas organizaciones tienen varias LAN y desean conectarías. Las LAN pueden conectarse mediante dispositivos llamados puentes (bridges), que operan en la capa de enlace de datos. Este postulado implica que los puentes no examinan la cabecera de la capa de red y que pueden, por tanto, copiar igualmente bien paquetes IP, IPX y OSI. En contraste, un enrutador IP, IPX u oSI puro puede manejar sólo sus propios paquetes nativos.

Segunda, la organización puede estar distribuida geográficamente en varios edificios, sepa­rados por distancias considerables. Puede ser más económico tener LAN independientes en cada edificio y conectarías mediante puentes y enlaces infrarrojos que tender un solo cable coaxial a través de toda la zona.


Tercera, puede ser necesario dividir lo que lógicamente es una sola LAN en LAN individua­les para manejar la carga. Por ejemplo, en muchas universidades miles de estaciones de trabajo están disponibles para los estudiantes y el cuerpo docente. Los archivos normalmente se guardan en máquinas servidoras de archivos, y son descargados a las máquinas de los usuarios a solici­tud. La enorme escala de este sistema hace imposible poner todas las estaciones de trabajo en una sola LAN, pues el ancho de banda necesario es demasiado grande. En cambio, se usan varias LAN conectadas mediante puentes, como se muestra en la figura 4-34. Cada LAN contiene un grupo de estaciones de trabajo con su propio servidor de archivos, por lo que la mayor parte del tráfico está restringida a una sola LAN y no agrega carga al backbone.

Cuarta, en algunas situaciones una sola LAN sería adecuada en términos de la carga, pero la distancia física entre las máquinas más distantes es demasiado grande (por ejemplo, mayor que 2.5 km para el 802.3). Aun si fuera fácil tender el cable, la red no funcionaría debido al retardo excesivamente grande del viaje de ida y vuelta. La única solución es segmentar la LAN e instalar puentes entre los segmentos. Usando puentes, puede aumentarse la distancia física total cubierta.

Quinta, está la cuestión de la confiabilidad. En una sola LAN, un nodo defectuoso que envíe constantemente una cadena de basura echará a perder la LAN. Pueden introducirse puentes en lugares críticos, como puertas para bloquear el fuego en un edificio, y así evitar que un solo nodo enloquecido tire el sistema completo. A diferencia de un repetidor, que sólo copia lo que ve, un puente puede programarse para ejercer algún arbitrio respecto a lo que envía y lo que no.

 

4.4.1.    Puentes de 802.x a 8O2.y

 

~ Usted podría pensar ingenuamente que un puente entre una LAN 802 y otra sería completamente trivial Éste no es el caso. En el resto de esta sección indicaremos algunas de las dificultades que

se presentan al tratar de construir un puente entre las distintas LAN 802.

Cada una de las nueve combinaciones de 802.x a 802.y tiene su propio grupo de problemas. Sin embargo, antes de tratar éstos uno por uno, veamos algunos problemas generales comunes a todos los puentes. Para comenzar, cada una de las LAN usa un formato de marco diferente (véase la figura 4-36). No hay razón técnica válida para esta incompatibilidad. Simplemente es que ninguna de las corporaciones que promovieron los tres estándares (Xerox, GM e IBM) quería cambiar el suyo. Como resultado, cualquier copiado entre las diferentes LAN requiere reformateo, lo que gasta tiempo de CPU, obliga a un nuevo cálculo de suma de comprobación e introduce la posibilidad de errores no detectados debido a bits erróneos en la memoria del puente. Nada de esto habría sido necesario silos tres comités hubieran sido capaces de acordar un solo formato. Un segundo problema es que las LAN interconectadas no necesariamente operan con la misma tasa de datos. Al enviar un grupo grande de marcos uno tras otro de una LAN rápida a una lenta, el puente no será capaz de deshacerse de los marcos a la misma velocidad a la que llegan; tendrá que ponerlos en buffers, esperando que no se le acabe la memoria. El problema también existe en alguna medida del 802.4 a 802.3 a 10 Mbps, pues se pierde un poco del ancho embargo, si se reenvía uno de tales marcos desde un puente, ¿qué debe hacer el puente? Si envía él mismo un marco de acuse, estará mintiendo, pues en realidad aún no ha sido entregado el

~            marco. De hecho, el destino puede estar muerto.

Por otra parte, si el puente no genera el acuse, el transmisor casi con seguridad concluirá que el destino está muerto e informará de la falla a sus superiores. No parece haber ninguna manera de resolver este problema.

Del 802.5 al 802.3 tenemos un problema parecido. El formato de marco 802.5 tiene los bits A y C en el byte de estado del marco. Estos bits los establece el destino para indicar al transmisor si la estación direccionada vio el marco, y si lo copió. Nuevamente, el puente puede mentir y decir que el marco ha sido copiado pero, si luego resulta que el destino está inactivo,’pueden ocurrir problemas serios. En esencia, la inserción de un puente en la red ha cambiado la semán­tica de los bits. Es difícil imaginar una solución adecuada a este problema.

~            Del 802.3 al 802.4 tenemos el problema de qué poner en los bits de prioridad. Parece bastante sensato hacer que el puente retransmita todos los marcos a la prioridad máxima, dado que probablemente ya han sufrido suficiente retardo.

Del 802.4 al 802.4 el único problema es qué hacer con la entrega temporal de la ficha. Cuando menos, aquí tenemos la posibilidad de que el puente logre reenviar el marco a una velocidad suficiente para obtener la respuesta antes de que termine el temporizador. Aun así, es un riesgo. Al reenviar el marco a la prioridad más alta, el puente miente inocentemente, pero de esa manera aumenta la probabilidad de obtener la respuesta a tiempo.

Del 802.5 al 802.4 tenemos el mismo problema que antes con los bits A y C. También la definición de los bits de prioridad es distinta para las dos LAN, pero los mendigos no pueden escoger. Al menos las dos LAN tienen el mismo número de bits de prioridad. Todo lo que puede hacer el puente es copiar y pasar los bits de prioridad, y esperar lo mejor.

Del 802.3 al 802.5, el puente debe generar bits de prioridad, pero no hay otros problemas especiales. Del 802.4 al 802.5 hay un problema potencial con marcos que son demasiado grandes, y se presenta nuevamente el problema de la entrega de la ficha. Finalmente, del 802.5 al 802.5 el problema es qué hacer nuevamente con los bits A y C. En la figura 4-37 se resumen los distintos problemas que hemos analizado.

 

El primer puente 802 es un puente transparente o puente de árbol de extensión (PerIman, 1992). La preocupación principal de la gente que apoyó este diseño fue la transparencia comple­ta. Desde su punto de vista, una instalación con varias LAN debería ser capaz de salir y comprar puentes diseñados para el estándar IEEE, enchufar los conectores a los puentes, y todo deberla funcionar perfectamente al instante. No deberían requerirse cambios de hardware, cambios de software, ajustes de conmutadores de direccionamiento, carga de tablas o parámetros de enrutamiento, nada. Simplemente conectar los cables y dedicarse a otro asunto. Además, la operación de las LAN existentes no deberla ser afectada por los puentes en lo absoluto. Sorprendente, pero lo lograron.

Al llegar un marco, un puente debe decidir si lo descarta o lo reenvía y, de ser ¡o segundo, en qué LAN debe poner el marco. Esta decisión se toma buscando la dirección de destino en una gran tabla (de dispersión) contenida en el puente. La tabla puede listar cada posible destino e indicar a qué línea de salida (LAN) pertenece. Por ejemplo, la tabla de B2 indicaría que A pertenece a la LAN 2, ya que todo lo que B2 tiene que saber es en qué LAN tiene que poner los marcos para A. El que se reenvíe posteriormente no le interesa.

Al conectarse inicialmente los puentes, todas las tablas de dispersión están vacías. Ninguno de los puentes sabe la ubicación de ninguno de los destinos, por lo que usa el algoritmo de inundación: cada marco de entrada para un destino desconocido se envía a todas las LAN a las que está conectado el puente, excepto a aquella por la que llegó. A medida que pasa el tiempo, los puentes aprenden la ubicación de los destinos, como se describe más adelante. Una vez que se conoce un destino, los marcos destinados a él se colocan en la LAN apropiada y ya no se efectúa el proceso de inundación.

El algoritmo empleado por los puentes transparentes es de aprendizaje de lo sucedido. Como se mencionó antes, los puentes operan en modo promiscuo, por lo que ven cada marco enviado por cualquiera de sus LAN. Examinando la dirección de origen, pueden saber qué máquina está accesible desde qué LAN. Por ejemplo, si el puente B 1 de la figura 4-38 ve un marco en la LAN 2 que viene de C, sabe que se puede llegar a Ca través de la LAN 2, por lo que hace una entrada en su tabla de dispersión anotando que los marcos que van a C deben usar la LAN 2. Cualquier marco subsiguiente dirigido a C que entre por la LAN 1 será reenviado, pero un marco para C que llegue por la LAN 2 será descartado.

La topología puede cambiar a medida que las máquinas y los puentes se encienden, se apagan y se mueven. Para manejar topologías dinámicas, cada vez que se hace una entrada en la tabla de dispersión se anota la hora de llegada del marco en la entrada. Cada vez que llega un marco cuyo destino ya está en la tabla, se actualiza su entrada con la hora actual. Por tanto, el tiempo asociado a cada entrada indica la última vez que se vio un marco de esa máquina.

Periódicamente, un proceso del puente recorre la tabla de dispersión y elimina las entradas que tienen más de unos cuantos minutos. De esta manera, si una computadora se desconecta de su LAN, se mueve a otra parte del edificio y se reconecta en otro lado, en pocos minutos entrará de nuevo en operación normal, sin intervención manual. Este algoritmo también significa que, si una máquina está quieta durante algunos minutos, cualquier tráfico enviado a ella tendrá que pasar por el proceso de inundación, hasta que ella misma envíe un marco.

El proceso de enrutamiento para un marco de entrada depende de la LAN por la que llega (la LAN de origen) y de la LAN en la que está su destino (la LAN de destino), como sigue:

 

1.            Si la LAN de destino y la LAN de origen son la misma, se descarta el marco.

 

2.            Si la LAN de destino y la de origen son distintas, se reenvía el marco.

 

3.            Si la LAN de destino es desconocida, se usa el proceso de inundación.

 

A medida que llega cada marco, debe aplicarse este algoritmo. Existen chips VLSI especiales para realizar la búsqueda y actualización de la entrada de tabla, todo en unos cuantos microsegundos.

A fin de aumentar la confiabilidad, algunas instalaciones tienen dos o más puentes en paralelo entre pares de LAN, como se muestra en la figura 4-39. Este arreglo, sin embargo, también agrega algunos problemas adicionales, pues crea ciclos en la topología.

 

 

4.4.2.                 Puentes transparentes.

 

Un ejemplo sencillo de estos problemas es evidente al observar la manera en que se maneja un marco F con un destino desconocido en la figura 4-39. Cada puente, siguiendo las reglas normales de manejo de destinos desconocidos, usa inundación, que en este ejemplo significa simplemente copiar el marco en la LAN 2. Poco después, el puente 1 ve a F2, un marco con un destino desconocido, el cual copia en la LAN 1, generando F3 (que no se muestra). Del mismo modo, el puente 2 copia F, en la LAN 1, generando F4 (que tampoco se muestra). El puente 1 ahora reenvía F4 y el puente 2 copia F3. Este ciclo continúa indefinidamente.

 

Puentes de árbol de extensión

 

La solución para este problema es comunicar los puentes entre sí y extender sobre la topología actual un árbol de extensión que alcance todas las LAN. En efecto, se ignoran algunas conexio­nes potenciales entre las LAN por el interés de construir una topología ficticia libre de ciclos. Por ejemplo, en la figura 4-40(a) vemos nueve LAN interconectadas por 10 puentes. Esta configuración puede abstraerse en un grafo con las LAN como nodos. Un arco conecta cada par de LAN que están conectadas por un puente. El grafo puede reducirse a árbol de extensión eliminando los arcos que aparecen como lineas punteadas en la figura 4.40(b). En este árbol de

~            extensión hay exactamente una trayectoria de cada LAN a cualquier otra LAN. Una vez que los puentes han acordado el árbol de extensión, todo el reenvío entre las LAN sigue al árbol de extensión. Dado que hay una trayectoria única de cada origen a cada destino, es imposible que ocurran ciclos.


El resultado de este algoritmo es que se establece una trayectoria única de cada LAN hasta la raíz, y por tanto a todas las demás LAN. Aunque el árbol abarca todas las LAN, no necesaria­mente están presentes todos los puentes en el árbol (para evitar ciclos). Aun después de que se ha establecido el árbol de extensión, el algoritmo continúa operando a fin de detectar automáticamente cambios de topología y actualizar el árbol. El algoritmo distribuido que se usa para construir el árbol de extensión fue inventado por Periman y se describe en detalle en (PerIman, 1992).

También pueden construirse puentes para conectar las LAN que están muy separadas. En este modelo, cada instalación consiste en un conjunto de LAN y puentes, de los cuales uno tiene conexión con una WAN. Los marcos para las LAN remotas viajan a través de la WAN. Puede usarse el algoritmo básico de árbol de extensión, de preferencia con ciertas optimizaciones para seleccionar un árbol que minimice la cantidad de tráfico en la WAN.

 

Puentes de enrutamiento desde el origen.

 

Los puentes transparentes tienen la ventaja de ser fáciles de instalar pero no hacen uso óptimo del ancho de banda. La importancia de estos factores condujo a una división del comité 802 (Pitt, 1988). La gente de CSMA/CD y token bus escogió el puente transparente. La gente de anillos (con apoyo de IBM) prefirió un esquema llamado enrutamiento desde el origen.

 

   El enrutamiento desde el origen supone que el transmisor de cada marco sabe si el destino está en su propia LAN, incluye en la cabecera del marco la trayectoria exacta que seguirá el marco.

 

   Cada LAN tiene un número de 12 bits, y cada puente tiene un número de 4 bits que lo identifica de manera única en el contexto de su LAN.

 

   Este algoritmo se presta para tres posibles implementaciones:

1.     Software. El puente opera en modo promiscuo.

2.     Híbrida. La interfaz de LAN del puente inspecciona el bit de orden mayor del destino y sólo acepta los marcos con el bit establecido.

3.     Hardware. La interfaz de la LAN no sólo revisa el bit de orden mayor del destino, sino que también examina la ruta para ver si este puente debe reenviar.

 

Implícito en el diseño del enrutamiento desde el origen está el hecho de que cada máquina de la interred conoce o puede encontrar la mejor trayectoria a todas las demás máquinas, si el origen desconoce un destino, difunde un marco preguntando donde está. Este marco de descubrimiento es reenviado por cada puente de modo que llegue a todas las LAN de la interred.

 

   Una vez que el HOST ha descubierto una ruta a cierto destino, almacena la ruta en una memoria caché, para que el proceso de descubrimiento no tenga que ejecutarse la siguiente vez.

   Aunque este enfoque limita en gran medida el impacto de la explosión de marcos, el algoritmo completo no es transparente.

 

Comparación de los puentes 802.

 

Aspecto

Puente transparente

Puente de enrutamiento en el origen

   Orientación

    Sin conexiones

    Orientado a la conexión

    Transporte

    Completamente transparente

    NO transparente

    Configuración

    Automático

    Manual

    Enrutamiento

    Subóptimo

    Óptimo

    Localización

    Aprendizaje en reversa

    Marco de descubrimiento

    Fallas

    Manejado por los puentes

    Manejado por los hosts

    Complejidad

    En los puentes

    En los hosts

 

Los puentes transparentes no tienen el concepto de circuito virtual. Los puentes de enrutamiento en el origen determinan una ruta mediante marcos de descubrimiento.

 

Los puentes transparentes se enteran con rapidez y automáticamente de las fallas de puentes y de LAN. Con el enrutamiento de origen, al fallar un puente principal, muchos hosts experimentarán terminaciones de temporización (time outs) y enviarán nuevos marcos de descubrimiento antes de que se resuelva el problema.

 

Puentes remotos.

 

Un uso común de lo puentes es la conexión de dos o más LAN distantes.  Esto puede lograrse poniendo un puente en cada LAN y conectando los puentes en pares mediante línea punto a punto. Se pueden usar varios protocolos en las líneas punto a punto.

 

LAN DE ALTA VELOCIDAD.

 

Para altas velocidades y mayores distancias las LAN deben basarse en fibra óptica o en redes de cobre altamente paralelas. Las LAN rápidas por lo general usan fibra óptica por ser más confiable y no es afectada por ruido EM.

 

FDDI.

 

La FDDI (Fiber Distributed Data Interface, interfaz de datos distribuidos por fibra) es una LAN token ring de fibra óptica de alto desempeño que opera a 100 Mbps y distancias de hasta 200 kilómetros con hasta 1000 estaciones conectadas, también se usa como backbone para conectar varias LAN de cobre; también usa LED, en lugar de láser.

 

   El cableado de la FDDI consiste en dos anillos de fibra, uno transmite en dirección de las manecillas del reloj, el otro en dirección contraria.

 

   La FDDI define dos tipos de estaciones, A y B. Las estaciones clase A se conectan a ambos anillos. La clase B sólo se conectan a uno de los anillos.

 

   La capa física no usa codificación Manchester porque la codificación Manchester a 100 Mbps requiere 200 megabaud. En cambio, se usa un esquema llamado 4 de 5. Cada grupo de 4 símbolos MAC se codifica en el medio del grupo de 5 bits.

 

   La ventaja de este esquema es que ahorra ancho de banda aunque hay pérdida de la propiedad de auto sincronización de la codificación Manchester.

 

   En un anillo grande puede haber varios marcos a la vez. Los marcos de datos FDDI son parecidos a los 802.5. Además permite marcos sincrónicos especiales para datos PCM de circuitos conmutados o ISDN. Cada uno de estos marcos tiene una cabecera, 16 bytes de datos conmutados y hasta 96 de no conmutados. Esto último debido a que permite cuatro canales T1 a 1.544 Mbps o tres canales CCITT E1 a 2.048 Mbps quepan en un marco, haciéndolo adecuado para usarse en cualquier parte del mundo.

 

   El protocolo MAC de la FDDI usa tres temporizadores.  El temporizador de retención de la ficha determina el tiempo que una estación puede continuar transmitiendo una vez que ha adquirido la ficha. El temporizador de rotación de la ficha se reinicia cada vez que se ve la ficha. El temporizador de transmisión válida se usa para terminar la temporización y recuperación de ciertos errores transitorios del anillo.

 

Ethernet rápido.

 

En junio de 1995 se aprobó oficialmente por el IEEE el 802.3u, conocido como Ethernet rápido. El concepto principal en que se basa Ethernet rápido es reducir el tiempo de bit de 100 nseg a 10 nseg. Ethernet rápido se basa en el diseño de alambrado 10Base - T. Las consideraciones del alambrado se hicieron como sigue:

 

Nombre

Cable

Segmento Máximo

Ventajas

    100Base - T4

    Par trenzado

    100 m

    Usa UTP categoría 3

    100Base - TX

    Par trenzado

    100m

    Dúplex integral a 100 Mbps

    100Base - F

    Fibra Óptica

    2000 m

    Dúplex integral a 100Mbps;

 

El esquema UTP categoría 3, llamado 100Base - T4, usa cuatro pares trenzados. El sistema 8B6T (mapa de 8 bits a 6 trits) funciona con la planta de alambrado existente.

 

   Para el alambrado de categoría 5, el diseño es 100Base - TX solo utiliza dos pares trenzados por estación. Usa un esquema llamado 4B5B a 125 Mhz. Es un sistema duplex integral.

 

   La opción 100Base - FX usa dos hilos de fibra multimodo, uno para cada dirección. La distancia entre un concentrador y una estación puede ser de hasta 2 Km.

 

   En un concentrador conmutado, todas las estaciones pueden transmitir al mismo tiempo, los 100Base - T, no.

 

HIPPI - Interfaz paralela de alto desempeño.<

 

La HIPPI se diseñó originalmente como canal de datos, no como LAN. Después se hizo evidente la necesidad de conmutar un peroférico de una supercomputadora a otra.

 

   A fin de lograr un desempeño de tal nivel usando solo chips comunes, la interfaz básica se hizo de 50 bits de ancho, 32 bits de datos y 18 de control, por lo que el cable HIPPI contiene 50 pares trenzados. Cada 40 nseg se transfiere una palabra en paralelo a través de la interfaz. Para lograr 1600 Mbps, se usan dos cables y se transfieren dos palabras en paralelo por ciclo. A estas velocidades, la longitud máxima es de 25 metros.

 

Canal de fibra.

 

Es el sucesor de la HIPPI. Maneja tanto conexiones de canal de datos como de red. Puede usarse para conducir canales de datos que incluyen HIPPI, SCSI y el canal multiplexor empleado en las mainframe IBM., así como paquetes de red IEEE 802, IP y ATM. La estructura básica de los canales es un interruptor de barras cruzadas que conecta las entradas con las salidas.

 

   Apoya tres clases de servicio: Conmutación de circuitos pura, conmutación de paquetes con entrega garantizada y conmutación de paquetes sin entrega garantizada.

 

   El canal de fibra tiene 5 capas: La capa inferior que tiene que ver con el medio físico, la capa de manejo de la codificación de bits, la tercera define el formato de la distribución de marco y cabecera, la siguiente permitirá proporcionar servicios comunes a la capa superior posteriormente y por último la capa superior proporciona las interfases con los distintos tipos de computadoras y periféricos reconocidos.

 

REDES SATELITALES.

 

Los satélites de comunicación tienen hasta una docena o más transponedores. Cada transponedor tiene un haz que cubre una parte de la tierra debajo de él. Los satélites sin procesamiento se llaman satélites de codo.

   El tiempo durante el cual se apunta un haz sobre un área dada se llama el tiempo de morada o permanencia (dwell time).

   Es imposible la detección de portadora, así como la de canal de enlace ascendente. Por esto, los protocolos CSMA/CD no pueden usarse.

Se emplean cinco clases de protocolos en el canal de acceso múltiple: sondeo, ALOHA, FDM, TDM y CDMA.

 

Sondeo.

 La idea es disponer todas las estaciones en un anillo lógico, de modo que cada estación conozca su sucesor. Por este anillo circula una ficha. El satélite nunca ve la ficha. Sólo se permite a una estación transmitir por el enlace ascendente cuando ha capturado una ficha.

 

ALOHA.

 

Cada estación envía cuando quiere. La eficiencia del canal es de sólo 18%. El uso del ALOHA ranurado duplica la eficiencia pero hay problema de sincronización.

 

FDM.

 Es la multiplexión por división de frecuencia. Una desventaja es que requiere bandas de seguridad entre los canales para mantener separadas a las estaciones. También existe un problema de potencia.

 

TDM.

 Requiere sincronización de tiempo para las ranuras. La asignación de ranuras puede ser de forma centralizada (como el ACTS, en el cual la administración de ranuras la efectúa una de las estaciones de tierra llamada MCS) o descentralizada.

   También es posible el reparto dinámico de las ranuras TDM. Cada ranura tiene un dueño temporal y sólo el dueño puede usar una ranura de tiempo. Existen tres esquemas de reservación: Binder, Crowther y Roberts.

 

CDMA.

 El CDMA evita problemas de sincronización de tiempo y también el problema de reparto del canal; es completamente descentralizado y dinámico. Sin embargo tiene 3 desventajas principales. La capacidad de un canal que se puede lograr con TDM. Con 128 chips/bit, la tasa de chips es alta, necesitándose un transmisor rápido. Pocos ingenieros entienden el CDMA.

 

1