En cualquier red de difusión se debe determinar quien
puede usar el canal cuando hay competencia por él. A los canales de difusión se
les llama canales multiacceso o canales de acceso aleatorio. Los protocolos
usados pertenecen a una subcapa de la capa de enlace de datos llamada subcapa
MAC (medium access control, control de acceso al medio). Esta subacapa es de
gran importancia para las Lan ya que usan un canal multiacceso como base de su
comunicación, mientras que las WAN usan enlaces punto a punto. La subcapa MAC
es la parte inferior de la capa de enlace de datos.
REPARTO ESTATICO DE CANAL
EN LAS LAN Y LAS MAN
La manera tradicional de repartir un canal es la
multiplexion por división en frecuencia ( FDM ) . Si solo hay N usuarios, el
ancho de banda se divide en N partes iguales una para cada usuario por lo que
no hay interferencias. Cuando hay una poca cantidad de usuarios y fija FDM es
eficiente; Si el numero de transmisores en grande y varia continuamente , si el
espectro se divide en N regiones y hay menos de N usuarios interesados en
comunicarse se desperdiciara una parte del espacio. Si mas de N usuarios
quieren comunicarse a algunos se les negara el permiso por falta de ancho de
banda.
El retardo medio de un canal de C bps de capacidad con
una tasa de recepción de l marcos/seg es:
T = 1 /( mC-l )
Si dividimos el canal en
N el retardo medio al usar FDM es N veces peor:
TFDM = N / ( mC-l ) = NT
Primeramente se debe
formular el problema de reparto basado en 5 supuestos.
En este algoritmo se uso la radiotransmicion basada en
tierra, hay dos versiones de aloha: la pura y la ranura. Difieren en si se
divide el tiempo o no, en ranuras discretas. El aloha puro no requiere
sincronización de tiempo global; el aloha ranurado si.
Aloha puro:
Consiste en permitir que los usuarios transmitan cuando
tengan datos por enviar. Habrá colisiones y los marcos en colisión se
destruirán pero por retroalimentación un
transmisor puede saber si el marco fue destruido o no.
Aloha ranurado:
Con este método se intento duplicar la capacidad de un
sistema aloha puro dividiendo el tiempo en intervalos de tiempo discreto,
correspondientes cada uno a un marco. Necesita que los usuarios acuerden
limites de ranura. Una manera de lograr la sincronización es tener una estación
especial que emita una señal al inicio de cada intervalo. En este método no se
permite enviar marcos cundo sea si no que se tiene que esperar al inicio de la
siguiente ranura.
(Acceso múltiple con detección de portadora) cuando una
estación tiene datos por transmitir, primero escucha al canal para ver si otra
esta transmitiendo; si esta ocupado, espera hasta que se desocupa, entonces
transmite un marco. Si hay una colisión la estación espera una cantidad
aleatoria de tiempo y comienza de nuevo. Este protocolo se llama persistente-1
porque la estación transmite con una probabilidad de 1 cuando el canal esta en
reposo.
Antes de enviar una estación detecta el canal. Si nadie
esta transmitiendo, comienza a hacerlo. Sin embargo si el canal ya esta en uso,
la estación no observa continuamente al canal para tomarlo en cuando se desocupe
en cambio, espera un tiempo aleatorio y repite el algoritmo.
Se aplica a canales ranurados. Cuando una estación esta
lista para enviar, escucha al canal. Si el canal esta en reposo, la estación
transmite con una probabilidad de p. Con una probabilidad q = 1-p , se espera
hasta la siguiente ranura, si esta en reposo transmite o espera nuevamente con
una probabilidad de p y q.
(Acceso múltiple con detección de colisiones) las
colisiones pueden detectarse detectando la potencia o el ancho de pulso de la
señal recibida y comparándola con la transmitida. Una vez que una estación
detecta la colisión aborta la transmisión , espera un periodo de tiempo
aleatorio e intenta de nuevo por lo que el modelo CSMA/ CD consistirá en periodos
alternantes de contención y transmisión, ocurriendo periodos muertos cuando
todas las estaciones están calladas.
Cada periodo de contención consiste en exactamente N
ranuras. Si la estación 0 tiene un marco por enviar, transmite un bit 1 durante
la ranura 0. no esta transmitido a otra estación transmitir durante ese
intervalo. Sin importar lo que haga la estación 0, la estación 1 tiene la
posibilidad de transmitir un 1 durante la ranura 1, pero solo si tiene en cola
un marco. A estos protocolos en los que el deseo de transmisión se difunde
antes de la transmisión se llaman protocolos de reservación.
Se usan direcciones de estación binarias. Una estación
que quiere transmitir ahora difunde su dirección como una cadena binaria de
bits, comenzando por el bit de orden mayor. Todas las direcciones tienen la
misma longitud. A los bits en cada posición de
dirección de las diferentes estaciones se les aplica un OR booleano a
todos juntos.
En condiciones de carga baja , la contención (ALOHA) es
preferible debido a su bajo retardo. A medida que aumenta la carga la
contención se vuelve menos atractiva; lo inverso se cumple paro los protocolos
libres de colisiones. Con carga baja tienen un retardo alto y conforme aumenta
la carga aumenta su eficiencia. A los protocolos que combinan las mejores
propiedades de los anteriores se llaman protocolos de contención limitada.
Se deben pensar las estaciones como hojas de un árbol binario. En la primera ranura,
ranura 0, se permite que todas las estaciones intenten adquirir el canal. Si
una lo logra, que bueno. Si hay una colisión, entonces durante la ranura 1,
solo aquellas estaciones que queden bajo el nodo 2 del árbol podrán competir.
Si una de ellas adquiere el canal, la ranura que sigue al marco se reserva para
leas estaciones que están bajo el nodo 3. si por otra parte, dos o mas estaciones
bajo el nodo 2, quieren transmitir, abr una colisión durante la ranura 1, en
cuyo caso es el turno del nodo 4 durante la ranura 2.
PROTOCOLOS DE ACCESO
MÚLTIPLE DE DIVISIÓN EN LONGITUD DE ONDA
Para permitir múltiples transmisiones, se divide el
espectro en canales ( bandas de longitud de onda ), WDMA, se asignan dos
canales a cada estación, uno angosto para mandar señales de control a la
estación, y uno ancho para que la estación pueda mandar marcos de datos
GSM-Sistema global para
comunicaciones móviles.
La primera generación de
teléfonos celulares era analógica pero la actual es digital y utiliza radio por
paquetes. La transmisión digital tiene varias ventajas sobre la analógica para
la comunicación móvil. Primero, pueden integrarse en un solo sistema voz, datos
y fax. Segundo, a medida que se descubran mejores algoritmos de compresión de
voz, se requerirá menos ancho de banda por canal. Se pueden usar códigos de corrección
de errores para mejorar la calidad de la transmisión. Por último, las señales
digitales pueden cifrarse para mejorar la seguridad.
GSM fue diseñado como un
completo sistema digital, sin compromisos de compatibilidad con sistemas
analógicos. Se diseñó originalmente para usarse en la banda de 900 MHZ.
Después, se repartieron frecuencias a 1800 MHz y se estableció ahí un segundo
sistema, diseñado de manera muy semejante a GSM. Este sistema se llama DCS1800
(ó GSM extendido), pero esencialmente es GSM.
Un sistema GSM tiene un
máximo de 200 canales por celda. Cada canal consiste en una frecuencia de
enlace descendente y una frecuencia de enlace ascendente. Cada banda de
frecuencia tiene un ancho de 200 KHz.
Figura 4-13
Cada uno de los 124
canales de frecuencia maneja ocho colecciones separadas que usan multiplexión
por división en el tiempo. Se asigna una ranura de tiempo en un canal a cada
estación activa. En teoría, pueden reconocerse 992 canales por celda, pero la
mayoría de ellos no están disponibles, a fin de evitar conflictos de frecuencia
con las celdas vecinas. En la figura 4-13 las ocho ranuras de tiempo sombreadas
pertenecen al mismo canal, cuatro de ellas para cada dirección. La tasa bruta
de cada canal es de 270 Kbps, dividida entre 8 usuarios. Descontando la
información extra, cada conexión puede enviar una señal compartida de voz o
9600 bps de datos (fax o e-mail).
Figura 4-14
Como puede verse en la
figura 4-14, ocho marcos de datos constituyen un macro TMD, y 26 marcos TMD
constituyen un multimarco de 120 mseg. De los 26 marcos TMD en un multimarco,
la ranura 12 se usa para control y la ranura 25 se reserva para su uso futuro.
Además del multimarco de 26 ranuras se utiliza uno de 51 ranuras. Algunas de
estas ranuras se usan para contener varios canales de control con los que se
maneja el sistema. El canal de control
de difusión es una corriente continua de salida de la estación base que
contiene su identidad y el estado del canal.
El canal de control dedicado se usa para la actualización de la ubicación, el registro y la
preparación de llamadas. La información necesaria para mantener esta base de
datos se envía por el canal de control dedicado.
Por último, está el canal de control común, que se divide
en tres subcanales lógicos. El subcanal de anunciación, el de acceso aleatorio
y el de otorgamiento de acceso.
CDPD-Paquete celular digital de datos.
Un enfoque para resolver
los altos costos de las llamadas inalámbricas es un servicio de datagrama
digital conmutado por paquete llamado CDPD,
este está construido encima de AMPS y es completamente compatible con AMPS.
Básicamente, cualquier canal de 30 KHz inactivo se puede tomar temporalmente
para enviar marcos de datos a una tasa bruta de 19.2 Kbps. Como CDPD implica
información extra, la tasa neta de datos es más cercana a 9600 bps. Aun así, un
sistema de datagramas inalámbrico para enviar, digamos, paquetes IP
aprovechando el sistema existente de telefonía celular es una propuesta
interesante para muchos usuarios, por lo que está creciendo con rapidez.
CDMA-Acceso múltiple por división de código.
El CDMA permite que cada
estación transmita en el espectro completo de frecuencia todo el tiempo. Las
trasmisiones múltiples simultáneas se separan usando la teoría de codificación.
El CDMA también relaja el supuesto de que los marcos en colisión se alteran
completamente. En cambio, supone que las señales múltiples se suman
linealmente.
Para entender esto
consideremos la teoría de la fiesta de cóctel de acceso a un canal. En un
cuarto grande, muchas personas están conversando. TMD es cuando toda la gente
está en el centro del cuarto, pero se turnan para hablar, primero uno, luego
otro. FMD es cuando la gente se encuentra junta en grupos ampliamente dispersos,
llevando cada grupo su propia conversación al mismo tiempo que los demás, pero
independientemente. CDMA es cuando todos están en el centro del salón hablando
al mismo tiempo, pero hablando cada pareja en un lenguaje distinto. Por tanto,
la clave de CDMA es ser capaz de extraer la señal deseada mientras se rechaza
todo lo demás como ruido aleatorio.
4.3 ESTANDAR IEEE 802 PARA LAN Y MAN.
Los estándares IEEE802
se dividen en dos partes, cada uno publicado como libro independiente. El
estándar 802.1 es una introducción al grupo de estándares y define las
primitivas de la interfaz. El estándar 802.2 describe la capa superior de
enlace de datos, que usa el protocolo LLC (control de enlace lógico). Las
partes 802.3 a 802.5 describen los tres estándares para LAN, CSMA/CD, token bus y token ring, respectivamente. Cada estándar cubre la capa física y
el protocolo de la subcapa MAC.
4.3.1 Estándar IEEE 802.3 y Ethernet.
Ethernet fue el nombre dado por Xerox a su
sistema de transmisión de 3 Mbps CSMA/CD, luego acelerado a 10 Mbps por DEC,
Xerox e Intel. Este estándar formó la base del 802.3. El estándar 802.3
publicado difiere de la especificación Ethernet en cuanto a que describe una
familia completa de sistemas CSMA/CD persistente-1, operando a velocidades de 1
a 10 Mbps en varios medios
Cableado del 802.3
Dado que el nombre “Ethernet” se refiere al
cable (el éter). Comúnmente se usan cinco tipos de cableado, como se muestra en
la figura 4-17.
Nombre |
Cable |
Segmento máximo |
Nodos/seg. |
Ventajas |
10Base5 |
Coaxial
grueso |
500 m |
100 |
Bueno para backbones |
10Base2 |
Coaxial
delgado |
200 m |
30 |
Sistema más barato |
10Base-T |
Par trensado |
100 m |
1024 |
Fácil mantenimiento |
10Base-F |
Fibra
óptica |
2000 m |
1024 |
Mejor entre edificios |
Figura 4-17
El primer cable fue 10Base5 o Ethernet grueso,
la notación 10base5 significa que opera a 10Mbps, usa señalización de banda
base y puede manejar segmentos de hasta 500 metros.
El segundo tipo fue 10base2 o Ethernet delgado
que a diferencia con el Ethernet grueso se dobla con facilidad. Este es mucho
más barato y fácil de instalar, pero puede extenderse solo 200 metros y puede
manejar sólo 30 máquinas por segmento de cable.
El tipo 10Base-T o par trenzado surgió como
solución a los problemas de rupturas entre los cables coaxiales.
Estos tres esquemas de
alambrado se muestran en la figura 4-18. para 10Base-T, se sujeta fuertemente a
un transceptor alrededor del cable, de modo que su derivación haga contacto con
el núcleo interno. El transceptor contiene la electrónica que maneja detección
de portadora y detección de colisiones.
Con 10Base5, un cable de
transceptor conecta el transceptor a una tarjeta de interfaz en la computadora.
El cable de transceptor puede tener hasta 50 metros de longitud y contiene
cinco pares trenzados aislados individualmente.
Con 10Base 2, la
conexión al cable es sólo un conector BNC pasivo de unión T. la electrónica del
transceptor está en la tarjeta controladora, y cada cesión tiene su propio
transceptor.
Con 10Base-T no hay
cable en absoluto, sólo el concertador (hub). Agregar o remover estaciones es
más sencillo con esta configuración, y las rupturas de cable pueden detectarse
con facilidad, 10Base-T se está volviendo cada vez mas común debido a su
facilidad de mantenimiento.
En la figura 4-19 se
muestran diferentes maneras de alambrar un edificio.
Figura 4-19
En la figura 4-19(a), un
solo cable se pasa entre cuarto y cuarto, conectándose cada estación a él en el
punto más cercano. En la figura 4-19(b) una columna vertical corre del sótano
al techo, conectándose a él cables horizontales en cada piso mediante
amplificadores especiales. La topología más general es la de árbol, como en la
figura 4-19(c), porque una red con dos trayectorias entre algunos pares de
estaciones sufrirá interferencia entre las dos señales.
Cada versión de 802.3
tiene una longitud máxima de cable por segmento. Para permitir redes mayores,
se pueden conectar cables múltiples mediante repetidores, como se muestra en la
figura 4-49(d).
Esta
codificación es usada para ebitar ambiguedades, en esta cada periodo de bit se
divide en dos intervalos iguales. Un bit binario 1 se envía teniendo el voltaje
alto durante el primer intervalo y bajo durante el segundo. Un bit cero es
justamente lo inverso. Este esquema asegura que cada periodo de bit tiene una
transición a la mitad, facilitando que el transmisor se sincronice con el
receptor.Todos los sistemas 802.3 de banda base usan codificación Manchester
debido a su sencillez. La señal alta es de +0.85 volts, y la señal baja es de
–0.85 volts, dando un valor de cc de 0 volts.
Figura 4-20
La
estructura de marco del 802.3 se muestra en la figura 4.21. Cada marco comienza
con un preámbulo de 7 bytes, cada uno de los cuales contiene el patrón de bits
10101010. La codificación Manchester de este patrón produce una onda cuadrada de 10 MHz durante 5.6 microsegundos para
permitir que el reloj del receptor se sincronice con el del transmisor.
Figura 4-19
El marco contiene dos
direcciones, una para el destino y una para el origen. El bit de orden mayor de
la dirección de destino es 0 para direcciones ordinarias y 1 para direcciones
de grupo. El envío a un grupo de estacione se llama multidifución, el bit 46 es
empleado para distingir las direcciones globales de las locales, el campo de
longitud indica cuántos bytes están presentes en el campo de datos, de un
mínimo de cero a un máximo de 1500, el 802.3 establece que los marcos válidos
deben tener 64 bytes de longitud, desde la dirección de destino hasta la suma
de la comprobación.
Otra razón para tener un
marco de longitud mínima es evitar que una estación complete la transmisión de
un marco corto antes de que el primer bit llague al extremo más alejado del
cable, donde podría tener coalición con otro marco, este problema se ilustra en
la figura 4-22.
En el momento 0, la
estación A, en un extremo de la red, envía un marco, justo antes de que el
marco llegue al otro extremo la estación B empieza a transmitir. Cuando B
detecta que ha ocurrido una colisión aborta su transmisión y genera una ráfaga
de 48 bits para avisar a las demás estaciones. En el momento en que el
transmisor ve la ráfaga de ruido aborta su transmisión y luego espera un tiempo
aleatorio para reintentar su transmisión.
Este
algoritmo es usado para crear el proceso de aleatorizazión cuando ocurre una
colisión. Tras una colisión, el tiempo se divide en ranuras de 51.2
microsegundos. Tras la primera colisión, cada estación espera 0 o 1 tiempos de
ranura antes de intentarlo de nuevo. Si dos estaciones entran en colisión y
ambas escogen el mismo número aleatorio, habrá una nueva colisión. Tras la
segunda colisión, cada una escoge 0, 1, 2 o 3 al azar y espera ese número de
tiempos de ranura. Si ocurre una tercera colisión, entonces la siguiente vez el
número de ranuras a esperar se escogerá al azar del intervalo 0 a .
En general tras i colisiones, se escoge un número aleatorio entre
y se salta ese número de ranuras. Sin embargo
el intervalo de aleatorizazión se congela en un máximo de 1023 ranuras. Este
algoritmo, llamado retroceso exponencial binario, se escogió para adaptar
dinámicamente el número de estaciones que intentan transmitir.
Desempeño.
Gran
cantidad de análisis teóricos de desempeño del 802.3 y prácticamente todos han
supuesto que el tráfico es de Poisson. A medida que los investigadores han
comenzado a examinar datos reales, se ha hecho evidente que el tráfico en redes
pocas veces es Poisson, sino autosimilar. Lo que esto significa es que la
premediación durante periodos grandes de tiempo no hace más uniforme el tráfico.
El número medio de paquetes en cada minuto de una hora tiene tanta variación
como el número medio de paquetes en cada segundo de un minuto. La consecuencia
de este descubrimiento es que la mayoría de los modelos de tráfico de red no se
aplican al mundo real y deben tomarse con escepticismo.
LAN
802.3 conmutadas.
A
medida que se agregan más y más estaciones a una LAN 802.3, aumenta el tráfico.
En algún momento, la LAN se saturará. Una solución al problema es utilizar una
velocidad mayor, digamos 100 Mbps en lugar de 10 Mbps. Está solución obliga a
desechar todas las tarjetas adaptadoras de 10 Mbps y comprar nuevas, lo cual es
muy costoso.
Afortunadamente
existe otra solución, una LAN 802.3 conmutada. El corazón de este sistema es un
conmutador que contiene un canal en segundo plano de alta velocidad y espacio
para 4 o 32 tarjetas de línea, conteniendo cada una de uno a ocho conectores.
Lo más común es que cada conector tenga una conexión de par trenzado 10Base-T a
una sola cumputadora anfitriona.
Cuando
la estación quiere transmitir un marco 802.3, envía un marco estándar al
conmutador. La tarjeta que recibe el marco lo revisa para ver si está destinado
a una de las otras estaciones conectadas a la misma tarjeta. De sea así, el
marco se envía a través del canal en segundo plano de alta velocidad a la
tarjeta de la estación destino. El canal de alta velocidad funciona a más de 1
Gbps usando un protocolo patentado.
4.3.3. Estándar IEEE 802.5:
token ring
Las
redes en anillo no son nada nuevo, pues (Pierce, 1972) se han utilizado desde
hace mucho para redes tanto locales como de área amplia. Entre sus muchas
características atractivas está el que un anillo no es realmente un medio de
difusión, sino un conjunto de enlaces punto a punto individuales que,
coincidentemente, forman un círculo. Los enlaces punto a punto implican una
tecnología bien entendida y probada en el campo que puede operar en par
trenzado, cable coaxial y fibra óptica. La ingeniería de anillos es casi
completamente digital. En contraste, por ejemplo, el 802.3 tiene una componente
analógica considerable para la detección de colisiones. Un anillo también es
equitativo y tiene un límite superior conocido de acceso a canal. Por estas
razones, IBM escogió el anillo como su LAN y el IEEE ha incluido el estándar token
ring como el 802.5 (IEEE, 1985c; Latif e: al., 1992).
Como
se mencionó antes, un anillo en realidad consiste en un conjunto de interfaces
de anillo conectadas por líneas punto a punto. Cada bit que llega a una
interfaz se copia en un buffer de 1 bit y luego se copia en el anillo
nuevamente. Mientras está en el buifer, el bit se puede inspeccionar y
posiblemente modificar antes de enviarse. Este paso de copiado introduce un
retardo de 1 bit en cada interfaz. En la figura 4-28 se muestra un anillo y sus
interfaces.
En
un token ring (anillo con ficha) circula un patrón de bit especial, llamado
ficha (token) alrededor del anillo cuando todas las estaciones están inactivas.
Cuando una estación quiere transmitir un marco, debe tomar la ficha y retirarla
del anillo antes de transmitir. Esta acción se lleva a cabo invirtiendo un solo
bit de la ficha de 3 bytes, lo que instantáneamente la conviene en los tres
primeros bytes de un marco de datos normal. Debido a que sólo hay una ficha,
sólo una estación puede transmitir en un instante dado, resolviendo por tanto
el problema de acceso al canal de la misma manera en que lo resuelve el token
bus.
Las
interfaces del anilló tienen dos modos operativos, escuchar y transmitir. En el
modo de escuchar, los bits de entrada simplemente se copian en la salida, con
un retardo de un tiempo de bit, como se muestra en la figura 4-28(b). En el
modo de transmitir, al que se entra una vez que se tiene la ficha, la interfaz
rompe la conexión entre la entrada y la salida, introduciendo sus propios datos
en el anillo. Para poder conmutar del modo de escuchar al de transmitir en un
tiempo de 1 bit, la interfaz generalmente necesita almacenar en su buifer uno o
más marcos, en lugar de obtenerlos de la estación con tan poca anticipación.
El
manejo de acuses de recibo es directo en un token ring. El formato de marco
sólo necesita incluir un campo de 1 bit para acuse de recibo, inicialmente
cero. Cuando la estación de destino ha recibido un marco, establece el bit. Por
supuesto, si el acuse significa que la suma de comprobación ha sido verificada,
el bit debe seguir a la suma de comprobación y la interfaz con el anillo debe
ser capaz de verificar la suma de comprobación tan pronto haya recibido el
último bit. Cuando un marco se difunde a múltiples estaciones, debe usarse un
mecanismo de acuse más complicado (si es que se usa uno).
Cuando
el tráfico es ligero, la ficha pasará la mayor parte del tiempo circulando
inactivamente alrededor del anillo. Ocasionalmente, una estación la tomará,
transmitirá un marco, y entonces emitirá una ficha nueva. Sin embargo, cuando
el tráfico es pesado, de modo que hay una cola en cada estación, tan pronto una
estación termina su transmisión y regenera la ficha la siguiente estación verá
y retirará la ficha. De esta manera, el permiso para enviar gira continuamente,
por turno circular. La eficiencia de la red puede acercarse al 100% en
condiciones de carga pesada.
Ahora
pasemos de los token rings en general al estándar 802.5 en particular. En la
capa física, el 802.5 especifica par trenzado operando a 1 o 4 Mbps, aunque IBM
posteriormente introdujo una versión de 16 Mbps. Las señales se codifican
usando codificación Manchester diferencial [véase la figura 4-.20(c)], siendo
alto (HI) y bajo (LO) señales positivas y negativas de magnitudes absolutas de
3.0 a 4.5 volts. Normalmente, la codificación Manchester diferencial usa Hl-LO
o LO-Hl para cada bit, pero el 802.5 también usa Hl-Hl y LO-LO en ciertos bytes
de control (por ejemplo, para marcar el inicio y el final de un marco). Estas
señales que no son de datos ocurren en pares consecutivos y no introducen una
componente de cc (DC colnponenl) en el voltaje del anillo.
Un
problema con las redes de anillo es que, si se rompe el cable en alguna parte,
el anillo se inhabilita. Este problema puede resolverse de manera muy elegante
mediante el uso de un centro de alambrado, como se muestra en la figura 4-29.
Si bien la red sigue siendo lógicamente un anillo, físicamente cada estación
está conectada al centro de alambrado que contiene (cuando menos) dos pares
trenzados, uno de datos a la estación y otro de datos de la estación.
Dentro
del centro de alambrado hay relevadores de paso (bypass relavs) que se
energizan mediante corriente de las estaciones. Si se rompe el anillo o se
inactiva una estación, la pérdida de la comente de operación desactivará el
relevador, poniendo en puente la estación. Los relevadores también pueden
operarse mediante software que permita a los programas de diagnóstico remover
estaciones una a la vez para encontrar estaciones y segmentos de anillo con
fallas. El anillo entonces puede continuar su operación teniendo en puente la
sección dañada. Aunque el estándar 802.5 no requiere formalmente este tipo de
anillo, llamado con frecuencia anillo en estrella (Saltzer eral., 1983) de
hecho la mayoría de las LAN 802.5 usan centros de alambrado para mejorar su
confiabilidad y mantenimiento.
Cuando
una red consiste en muchos grupos de estaciones muy separados, puede usarse una
topología con muchos centros de alambrado. Sólo imagine que el cable a una de
las estaciones de la figura 4-29 fuera reemplazado por un cable a un centro de
alambrado distante. Aunque lógicamente todas las estaciones están en el mismo
anillo, los requisitos de alambrado se
En
condiciones normales, el primer bit del marco recorrerá el anillo y regresará
al transmisor antes de que el marco completo haya sido transmitido. Sólo un
anillo muy grande será capaz de contener incluso un marco muy corto. En
consecuencia, la estación transmisora debe drenar el anillo mientras continúa
transmitiendo. Como se muestra en la figura 4-28(c), ~to significa que los bits
que han completado el viaje alrededor del anillo regresan al transmisor y ahí
son removidos.
Una
estación puede retener la ficha durante el tiempo de retención de la ficha, que
es de 10 mseg a menos que una instalación establezca un valor distinto. Si
queda suficiente tiempo tras la transmisión del primer marco para enviar más
marcos, éstos pueden enviarse también. Una vez que han sido transmitidos todos
los marcos pendientes, o si la transmisión de otro marco excedería el tiempo de
retención de la ficha, la estación regenera el marco de ficha de 3 bits y lo
pone en el anillo.
Los
campos de delimitador inicial y delimitador final de la figura 4-30(b) marcan
el inicio y el fin del marco. Cada uno contiene patrones Manchester
diferenciales no válidos (HH y LL) para distinguirlos de los bytes de datos. El
byte de control de acceso contiene el bit de ficha y también ~‘ el bit de
revisión, los bits de prioridad y los bits de reservación (descritos más
adelante). El byte
decontrol
de marco distingue los marcos de datos de los diferentes marcos de control
posibles.
El delimitador
final contiene un bit E que se establece cuando cualquier interfaz detecta un
error (por ejemplo, un patrón no Manchester donde no está permitido). También
contiene un bit que puede servir para marcar el último marco de una secuencia
lógica, algo parecido a un bit de fin de archivo.
El
protocolo 802.5 tiene un elaborado esquema para manejar marcos con distintas
prioridades. El marco de ficha de 3 bytes contiene un campo en el byte de
enmedio que indica la prioridad de la ficha. Cuando una estación quiere
transmitir un marco de prioridad n, debe esperar hasta que pueda capturar una
ficha cuya prioridad sea menor o igual que n. Además, al pasar un marco de
datos, una estación puede tratar de reservar la siguiente ficha escribiendo la
prioridad del marco que quiere enviar en los bits de reservación del marco. Sin
embargo, si se ha reservado ahí una prioridad mayor, la estación podría no
hacer la reservación. Cuando el marco actual ha terminado, se genera la
siguiente ficha con la prioridad reservada.
Mantenimiento del anillo
El
protocolo de token bus se esfuerza mucho por efectuar el mantenimiento del
anillo de una manera completamente descentralizada. El protocolo de token ring maneja
el mantenimiento de manera bastante diferente. Cada token ring tiene una
estación monitor que supervisa el anillo. Si se inactiva el monitor, un
protocolo de contención asegura que otra estación será electa rápidamente como
monitor. (Cada estación tiene la capacidad de convertirse en monitor.) Cuando
el monitor funciona adecuadamente, sólo él es responsable de ver que el anillo
opere de manera correcta.
Cuando
el anillo se activa o alguna estación nota que no hay monitor, puede transmitir
un marco de control 5OUCITAR FIcHA. Si este marco recorre todo el anillo antes
del envío de otros marcos 5OLlC~AR FIcHA, el transmisor se convierte en el
nuevo monitor (cada estación tiene capacidad de monitor integrada). Los marcos
de control de token ring se muestran en la figura
4-3
1.
Campo de
control |
Nombre |
Significado |
00000000 |
Pnieba
dirección duplicada |
Prueba sí dos
estaciones tienen la misma dirección |
00000010 |
indcaclón o faro |
Usado para localizar rupturas en el
anillo |
00000011 |
Soicitar ticha |
intenta convertirse en monitor |
00000100 |
Purga |
Reiniclailza el anillo |
00000101 |
MorítOr activo presente |
Emitido periódicamente por el monitor |
00000110 |
Montor en
espera presente |
Anuncia la presencia de monitores
potenciales |
1~1gura 4-31. Marcos de
control del token
ring.
Entre
las funciones del monitor están ver que no se pierda la ficha, emprender
acciones cuando se rompe el anillo, limpiar el anillo después de la aparición
de marcos alterados y buscar marcos huérfanos. Aparece un marco huérfano cuando
una estación transmite un marco corto completo por un anillo grande y luego se
inactiva o apaga antes de que el marco pueda ser drenado. Si no se hace nada,
el marco circulará eternamente.
Para
buscar fichas perdidas, el monitor tiene un temporizador que se establece al
mayor intervalo posible sin ficha: cuando cada estación transmite durante el
tiempo completo de retención de la ficha. Si se vence este temporizador, el
monitor drena el anillo y envía una ficha nueva.
El
comité del 802.5, por otro lado, pensó que tener un monitor centralizado haría
mucho más sencillo el manejo de las fichas perdidas, los marcos huérfanos, etc.
Además, en un sistema normal, las estaciones pocas veces se inactivan
involuntariamente, por lo que tener que manejar ocasionalmente una contienda
por un monitor nuevo no representa gran sufrimiento. El precio que se paga es
que, si el monitor alguna vez realmente enloquece pero continúa enviando
periódicamente marcos de control de MONITOR ACTIVO PRESENTE, ninguna estación
se lo disputará. Los monitores no pueden ser impugnados.
Esta
diferencia de enfoque surge de las distintas áreas de aplicación que tenían en
mente los dos comités. El comité del 802.4 estaba pensando en términos de
fábricas con grandes masas de metal en movimiento controladas por computadora.
Las fallas de red podrían res~jltar en daños severos y tenían que evitarse a
toda costa. El comité del 802.5 estaba interesado en la automatización de
oficinas, donde podía tolerarse una falla de vez en cuando como el precio de
tener un sistema más sencillo. Que el 802.4 sea, de hecho, más confiable que el
802.5 es tema de controversia.
4.3.4. Comparación del 802.3, el 802.4 y el 802.5
Al estar
disponibles tres LAN diferentes e incompatibles, cada una con distintas
propiedades, muchas organizaciones enfrentan la pregunta: ¿cuál debemos instalar?
En esta sección veremos los tres estándares de LAN 802, señalando sus virtudes
y sus defectos, comparándolos y poniéndolos en contraste. fibra óptica. El par
trenzado estándar es barato y sencillo de instalar. El uso de centros de alambrado
hace al token ring la única LAN que puede detectar y eliminar automáticamente fallas
de cableado.
Al
igual que en el token bus, puede haber prioridades, aunque el esquema no es
equitativo. También, como el token bus, son posibles los marcos cortos pero, a
diferencia suya, también son
posibles
los arbitrariamente grandes, limitados sólo por el tiempo de retención de la
ficha. Por último, el rendimiento y la eficiencia cuando la carga es alta son
excelentes, como en el token bus y a diferencia del 802.3.
El
punto negativo principal es la presencia de una función de supervisión
centralizada, que introduce un componente crítico. Aun cuando un monitor muerto
puede reemplazarse, uno enfermo puede causar dolores de cabeza. Además, como en
todos los esquemas de paso de ficha, siempre hay un retardo a muy baja carga,
porque el transmisor debe esperar la ficha.
También
vale la pena señalar que ha habido numerosos estudios de las tres LAN. La
conclusión principal que podemos sacar de estos estudios es que no podemos
sacar conclusiones de ellos. Siempre se puede encontrar un grupo de parámetros
que hacen que una de las LAN se vea mejor que las demás. En la mayoría de las
circunstancias, las tres se desempeñan bien, por lo que probablemente son más
importantes los factores distintos del desempeño al hacer una elección.
4.3.5. Estándar IEEE 802.6: bus doble de colas distribuidas
Ninguna
de las LAN 802 que hemos estudiado hasta ahora es adecuada para usarse como
MAN. Las limitaciones de longitud del cable y los problemas de desempeño cuando
se conectan miles de estaciones las limitan a áreas de extensión pequeña. Para
redes que cubren una ciudad completa, IEEE definió una MAN, llamada DQDB (Distributed
Queue Dual Bus, bus doble de colas distribuidas), como el estándar 802.6. En
esta sección estudiaremos su funcionamiento. Para información adicional, véase
(Kessler y Train, 1992). En (Sadiku y Arvind, 1992) se da una bibliografía que
lista 171 artículos sobre el DQDB.
En
la figura 1-4 se ilustra la geometría básica del 802.6. Dos buses unidireccionales
paralelos serpentean a través de la ciudad, con estaciones conectadas a ambos buses
en paralelo. Cada bus tiene un head-end, que genera una cadena constante de
células de 53 bytes. Cada célula viaja corriente abajo del head-end. Cuando la
célula llega al final, sale del bus.
A
diferencia de los otros protocolos de LAN 802, el 802.6 no es ávido. En todos
los demás, si una estación tiene la oportunidad de enviar, lo hará. Aquí las
estaciones se ponen en cola en el orden en el que van quedando listas para
enviar y transmitir, en orden FIFO (fi rst in, flrst out, el que entra primero
sale primero). La parte interesante del protocolo es la manera en la que logra
el orden FIFO sin tener una cola central.
La
regla básica es que las estaciones son amables: ceden el paso a estaciones más
abajo de ellas. Esta amabilidad es necesaria para evitar una situación en la
que la estación más cercana al head-end simplemente toma todas las células
vacías a medida que pasan y las llena, haciendo que las otras más abajo mueran
de hambre. Por sencillez, sólo examinaremos la transmisión en el bus A, pero la
misma historia se aplica también al bus B.
Para
simular la cola FIFO, cada estación mantiene dos contadores, RC y CD. RC
(Request Counter, contador de solicitudes) cuenta el número de solicitudes
pendientes corriente abajo hasta que la estación misma tiene un marco por
enviar. En ese punto, RC se copia en CD, RC se restablece a O y ahora cuenta el
número de solicitudes hechas después de que la estación quedó lista. Por
ejemplo, si CD = 3 y RC = 2 para la estación k, las siguientes tres células
vacías que pasen por la estación k se reservarán para estaciones corriente
abajo, después la estación k podrá enviar, luego dos células más se reservarán
para estaciones corriente abajo. Por sencillez, supondremos que una estación
puede tener lista a la vez sólo una célula para transmisión.
En
este punto, el head-end del bus A genera una célula vacía. Cuando la célula
pasa por E, esa estación ve que su CD > O, por lo que no puede usar la
célula vacía. (Cuando una estación tiene una célula en cola, CD representa su
posición en la cola, siendo O el inicio de la cola.) En cambio, ¡a estación
disminuye CD. Cuando la célula aún vacía llega a B, esa estación ve que CD =0,
lo que significa que no hay nadie adelante de ella en la cola, por lo que hace
un OR de sus datos en la célula y establece el bit de ocupado. Una vez que se
ha efectuado la transmisión, tenemos la situación de la figura 4-32(d).
Cuando
se genera la siguiente célula vacía, la estación D ve que ahora está al frente
de la cola, y toma la célula (estableciendo un bit), como se ilustra en la
figura 4-32(e). De esta manera, las estaciones se ponen en cola para tomar
turnos, sin un administrador centralizado de colas.
Los
sistemas DQDB ya están siendo instalados por muchas portadoras a través de
ciudades enteras; típicamente operan hasta a 160 km a velocidades de 44.736
Mbps (T3).
4.3.6. Estándar IEEE 802.2:
control lógico de enlace
El
uso típico del LLC es el siguiente. La capa de red de la máquina transmisora
pasa un paquete al LLC usando las primitivas de acceso del LLC. La subcapa LLC
entonces agrega una cabecera LLC que contiene los números de secuencia y acuse.
La estructura resultante se introduce entonces en el campo de carga útil de un
marco 802.x y se transmite. En el receptor ocurre el proceso inverso.
El
LLC proporciona tres opciones de servicio: servicio no confiable de datagramas,
servicio reconocido de datagramas y servicio confiable orientado a conexión. La
cabecera del LLC está basada en el antiguo protocolo HDLC. Se usa una variedad
de formatos diferentes para datos y control. En el caso de datagramas
reconocidos y servicio orientado a conexión, los marcos de datos contienen una
dirección de origen, una dirección de destino, un número de secuencia, un
número de acuse y unos cuantos bits misceláneos. En el servicio de datagramas
no confiable, se omiten el número de secuencia y el número de acuse.
4.4. PUENTES
Muchas
organizaciones tienen varias LAN y desean conectarías. Las LAN pueden
conectarse mediante dispositivos llamados puentes (bridges), que operan en la
capa de enlace de datos. Este postulado implica que los puentes no examinan la
cabecera de la capa de red y que pueden, por tanto, copiar igualmente bien
paquetes IP, IPX y OSI. En contraste, un enrutador IP, IPX u oSI puro puede
manejar sólo sus propios paquetes nativos.
Segunda,
la organización puede estar distribuida geográficamente en varios edificios,
separados por distancias considerables. Puede ser más económico tener LAN
independientes en cada edificio y conectarías mediante puentes y enlaces
infrarrojos que tender un solo cable coaxial a través de toda la zona.
Tercera,
puede ser necesario dividir lo que lógicamente es una sola LAN en LAN individuales
para manejar la carga. Por ejemplo, en muchas universidades miles de estaciones
de trabajo están disponibles para los estudiantes y el cuerpo docente. Los
archivos normalmente se guardan en máquinas servidoras de archivos, y son
descargados a las máquinas de los usuarios a solicitud. La enorme escala de
este sistema hace imposible poner todas las estaciones de trabajo en una sola
LAN, pues el ancho de banda necesario es demasiado grande. En cambio, se usan
varias LAN conectadas mediante puentes, como se muestra en la figura 4-34. Cada
LAN contiene un grupo de estaciones de trabajo con su propio servidor de
archivos, por lo que la mayor parte del tráfico está restringida a una sola LAN
y no agrega carga al backbone.
Cuarta,
en algunas situaciones una sola LAN sería adecuada en términos de la carga,
pero la distancia física entre las máquinas más distantes es demasiado grande
(por ejemplo, mayor que 2.5 km para el 802.3). Aun si fuera fácil tender el
cable, la red no funcionaría debido al retardo excesivamente grande del viaje
de ida y vuelta. La única solución es segmentar la LAN e instalar puentes entre
los segmentos. Usando puentes, puede aumentarse la distancia física total
cubierta.
Quinta,
está la cuestión de la confiabilidad. En una sola LAN, un nodo defectuoso que
envíe constantemente una cadena de basura echará a perder la LAN. Pueden
introducirse puentes en lugares críticos, como puertas para bloquear el fuego
en un edificio, y así evitar que un solo nodo enloquecido tire el sistema completo.
A diferencia de un repetidor, que sólo copia lo que ve, un puente puede
programarse para ejercer algún arbitrio respecto a lo que envía y lo que no.
4.4.1. Puentes de
802.x a 8O2.y
~ Usted
podría pensar ingenuamente que un puente entre una LAN 802 y otra sería
completamente trivial Éste no es el caso. En el resto de esta sección
indicaremos algunas de las dificultades que
se
presentan al tratar de construir un puente entre las distintas LAN 802.
Cada
una de las nueve combinaciones de 802.x a 802.y tiene su propio grupo de
problemas. Sin embargo, antes de tratar éstos uno por uno, veamos algunos
problemas generales comunes a todos los puentes. Para comenzar, cada una de las
LAN usa un formato de marco diferente (véase la figura 4-36). No hay razón
técnica válida para esta incompatibilidad. Simplemente es que ninguna de las
corporaciones que promovieron los tres estándares (Xerox, GM e IBM) quería
cambiar el suyo. Como resultado, cualquier copiado entre las diferentes LAN
requiere reformateo, lo que gasta tiempo de CPU, obliga a un nuevo cálculo de
suma de comprobación e introduce la posibilidad de errores no detectados debido
a bits erróneos en la memoria del puente. Nada de esto habría sido necesario
silos tres comités hubieran sido capaces de acordar un solo formato. Un segundo
problema es que las LAN interconectadas no necesariamente operan con la misma
tasa de datos. Al enviar un grupo grande de marcos uno tras otro de una LAN
rápida a una lenta, el puente no será capaz de deshacerse de los marcos a la
misma velocidad a la que llegan; tendrá que ponerlos en buffers, esperando que
no se le acabe la memoria. El problema también existe en alguna medida del
802.4 a 802.3 a 10 Mbps, pues se pierde un poco del ancho embargo, si se
reenvía uno de tales marcos desde un puente, ¿qué debe hacer el puente? Si
envía él mismo un marco de acuse, estará mintiendo, pues en realidad aún no ha
sido entregado el
~ marco. De hecho, el destino puede
estar muerto.
Por
otra parte, si el puente no genera el acuse, el transmisor casi con seguridad
concluirá que el destino está muerto e informará de la falla a sus superiores.
No parece haber ninguna manera de resolver este problema.
Del
802.5 al 802.3 tenemos un problema parecido. El formato de marco 802.5 tiene
los bits A y C en el byte de estado del marco. Estos bits los establece el
destino para indicar al transmisor si la estación direccionada vio el marco, y
si lo copió. Nuevamente, el puente puede mentir y decir que el marco ha sido
copiado pero, si luego resulta que el destino está inactivo,’pueden ocurrir
problemas serios. En esencia, la inserción de un puente en la red ha cambiado
la semántica de los bits. Es difícil imaginar una solución adecuada a este
problema.
~ Del 802.3 al 802.4 tenemos el
problema de qué poner en los bits de prioridad. Parece bastante sensato hacer
que el puente retransmita todos los marcos a la prioridad máxima, dado que
probablemente ya han sufrido suficiente retardo.
Del
802.4 al 802.4 el único problema es qué hacer con la entrega temporal de la
ficha. Cuando menos, aquí tenemos la posibilidad de que el puente logre
reenviar el marco a una velocidad suficiente para obtener la respuesta antes de
que termine el temporizador. Aun así, es un riesgo. Al reenviar el marco a la
prioridad más alta, el puente miente inocentemente, pero de esa manera aumenta
la probabilidad de obtener la respuesta a tiempo.
Del
802.5 al 802.4 tenemos el mismo problema que antes con los bits A y C. También
la definición de los bits de prioridad es distinta para las dos LAN, pero los
mendigos no pueden escoger. Al menos las dos LAN tienen el mismo número de bits
de prioridad. Todo lo que puede hacer el puente es copiar y pasar los bits de
prioridad, y esperar lo mejor.
Del
802.3 al 802.5, el puente debe generar bits de prioridad, pero no hay otros
problemas especiales. Del 802.4 al 802.5 hay un problema potencial con marcos
que son demasiado grandes, y se presenta nuevamente el problema de la entrega
de la ficha. Finalmente, del 802.5 al 802.5 el problema es qué hacer nuevamente
con los bits A y C. En la figura 4-37 se resumen los distintos problemas que
hemos analizado.
El
primer puente 802 es un puente transparente o puente de árbol de extensión
(PerIman, 1992). La preocupación principal de la gente que apoyó este diseño
fue la transparencia completa. Desde su punto de vista, una instalación con
varias LAN debería ser capaz de salir y comprar puentes diseñados para el
estándar IEEE, enchufar los conectores a los puentes, y todo deberla funcionar
perfectamente al instante. No deberían requerirse cambios de hardware, cambios
de software, ajustes de conmutadores de direccionamiento, carga de tablas o
parámetros de enrutamiento, nada. Simplemente conectar los cables y dedicarse a
otro asunto. Además, la operación de las LAN existentes no deberla ser afectada
por los puentes en lo absoluto. Sorprendente, pero lo lograron.
Al
llegar un marco, un puente debe decidir si lo descarta o lo reenvía y, de ser
¡o segundo, en qué LAN debe poner el marco. Esta decisión se toma buscando la
dirección de destino en una gran tabla (de dispersión) contenida en el puente.
La tabla puede listar cada posible destino e indicar a qué línea de salida
(LAN) pertenece. Por ejemplo, la tabla de B2 indicaría que A pertenece a la LAN
2, ya que todo lo que B2 tiene que saber es en qué LAN tiene que poner los marcos
para A. El que se reenvíe posteriormente no le interesa.
Al
conectarse inicialmente los puentes, todas las tablas de dispersión están
vacías. Ninguno de los puentes sabe la ubicación de ninguno de los destinos,
por lo que usa el algoritmo de inundación: cada marco de entrada para un
destino desconocido se envía a todas las LAN a las que está conectado el
puente, excepto a aquella por la que llegó. A medida que pasa el tiempo, los
puentes aprenden la ubicación de los destinos, como se describe más adelante.
Una vez que se conoce un destino, los marcos destinados a él se colocan en la
LAN apropiada y ya no se efectúa el proceso de inundación.
El
algoritmo empleado por los puentes transparentes es de aprendizaje de lo
sucedido. Como se mencionó antes, los puentes operan en modo promiscuo, por lo
que ven cada marco enviado por cualquiera de sus LAN. Examinando la dirección
de origen, pueden saber qué máquina está accesible desde qué LAN. Por ejemplo,
si el puente B 1 de la figura 4-38 ve un marco en la LAN 2 que viene de C, sabe
que se puede llegar a Ca través de la LAN 2, por lo que hace una entrada en su
tabla de dispersión anotando que los marcos que van a C deben usar la LAN 2.
Cualquier marco subsiguiente dirigido a C que entre por la LAN 1 será
reenviado, pero un marco para C que llegue por la LAN 2 será descartado.
La
topología puede cambiar a medida que las máquinas y los puentes se encienden,
se apagan y se mueven. Para manejar topologías dinámicas, cada vez que se hace
una entrada en la tabla de dispersión se anota la hora de llegada del marco en
la entrada. Cada vez que llega un marco cuyo destino ya está en la tabla, se
actualiza su entrada con la hora actual. Por tanto, el tiempo asociado a cada
entrada indica la última vez que se vio un marco de esa máquina.
Periódicamente,
un proceso del puente recorre la tabla de dispersión y elimina las entradas que
tienen más de unos cuantos minutos. De esta manera, si una computadora se
desconecta de su LAN, se mueve a otra parte del edificio y se reconecta en otro
lado, en pocos minutos entrará de nuevo en operación normal, sin intervención
manual. Este algoritmo también significa que, si una máquina está quieta
durante algunos minutos, cualquier tráfico enviado a ella tendrá que pasar por
el proceso de inundación, hasta que ella misma envíe un marco.
El
proceso de enrutamiento para un marco de entrada depende de la LAN por la que
llega (la LAN de origen) y de la LAN en la que está su destino (la LAN de
destino), como sigue:
1. Si la LAN de destino y la LAN de
origen son la misma, se descarta el marco.
2. Si la LAN de destino y la de origen
son distintas, se reenvía el marco.
3. Si la LAN de destino es desconocida,
se usa el proceso de inundación.
A
medida que llega cada marco, debe aplicarse este algoritmo. Existen chips VLSI
especiales para realizar la búsqueda y actualización de la entrada de tabla,
todo en unos cuantos microsegundos.
A
fin de aumentar la confiabilidad, algunas instalaciones tienen dos o más
puentes en paralelo entre pares de LAN, como se muestra en la figura 4-39. Este
arreglo, sin embargo, también agrega algunos problemas adicionales, pues crea
ciclos en la topología.
4.4.2.
Puentes transparentes.
Un
ejemplo sencillo de estos problemas es evidente al observar la manera en que se
maneja un marco F con un destino desconocido en la figura 4-39. Cada puente,
siguiendo las reglas normales de manejo de destinos desconocidos, usa
inundación, que en este ejemplo significa simplemente copiar el marco en la LAN
2. Poco después, el puente 1 ve a F2, un marco con un destino desconocido, el
cual copia en la LAN 1, generando F3 (que no se muestra). Del mismo modo, el
puente 2 copia F, en la LAN 1, generando F4 (que tampoco se muestra). El puente
1 ahora reenvía F4 y el puente 2 copia F3. Este ciclo continúa indefinidamente.
Puentes de árbol de extensión
La
solución para este problema es comunicar los puentes entre sí y extender sobre
la topología actual un árbol de extensión que alcance todas las LAN. En efecto,
se ignoran algunas conexiones potenciales entre las LAN por el interés de
construir una topología ficticia libre de ciclos. Por ejemplo, en la figura
4-40(a) vemos nueve LAN interconectadas por 10 puentes. Esta configuración
puede abstraerse en un grafo con las LAN como nodos. Un arco conecta cada par
de LAN que están conectadas por un puente. El grafo puede reducirse a árbol de
extensión eliminando los arcos que aparecen como lineas punteadas en la figura 4.40(b).
En este árbol de
~ extensión hay exactamente una
trayectoria de cada LAN a cualquier otra LAN. Una vez que los puentes han
acordado el árbol de extensión, todo el reenvío entre las LAN sigue al árbol de
extensión. Dado que hay una trayectoria única de cada origen a cada destino, es
imposible que ocurran ciclos.
El
resultado de este algoritmo es que se establece una trayectoria única de cada
LAN hasta la raíz, y por tanto a todas las demás LAN. Aunque el árbol abarca
todas las LAN, no necesariamente están presentes todos los puentes en el árbol
(para evitar ciclos). Aun después de que se ha establecido el árbol de
extensión, el algoritmo continúa operando a fin de detectar automáticamente
cambios de topología y actualizar el árbol. El algoritmo distribuido que se usa
para construir el árbol de extensión fue inventado por Periman y se describe en
detalle en (PerIman, 1992).
También
pueden construirse puentes para conectar las LAN que están muy separadas. En
este modelo, cada instalación consiste en un conjunto de LAN y puentes, de los
cuales uno tiene conexión con una WAN. Los marcos para las LAN remotas viajan a
través de la WAN. Puede usarse el algoritmo básico de árbol de extensión, de
preferencia con ciertas optimizaciones para seleccionar un árbol que minimice
la cantidad de tráfico en la WAN.
Puentes
de enrutamiento desde el origen.
Los
puentes transparentes tienen la ventaja de ser fáciles de instalar pero no
hacen uso óptimo del ancho de banda. La importancia de estos factores condujo a
una división del comité 802 (Pitt, 1988). La gente de CSMA/CD y token bus
escogió el puente transparente. La gente de anillos (con apoyo de IBM) prefirió
un esquema llamado enrutamiento desde el origen.
El enrutamiento desde el origen supone que el
transmisor de cada marco sabe si el destino está en su propia LAN, incluye en
la cabecera del marco la trayectoria exacta que seguirá el marco.
Cada LAN tiene un número de 12 bits, y cada
puente tiene un número de 4 bits que lo identifica de manera única en el
contexto de su LAN.
Este algoritmo se presta para tres posibles
implementaciones:
1. Software. El puente
opera en modo promiscuo.
2. Híbrida. La interfaz
de LAN del puente inspecciona el bit de orden mayor del destino y sólo acepta
los marcos con el bit establecido.
3. Hardware. La interfaz
de la LAN no sólo revisa el bit de orden mayor del destino, sino que también
examina la ruta para ver si este puente debe reenviar.
Implícito
en el diseño del enrutamiento desde el origen está el hecho de que cada máquina
de la interred conoce o puede encontrar la mejor trayectoria a todas las demás
máquinas, si el origen desconoce un destino, difunde un marco preguntando donde
está. Este marco de descubrimiento es reenviado por cada puente de modo que
llegue a todas las LAN de la interred.
Una vez que el HOST ha descubierto una ruta a
cierto destino, almacena la ruta en una memoria caché, para que el proceso de
descubrimiento no tenga que ejecutarse la siguiente vez.
Aunque este enfoque limita en gran medida el
impacto de la explosión de marcos, el algoritmo completo no es transparente.
Comparación
de los puentes 802.
Aspecto |
Puente
transparente |
Puente
de enrutamiento en el origen |
Orientación |
Sin conexiones |
Orientado a la conexión |
Transporte |
Completamente transparente |
NO transparente |
Configuración |
Automático |
Manual |
Enrutamiento |
Subóptimo |
Óptimo |
Localización |
Aprendizaje en reversa |
Marco de descubrimiento |
Fallas |
Manejado por los puentes |
Manejado por los hosts |
Complejidad |
En los puentes |
En los hosts |
Los
puentes transparentes no tienen el concepto de circuito virtual. Los puentes de
enrutamiento en el origen determinan una ruta mediante marcos de
descubrimiento.
Los
puentes transparentes se enteran con rapidez y automáticamente de las fallas de
puentes y de LAN. Con el enrutamiento de origen, al fallar un puente principal,
muchos hosts experimentarán terminaciones de temporización (time outs) y
enviarán nuevos marcos de descubrimiento antes de que se resuelva el problema.
Puentes
remotos.
Un
uso común de lo puentes es la conexión de dos o más LAN distantes. Esto puede lograrse poniendo un puente en
cada LAN y conectando los puentes en pares mediante línea punto a punto. Se
pueden usar varios protocolos en las líneas punto a punto.
LAN
DE ALTA VELOCIDAD.
Para
altas velocidades y mayores distancias las LAN deben basarse en fibra óptica o
en redes de cobre altamente paralelas. Las LAN rápidas por lo general usan
fibra óptica por ser más confiable y no es afectada por ruido EM.
FDDI.
La
FDDI (Fiber Distributed Data Interface, interfaz de datos distribuidos por
fibra) es una LAN token ring de fibra óptica de alto desempeño que opera a 100
Mbps y distancias de hasta 200 kilómetros con hasta 1000 estaciones conectadas,
también se usa como backbone para conectar varias LAN de cobre; también usa
LED, en lugar de láser.
El cableado de la FDDI consiste en dos
anillos de fibra, uno transmite en dirección de las manecillas del reloj, el
otro en dirección contraria.
La FDDI define dos tipos de estaciones, A y
B. Las estaciones clase A se conectan a ambos anillos. La clase B sólo se
conectan a uno de los anillos.
La capa física no usa codificación Manchester
porque la codificación Manchester a 100 Mbps requiere 200 megabaud. En cambio,
se usa un esquema llamado 4 de 5. Cada grupo de 4 símbolos MAC se codifica en
el medio del grupo de 5 bits.
La ventaja de este esquema es que ahorra
ancho de banda aunque hay pérdida de la propiedad de auto sincronización de la
codificación Manchester.
En un anillo grande puede haber varios marcos
a la vez. Los marcos de datos FDDI son parecidos a los 802.5. Además permite
marcos sincrónicos especiales para datos PCM de circuitos conmutados o ISDN.
Cada uno de estos marcos tiene una cabecera, 16 bytes de datos conmutados y
hasta 96 de no conmutados. Esto último debido a que permite cuatro canales T1 a
1.544 Mbps o tres canales CCITT E1 a 2.048 Mbps quepan en un marco, haciéndolo
adecuado para usarse en cualquier parte del mundo.
El protocolo MAC de la FDDI usa tres
temporizadores. El temporizador de
retención de la ficha determina el tiempo que una estación puede continuar
transmitiendo una vez que ha adquirido la ficha. El temporizador de rotación de
la ficha se reinicia cada vez que se ve la ficha. El temporizador de transmisión
válida se usa para terminar la temporización y recuperación de ciertos errores
transitorios del anillo.
Ethernet
rápido.
En
junio de 1995 se aprobó oficialmente por el IEEE el 802.3u, conocido como
Ethernet rápido. El concepto principal en que se basa Ethernet rápido es
reducir el tiempo de bit de 100 nseg a 10 nseg. Ethernet rápido se basa en el
diseño de alambrado 10Base - T. Las consideraciones del alambrado se hicieron
como sigue:
Nombre |
Cable |
Segmento
Máximo |
Ventajas |
100Base - T4 |
Par trenzado |
100 m |
Usa UTP categoría 3 |
100Base - TX |
Par trenzado |
100m |
Dúplex integral a 100 Mbps |
100Base - F |
Fibra Óptica |
2000 m |
Dúplex integral a 100Mbps; |
El
esquema UTP categoría 3, llamado 100Base - T4, usa cuatro pares trenzados. El
sistema 8B6T (mapa de 8 bits a 6 trits) funciona con la planta de alambrado
existente.
Para el alambrado de categoría 5, el diseño
es 100Base - TX solo utiliza dos pares trenzados por estación. Usa un esquema
llamado 4B5B a 125 Mhz. Es un sistema duplex integral.
La opción 100Base - FX usa dos hilos de fibra
multimodo, uno para cada dirección. La distancia entre un concentrador y una
estación puede ser de hasta 2 Km.
En un concentrador conmutado, todas las
estaciones pueden transmitir al mismo tiempo, los 100Base - T, no.
HIPPI
- Interfaz paralela de alto desempeño.<
La
HIPPI se diseñó originalmente como canal de datos, no como LAN. Después se hizo
evidente la necesidad de conmutar un peroférico de una supercomputadora a otra.
A fin de lograr un desempeño de tal nivel
usando solo chips comunes, la interfaz básica se hizo de 50 bits de ancho, 32
bits de datos y 18 de control, por lo que el cable HIPPI contiene 50 pares
trenzados. Cada 40 nseg se transfiere una palabra en paralelo a través de la
interfaz. Para lograr 1600 Mbps, se usan dos cables y se transfieren dos
palabras en paralelo por ciclo. A estas velocidades, la longitud máxima es de
25 metros.
Canal
de fibra.
Es
el sucesor de la HIPPI. Maneja tanto conexiones de canal de datos como de red.
Puede usarse para conducir canales de datos que incluyen HIPPI, SCSI y el canal
multiplexor empleado en las mainframe IBM., así como paquetes de red IEEE 802,
IP y ATM. La estructura básica de los canales es un interruptor de barras
cruzadas que conecta las entradas con las salidas.
Apoya tres clases de servicio: Conmutación de
circuitos pura, conmutación de paquetes con entrega garantizada y conmutación
de paquetes sin entrega garantizada.
El canal de fibra tiene 5 capas: La capa
inferior que tiene que ver con el medio físico, la capa de manejo de la
codificación de bits, la tercera define el formato de la distribución de marco
y cabecera, la siguiente permitirá proporcionar servicios comunes a la capa
superior posteriormente y por último la capa superior proporciona las
interfases con los distintos tipos de computadoras y periféricos reconocidos.
REDES
SATELITALES.
Los
satélites de comunicación tienen hasta una docena o más transponedores. Cada
transponedor tiene un haz que cubre una parte de la tierra debajo de él. Los
satélites sin procesamiento se llaman satélites de codo.
El tiempo durante el cual se apunta un haz
sobre un área dada se llama el tiempo de morada o permanencia (dwell time).
Es imposible la detección de portadora, así
como la de canal de enlace ascendente. Por esto, los protocolos CSMA/CD no
pueden usarse.
Se
emplean cinco clases de protocolos en el canal de acceso múltiple: sondeo,
ALOHA, FDM, TDM y CDMA.
Sondeo.
La
idea es disponer todas las estaciones en un anillo lógico, de modo que cada
estación conozca su sucesor. Por este anillo circula una ficha. El satélite
nunca ve la ficha. Sólo se permite a una estación transmitir por el enlace
ascendente cuando ha capturado una ficha.
ALOHA.
Cada
estación envía cuando quiere. La eficiencia del canal es de sólo 18%. El uso
del ALOHA ranurado duplica la eficiencia pero hay problema de sincronización.
FDM.
Es
la multiplexión por división de frecuencia. Una desventaja es que requiere
bandas de seguridad entre los canales para mantener separadas a las estaciones.
También existe un problema de potencia.
TDM.
Requiere
sincronización de tiempo para las ranuras. La asignación de ranuras puede ser
de forma centralizada (como el ACTS, en el cual la administración de ranuras la
efectúa una de las estaciones de tierra llamada MCS) o descentralizada.
También es posible el reparto dinámico de las ranuras
TDM. Cada ranura tiene un dueño temporal y sólo el dueño puede usar una ranura
de tiempo. Existen tres esquemas de reservación: Binder, Crowther y Roberts.
CDMA.
El
CDMA evita problemas de sincronización de tiempo y también el problema de reparto
del canal; es completamente descentralizado y dinámico. Sin embargo tiene 3
desventajas principales. La capacidad de un canal que se puede lograr con TDM.
Con 128 chips/bit, la tasa de chips es alta, necesitándose un transmisor
rápido. Pocos ingenieros entienden el CDMA.