Boletín de RedIRIS n. 46-47

Ethernet: de 2,94 A 1000 Mbps en 25 años Primera Parte: La Historia

Rogelio Montañana

ÍNDICE


- Parte I: La historia

- Parte II: El medio Físico

- Parte III: El funcionamiento


Introducción

Según IDC a finales de 1997 más del 85% de las conexiones de red instaladas en el mundo eran Ethernet, lo cual representa unos 118 millones de ordenadores. El 17% restante está formado por Token Ring, FDDI, ATM y otras tecnologías. Todos los sistemas operativos y aplicaciones populares son compatibles con Ethernet, así como las pilas de protocolos de niveles superiores tales como TCP/IP, IPX, NetBEUI y DECnet.

Las previsiones para 1998 son de que el 86% de las nuevas conexiones LAN sean Ethernet, lo cual supone mas de 48 millones de interfaces de red y otros tantos puertos de concentradores y conmutadores. Las ventas de ATM, FDDI y Token Ring conjuntamente serán de 5 millones de interfaces y 4 millones de puertos, un 10 y un 7% del total respectivamente.

Así pues, la hegemonía en el mundo de las redes locales que Ethernet ha disfrutado desde su debut comercial en 1981 no solo se mantiene sino que parece ir a mas. Todos sus competidores han quedado en la cuneta. ATM, que durante algún tiempo parecía ser el futuro de las redes locales, no solo no ha conquistado al usuario final sino que al parecer será desplazado rápidamente del backbone de campus por Gigabit Ethernet. Mas aún, las últimas tendencias en redes de area extensa de muy alta velocidad basadas en DWDM (Dense Wavelength Division Multiplexing) estudian la posibilidad de sustituir las tecnologías tradicionales ATM y SONET/SDH como medio de transporte de tráfico IP por una versión de Ethernet que funcionaría a 10 Gbps[1].

En este serie de tres artículos se dan a conocer algunos aspectos no muy conocidos de Ethernet. En el primero hablamos de sus orígenes y evolución. El segundo estará dedicado al medio físico, con especial énfasis en información de carácter práctico. Por último el tercero cubre algunos aspectos de interés sobre el funcionamiento de Ethernet y sus consecuencias desde el punto de vista del rendimiento, así como las perspectivas de evolución futura. El lector interesado puede profundizar en los temas aquí tratados a través de las referencias bibliográficas que aparecen al final de cada parte.

Los precursores

En 1970, cuando la ARPANET sólo llevaba unos meses en funcionamiento, un equipo de la Universidad de Hawai, dirigido por Norman Abramson, quería poner en marcha una red para interconectar terminales ubicados en las islas de Kauai, Maui y Hawaii, con un ordenador central situado en Honolulu, en la isla de Oahu. Lo normal habría sido utilizar enlaces telefónicos, pero la baja calidad y el elevado costo de las líneas hacían prohibitiva esta opción (AT&T aún disfrutaba del monopolio de la telefonía en los Estados Unidos, lo cual no le estimulaba a bajar precios).

Abramson y su equipo estaban decididos a llevar a cabo su proyecto a toda costa (pero no a cualquier costo). Consiguieron varios transmisores de radio taxis viejos con los, mediante módems hechos artesanalmente pusieron en marcha una red de radioenlaces entre las islas. En vez de asignar un canal diferente para la comunicación de Oahu hacia y desde cada isla (lo cual habría requerido seis canales), se asignaron únicamente dos: uno a 413,475 MHz para las transmisiones de Oahu a las demás islas y otro a 407,350 MHz para el sentido inverso. De esta forma cada canal podía tener un ancho de banda mayor (100 KHz) y por tanto mas capacidad (9,6 Kbps); de haber dividido este ancho de banda en seis canales la capacidad de cada uno habría sido proporcionalmente menor. El canal de Oahu no planteaba problemas pues tenía un único emisor. Sin embargo el canal de retorno era compartido por tres emisores (Kauai, Maui y Hawaii), por lo que había que establecer reglas que permitieran resolver el conflicto que se producía cuando dos emisores transmitían simultáneamente, es decir, si se producía una colisión. Se necesitaba un protocolo de control de acceso al medio, o protocolo MAC (Media Access Control).

Esta red se denominó ALOHANET y el protocolo MAC utilizado se llamó ALOHA. Aloha es una palabra Hawaiana que se utiliza para saludar, tanto al llegar como al despedirse. Seguramente esta ambigüedad pareció apropiada a sus inventores para indicar el carácter multidireccional o broadcast de la transmisión, por contraste con los enlaces punto a punto utilizados hasta entonces donde se sabe con certeza en que sentido viaja la información.

El principio de funcionamiento de ALOHA es muy simple. Cuando un emisor quiere transmitir una trama simplemente la emite, sin preocuparse en ningún momento de si el canal está libre; una vez ha terminado se pone a la escucha esperando recibir confirmación de que la información ha sido recibida correctamente por el destinatario (el cual lo comprueba mediante el CRC de la trama). Si la confirmación no llega en un tiempo razonable el emisor supone que ha ocurrido una colisión, en cuyo caso espera un tiempo aleatorio y reenvía la trama.

Sobre eficiencias (y algo de escepticismo)

A nadie sorprenderá que la eficiencia de un protocolo como ALOHA sea baja, ya que se basa en el caos. Cuando el grado de ocupación del canal crece las estaciones empiezan a colisionar unas con otras, hasta el punto de que la red puede llegar a colapsarse, es decir saturarse sin enviar información útil. Una colisión se produce tanto si dos emisores coinciden totalmente en el tiempo como si solo coinciden en un bit, lo cual provoca colisiones 'encadenadas' en las que cada estación se solapa solo brevemente con la siguiente.

En 1972 se propuso una mejora al protocolo ALOHA que consistía en establecer de antemano unos intervalos de tiempo de duración constante para la emisión de las tramas. De alguna manera las estaciones estarían sincronizadas y todas sabrían cuando empieza cada intervalo. Esto reduce la probabilidad de colisiones, ya que al menos limita su efecto a un intervalo (no se pueden encadenar colisiones). A esta versión mejorada de ALOHA se la denomina ALOHA ranurado, porque utiliza tiempo ranurado o a intervalos. Por contraposición al ALOHA original, con tiempo aleatorio, se le suele denominar ALOHA puro.

Abramson realizó algunas estimaciones de la eficiencia de un sistema Aloha. Suponiendo que las estaciones de la red transmiten de acuerdo con una distribución de Poisson dedujo que el rendimiento máximo de un ALOHA puro es del 18,4%, y que esta eficiencia se consigue con un nivel de utilización del canal del 50%. Por ejemplo un canal de 10 Mbps funcionando con ALOHA puro daría su máxima eficiencia cuando las estaciones estuvieran intentando enviar 5 Mbps, de los cuales se transmitirían correctamente 1.84 Mbps y los restantes 3,16 Mbps se perderían por colisiones; a partir de ahí si se aumenta el nivel de utilización la eficiencia decae. Para un ALOHA ranurado Abramson dedujo que la eficiencia máxima es justamente el doble, del 36,8 % y se consigue con un nivel de utilización del 100%. Por ejemplo en un canal de 10 Mbps con ALOHA ranurado la eficiencia máxima se obtendría cuando se intentara enviar 10 Mbps, de los cuales 3,68 Mbps llegarían correctamente a su destino y 6,32 Mbps se perderían por colisiones.

Los valores de eficiencia deducidos por Abramson, y la mayoría de las simulaciones que se han hecho de tráfico en redes locales, se basan en la hipótesis de que las estaciones transmiten tráfico de acuerdo con una distribución de Poisson. La distribución de Poisson se utiliza en estadística para estudiar la probabilidad de eventos discretos que suceden de forma aleatoria entre la población y que pueden tener dos posibles valores o estados, por ejemplo la probabilidad de avería de un componente (bombilla fundida, pinchazo, etc.). Hoy en día está universalmente aceptado que la distribución de Poisson no representa adecuadamente el comportamiento del tráfico en redes locales, el cual corresponde mas bien a lo que los matemáticos denominan un proceso auto-similar o de tipo fractal [2],[3] lo mismo se aplica por cierto al tráfico en Internet[4]). Esto supone una menor aleatoriedad, o sea un mayor grado de orden, frente a lo que supondría una distribución de Poisson. Una consecuencia de esto es que las eficiencias en general son mejores en la práctica de lo que cabría esperar según las simulaciones (de la misma forma que ALOHA ranurado mejoraba el rendimiento al imponer un cierto orden frente a ALOHA puro). La principal razón de utilizar la distribución de Poisson para modelar redes LAN se debe al hecho de que esto simplifica enormemente el tratamiento matemático y no a que se ajuste al comportamiento real. Conviene por tanto no tomar demasiado en serio los estudios puramente teóricos sobre rendimiento de redes locales.

Los protocolos ALOHA (y en particular ALOHA ranurado) se utilizan hoy en día en situaciones donde no es posible o práctico detectar las colisiones, por ejemplo algunas redes de satélite o el canal de acceso aleatorio que se utiliza en GSM para acceder al canal de control.

Nacimiento de Ethernet

En 1970, mientras Abramson montaba ALOHANET, un estudiante del MIT llamado Robert Metcalfe experimentaba con la recién estrenada ARPANET y conectaba entre sí ordenadores en un laboratorio. Metcalfe estudió la red de Abramson y empezó ese mismo año una tesis doctoral en Harvard, que terminaría en 1973, en la que desde un punto de vista teórico planteaba mejoras que se podrían introducir al protocolo ALOHA para aumentar su rendimiento. La idea básica era muy simple: las estaciones antes de transmitir deberían detectar si el canal ya estaba en uso (es decir si ya había 'portadora'), en cuyo caso esperarían a que la estación activa terminara antes de transmitir. Además, cada estación mientras transmitiera estaría continuamente vigilando el medio físico por si se producía alguna colisión, en cuyo caso pararía y transmitiría más tarde. Años después este protocolo MAC recibiría la denominación Acceso Múltiple con Detección de Portadora y Detección de Colisiones, o mas brevemente CSMA/CD (Carrier Sense Multiple Access / Colision Detect).

En 1972 Metcalfe se mudó a California para trabajar en el Centro de Investigación de Xerox en Palo Alto llamado Xerox PARC (Palo Alto Research Center). Allí se diseñaba lo que se consideraba la 'oficina del futuro' y encontró un ambiente perfecto para desarrollar sus inquietudes. Se estaban probando unos ordenadores denominados Alto, que disponían de capacidades gráficas y ratón y son considerados los primeros ordenadores personales. También se estaban fabricando las primeras impresoras láser. Se quería conectar los ordenadores entre sí para compartir ficheros y las impresoras. La comunicación tenía que ser de muy alta velocidad, del orden de megabits por segundo, ya que la cantidad de información a enviar a las impresoras era enorme (tenían una resolución y velocidad comparables a una impresora láser actual). Estas ideas que hoy parecen obvias eran completamente revolucionarias en 1973.

A Metcalfe, el especialista en comunicaciones del equipo con 27 años de edad, se le encomendó la tarea de diseñar y construir la red que uniera todo aquello. Contaba para ello con la ayuda de un estudiante de doctorado de Stanford llamado David Boggs. Las primeras experiencias de la red, que denominaron ‘Alto Aloha Network’, las llevaron a cabo en 1972. Fueron mejorando gradualmente el prototipo hasta que el 22 de mayo de 1973 Metcalfe escribió un memorándum interno en el que informaba de la nueva red. Para evitar que se pudiera pensar que sólo servía para conectar ordenadores Alto cambió el nombre inicial por el de Ethernet, que hacía referencia a la teoría de la física hoy ya abandonada según la cual las ondas electromagnéticas viajaban por un fluido denominado éter que se suponía llenaba todo el espacio (Metcalfe llamaba éter al cable coaxial por el que iba la portadora). Los dos ordenadores Alto utilizados para las primeras pruebas fueron rebautizados entonces con los nombres Michelson y Morley, en alusión a los dos físicos que demostraron en 1887 la inexistencia del éter mediante el experimento que lleva su nombre.

La red de 1973 ya tenía todas las características esenciales de la Ethernet actual. Empleaba CSMA/CD para minimizar la probabilidad de colisión, y en caso de que ésta se produjera ponía en marcha el mecanismo de retroceso exponencial binario para reducir gradualmente la ‘agresividad’ del emisor, con lo que éste se autoadaptaba a situaciones de muy diverso nivel de tráfico. Tenía topología de bus y funcionaba a 2,94 Mbps sobre un segmento de cable coaxial de 1,6 Km de longitud. Las direcciones eran de 8 bits y el CRC de las tramas de 16 bits. El protocolo utilizado a nivel de red era el PUP (Parc Universal Packet) que luego evolucionaría hasta convertirse en el actual XNS (Xerox Network System).

En vez de utilizar cable coaxial de 75W, más habitual por ser el utilizado en redes de televisión por cable, se optó por emplear cable de 50W que producía menos reflexiones de la señal, a las cuales Ethernet era muy sensible por transmitir la señal en banda base (es decir sin modulación). Las reflexiones se producen en cada empalme del cable y en cada empalme vampiro (transceiver). En la práctica el número máximo de empalmes vampiro, y por tanto el número máximo de estaciones en un segmento 10BASE5 están limitados por la máxima intensidad de señal reflejada tolerable.

En 1975 Metcalfe y Boggs describieron Ethernet en un artículo que enviaron a Communications of the ACM (Association for Computing Machinery), que fue publicado en 1976 [5] . En él ya describían el uso de repetidores par aumentar el alcance de la red. En 1977 Metcalfe, Boggs y otros dos ingenieros de Xerox recibieron una patente por la tecnología básica de Ethernet, y en 1978 Metcalfe y Boggs recibieron otra por el repetidor. En esta época todo el sistema Ethernet era propietario de Xerox.

Aunque no relacionado con Ethernet merece la pena mencionar que David Boggs construyó en 1975 en el Xerox PARC el primer router y el primer servidor de nombres de la Internet.

La alianza DIX

En 1976 Xerox creó una nueva división denominada SDD (Systems Development Division) para el desarrollo de los ordenadores personales y de la red Ethernet (ambos proyectos estaban íntimamente relacionados). Metcalfe, Boggs y varios ingenieros más fueron asignados para trabajar en la mejora de la red. Se introdujeron algunos cambios en la tecnología, y por razones de marketing se decidió cambiar el nombre de la red de Ethernet a X-wire.

Por aquellos años la tendencia de la mayoría de los fabricantes era hacia arquitecturas de redes fuertemente jerárquicas. Un ejemplo claro en este sentido lo constituía la arquitectura SNA (Systems Network Architecture), anunciada por IBM en 1974. La filosofía de SNA se basaba en dar acceso a través de la red al usuario final desde un terminal 'tonto' a un ordenador central o 'mainframe'. Para ello se definían diferentes tipos de equipos con funcionalidades distintas y una estructura fuertemente jerárquica. Una configuración típica de SNA comprendía cuatro niveles diferentes entre el terminal y el mainframe.

El planteamiento de Xerox era radicalmente opuesto y novedoso. Cada usuario disponía de un ordenador o host conectado directamente a la red local, integrando en él todas las funciones. No existía ningún control centralizado de la red. La comunicación entre dos usuarios cualesquiera ocurría directamente, sin intermediarios y en condiciones de igual a igual ('peer to peer'). Ligada a esta arquitectura distribuida estaba la necesidad -no percibida entonces por la mayoría de los usuarios- de una red de muy alta velocidad para los estándares de la época (baste recordar que por aquel entonces los módems más veloces eran de 1200 bps, y en el año 1976 Intel acababa de desarrollar el procesador 8080 que funcionaba a 4,77 MHz).

Hoy en día sabemos que el planteamiento de Xerox era el correcto. Sin embargo, como en tantas otras ocasiones Xerox no supo o no pudo aprovechar comercialmente este acierto. En el caso de Ethernet jugaba en su contra el hecho de ser una tecnología propietaria y no ser Xerox una empresa lo suficientemente grande como para imponer sus productos frente a sus competidores, aspecto fundamental tratándose de comunicaciones. Metcalfe comprendió perfectamente que Ethernet solo podría avanzar si se desarrollaba como un estándar abierto y en cooperación con otros fabricantes, lo cual le daría un mayor impulso comercial y tecnológico. Metcalfe propuso a IBM formar una alianza con Xerox, pero la oferta no fue aceptada, probablemente porque IBM ya estaba trabajando en otro tipo de red local en topología de anillo (que más tarde se convertiría en la actual Token Ring), o quizá porque el funcionamiento no orientado a conexión de Ethernet no encajaba muy bien con la arquitectura SNA, jerárquica y orientada a conexión. Metcalfe hizo entonces la misma propuesta a Digital Equipment Corporation (DEC) que aceptó. A petición de Xerox Intel se incorporó también al grupo, para asegurar que los productos se pudieran integrar en chips de bajo costo.

El acuerdo de la alianza DIX (DEC-Intel-Xerox) fue satisfactorio en todos los aspectos, excepto en el nombre X-wire. DEC e Intel no aceptaban que el nomre de la red empezara por X, por lo que Xerox volvió al nombre Ethernet que parecía satisfacer a todos. También por aquel entonces se decidió subir la velocidad de la red a 10 Mbps, ya que se consideró que podía conseguirse con la tecnología existente a unos precios razonables. A la Ethernet original de 2,94 Mbps se la conoce actualmente como Ethernet Experimental para distinguirla de la de 10 Mbps que apareció como producto comercial.

En septiembre de 1980 DIX publicó las especificaciones de Ethernet Versión 1.0 conocidas como 'libro azul'. Como parte de la política aperturista Xerox aceptó licenciar su tecnología patentada a todo el que lo quisiera por una cuota reducida, que consistía en el pago de 1,000 dólares por cada rango de 24 bits de direcciones MAC, que eran gestionadas por Xerox. Más tarde con la aprobación de los estándares 802 la gestión de esas direcciones pasó a desempeñarla el IEEE, que siguió (y sigue) cobrando 1,000 dólares por rango en concepto de tareas administrativas. La publicación del libro azul hizo de Ethernet la primera tecnología de red local abierta multivendedor, ya que a partir de ese momento cualquier fabricante podía construir equipamiento conforme con la norma Ethernet. En 1982 se publicó Ethernet Versión 2.0, que fue la última especificación de Ethernet publicada por DIX. En estas especificaciones el único medio físico que se contemplaba es el cable coaxial grueso hoy conocido como 10BASE5. En ese mismo año 1982 Xerox liberó la marca registrada que ostentaba sobre el nombre Ethernet.

Una vez constituida la alianza DIX Metcalfe estimó que se produciría mucha demanda de productos compatibles con Ethernet, por lo consideró que era un buen momento para crear una compañía especializada en este campo. En junio de 1979 abandonó Xerox para crear su propia empresa especializada en Computadores, Comunicaciones y Compatibilidad, más conocida como 3Com. En 1990 Metcalfe, ya multimillonario, se retiró de 3Com. Actualmente vive en Boston donde escribe artículos, da charlas y organiza eventos y debates sobre el presente y futuro de las tecnologías de la información y las comunicaciones.

Por su parte David Boggs siguió trabajando en el Xerox PARC hasta 1984, en que pasó a trabajar en el Western Research Laboratory de DEC, también en Palo Alto. En 1988 Boggs publicó un artículo sobre el rendimiento de Ethernet que hoy es considerado un clásico en la materia[6].

Las relaciones con IEEE y la estandarización

A finales de los setenta se realizaban paralelamente a Ethernet otras experiencias de redes locales en universidades y centros de investigación utilizando diversas tecnologías y topologías en bus, anillo o estrella. Había muy pocos productos comerciales disponibles y ningún estándar al respecto, la mayoría de las redes locales eran modelos únicos construídos de forma artesanal.

Para resolver esta situación en febrero de 1980 el IEEE puso en funcionamiento el proyecto (o comité) 802 con el objetivo de acordar la tecnología idónea para establecer el estándar de red local del futuro. De esta forma los productos de diferentes fabricantes podrían interoperar, habría libre competencia y los precios bajarían, beneficiando al usuario. Inicialmente el comité no tenía unas ideas claras de como debía ser la tecnología a utilizar, pero si de cómo debía llevarse a cabo el proceso de estandarización: debía ser abierto, ordenado y justo. Lo último que se quería era recibir una propuesta ya terminada de un reducido grupo de fabricantes. Esto fue precisamente lo que ocurrió cuando dos meses más tarde, en abril de 1980, la alianza DIX informó al comité 802 que estaba terminando el diseño y especificación de una tecnología de red local, que la propondría para su estandarización cuando estuviera terminada, pero que entretanto el comité no podría participar en su elaboración. Al margen del espíritu abierto antes mencionado y sus indudables méritos técnicos la forma como se propuso la adopción de Ethernet al comité 802 no fue precisamente un derroche de tacto.

Después de la propuesta de DIX para la adopción de Ethernet el comité 802 recibió otra de General Motors de una red denominada Token Bus, también con topología de bus pero que utilizaba un protocolo MAC basado en paso de testigo. Algo más tarde IBM presentó a su vez otra propuesta de una red con topología de anillo y paso de testigo que recibía el nombre de Token Ring. Finalmente, viendo que no sería posible satisfacer a todos con un único estándar, y considerando que el apoyo de la industria a cada una de las tres propuestas era demasiado importante como para descartar cualquiera de ellas, el comité 802 en una polémica decisión optó en 1982 por aceptar las tres propuestas y crear un subcomité para cada una: 802.3 para CSMA/CD (Ethernet), 802.4 para Token Bus y 802.5 para Token Ring.

Dado su polémico comienzo no es de extrañar que en el comité 802 (más tarde 802.3) hubiera cierta aversión hacia la propuesta de la alianza DIX. Según algunos había incluso cierto deseo de fastidiar [7], para lo cual se revisó a fondo la propuesta. En cualquier diseño de ingeniería complejo hay un montón de aspectos susceptibles de modificación, por lo que si se dispone del tiempo suficiente para discutir todos los detalles seguro que algunos se decidirán de manera diferente. El comité 802.3 pasó varios meses revisando el estándar Ethernet e introdujo diversos cambios, el más importante de los cuales fue la sustitución del campo tipo (que especifica el protocolo del nivel de red) por un campo longitud, inexistente hasta entonces. Los diseñadores originales de Ethernet consideraron este campo innecesario porque la mayoría de los protocolos a nivel de red (y ciertamente todos aquellos en los que estaban interesados) incluyen en la información de cabecera un campo indicando la longitud, y cuando esto no es así la longitud de la trama se puede averiguar simplemente contando el número de bytes que ésta contiene (siempre y cuando no haya campo de relleno, es decir que la trama tenga al menos 64 bytes). Sin embargo el comité 802.3 creyó conveniente incluir el campo longitud en vez del campo tipo para no condicionar la información que debiera aparecer en el nivel de red. Esta pequeña modificación tenía el efecto colateral de hacer incompatible el estándar IEEE 802.3 con Ethernet DIX, cosa que según algunos era el verdadero objetivo de muchos de los miembros del comité que votaron a favor de esta modificación [7].

Xerox resolvió en parte el problema de incompatibilidad producido por la decisión del IEEE asignando a todos los protocolos códigos superiores a 1536, valor máximo del campo longitud(i) por ejemplo el código correspondiente a IP es 2048 (ii). Así analizando el valor de este campo podemos saber si la trama tiene formato DIX u 802.3. Los dos formatos son incompatibles entre sí, pero al menos pueden coexistir en una misma red.

En el caso de una trama 802.3 la información sobre el protocolo a nivel de red aparece en la cabecera LLC (Logical Link Control). La estructura de esta cabecera, común a todas las redes locales 802, se especifica en el estándar IEEE 802.2. El trabajo conjunto del IEEE y de la ISO en el diseño de la cabecera LLC produjo un diseño absurdo e innecesariamente complejo(iii) que hace que en la mayoría de los protocolos sea necesario analizar los cuatro campos y los ocho bytes de la cabecera LLC para averiguar lo que Xerox obtenía usando solo dos bytes. Esto complica el proceso de los paquetes y añade un overhead innecesario, sobre todo en el caso de tramas pequeñas. Por este motivo incluso hoy en día el formato DIX es el más utilizado, empleándose por ejemplo en TCP/IP, DECNET fase 4, LAT (Local Area Transport, de DEC) y algunas implementaciones de IPX (Netware de Novell). El formato 802.3/LLC es utilizado normalmente en Appletalk fase 2, NetBIOS y algunas implementaciones de IPX.

En 1997 el subcomité 802.3x estandarizó el mecanismo de control de flujo para Ethernet Full Dúplex. Entonces se apreciaron considerables ventajas en disponer de la información sobre el tipo de protocolo en la cabecera Ethernet (para no tener que interpretar la cabecera LLC, lo cual habría ralentizado mucho un proceso que debía hacerse en hardware). Finalmente el comité decidió incluir en el estándar como válidos los dos significados, tipo y longitud, para este campo de dos bytes. La elección de cual significado es aplicable en cada caso se haría en función del valor de este campo. Dicho de otro modo el comité estandarizó lo que era ya una práctica generalizada en todas las implementaciones existentes. De alguna manera esto representa una reconciliación con DIX (y con el mundo real) quince años más tarde.

Tradicionalmente Xerox se ocupaba de la asignación de número a cada protocolo que se registraba. Desde 1997, con la inclusión del campo tipo en la trama 802.3 como parte del estándar 802.3x, el IEEE pasó a ocuparse de la labor administrativa de registrar protocolos y asignarles número. Los valores se pueden consultar en el RFC de Números Asignados vigente, que actualmente es el RFC1700.

El 24 de junio de 1983 el IEEE aprobó el estándar 802.3, contemplando como medio físico únicamente el cable coaxial grueso, al cual denominó 10BASE(iv). En el estándar se recomienda que el cable sea de color amarillo para que no se confunda en las conducciones con los cables de alimentación eléctrica. El estándar IEEE 802.3 fue propuesto a continuación a ANSI, que lo aprobó en diciembre de 1994, elevándolo así a la categoría de estándar conjunto ANSI/IEEE 802.3. Después fue propuesto para su aprobación por el ISO, que lo aceptó como DIS (Draft International Standard) en 1985 bajo la denominación ISO/IEC 8802-3. La especificación de ISO es técnicamente equivalente pero no idéntica a la de IEEE/ANSI. El documento difiere en las unidades (que están basadas en el sistema métrico), se utiliza terminología internacional, se eliminan referencias a otros estándares nacionales de Estados Unidos, y se formatea el documento para papel de tamaño ISO A4.

El precio importa: nuevos medios físicos

Los componentes de las primeras redes Ethernet (repetidores, transceivers, tarjetas de red, etc.) eran muy caros. El cable coaxial (10BASE5) y el cable drop que conectaba el equipo al cable coaxial, aunque de costo elevado resultaban despreciables al lado de los componentes electrónicos. Gradualmente la electrónica fue bajando de precio, con lo que los cables y su instalación empezaban a representar una parte significativa del presupuesto de una red. Además el elevado grosor y rigidez de estos cables los hacía poco apropiados para entornos de oficina. Los usuarios demandaban cables más baratos y más finos. En respuesta a estos requerimientos aparecieron a partir de 1982 productos en el mercado que permitían utilizar Ethernet sobre cable coaxial RG58, también de 50 W pero más fino y barato. Tenía un menor apantallamiento que el 10BASE5, lo cual le confería una mayor atenuación y por ende menor alcance (185 m por segmento en vez de 500 m). Utilizaba conectores BNC en vez de los voluminosos conectores tipo N, y no requería cable drop ya que el equipo se podía enchufar directamente al cable bus mediante un conector en T, estando en este caso la función del transceiver integrada en la tarjeta de red. En conjunto se conseguía un ahorro importante respecto al cable grueso tradicional, razón por la cual este cable se conocía con el nombre de cheapernet ('red más barata'). La interconexión de segmentos cheapernet (o thinwire como también se le llamaba) con segmentos de coaxial grueso (o thickwire) se podía realizar mediante repetidores. Este nuevo cable fue incorporado al estándar 802.3 con la denominación 10BASE-2 mediante una adenda que el IEEE aprobó en 1985.

Para permitir mayores distancias y mejorar la conectividad entre edificios también se incluyó la fibra óptica como medio de transmisión. El FOIRL (Fiber Optic Inter-Repeater Link) fue incorporado al estándar 802.3 por el IEEE en 1989, y permitía unir repetidores a una distancia máxima de 1000 m. Más tarde apareció 10BASE-FL que permite unir repetidores y equipos con una distancia máxima de 2.000 m.

Hacia el cableado estructurado

Las primeras redes locales utilizaban cables especiales, normalmente coaxiales ya que presentaban menor atenuación y soportaban mejor las altas frecuencias. Por otro lado los edificios tenían redes de telefonía que utilizaban cable de pares trenzados no apantallados o UTP (Unshielded Twisted Pair) y que por imperativos legales eran instaladas y mantenidas por las compañías telefónicas, incluso dentro de los edificios. El 1 de enero de 1984 se produjo la decisión judicial que probablemente más ha influído en el mundo de las telecomunicaciones, a raíz de la cual se rompió en Estados Unidos el monopolio ostentado hasta entonces por AT&T. Esto tuvo entre otras muchas consecuencias la de que las empresas fueran propietarias de su red telefónica interior y pudieran a partir de entonces gestionarla. La red telefónica estaba omnipresente y su costo de instalación y mantenimiento era inferior al de la red basada en cable coaxial, incluso a cheapernet. Por ejemplo un operario era capaz de poner un conector RJ-45 en menos tiempo de lo que tardaba en sacar de la bolsa los componentes de un conector BNC. Después de todo AT&T y las telefónicas de todo el mundo llevaban muchos años cableando edificios y algo debían saber del tema. Además, la red telefónica tenía una topología en estrella organizada jerárquicamente que la hacía más versátil, fiable y robusta que una de tipo bus. Esto provocó una demanda por parte de los usuarios en el sentido de aprovechar el cableado telefónico para proveer el acceso a la red local de los puestos de trabajo.

Ya en el año 1984 el comité 802.3 empezó a estudiar la posibilidad de implementar Ethernet en cable telefónico. Por aquel entonces muchos expertos aseguraban que una red de 10 Mbps jamás podría funcionar sobre cable de pares trenzados, debido a su mayor atenuación a altas frecuencias. Sin embargo ya en 1985 Synoptics(v) sacó al mercado un producto denominado LattisNet que permitía utilizar cableado UTP para constituir redes Ethernet de 10 Mbps. En 1987 el comité 802.3 estandarizó una red denominada StarLAN (vi) o 1BASE5, variante de Ethernet que funciona a 1 Mbps sobre cable UTP a distancias máximas de 500 m. En 1990 se estandarizó 10BASE-T (T='Twisted'). Esto prácticamente marcó el final de StarLAN ya que la mayoría de los usuarios que habían optado provisionalmente por StarLAN migraron a 10BASE-T que ofrecía mayor velocidad y evitaba tener que utilizar costosos puentes conversores de velocidad para conectar la red de 1 Mbps con la de 10 Mbps.

Paralelamente al desarrollo por parte del IEEE de los estándares de red local para cable UTP se desarrollaron normativas de cableado de telecomunicaciones para edificios comerciales que permiten constituir lo que se conoce como cableado estructurado. Inicialmente se trataba de sistemas propietarios (IBM Cabling System, DECConnect, AT&T SYSTIMAX, etc.) pero al cabo de unos años se elaboraron normativas independientes. La primera fue la EIA/TIA 568 que se publicó en 1991. Actualmente las dos más utilizadas son la EIA/TIA 568-A y la ISO/IEC 11801, ambas de 1995. Para asegurar máxima compatibilidad con cualquier fabricante es conveniente seguir simultáneamente tanto la ISO como la EIA siempre que sea posible.

Puentes y conmutadores

Ya en su artículo de 1976 [5] Metcalfe y Boggs mencionaban la posibilidad de extender la red mediante el uso de repetidores 'filtradores de tráfico' o de paquetes. Los primeros puentes transparentes fueron desarrollados por DEC a principios de los ochenta, apareciendo los primeros productos comerciales en 1984. Aunque caros y de bajo rendimiento comparados con los actuales, suponían una alternativa interesante a los routers por su sencillez y relación precio/prestaciones. En 1987 el IEEE se puso en marcha para estandarizar el funcionamiento de los puentes. El resultado fue el estándar 802.1D aprobado en 1990.

En 1991 una empresa de reciente creación denominada Kalpana(vii) comercializó un nuevo tipo de puentes Ethernet con un número elevado de interfaces y alto rendimiento (supuestamente capaces de dar la máxima velocidad posible en cada una de sus interfaces). Estos equipos se anunciaban como conmutadores LAN para diferenciarlos de los tradicionales puentes, aun cuando su principio de funcionamiento era el mismo.

El mercado de los conmutadores LAN tuvo (y tiene actualmente) un crecimiento considerable, especialmente porque daba una vía de crecimiento a los usuarios de Ethernet sin necesidad de pasar a utilizar otras tecnologías.

Llevada al extremo la filosofía de los conmutadores LAN producía redes en las que cada puerto era dedicado a un ordenador. De esta forma cada usuario podía disfrutar de 10Mbps y su tráfico no era visto por ningún otro ordenador salvo por aquel al que iba dirigido, con lo que se mejoraba el rendimiento y la seguridad de la red. El uso de redes conmutadas llevaba de una situación de medio compartido a una de medio dedicado donde ya no era necesario el uso de un protocolo MAC (como CSMA/CD). Por otro lado, los dos medios físicos más populares de Ethernet (10BASE-T y 10BASE-FL) ofrecen un canal físico diferente para cada sentido de la comunicación. Aprovechando estas dos circunstancias se implementó lo que se denomina Ethernet full-dúplex, que en esencia consiste en aprovechar el medio físico para establecer dos canales dedicados de 10 Mbps, uno para cada sentido, como si se tratara de una línea punto a punto. Aunque los productos comerciales Ethernet full-dúplex estan en el mercado desde poco después de la aparición de los conmutadores LAN su funcionamiento no fue estandarizado por el IEEE hasta 1997 en la especificación 802.3x, donde además se establece un control de flujo para su funcionamiento.

Más rápido, por favor

Cuando Ethernet comenzó su andadura comercial a principios de los ochenta muchos consideraban que 10 Mbps era una velocidad excesiva y que esto encarecía innecesariamente la red; por aquel entonces ningún ordenador era capaz de enviar a esa velocidad, por ejemplo en 1983 un mainframe VAX 8600 (considerado en su tiempo una máquina potente) podía transmitir unos 6 Mbps en el mejor de los casos; con los protocolos de transporte habituales los rendimientos eran sensiblemente inferiores.

En 1988 Van Jacobson (probablemente la persona que más ha contribuido a mejorar el rendimiento del TCP), envió un artículo a usenet informando que había conseguido una velocidad de transferencia de 8 Mbps sobre Ethernet entre dos estaciones de trabajo Sun utilizando una versión optimizada de TCP. A partir de ese momento las mejoras en el hardware (CPUs, discos, tarjetas controladoras, etc.) y en el software (sistemas operativos, protocolos de transporte, etc.) empezaron a hacer cada vez más fácil que un solo equipo saturara una Ethernet.

Entonces la única solución estándar para pasar a velocidades superiores era FDDI (que por cierto es un estándar ANSI e ISO, pero no IEEE). Sin embargo FDDI nunca se mostró como una alternativa interesante para los usuarios de Ethernet. Aunque robusta y fiable, tenía una gestión compleja y permanecía en unos precios inaccesibles para la mayoría de las instalaciones, o solo asumibles cuando se trataba de la red principal o 'backbone', pero no para el acceso del usuario final. Además su compatibilidad con Ethernet es reducida, ya que FDDI no es CSMA/CD y utiliza una estructura de trama diferente. Esto complicaba las cosas cuando se quería migrar desde Ethernet, y más aun si habían de coexistir ambas redes.

En un intento por cubrir esta demanda Grand Junction(viii) sacó en 1992 una versión de Ethernet que funcionaba a 100 Mbps. Esto tuvo un éxito considerable y provocó la creación ese mismo año en el seno del IEEE de un grupo de estudio sobre redes de alta velocidad, con la misión de estudiar la posibilidad de ampliar el estándar a 100 Mbps. Se plantearon dos propuestas:

  • Mantener el protocolo CSMA/CD en todos sus aspectos, pero aumentar en un factor 10 la velocidad de la red. Al mantener el tamaño de trama mínimo (64 bytes) se reducía en diez veces el tamaño máximo de la red, lo cual daba un diámetro máximo de unos 400 metros. El uso de CSMA/CD suponía la ya conocida pérdida de eficiencia debida a las colisiones.

  • Aprovechar la revisión para crear un nuevo protocolo MAC sin colisiones más eficiente y con más funcionalidades (más parecido en cierto modo a Token Ring), pero manteniendo la misma estructura de trama de Ethernet.

La primera propuesta tenía la ventaja de acelerar el proceso de estandarización y el desarrollo de productos, mientras que la segunda era técnicamente superior. El subcomité 802.3 decidió finalmente adoptar la primera propuesta, que siguió su camino hasta convertirse en lo que hoy conocemos como Fast Ethernet, aprobado en junio de 1995 como el suplemento 802.3u a la norma ya existente. Para acelerar el proceso se utilizaron para el nivel físico buena parte de las especificaciones ya desarrolladas por ANSI para FDDI (ix). Los medios físicos soportados por Fast Ethernet son fibra óptica multimodo, cable UTP categoría 3 y categoría 5 y cable STP (Shielded Twisted Pair).

Los partidarios de la segunda propuesta, considerando que sus ideas podían tener cierto interés, decidieron crear otro subcomité del IEEE, el 802.12, que desarrolló la red conocida como 100VG-AnyLAN. Durante cierto tiempo hubo competencia entre ambas redes por conseguir cota de mercado; hoy en día la balanza se decanta ampliamente hacia Fast Ethernet. Algunos fabricantes (notablemente HP, autor de la propuesta) aun mantienen un amplio catálogo de productos para 100VG-AnyLAN. Merece la pena recalcar que 100VG-AnyLAN, aunque puede funcionar con estructura de trama Ethernet (y también con Token Ring, de ahí la denominación de AnyLAN) no utiliza CSMA/CD y por tanto no puede denominarse Ethernet. Alguna literatura confunde esta red con la Fast Ethernet.

La red Fast Ethernet se extendió con una rapidez incluso superior a las expectativas más optimistas. Como consecuencia de esto los precios bajaron y su uso se popularizó hasta el usuario final. Esto generaba un requerimiento de velocidades superiores en el backbone que no podían ser satisfechas por otras tecnologías (salvo quizá por ATM a 622 Mbps, pero a unos precios astronómicos). La experiencia positiva habida con Fast Ethernet animó al subcomité 802.3 a iniciar en 1995 otro grupo de trabajo que estudiara el aumento de velocidad de nuevo en un factor diez, creando lo que se denomina Gigabit Ethernet. Aunque en 1995, recién aprobado Fast Ethernet, parecía descabellado plantear estas velocidades para redes convencionales, las previsiones de aumento en rendimiento y nivel de integración de los chips hacían prever que para 1998 sería factible construir controladores de red para esas velocidades con tecnología convencional a precios asequibles(x). Siguiendo un calendario similar al empleado en Fast Ethernet y con un grupo de personas muy parecido se inició un proceso que culminó el 29 de junio de 1998 con la aprobación del suplemento 802.3z.

De forma análoga a lo que Fast Ethernet hizo con FDDI para el nivel físico, el grupo que elaboró las especificaciones de Gigabit Ethernet se basó en lo posible en los estándares ANSI de Fiber Channel a 800 Mbps, aumentando adecuadamente las velocidades. Se pretendía poder utilizar los mismos medios físicos que en Fiber Channel: emisores láser con fibra óptica multimodo y monomodo, cable de par trenzado apantallado y además cable UTP categoría 5. En el caso de la fibra multimodo se quería llegar a una distancia mayor que en Fibre Channel, lo cual planteó algunos problemas técnicos que retrasaron en unos meses la elaboración del estándar. En el caso de Gigabit Ethernet sobre cable UTP categoría 5 el reto tecnológico era de tal magnitud que en marzo de 1997 se decidió segregar un nuevo grupo de trabajo, el 802.3ab, para desarrollar exclusivamente este caso y no retrasar la aprobación del resto de medios físicos. Se prevé que el suplemento 802.3ab se apruebe en marzo de 1999.

CRONOLOGÍA DE ETHERNET

1970

Primeras experiencias de redes broadcast en Hawaii: ALOHANET. Protocolos MAC ALOHA puro y ranurado.
22/5/1973 Robert Metcalfe y David Boggs conectan dos ordenadores Alto con cable coaxial a 2,94 Mbps en el Xerox Palo Alto Research Center, mediante una red denominada Ethernet.
Mayo 1975 Metcalfe y Boggs escriben un artículo describiendo Ethernet, y lo envían para su publicación a Communications of the ACM.
1976 Xerox crea SSD, una división para el desarrollo de los ordenadores personales y la red X-wire (nuevo nombre de Ethernet).
1979 Se constituye la alianza DIX (DEC-Intel-Xerox) para impulsar el desarrollo técnico y comercial de la red. Se vuelve al nombre original de Ethernet.

Metcalfe abandona Xerox y crea 3Com.

Febrero 1980 El IEEE crea el proyecto 802.
Abril 1980 DIX anuncia al IEEE 802 que está desarrollando una tecnología de red local que pretende estandarizar.
Septiembre 1980 DIX publica Ethernet (libro azul) versión 1.0. Velocidad 10 Mbps.
3Com fabrica primeras tarjetas Ethernet para PC.
1982 DIX publica Ethernet (libro azul) versión 2.0.

3Com produce las primeras tarjetas 10BASE2 para PC.

24/6/1983 IEEE aprueba el estándar 802.3, que coincide casi completamente con DIX Ethernet. El único medio físico soportado es 10BASE5.
1/1/1984 AT&T se subdivide en AT&T Long Lines y 23 BOCs (Bell Operating Companies). Los tendidos de cable telefónico internos de los edificios pasan a ser gestionados por los usuarios.
1984 DEC comercializa los primeros puentes transparentes
21/12/1984 ANSI aprueba el estándar IEEE 802.3.
1985 Se publica el estándar IEEE 802.3

ISO/IEC aprueba el estándar 8802-3, versión adaptada del IEEE 802.3.

IEEE añade al estándar el cable 10BASE2.

Primeros productos 10BASE-T de Synoptics.

1987 IEEE estandariza StarLAN (1BASE5, Ethernet a 1 Mbps con cable UTP).

Comienza la estandarización de los puentes transparentes

1989 IEEE estandariza(FOIRL (Fiber Optic Inter-Repeater Link)
1990 IEEE estandariza 10BASE-T.

Primeros conmutadores Ethernet de Kalpana

Se aprueba el estándar 802.1d (puentes transparentes)

Noviembre 1992 IEEE crea el grupo de estudio para redes de alta velocidad (100 Mbps)
1992 Primeros productos Fast Ethernet, fabricados por Grand Junction
1993 Primeros conmutadores Full Dúplex
Junio 1995 Se estandariza Fast Ethernet (100BASE-FX, 100BASE-TX y 100 BASE-T4)
Octubre1995 IEEE crea el grupo de estudio para redes de 1 Gbps
Julio 1996 Se aprueba la 'task force' 802.3z para la estandarización de Gigabit Ethernet
Marzo 1997 Se escinde de la task force 802.3z la 802.3ab para la estandarización de 1000BASE-T (Gigabit Ethernet sobre cable UTP categoría 5).
1997 Se aprueba el estándar Ethernet full-dúplex (802.3x)

Se publican los drafts 802.1p y 802.1Q (VLANs y prioridades)

Primeros productos comerciales Gigabit Ethernet

29/6/1998 Se estandariza Gigabit Ethernet (802.3z) que comprende los medios físicos 1000BASE-SX, 1000BASE-LX y 1000BASE-CX.
Diciembre 1998 (previsto) Se estandariza 100BASE-SX (Fast Ethernet mediante emisores láser en primera ventana sobre fibra multimodo).
Marzo 1999 (previsto) Se estandariza 1000BASE-TX (Gigabit Ethernet sobre cable UTP-5).

NOTAS

  1. Se utilizaron valores superiores a 1536, no a 1500 (que es la longitud máxima de la parte de datos en una trama Ethernet), para dejar sitio a posibles ampliaciones que pudieran producirse en la longitud de la trama debido a información de control que pudiera aparecer en el futuro. Por ejemplo el soporte de VLANs que incorpora 802.1Q ya utiliza parte de este espacio adicional.
  2. En realidad hay una excepción a esta regla ya que PUP, el protocolo utilizado en la Ethernet Experimental, tení el código 512 y nunca fue modificado, pero este protocolo está hoy en desuso.
  3. Cosa por otra parte previsible (cinicsmo intencionado). El lector interesado en conocer el proceso que llevó al IEEE a definir la cabecera LLC de esa forma puede consultar [8]
  4. Escrito así, en mayúsculas y sin guión. El guión aparecería mśs tarde al cambiar el número por letras, por ejemplo 10BASE-T
  5. Synoptics más tarde se fusionó con Wellfleet para constituir Bay Networks. A su vez Bay Networks ha sido comprada recientemente por Northern Telecom.
  6. El nombre deriva del hecho de tratarse de una red con topología en estrella
  7. Comprada más tarde por CISCO
  8. Comprada más tarde por CISCO
  9. Esto es cierto únicamente en el caso de 100BASE-TX y 100BASE-FX. Los medios 100BASE-T4 y 100BASE-T2 (que aparecería más tarde) tienen una especificación del nivel físico propia.
  10. En efecto, actualmente existe ya disponible de diversos fabricantes toda la gama de productos Gigabit Ethernet (conmutadores, tarjetas de red, etc.); sin embargo no nos pronunciaremos sobre si los precios son asequibles o no.

REFERENCIAS

  1. T. W. Chung, J. Coulter, J. Fitchett, S. Mokbel, B. S. Arnaud: "Architectural and Engineering Issues for Building an Optical Internet" Noviembre 1998. Disponible en: http://www.canet2.net/Optical/architectural.doc
  2. W.E.Leland, M.S. Taqqu, W.Willinger y D.V. Wilson:"On the Self-Similar Nature of Ethernet Traffic", ACM Transactions on Networking, Febrero 1994.
  3. W. Willinger, M.S. Taqqu, R. Sherman y D.V.Wilson: "Self-Similarity through High Variability: Statistical Analysis of Ethernet LAN Traffic at the Source Level" Proc. SIGCOMM’95 Conf.,ACM,pp.100-113, 1995.
  4. V. Paxson y S. Floyd: "Wide Area Traffic: The Failure of Poisson Modeling" IEEE/ACM Transactions on Networking, junio 1995
  5. R. M. Metcalfe y D. R. Boggs: "Ethernet: Distributed Packet Switching for Local Computer Networks" Communications of the ACM 19 (7), julio 1976. Disponible en http://www.acm.org/classics/apr96/
  6. D.R. Boggs, J. C. Mogul y C. A. Kent. "Measured Capacity of an Ethernet: Myths and Reality", ACM SIGCOMM'88 Symposium on Communications Architectures & Protocols, pp. 222-234, agosto 1988. Disponible en: http://www.researchdigital.com/wrl/publications/abstracts/88.4. html
  7. H. W. Johnson: "Fast Ethernet-Dawn of a New Network", pag. 19, Prentice Hall, 1996
  8. R. Perlman: "Interconnections: Bridges and Routers", Addison-Wesley, 1992

Rogelio Montañana
Universidad de Valencia
Servicio de Informática
dirección de correo rogelio [dot] montanana [at] uv.es