sábado, 27 de abril de 2013

Evolución histórica de las Redes


Década de los sesenta

El concepto de red comenzó a imponerse a partir de la década de los sesenta,
momento en el que aparecieron los primeros protocolos en línea que permitían la conexión a
distancia entre terminales y servidores, lo que se denominó con el nombre de teleprocessing.
En los inicios, los ordenadores eran grandes máquinas de un coste elevadísimo, ya que
la industria de la informática era todavía incipiente, por lo que tan solo organismos oficiales y
empresas de gran entidad, es decir, grandes corporaciones, se podían permitir el lujo de
poseer máquinas de este tipo. Por lo tanto, nació la necesidad de compartir los recursos de
proceso de estos grandes ordenadores, que actuarían pues, como servidores.
En aquellos años, existían otros ordenadores que se extendía en varias salas, que
trabajaban a modo de terminales y que se conectaban en línea a un megaordenador, que
actuaba de servidor (conocido como UCP.- Unidad Central de Proceso), y que se encontraba
en otra ciudad. Ambos se conectaban en time sharing, es decir con una política de “compartir el
tiempo de acceso a los recursos” de servidor. El proceso se realizaba de la siguiente manera:
el terminal leía y memorizaba los datos del programa, que se encontraban en una la tarjeta
perforada. A continuación, trasfería el proceso de trabajo de la tarjeta y lo enviaba al servidor
central, que procesaba los datos y devolvía a la impresora del terminal los resultados. Esta
tarea podía tardar media hora en un proceso de datos medio.

Sistema de proceso de datos de las primeras redes


Con este sistema de cálculo centralizado, la interacción hombre-ordenador era nula. La
manera de compartir los recursos, pasaba por crear una red de estrella, en la que la Unidad
Central de Proceso, se conectara a través de la línea a los terminales de los usuarios. La
solución que se adoptó inicialmente, fue la de utilizar las líneas analógicas instaladas para
trasmitir voz; es decir las líneas telefónicas, que permitían también el envío de datos gracias a
un nuevo dispositivo que se denominó módem.
El módem era capaz de convertir los datos digitales del ordenador en formato
analógico para que pudieran ser enviados por la línea analógica telefónica; y a su vez, era
capaz de trasformar los datos analógicos que le llegaban al ordenador, a formato digital.
Por lo tanto, a través de la línea telefónica pública, los diversos usuarios podían en
tiempo real pedir acceso a la Unidad Central de Proceso para utilizar sus recursos. Surgían de
este modo los problemas comunes a la línea telefónica, como que en ese momento las líneas
estuvieran saturadas, que la trasmisión se cortara, que el servidor tuviera la línea ocupada...;
además de tener que acomodarse a la velocidad de trasmisión de datos, que permitía la línea.

Primeras conexiones a través de la red telefónica pública

El paso siguiente fue el de disponer de líneas analógicas, pagando un canon,
dedicadas para la trasmisión exclusiva de datos; además de las líneas analógicas para uso del
teléfono. Esta separación de interfaz entre la Unidad Central de Proceso y las líneas a las que
se conectan los terminales remotos, pone los cimientos del nacimiento del concepto de Front
End processor, es decir, del procesador que se conecta de manera frontal a los usuarios
remotos. Esta evolución hacia la modularización de la funcionalidad de la red, se
complementará con la llegada de las capas de la arquitectura. Desde este momento en
adelante, la funcionalidad de las comunicaciones, estarán siempre separadas de las funciones
del proceso de datos.
Una optimización sucesiva, se deberá al acceso a la red remota, que comenzará a ser
consideraba multiusuario. En la práctica, para aprovechar mejor tan costosas líneas de
comunicaciones, se introduce la posibilidad de conectar muchos terminales sobre una única
línea (multiplexing), que gestionada por un dispositivo conectado a la línea principal permite
que mediante un módem, todos los terminales puedan hacer uso de los recursos de proceso de
datos que ofrece la Unidad Central de Proceso.

Sistema multiusuario

Mediante estos sistemas, se realizaba una comunicación en la que a cada terminal le
correspondía un tiempo de uso de la red, lo necesitara o no. Es decir, cada terminal disponía
de un turno de uso de la red, lo que hacía que a veces unos usuarios intentaran utilizarla y no
pudieran, porque el turno lo tenía otro usuario, que a lo mejor incluso ni lo estaba usando.
Estas primeras redes sentaron las bases par creación de redes de carácter privado.
Por ejemplo, para proyectar una red que conectara la sede principal de un banco con sus
correspondientes filiales. Los primeros protocolos en línea, que gestionaban la conexión entre
la sede central, en la que residía el servidor central (maim-frame), y los diversos terminales
remotos, fueron sacados al mercado por la HDLC.
En este escenario, en el año 1968, en Estados Unidos, se pensó realizar una red con
estructura de tipo de malla, en vez de estrella, contando con unos nuevos dispositivos
denominados nodos de conmutación, conectados entre sí a modo de malla. Constituían las
centrales de tránsito de los grandes flujos de tráfico telefónico, que eran distribuidos a las
centrales, por ejemplo entre las telesecciones nacionales o internacionales, que gestionaban el
redireccionamiento de la información a las red periférica de estrella que contenían los
terminales. Esta fue sin duda, la idea que imperó en el sector de las redes, ya que se
aprovechaban de manera eficiente los recursos de la red. Es más, los recursos se asignaban
de manera dinámica a quien los necesitaba realmente, en vez de dedicarlos enteramente a un
solo usuario que a lo mejor no la estaba utilizando, a través de una red de comunicación
basada en el envío conmutado de paquetes. Además, según el tráfico real que existiera en la
red, las conversaciones iban, por un lugar o por otro, enrutadas oportunamente por los
caminos adecuados a través de unos nodos de comunicaciones u otros. Por lo tanto, el
encaminamiento o enrutamiento de los datos, se hacía también de manera dinámica.

Sistema de nodos de conmutación de paquetes

Durante esta época, el motor principal de la investigación de las redes, fue el
Ministerio de Defensa de los EEUU, que sintió la necesidad de tener a su disposición una red
privada fiable y segura para intercambiar información de carácter reservado, como es el caso
de la documentación militar. Uno de los proyectos fue el denominado ARPA (Advanced
Research Program Agency - Agencia del Programa de Investigaciones Avanzadas)
dependiente del DoD (United States Departement of Defence - Departamento de Defensa de
los EEUU), con una fuerte aportación financiera de la universidad, en particular de la de
Berckeley. Todas estas investigaciones dieron como origen en 1969 a la Red ARPANET, en la
que los enlaces de conexión dejaron de ser analógicos y los nodos de comunicación pasan a
ser denominados I.M.P. (Interface Message Processor). ARPANET es considerada el embrión
de Internet.
Esta iniciativa, sirvió de estímulo para la realización de un proyecto de red de carácter
científico, utilizando para ello como soporte la N.S.F. (National Scienze Foundation - Consejo
Nacional para la Investigación), que conectó diversos centros universitarios con la finalidad de
tenerlos intercomunicados. De esta manera, los grandes ordenadores de los centros de
investigación, se convirtieron en accesibles a todas aquellas universidades menores que
estaban conectadas a la red. Esta red, no solo hizo que esos grandes ordenadores fueran
mejor aprovechados y utilizados a distancia por diversos centros universitarios, sino que
además ahora, eran capaces de enviarse entre ellos mensajes de carácter personal, estando
ante la aparición del correo electrónico.
Como ya hemos apuntado antes, estamos ante los fundadores de Internet y ante su
inicio, en cuanto a los protocolos que sucesivamente han elaborado la historia de Internet,
nacieron en el ambiente de este proyecto. En general la topología de malla, pensada como
alternativa a la de estrella, estaba basada en la red telefónica, es decir, en la red de
conmutación de circuitos (circuit switching) y sobre la teoría de que no era necesario fijar un
camino para cada trasmisión de datos; es decir, en la red de comunicación de paquetes
(packet switching data Network).
Por lo tanto, el envío conmutado de paquetes consiste en que la información no se
envía dentro de la red de forma continua, sino dividida en pequeños paquetes de datos. De
esta manera, se consigue que la información se envíe más rápidamente, y se minimiza el
riesgo que presenta la interrupción de la comunicación por una ruta determinada, si se envía de
golpe. Además, se trata de una tecnología muy próxima a la manera en que funcionan los
propios ordenadores, que no trabajan con la información en un flujo continuo, sino en una serie
de pequeños impulsos. La información que sale de un ordenador se descompone, pues, en
pequeños paquetes que, para ser transmitidos, recorren caminos distintos dentro de la red y
que al llegar al ordenador de destino, se vuelven a unir.
Paralelamente en Europa, las diversas administraciones conscientes del desarrollo de
las red en Norteamérica, pensaron crear una red pública digital de topología de malla, en
vez de ser privada. En esta red, las líneas no eran ya analógicas y los nodos de comunicación
no desarrollaban una función de centrales telefónicas, sino que eran servidores que
gestionaban las comunicaciones, como en la red ARPA. Siendo la trasmisión digital, dejó de
ser necesaria la utilización del módem. Por otra parte, una red que proporcionaba un servicio
público debía cumplir estos dos requisitos:
• Igualdad.- Es decir, debe ser posible que todos los usuarios puedan utilizar los
   recursos de manera igualitaria. Esto no es un problema fácil de resolver, puesto que
   cuando se produce una congestión en la red, una parte de sus usuarios tiene que ser
   bloqueada, por lo que este criterio no puede ser seguido, ya que daría una mayor
   prioridad a unos usuarios que a otros.
• Además, es necesario tener en cuenta el factor de usuario que paga y que por lo tanto,
    tiene que garantizársele el acceso a los recursos por los que está pagando. Para
     ello, era necesario el uso de una serie de protocolos.

Década de los setenta

Nacía de esta manera, la preocupación de crear un reglamento que gestionara el
acceso de los usuarios, que sirviera tanto a las redes de carácter públicas como privadas. En
EEUU debido a la falta de una administración única, las reglas de interconexión entre usuarios
de la red privada fueron de diversos tipos, existiendo una amplía gama de protocolos. Sin
embargo, en Europa, teniendo en cuenta que el servicio de la red lo ofrecía una administración
pública, se vio la importancia de la creación de protocolos estándar. Se definieron a tal
respecto normas precisas para todos los usuarios de la red.
Los organismos de estandarización se pusieron a trabajar, entre ellos el CCITT (Comité
Consultivo Internacional de las Comunicaciones Telefónicas), que formado por delegados de
los ministerios de correos y telecomunicaciones, habían ya establecido las reglas para las
señales telefónicas entre el aparato del usuario y la central telefónica. De esta manera, se creó
la normativa, llamada raccomandations (recomendaciones), a las que el usuario se tenía que
atener para realizar el coloquio con los nodos de acceso a la red; nodos, que a su vez tenían
que mantener un coloquio con los nodos de trasmisión internos. En este momento, se
consolida como protocolo estándar para el acceso a los terminales de datos en las redes de
conmutación de paquetes, el X.25. En 1976 vio la luz la primera raccomandation de este
estándar, que marcó la llegada de las redes públicas extendidas y que se consolidó en 1980.
Junto a este proceso de estandarización de la manera de conexión, se hizo necesario
estandarizar los protocolos de gestión de la comunicación entre diversos servidores
conectados a la red. En efecto si un servidor quería acceder a otro remoto, se hacía necesaria
una interfaz común, es decir, un protocolo que permitiera crear una máscara que eliminara las
diferencias entre ambos usuarios. De esta manera, los dos servidores tenían la sensación de
trabajar con el mismo sistema local, a pesar de estar operando desde un sistema remoto.
Para efectuar estas operaciones, se hacía necesario el uso de unos protocolos
dedicados a la cooperación entre los sistemas heterogéneos con funciones de colaboración
remota entre usuarios, además de las funciones estrictamente de trasmisión. Esto hizo que se
diera vida al concepto de arquitectura de niveles, con funciones no solo de comunicación sino
también de cooperación. De ahí proviene la necesidad vital de estandarizar los protocolos a
través de organizaciones especiales para el uso y la construcción de sistemas heterogéneos,
sin dejar de lado la iniciativa de los gestores públicos. La organización más adecuada en aquel
momento fue ISO (International Standard Organization - Organismo Internacional de
Estándares), que creó el modelo OSI, que no es otra cosa que un proyecto de arquitectura a
modo de niveles.
En este sentido, en 1970 se crea el NCP (Network Control Protocol, Protocolo de
Control de Redes), que se utilizará durante los años setenta en Internet y que a partir de 1983
fue sustituido por otro, el protocolo TCP/IP (Transfer Control Protocol/Internet Protocol,
Protocolo de Control de Transferencias/Protocolo de Internet), que todavía hoy es el que
funciona en toda la red. De esta manera, se estandariza la comunicación entre las máquinas y
todos los ordenadores que se conecten, lo puedan hacer con garantías de que su
compatibilidad será total.
Contemporáneamente a la necesidad de compartir recursos, nacía una nueva
perspectiva para las redes, unida a la creación de ordenadores de mucho menor tamaño y con
un coste que comenzaba a ser asequible para las grandes empresas. Comenzó a pensarse en
la idea de proyectar un sistema de red fiable y segura, y que tuviera la capacidad de conectar
diversas máquinas en un área limitada (local). Una red con estas características era toda una
revolución y se basaba en el concepto de la “automatización de la oficina” o de la empresa
(office automation), en la que se pudieran integrar las oportunidades que la informática daba a
las empresas para automatizarse y a la posibilidad de compartir esos recursos.
Este nuevo concepto de red, al tener una cobertura limitada, permitió ofrecer una
trasmisión de datos casi simultánea, lo que permitía que los recursos se pudieran compartir con
una menor pérdida de tiempo, casi de manera inmediata, agilizándose los procesos de trabajo.
También se pudo aumentar la capacidad de trasmisión de datos por la red, que se ejecutaba
también de manera casi simultánea. De esta manera nacieron las Redes Locales (LAN Local
Area Networks – Red de Área Local).

Década de los ochenta

La topología de una LAN no era ni de malla ni de estrella, estaba basada en un canal
común a través del cual todos las máquinas podían conectarse. En la segunda mitad de los
años ochenta, la utilización del cable coaxial como medio de trasmisión y la afirmación de la
fibra óptica hicieron que estos sistemas de red tuvieran una capacidad de banda del orden de
Mbit/s. Como ejemplo, la red Token Ring de IBM era capaz de funcionar a 4 Mbit/s o a 16
Mbit/s según las características, pasando por los 10 Mbit/s del sistema Fast-Ethernet y las 100
Mbit/s del sistema Switch-Ethernet (Red Ethernet con cable coaxial nacida de la colaboración
de Xerox e Intel), en comparación a los 9600 bit/s y 48 kbit/s de las redes de mayor extensión
geográfica.
Todo esto significó la aparición de nuevos problemas unidos a la gestión de los flujos
de datos a alta velocidad, que se encontraba entorno a los Mbit/s. Se pensó por tanto en utilizar
las redes locales, nacidas para la trasmisión de datos, para transferir también comunicaciones
telefónicas de tipo digital según el modelo PCM (Pulse Code Modulation); técnica de
codificación numérica que, requiere para la trasferencia de un señal vocal, un medio con una
capacidad de por lo menos 64 Kbit/s. Esta era en definitiva, la frecuencia soportada por un
ancho de banda de las redes locales. De este modo, se desarrollaron dos estándares de
trasmisión vocal PCM, uno en EEUU y otro en Europa, que diferían en el modo en el que se
estructuraba la información codificada.
Nace de esta manera el concepto de red digital de servicios integrados ISDN
(Integrated Service Digital Networks), que se desarrolló a través de dos fases:

     - Integración de la tecnología.- Es lógico que si se quiere trasmitir juntos voz y datos,
en una red, no se podría hacer a no ser que se utilice una tecnología digital para la
trasmisión vocal.
     -Integración de los servicios.- Había que dar la posibilidad a los usuarios, a través de
un terminal multiservicio que trasmitiera datos, voz y si el ancho de la banda lo
permitiera, también información gráfica y vídeo.

De esta manera, a mediados de la década de los ochenta, después de trabajar en el
camino de la estandarización, se realizó la red pública ISDN, enteramente digital, que ponía a
disposición dos canales de datos a 64kbit/s (para trasmitir voz y datos) y un canal de control a
16 kbit/s.
Esquema del funcionamiento de la red pública ISDN

La red ISDN de esta generación, conocida también como N-ISDN (Narrowband ISDN –
ISDN de banda estrecha), resultó insuficiente con el tiempo con la llegada de las opciones
multimedia. Esta fue la razón por la que se proyectó la red B-ISDN (Broadband ISDN – ISDN
de banda ancha), que contaba con unos medios físicos de trasmisión con un ancho de banda
que iba desde los Kbit/s hasta los Mbit/s. De este modo, se hacía posible un ancho de banda
capaz de trasmitir vídeo, datos y voz. Como ejemplo, podemos decir que la red era en grado de
soportar comunicaciones con vídeo a alta resolución, que va más allá de la videoconferencia,
que ya se podía realizar con la N-ISDN.
Las redes ISDN se diferencian de las redes de conmutación de paquetes, en que los
terminales no solo están adaptados a la trasmisión de datos, que pueden ser también
terminales multifunción conectados a dispositivos conocidos como NTE (Network Terminator
Equipment - Dispositivo terminador de red), para desarrollar aplicaciones relativas a datos y
señales vocales a la vez.
Se planteaba ahora un dilema a los usuarios, que era cual de las tecnologías adoptar
de las que se encontraban en el mercado. Por otro lado, las empresas tecnológicas orientaban
su mercado para que las empresas usuarias de las redes se inclinaran hacia la banda ancha,
por razones obviamente económicas. Las empresas usuarias de las redes, tendieron como es
lógico por la alta velocidad que les permitía la trasmisión de información multimedia; pero no
solo para las redes locales, sino también para las redes extensas y las backbone o ejes
troncales, a través de la nueva tecnología de trasferencia de información y de comunicaciones
conocida como ATM Asynchronous transfer mode Modo de trasferencia asíncrona). La
tecnología ATM se basa en la trasmisión de la información en paquetes a alta velocidad,
llegando a los 155 Mbit\s; utilizando switch (conmutadores), que permitían una velocidad de
procesamiento más elevada que los viejos nodos de conmutación de paquetes; y usando los
primeros protocolos para redes con tipología de fibra. Todo esto ha dado un modo de realizar
las redes locales, redes extensas (WAN Wide Area Network – Red de Área Extensa) y redes
metropolitanas (MAN Metropolitan Area Network – Red de Área Metropolitana) de tipo ATM,
que crean un escenario que satisface las exigencias que requiere la tecnología multimedia y
garantizan la calidad del servicio de los usuarios.

Sistema de redes con tecnología ATM

De manera paralela, también en la segunda mitad de los años 80, otro factor fue la
globalización de la red; es decir, la interconexión global de los usuarios de manera que un
usuario que se encuentre en el puesto más remoto, sea posible conectarlo. Por lo tanto, para
conseguir la globalización era preciso que todas las redes de ámbito local estuvieran
conectadas entre sí, hasta conseguir lo que es Internet.
Por otro lado, al inicio de los años ochenta, nació la tecnología capaz de la realización
de la red Internet, cuyo objetivo fue comunicar, a bajo precio, la comunidad académico-
científica para la difusión de sus investigaciones. El bajo coste, se debió en parte al hecho de
que el que quisiera conectarse, en su propio laboratorio, se podía hacer su propio software y
ponerlo en la red a disposición de toda la comunidad. Por ello, no fue tampoco necesaria la
estandarización, debido a que se tomaba con estándar aquello que se usaba y funcionaba
correctamente; es decir, el estándar se convierte en un factor arbitrario (the factor) y no fijado a
priori (the engaged).

Década de los noventa

En el sector de la informática, existe un principio que dice que cuando se crea un nuevo
servicio, un protocolo o un software, al principio, los usuarios que lo utilizan son pocos y el
aumento de los mismos se hace de forma lineal; pero cuando el número crece, comienza a
hacer se forma porcentualmente desmesurada. Esto es lo que ha sucedido con Internet. El
fenómeno de Internet, como medio para enviar mensajes y para navegar por la red utilizando
un browser (buscador), de manera libre y a bajo precio, se ha convertido en un medio de
masas más extendido, que ha superado cualquier expectativa.
La tecnología ATM, usada para el proyecto de globalización, se ponía en
contraposición a Internet, que es una red de bajo coste que se gestiona sola. Internet se
gobierna a través de una serie de estándares que todos los usuarios tienen que seguir, pero
cada usuario es el que gestiona su parte; es decir, Internet se basa en el concepto de “ahí
tienes la red, ¡utilízala!”. Con Internet, los usuarios no pueden pretender conseguir una elevada
calidad de servicios.
Por ello, se trabajó para mejorar la calidad de servicio de Internet que no debía
convertirse en una red como la ATM; y por otro lado, al mismo tiempo, dejar a los usuarios que
quisieran usar ATM para trabajar con ella. Una filosofía de red que se utilizó, fue la IP over
ATM (IP - protocolo de red de Internet apoyada en la ATM), según la cual, se mantiene la
tecnología ATM como base, utilizando cableado de fibra y en un nivel superior el protocolo de
red de Internet. Esta solución garantizaba la calidad del servicio para aquellos que querían las
prestaciones de ATM.
Estas dos maneras de concebir la red, dio vida a diversas tendencias de pensamiento:
• Los técnicos en telecomunicaciones puros, se decantaban por la garantía de la
     calidad del servicio.
• Mientras tanto, los informáticos puros, afirmaban que en un mundo donde se
    estaban reduciendo los costes del hardware, el propio hardware era cada vez más
    potente y con una mayor capacidad, por lo que no se hacía necesario dejar la
    responsabilidad a la red; ya que las altas prestaciones del hardware podían compensar
    ciertas carencias de servicio que pudiera tener la red. Este fue el gran tema de
   discusión que hoy en día todavía impera.
Por otro lado, teniendo siempre en cuenta el punto de vista de la globalización se
comenzó a generar una preocupación por la movilidad de usuario, dándose vida así a los
sistemas wireless, es decir, comunicaciones inalámbricas. Han sido dos las propuestas, que
se han tenido en cuenta para conseguir que se convirtieran en una realidad las redes
inalámbricas:
• Una de naturaleza telefónica, que permitiera a los usuarios estar siempre accesibles.
• La otro, la posibilidad de renunciar al cableado, solución especialmente conveniente
   para cubrir grandes extensiones de terreno con baja densidad de población.
Está claro que estos dos aspecto de las redes inalámbricas están relacionados.
• Si para las comunicaciones telefónicas inalámbricas, inherentes a la posibilidad de
   mantener una comunicación en movimiento, es fundamental para la gestión de la red
   celular.
• Análogamente, las trasmisiones de datos inalámbricos, se encuentran unidos al hecho,
     de que un usuario pueda cambiar de un lugar a otro conectándose a la red a través de
      dos terminaciones de red fijos colocados en diversos lugares. Este concepto se basa
     en las conexiones de red y de trasmisión de datos, similar a las que se realizan con un
     ordenador portátil a la red de la oficina o a la de casa o en cualquier lugar en el que
     pueda establecer una conexión a la red.
Así, el usuario puede estar desconectado y conectado en cualquier momento a la red,
que deberá automáticamente reconfigurarse, permitiéndole estar disponible y comunicarse con
cualquiera, en cualquier lugar y a cualquier hora. Obviamente, la red reconocerá al usuario a
través de su identificador de red, que es para los sistemas celulares el número del teléfono
móvil y para los sistemas de trasmisión de datos la dirección del usuario, independientemente
de la dirección física donde ha conectado su ordenador portátil.
Está claro que realizar una red que soporte tráfico multimedia con capacidad para
albergar terminales móviles, conlleva numerosos problemas, unidos sobre todo a hecho de que
la interfaz aérea está sometida a fenómenos de interferencia o fading (variaciones a medio y
largo plazo de las características de propagación del medio, que determina distorsiones e
interferencias). Además, presenta una banda muy limitada respecto a aquellas comunicaciones
realizadas a través de cables coaxiales o fibra óptica.
Junto a este panorama, comienza a surgir el concepto de oficina virtual y el de
despacho móvil, como por ejemplo el hombre de negocios que trabaja a través de una
estación base, que reside en su medio de trasporte.
Por todos estos motivos, los sistemas inalámbricos están destinados a convertirse en el
frente de investigación y continua expansión.
Resumiendo, podemos afirmar que las tres fuerzas dinámicas en la tecnología actual
de las redes son la capacidad multimedia, la globalización y la gestión de las redes
inalámbricas.












No hay comentarios:

Publicar un comentario