sábado, 27 de abril de 2013

Conceptos básicos sobre las Redes


El ser humano, desde los albores de los tiempos, ha utilizado muchos y diversos
medios para comunicarse. La comunicación ha sido siempre una constante para la humanidad.
Por ello, ni que decir tiene que esta importancia se traslado con la aparición de la informática al
medio de los ordenadores. Se vio la necesidad de conectarlos y de intercomunicarse.
Los tres conceptos vitales en redes son por ello, el mensaje, la información y los datos.
Mensaje.- Se habla de mensaje, como el conjunto de la información.
Datos.- Se trata de la información, es decir, de números y letras que usa el ordenador
para realizar sus tareas.
Información.- Cuando hablamos de información, estamos haciendo referencia a los
datos, pero de manera que sean entendibles por el ser humano.

Concepto de Red
Se han dado muchas definiciones de red; pero básicamente, vamos a decir que una
red en informática, es un conjunto de ordenadores conectados entre sí, que son capaces
de compartir datos y recursos.

Beneficios de las redes
Cuando una persona física o moral establece una empresa siempre piensa en obtener
beneficios y para esto, en muchas ocasiones se requiere compartir recursos (impresoras,
digitalizadores, computadoras, discos duros, archivos, el conocimiento de personas, etc.) y una
solución es tener una red que puede ser local, metropolitana, nacional, extensa o global,
dependiendo su amplitud de la dispersión geográfica de los recursos que queremos compartir.
Esos recursos deben estar disponibles en el momento adecuado y que los datos o
información que produzcan sean altamente confiables, esto es, que no sufran deterioro durante
su transmisión. En ocasiones, será vital que contemos con réplicas de algunos recursos para
que, dado el caso de un desastre en algún punto de la red, podamos consultar o acceder un
recurso similar.
Las compañías también se han dado cuenta que resulta más barato tener una red de
ordenadores para facilitar los procesos productivos, que poseer una sola supercomputadora en
donde se concentren todos los procesos y operaciones. Las ventajas de la red son: economía,
capacidad de crecimiento, capacidad de soportar fallos, capacidad de tener réplicas más
económicas...
Por otro lado, el desarrollo tecnológico ha permitido que las computadoras sean
accesibles cada vez a un mayor número de personas en sus oficinas y en sus hogares, lo cual
también implica que se puedan crear pequeños negocios de alta rentabilidad, muy competitivos
y con gastos mínimos.
Este tipo de negocios ya no tienen el problema de contar con enormes capitales, ahora
su problema es el saber en dónde encontrar los recursos que necesitan para proveer bienes y
servicios. Este concepto se apoya al tan extendido y comentado comercio electrónico.
Además, cada vez es más común el uso de diversos servicios de red desde un
ordenador personal conectado en cualquier hogar, tales como el correo electrónico, fax,
operaciones de compra-venta, reservas de hoteles y billetes de avión, chats, acceso a
información digital como periódicos en formato electrónico o información estatal y
videoconferencia.

Tipos de redes ateniendo a su dimensión geográfica
Al crear una red, se toman en cuenta dos factores principales:
Nivel físico.- Que es el medio físico de transmisión datos.
Protocolos.- Que son las reglas que rigen la transmisión de datos.
En el nivel físico generalmente encontramos señales de voltaje que tienen un
significado preconcebido. Esas señales se agrupan e interpretan para formar entidades
llamadas paquetes de datos. La forma como se procesan esos paquetes determinan la
tecnología de transmisión y se aceptan dos tipos:
• Las redes de tipo "broadcast" se caracterizan porque todos los miembros
   (nodos) pueden procesar todos los paquetes que circulan por el medio de
  transmisión.
• Las redes “punto a punto” sólo permiten que un nodo se conecte a otro en un
        momento dado.

Por la extensión de las redes broadcast o "punto a punto", podemos clasificarlas de
acuerdo a la tabla siguiente:

MAN o Redes de Área Metropolitana
Una MAN (Metropolitan Area Networks) o red de área metropolitana es una versión
más grande de una LAN (Red de Área Local que veremos después), en cuanto a topología,
protocolos y medios de transmisión que abarca, llegando a extenderse todo su conjunto en
unas oficinas corporativas o empresas de una ciudad.
Las redes de servicio de televisión por cable se pueden considerar como MAN y, en
general, a cualquier red de datos, voz o video con una extensión de una a varias decenas de
kilómetros.
El estándard IEEE 802.6 define un tipo de MAN llamado DQDB por sus siglas en inglés
Distributed Queue Dual Bus. Este estándar usa dos cables half-duplex por los cuales se recibe
y transmiten voz y datos entre un conjunto de nodos.

WAN o Redes de Área Extensa
Una red de área extensa WAN (Wide Area Networks) se expande en una zona
geográfica de un país o continente. Los beneficiarios de estas redes son los que se ubican en
nodos finales, llamados también sistemas finales, que manejan aplicaciones de usuario (por
ejemplo, algún procesador de palabras o un navegador de WWW).
A la infraestructura que une los nodos de usuarios se le llama subred y abarca diversos
aparatos de red (denominados en general como routers o enrutadores) y líneas de
comunicación que unen a las redes de área local. El término de subred también se aplica a una
técnica para optimizar el tráfico en una red de área local de tamaño medio.
En la mayoría de las redes de área extensa se utilizan una gran variedad de medios de
transmisión para cubrir grandes distancias. La transmisión puede efectuarse por microondas,
por cable de cobre, fibra óptica o alguna combinación de los anteriores. Sin importar el medio,
los datos en algún punto se convierten e interpretan como una secuencia de unos y ceros para
formar marcos de información (frames), que son ensamblados para formar paquetes y los
paquetes a su vez construyen archivos o registros específicos de alguna aplicación.
Las redes clásicas se caracterizan por utilizar routers para unir las diferentes LAN.
Como en este caso los paquetes viajan de LAN en LAN a través de ciertas rutas que los
routers establecen, siendo dichos paquetes almacenados temporalmente en cada router, a la
subred que usa este principio se la conoce como punto-a-punto, almacena-y-envía o de
enrutado de paquetes (point-to-point, store-and-forward, packet-switched).
Las topologías comunes en una red punto a punto son: de estrella, anillo, árbol,
completa, anillos intersectados e irregular.
La posibilidad de usar el aire como medio de transmisión, da lugar a las redes
inalámbricas. Se pueden construir usando estaciones de radio o satélites, que envían ondas a
diferentes frecuencias para enlazar los correspondientes enrutadores. Como el alcance de
estas ondas no puede ser restringido en un cierto radio, se deben tomar algunas medidas
especiales para no entrar en conflicto con otras ondas y para restringir el acceso.

Red Global Internet
La red Internet surgió gracias a un proyecto del Departamento de Defensa de los
Estados Unidos y que ahora es accesible desde millones de nodos en todo el mundo, y cuyos
servicios típicos son las conexiones con emulación de terminal telnet, la transferencia de
archivos ftp (File Trasfer Protocol – Protocolo de Trasferencia de Ficheros), el W W W (World
Wide Web – Tela de araña mundial), el correo electrónico, los foros de información globales...

¿Qué es una LAN o Red de Área Local?
Las LAN (Local Area Networks) o Redes de Área Local de tipo comercial, hicieron su
aparición en la década de los años setenta y desde entonces no han dejado de acaparar la
atención de todo el sector empresarial. Desde las compañías más grandes, hasta la empresa
más pequeña, no se han podido resistir a las ventajas que este tipo de red comporta.
El secreto de su éxito, radica fundamentalmente en la eficacia a la hora de minimizar
costes en los procesos de trabajo; unido como no, a una mayor rapidez y gestión de los
mismos. La productividad de las empresas aumentó ostensiblemente, además de permitir una
reducción en los costes de software y hardware, siendo los sistemas informáticos de una mayor
sencillez. Aunque parezca paradójico decirlo, las redes locales consiguieron también que los
procesos de trabajo se simplificaran enormemente.
Para el concepto de red local, se puede utilizar el que hemos dado para red en general.
Es decir, una red local será un sistema dedicado a la trasmisión de datos que permiten, claro
está, compartir información y recursos, utilizando para ello ordenadores conectados entre sí.
Otra definición, hace mayor hincapié en la capacidad de comunicación que tienen las
redes locales. De esta forma, una red local no será otra cosa que un sistema de comunicación
dedicado a la trasmisión de datos de tipo informático (datos, voz, vídeo conferencia,
multimedia... y cualquier tipo de dato que sea posible transmitirse de manera electrónica).
La Organización Internacional de Elaboración de Estándares (IEEE) en su estándar
IEEE 802, definía la red local como un “sistema de comunicaciones que permite que un número
de dispositivos independientes se comuniquen entre sí.”
Ejemplo de una Red Local

Las redes de área local, son el punto de contacto de los usuarios finales. Su finalidad
principal, es la de intercambiar información entre grupos de trabajo y compartir recursos tales
como impresoras, discos duros...
Las redes locales se caracterizan por siguientes factores:
• Extensión de las redes de área local.- Su extensión oscila entre unos cuantos metros
      hasta algunos kilómetros, por lo que el tramo entre las estaciones de trabajo es muy
      corta, utilizando para las distancias más grandes sistemas de repetición de datos. Esto
       permite unir nodos que se encuentran en una misma sala, edificio o edificios, campus o
      una empresa mediana o grande ubicada en una misma localidad.
• Conectividad y medio de comunicación.- Todas las redes locales tienen la
    capacidad de que cada uno de sus nodos pueda comunicarse con los demás, es decir,
    todos los nodos están conectados. Aunque también existe la posibilidad de encontrar
     máquinas, que actúen de manera independiente a la red. Además, son capaces de
       integrar comunicaciones de tipo electrónico que son a su vez multimedia (voz, datos,
       vídeo...); así como permiten fácilmente integrar cualquier dispositivo que se quiera
         añadir a la red. Además, las redes locales poseen un medio de comunicación común
            para que todos los dispositivos puedan comunicarse entre sí y compartir la información
             y recursos.
• Sistema de corrección de errores.- Las redes locales son sistemas muy fiables,
    debido a que disponen de su propio sistema de detección y corrección de errores en
     las trasmisiones.
• Tecnologías de transmisión de las redes de área local.- Las redes tradicionales
      operan con medios de transmisión, tales como cable de par trenzado (Unshielded
      Twisted Pair), cable coaxial (ya casi obsoleto por los problemas que presentan), fibra
     óptica (inmune a la mayoría de interferencias), portadoras de rayo infrarrojo o láser,
       radio y microondas en frecuencias no comerciales. Las velocidades en las redes de
      área local van desde 10 Megabits por segundo (Mbps) hasta 622 Mbps.
• Alta velocidad de trasmisión de datos.- Una red local, consigue gracias a la
    tecnología de trasmisión, una alta velocidad de trasmisión, que es una de sus
      características determinante, debido a la casi inmediata necesidad de acceso a la
      información y a los recursos, que requieren y necesitan sus usuarios.
• Topologías de las redes de área local.- La topología de una red, se refiere a la forma
      que ésta toma al hacer un diagrama del medio físico de transmisión y los dispositivos
        necesarios para regenerar la señal o manipular el tráfico. Las topologías generales son:
          anillo (ring), bus lineal (bus), estrella (star), árbol (tree) e híbridas.
Topología de las Redes de Área Local

Además , las redes locales disponen de muchas más ventajas, como es su flexibilidad
para gestionar y administrarlas. Es muy sencillo agregar nuevos dispositivos, así como
quitarlos. Por otro lado, en sistema puede ser gestionado por el propio usuario, controlando de
ese modo, todos los recursos del sistema.
Las redes locales, aparecieron como ya hemos comentado en los años setenta.
Durante casi toda esta década, se utilizaron en universidades y centros de investigación y
desarrollo. Fue a finales de esta década, cuando se crearon las primeras redes locales
comerciales; sin embargo fue en la década de los noventa cuando su uso adquirió una mayor
dimensión.
     Surgieron también los estándares más comunes para las redes locales, que son el
IEEE 802.3 llamado Ethernet y el IEEE 802.5 llamado Token Ring.


• Ethernet opera entre 10 y 100 Mbps. En este estándar, todo nodo escucha
todos los paquetes de esta red broadcast, saca una copia y examina el
destinatario. Si el destinatario es ese nodo, lo procesa y si no, lo deshecha
para escuchar el siguiente. Para enviar un paquete, escucha cuando el medio
de transmisión esté libre. Si ocurre que dos nodos enviaron un paquete al
mismo tiempo, se provoca una colisión y cada nodo vuelve a retransmitir su
paquete después de esperar un tiempo aleatorio.

• Token Ring opera entre 4 y 16 Mbps y utiliza una testigo o turno (token), que
permite enviar paquetes al nodo que la posee, mientras los otros escuchan.
Una vez que un nodo termina de enviar paquetes, pasa el testigo o turno a otro
nodo para que transmita.

Las redes locales han dado un paso adelante con la posibilidad de poder utilizar la
banda ancha, que permite trasmitir datos a alta velocidad. En la actualidad, se está también
utilizando la trasmisión de datos de manera inalámbrica y los esfuerzos se están orientando
hacia la banda ancha inalámbrica.

Beneficios de tener una Red de Área  Local
Como ya hemos comentado, las redes locales permiten compartir recursos y datos.
Tan solo por el hecho de poder compartir los periféricos y la información que existen en el resto
de equipos, ya merece la pena contar con las redes locales.
son:
No obstante, las redes locales tienen un mayor número de virtudes. Veamos cuales
• La administración y gestión de una red local tiene que ser simple, además
      de flexible. Una empresa se modifica internamente y está obligada a adaptarse
      a sus necesidades con gran rapidez. Por ello, se hace necesario que la red
     local también sea flexible y su administración y gestión sencilla. Una red local
       se utilizada como herramienta de gestión, aumenta el rendimiento de una
       empresa porque favorece la distribución de las tareas y el trabajo en equipo.
       Se pueden duplicar datos o procesos, para que la información vital nunca se
       pueda perder, con lo cual la fiabilidad del sistema es mayor. En el caso de que
      una unidad del sistema no pueda funcionar, no se producirá ninguna pérdida
       de datos ni falta de recursos.
• Sin duda alguna, la comunicación interna es un aspecto de los más
     importantes en una empresa. Si se dispone de una red local, la comunicación
     interna se hace mucho más fluida. Todos los empleados de una empresa
     necesitan hacer uso de cierta información y a través de la red local los usuarios
      pueden acceder a ella de una manera más sencilla y directa. La red local lo
      que hace, es convertirse en un canal más, de acceso de información. También,
        la red local se usa como medio para la utilización rápida de los dispositivos
         compartidos. Por otro lado, permite una comunicación interna a alta velocidad,
         con lo cual el acceso a la información y a los recursos es dinámica y fiable.
• Con la implantación de una red local, se consigue la reducción de los costes en material informático. Pongamos como ejemplo el uso de una impresora. Si
     ésta se encuentra en red, todos los usuarios de la misma pueden imprimir
     desde ella y no se hace necesario que cada usuario tenga una impresora
    conectada a su equipo. Una red local de ordenadores de no gran potencia,
   permite un proceso alto de información al tratarse de un sistema de proceso
   distribuido, que puede sustituir a grandes equipos informáticos de coste
   elevado. Con lo cual, hemos visto que se pueden reducir los gastos en
  hardware, pero además también en software, ya que existen ciertos programas
   de coste elevado, que en el caso de poder ser usados por todos los equipos de
  la red local, resulta mucho más económico y rentable.

Medios compartidos de red

• La productividad es algo vital para las empresas. Este factor depende
directamente de los empleados, de la calidad del equipamiento disponible y de
la información que tienen a su alcance para desarrollar su labor. No hay nada
para una empresa más preciado, que el aumento de la productividad, que se
traduce en un incremento de los beneficios. Las redes locales influyen en este
sentido de manera directa. Una empresa que implante una red local, notará
que el acceso a la información es más rápido, ya que estará almacenado más
coherentemente. También se evitará la duplicidad de la documentación y por
ello, se evitará que varias personas desarrollen el mismo trabajo. Las tareas se
simplificarán y se unificarán los procesos de trabajo, aumentando de este modo
su eficacia.










Read More


Evolución histórica de las Redes


Década de los sesenta

El concepto de red comenzó a imponerse a partir de la década de los sesenta,
momento en el que aparecieron los primeros protocolos en línea que permitían la conexión a
distancia entre terminales y servidores, lo que se denominó con el nombre de teleprocessing.
En los inicios, los ordenadores eran grandes máquinas de un coste elevadísimo, ya que
la industria de la informática era todavía incipiente, por lo que tan solo organismos oficiales y
empresas de gran entidad, es decir, grandes corporaciones, se podían permitir el lujo de
poseer máquinas de este tipo. Por lo tanto, nació la necesidad de compartir los recursos de
proceso de estos grandes ordenadores, que actuarían pues, como servidores.
En aquellos años, existían otros ordenadores que se extendía en varias salas, que
trabajaban a modo de terminales y que se conectaban en línea a un megaordenador, que
actuaba de servidor (conocido como UCP.- Unidad Central de Proceso), y que se encontraba
en otra ciudad. Ambos se conectaban en time sharing, es decir con una política de “compartir el
tiempo de acceso a los recursos” de servidor. El proceso se realizaba de la siguiente manera:
el terminal leía y memorizaba los datos del programa, que se encontraban en una la tarjeta
perforada. A continuación, trasfería el proceso de trabajo de la tarjeta y lo enviaba al servidor
central, que procesaba los datos y devolvía a la impresora del terminal los resultados. Esta
tarea podía tardar media hora en un proceso de datos medio.

Sistema de proceso de datos de las primeras redes


Con este sistema de cálculo centralizado, la interacción hombre-ordenador era nula. La
manera de compartir los recursos, pasaba por crear una red de estrella, en la que la Unidad
Central de Proceso, se conectara a través de la línea a los terminales de los usuarios. La
solución que se adoptó inicialmente, fue la de utilizar las líneas analógicas instaladas para
trasmitir voz; es decir las líneas telefónicas, que permitían también el envío de datos gracias a
un nuevo dispositivo que se denominó módem.
El módem era capaz de convertir los datos digitales del ordenador en formato
analógico para que pudieran ser enviados por la línea analógica telefónica; y a su vez, era
capaz de trasformar los datos analógicos que le llegaban al ordenador, a formato digital.
Por lo tanto, a través de la línea telefónica pública, los diversos usuarios podían en
tiempo real pedir acceso a la Unidad Central de Proceso para utilizar sus recursos. Surgían de
este modo los problemas comunes a la línea telefónica, como que en ese momento las líneas
estuvieran saturadas, que la trasmisión se cortara, que el servidor tuviera la línea ocupada...;
además de tener que acomodarse a la velocidad de trasmisión de datos, que permitía la línea.

Primeras conexiones a través de la red telefónica pública

El paso siguiente fue el de disponer de líneas analógicas, pagando un canon,
dedicadas para la trasmisión exclusiva de datos; además de las líneas analógicas para uso del
teléfono. Esta separación de interfaz entre la Unidad Central de Proceso y las líneas a las que
se conectan los terminales remotos, pone los cimientos del nacimiento del concepto de Front
End processor, es decir, del procesador que se conecta de manera frontal a los usuarios
remotos. Esta evolución hacia la modularización de la funcionalidad de la red, se
complementará con la llegada de las capas de la arquitectura. Desde este momento en
adelante, la funcionalidad de las comunicaciones, estarán siempre separadas de las funciones
del proceso de datos.
Una optimización sucesiva, se deberá al acceso a la red remota, que comenzará a ser
consideraba multiusuario. En la práctica, para aprovechar mejor tan costosas líneas de
comunicaciones, se introduce la posibilidad de conectar muchos terminales sobre una única
línea (multiplexing), que gestionada por un dispositivo conectado a la línea principal permite
que mediante un módem, todos los terminales puedan hacer uso de los recursos de proceso de
datos que ofrece la Unidad Central de Proceso.

Sistema multiusuario

Mediante estos sistemas, se realizaba una comunicación en la que a cada terminal le
correspondía un tiempo de uso de la red, lo necesitara o no. Es decir, cada terminal disponía
de un turno de uso de la red, lo que hacía que a veces unos usuarios intentaran utilizarla y no
pudieran, porque el turno lo tenía otro usuario, que a lo mejor incluso ni lo estaba usando.
Estas primeras redes sentaron las bases par creación de redes de carácter privado.
Por ejemplo, para proyectar una red que conectara la sede principal de un banco con sus
correspondientes filiales. Los primeros protocolos en línea, que gestionaban la conexión entre
la sede central, en la que residía el servidor central (maim-frame), y los diversos terminales
remotos, fueron sacados al mercado por la HDLC.
En este escenario, en el año 1968, en Estados Unidos, se pensó realizar una red con
estructura de tipo de malla, en vez de estrella, contando con unos nuevos dispositivos
denominados nodos de conmutación, conectados entre sí a modo de malla. Constituían las
centrales de tránsito de los grandes flujos de tráfico telefónico, que eran distribuidos a las
centrales, por ejemplo entre las telesecciones nacionales o internacionales, que gestionaban el
redireccionamiento de la información a las red periférica de estrella que contenían los
terminales. Esta fue sin duda, la idea que imperó en el sector de las redes, ya que se
aprovechaban de manera eficiente los recursos de la red. Es más, los recursos se asignaban
de manera dinámica a quien los necesitaba realmente, en vez de dedicarlos enteramente a un
solo usuario que a lo mejor no la estaba utilizando, a través de una red de comunicación
basada en el envío conmutado de paquetes. Además, según el tráfico real que existiera en la
red, las conversaciones iban, por un lugar o por otro, enrutadas oportunamente por los
caminos adecuados a través de unos nodos de comunicaciones u otros. Por lo tanto, el
encaminamiento o enrutamiento de los datos, se hacía también de manera dinámica.

Sistema de nodos de conmutación de paquetes

Durante esta época, el motor principal de la investigación de las redes, fue el
Ministerio de Defensa de los EEUU, que sintió la necesidad de tener a su disposición una red
privada fiable y segura para intercambiar información de carácter reservado, como es el caso
de la documentación militar. Uno de los proyectos fue el denominado ARPA (Advanced
Research Program Agency - Agencia del Programa de Investigaciones Avanzadas)
dependiente del DoD (United States Departement of Defence - Departamento de Defensa de
los EEUU), con una fuerte aportación financiera de la universidad, en particular de la de
Berckeley. Todas estas investigaciones dieron como origen en 1969 a la Red ARPANET, en la
que los enlaces de conexión dejaron de ser analógicos y los nodos de comunicación pasan a
ser denominados I.M.P. (Interface Message Processor). ARPANET es considerada el embrión
de Internet.
Esta iniciativa, sirvió de estímulo para la realización de un proyecto de red de carácter
científico, utilizando para ello como soporte la N.S.F. (National Scienze Foundation - Consejo
Nacional para la Investigación), que conectó diversos centros universitarios con la finalidad de
tenerlos intercomunicados. De esta manera, los grandes ordenadores de los centros de
investigación, se convirtieron en accesibles a todas aquellas universidades menores que
estaban conectadas a la red. Esta red, no solo hizo que esos grandes ordenadores fueran
mejor aprovechados y utilizados a distancia por diversos centros universitarios, sino que
además ahora, eran capaces de enviarse entre ellos mensajes de carácter personal, estando
ante la aparición del correo electrónico.
Como ya hemos apuntado antes, estamos ante los fundadores de Internet y ante su
inicio, en cuanto a los protocolos que sucesivamente han elaborado la historia de Internet,
nacieron en el ambiente de este proyecto. En general la topología de malla, pensada como
alternativa a la de estrella, estaba basada en la red telefónica, es decir, en la red de
conmutación de circuitos (circuit switching) y sobre la teoría de que no era necesario fijar un
camino para cada trasmisión de datos; es decir, en la red de comunicación de paquetes
(packet switching data Network).
Por lo tanto, el envío conmutado de paquetes consiste en que la información no se
envía dentro de la red de forma continua, sino dividida en pequeños paquetes de datos. De
esta manera, se consigue que la información se envíe más rápidamente, y se minimiza el
riesgo que presenta la interrupción de la comunicación por una ruta determinada, si se envía de
golpe. Además, se trata de una tecnología muy próxima a la manera en que funcionan los
propios ordenadores, que no trabajan con la información en un flujo continuo, sino en una serie
de pequeños impulsos. La información que sale de un ordenador se descompone, pues, en
pequeños paquetes que, para ser transmitidos, recorren caminos distintos dentro de la red y
que al llegar al ordenador de destino, se vuelven a unir.
Paralelamente en Europa, las diversas administraciones conscientes del desarrollo de
las red en Norteamérica, pensaron crear una red pública digital de topología de malla, en
vez de ser privada. En esta red, las líneas no eran ya analógicas y los nodos de comunicación
no desarrollaban una función de centrales telefónicas, sino que eran servidores que
gestionaban las comunicaciones, como en la red ARPA. Siendo la trasmisión digital, dejó de
ser necesaria la utilización del módem. Por otra parte, una red que proporcionaba un servicio
público debía cumplir estos dos requisitos:
• Igualdad.- Es decir, debe ser posible que todos los usuarios puedan utilizar los
   recursos de manera igualitaria. Esto no es un problema fácil de resolver, puesto que
   cuando se produce una congestión en la red, una parte de sus usuarios tiene que ser
   bloqueada, por lo que este criterio no puede ser seguido, ya que daría una mayor
   prioridad a unos usuarios que a otros.
• Además, es necesario tener en cuenta el factor de usuario que paga y que por lo tanto,
    tiene que garantizársele el acceso a los recursos por los que está pagando. Para
     ello, era necesario el uso de una serie de protocolos.

Década de los setenta

Nacía de esta manera, la preocupación de crear un reglamento que gestionara el
acceso de los usuarios, que sirviera tanto a las redes de carácter públicas como privadas. En
EEUU debido a la falta de una administración única, las reglas de interconexión entre usuarios
de la red privada fueron de diversos tipos, existiendo una amplía gama de protocolos. Sin
embargo, en Europa, teniendo en cuenta que el servicio de la red lo ofrecía una administración
pública, se vio la importancia de la creación de protocolos estándar. Se definieron a tal
respecto normas precisas para todos los usuarios de la red.
Los organismos de estandarización se pusieron a trabajar, entre ellos el CCITT (Comité
Consultivo Internacional de las Comunicaciones Telefónicas), que formado por delegados de
los ministerios de correos y telecomunicaciones, habían ya establecido las reglas para las
señales telefónicas entre el aparato del usuario y la central telefónica. De esta manera, se creó
la normativa, llamada raccomandations (recomendaciones), a las que el usuario se tenía que
atener para realizar el coloquio con los nodos de acceso a la red; nodos, que a su vez tenían
que mantener un coloquio con los nodos de trasmisión internos. En este momento, se
consolida como protocolo estándar para el acceso a los terminales de datos en las redes de
conmutación de paquetes, el X.25. En 1976 vio la luz la primera raccomandation de este
estándar, que marcó la llegada de las redes públicas extendidas y que se consolidó en 1980.
Junto a este proceso de estandarización de la manera de conexión, se hizo necesario
estandarizar los protocolos de gestión de la comunicación entre diversos servidores
conectados a la red. En efecto si un servidor quería acceder a otro remoto, se hacía necesaria
una interfaz común, es decir, un protocolo que permitiera crear una máscara que eliminara las
diferencias entre ambos usuarios. De esta manera, los dos servidores tenían la sensación de
trabajar con el mismo sistema local, a pesar de estar operando desde un sistema remoto.
Para efectuar estas operaciones, se hacía necesario el uso de unos protocolos
dedicados a la cooperación entre los sistemas heterogéneos con funciones de colaboración
remota entre usuarios, además de las funciones estrictamente de trasmisión. Esto hizo que se
diera vida al concepto de arquitectura de niveles, con funciones no solo de comunicación sino
también de cooperación. De ahí proviene la necesidad vital de estandarizar los protocolos a
través de organizaciones especiales para el uso y la construcción de sistemas heterogéneos,
sin dejar de lado la iniciativa de los gestores públicos. La organización más adecuada en aquel
momento fue ISO (International Standard Organization - Organismo Internacional de
Estándares), que creó el modelo OSI, que no es otra cosa que un proyecto de arquitectura a
modo de niveles.
En este sentido, en 1970 se crea el NCP (Network Control Protocol, Protocolo de
Control de Redes), que se utilizará durante los años setenta en Internet y que a partir de 1983
fue sustituido por otro, el protocolo TCP/IP (Transfer Control Protocol/Internet Protocol,
Protocolo de Control de Transferencias/Protocolo de Internet), que todavía hoy es el que
funciona en toda la red. De esta manera, se estandariza la comunicación entre las máquinas y
todos los ordenadores que se conecten, lo puedan hacer con garantías de que su
compatibilidad será total.
Contemporáneamente a la necesidad de compartir recursos, nacía una nueva
perspectiva para las redes, unida a la creación de ordenadores de mucho menor tamaño y con
un coste que comenzaba a ser asequible para las grandes empresas. Comenzó a pensarse en
la idea de proyectar un sistema de red fiable y segura, y que tuviera la capacidad de conectar
diversas máquinas en un área limitada (local). Una red con estas características era toda una
revolución y se basaba en el concepto de la “automatización de la oficina” o de la empresa
(office automation), en la que se pudieran integrar las oportunidades que la informática daba a
las empresas para automatizarse y a la posibilidad de compartir esos recursos.
Este nuevo concepto de red, al tener una cobertura limitada, permitió ofrecer una
trasmisión de datos casi simultánea, lo que permitía que los recursos se pudieran compartir con
una menor pérdida de tiempo, casi de manera inmediata, agilizándose los procesos de trabajo.
También se pudo aumentar la capacidad de trasmisión de datos por la red, que se ejecutaba
también de manera casi simultánea. De esta manera nacieron las Redes Locales (LAN Local
Area Networks – Red de Área Local).

Década de los ochenta

La topología de una LAN no era ni de malla ni de estrella, estaba basada en un canal
común a través del cual todos las máquinas podían conectarse. En la segunda mitad de los
años ochenta, la utilización del cable coaxial como medio de trasmisión y la afirmación de la
fibra óptica hicieron que estos sistemas de red tuvieran una capacidad de banda del orden de
Mbit/s. Como ejemplo, la red Token Ring de IBM era capaz de funcionar a 4 Mbit/s o a 16
Mbit/s según las características, pasando por los 10 Mbit/s del sistema Fast-Ethernet y las 100
Mbit/s del sistema Switch-Ethernet (Red Ethernet con cable coaxial nacida de la colaboración
de Xerox e Intel), en comparación a los 9600 bit/s y 48 kbit/s de las redes de mayor extensión
geográfica.
Todo esto significó la aparición de nuevos problemas unidos a la gestión de los flujos
de datos a alta velocidad, que se encontraba entorno a los Mbit/s. Se pensó por tanto en utilizar
las redes locales, nacidas para la trasmisión de datos, para transferir también comunicaciones
telefónicas de tipo digital según el modelo PCM (Pulse Code Modulation); técnica de
codificación numérica que, requiere para la trasferencia de un señal vocal, un medio con una
capacidad de por lo menos 64 Kbit/s. Esta era en definitiva, la frecuencia soportada por un
ancho de banda de las redes locales. De este modo, se desarrollaron dos estándares de
trasmisión vocal PCM, uno en EEUU y otro en Europa, que diferían en el modo en el que se
estructuraba la información codificada.
Nace de esta manera el concepto de red digital de servicios integrados ISDN
(Integrated Service Digital Networks), que se desarrolló a través de dos fases:

     - Integración de la tecnología.- Es lógico que si se quiere trasmitir juntos voz y datos,
en una red, no se podría hacer a no ser que se utilice una tecnología digital para la
trasmisión vocal.
     -Integración de los servicios.- Había que dar la posibilidad a los usuarios, a través de
un terminal multiservicio que trasmitiera datos, voz y si el ancho de la banda lo
permitiera, también información gráfica y vídeo.

De esta manera, a mediados de la década de los ochenta, después de trabajar en el
camino de la estandarización, se realizó la red pública ISDN, enteramente digital, que ponía a
disposición dos canales de datos a 64kbit/s (para trasmitir voz y datos) y un canal de control a
16 kbit/s.
Esquema del funcionamiento de la red pública ISDN

La red ISDN de esta generación, conocida también como N-ISDN (Narrowband ISDN –
ISDN de banda estrecha), resultó insuficiente con el tiempo con la llegada de las opciones
multimedia. Esta fue la razón por la que se proyectó la red B-ISDN (Broadband ISDN – ISDN
de banda ancha), que contaba con unos medios físicos de trasmisión con un ancho de banda
que iba desde los Kbit/s hasta los Mbit/s. De este modo, se hacía posible un ancho de banda
capaz de trasmitir vídeo, datos y voz. Como ejemplo, podemos decir que la red era en grado de
soportar comunicaciones con vídeo a alta resolución, que va más allá de la videoconferencia,
que ya se podía realizar con la N-ISDN.
Las redes ISDN se diferencian de las redes de conmutación de paquetes, en que los
terminales no solo están adaptados a la trasmisión de datos, que pueden ser también
terminales multifunción conectados a dispositivos conocidos como NTE (Network Terminator
Equipment - Dispositivo terminador de red), para desarrollar aplicaciones relativas a datos y
señales vocales a la vez.
Se planteaba ahora un dilema a los usuarios, que era cual de las tecnologías adoptar
de las que se encontraban en el mercado. Por otro lado, las empresas tecnológicas orientaban
su mercado para que las empresas usuarias de las redes se inclinaran hacia la banda ancha,
por razones obviamente económicas. Las empresas usuarias de las redes, tendieron como es
lógico por la alta velocidad que les permitía la trasmisión de información multimedia; pero no
solo para las redes locales, sino también para las redes extensas y las backbone o ejes
troncales, a través de la nueva tecnología de trasferencia de información y de comunicaciones
conocida como ATM Asynchronous transfer mode Modo de trasferencia asíncrona). La
tecnología ATM se basa en la trasmisión de la información en paquetes a alta velocidad,
llegando a los 155 Mbit\s; utilizando switch (conmutadores), que permitían una velocidad de
procesamiento más elevada que los viejos nodos de conmutación de paquetes; y usando los
primeros protocolos para redes con tipología de fibra. Todo esto ha dado un modo de realizar
las redes locales, redes extensas (WAN Wide Area Network – Red de Área Extensa) y redes
metropolitanas (MAN Metropolitan Area Network – Red de Área Metropolitana) de tipo ATM,
que crean un escenario que satisface las exigencias que requiere la tecnología multimedia y
garantizan la calidad del servicio de los usuarios.

Sistema de redes con tecnología ATM

De manera paralela, también en la segunda mitad de los años 80, otro factor fue la
globalización de la red; es decir, la interconexión global de los usuarios de manera que un
usuario que se encuentre en el puesto más remoto, sea posible conectarlo. Por lo tanto, para
conseguir la globalización era preciso que todas las redes de ámbito local estuvieran
conectadas entre sí, hasta conseguir lo que es Internet.
Por otro lado, al inicio de los años ochenta, nació la tecnología capaz de la realización
de la red Internet, cuyo objetivo fue comunicar, a bajo precio, la comunidad académico-
científica para la difusión de sus investigaciones. El bajo coste, se debió en parte al hecho de
que el que quisiera conectarse, en su propio laboratorio, se podía hacer su propio software y
ponerlo en la red a disposición de toda la comunidad. Por ello, no fue tampoco necesaria la
estandarización, debido a que se tomaba con estándar aquello que se usaba y funcionaba
correctamente; es decir, el estándar se convierte en un factor arbitrario (the factor) y no fijado a
priori (the engaged).

Década de los noventa

En el sector de la informática, existe un principio que dice que cuando se crea un nuevo
servicio, un protocolo o un software, al principio, los usuarios que lo utilizan son pocos y el
aumento de los mismos se hace de forma lineal; pero cuando el número crece, comienza a
hacer se forma porcentualmente desmesurada. Esto es lo que ha sucedido con Internet. El
fenómeno de Internet, como medio para enviar mensajes y para navegar por la red utilizando
un browser (buscador), de manera libre y a bajo precio, se ha convertido en un medio de
masas más extendido, que ha superado cualquier expectativa.
La tecnología ATM, usada para el proyecto de globalización, se ponía en
contraposición a Internet, que es una red de bajo coste que se gestiona sola. Internet se
gobierna a través de una serie de estándares que todos los usuarios tienen que seguir, pero
cada usuario es el que gestiona su parte; es decir, Internet se basa en el concepto de “ahí
tienes la red, ¡utilízala!”. Con Internet, los usuarios no pueden pretender conseguir una elevada
calidad de servicios.
Por ello, se trabajó para mejorar la calidad de servicio de Internet que no debía
convertirse en una red como la ATM; y por otro lado, al mismo tiempo, dejar a los usuarios que
quisieran usar ATM para trabajar con ella. Una filosofía de red que se utilizó, fue la IP over
ATM (IP - protocolo de red de Internet apoyada en la ATM), según la cual, se mantiene la
tecnología ATM como base, utilizando cableado de fibra y en un nivel superior el protocolo de
red de Internet. Esta solución garantizaba la calidad del servicio para aquellos que querían las
prestaciones de ATM.
Estas dos maneras de concebir la red, dio vida a diversas tendencias de pensamiento:
• Los técnicos en telecomunicaciones puros, se decantaban por la garantía de la
     calidad del servicio.
• Mientras tanto, los informáticos puros, afirmaban que en un mundo donde se
    estaban reduciendo los costes del hardware, el propio hardware era cada vez más
    potente y con una mayor capacidad, por lo que no se hacía necesario dejar la
    responsabilidad a la red; ya que las altas prestaciones del hardware podían compensar
    ciertas carencias de servicio que pudiera tener la red. Este fue el gran tema de
   discusión que hoy en día todavía impera.
Por otro lado, teniendo siempre en cuenta el punto de vista de la globalización se
comenzó a generar una preocupación por la movilidad de usuario, dándose vida así a los
sistemas wireless, es decir, comunicaciones inalámbricas. Han sido dos las propuestas, que
se han tenido en cuenta para conseguir que se convirtieran en una realidad las redes
inalámbricas:
• Una de naturaleza telefónica, que permitiera a los usuarios estar siempre accesibles.
• La otro, la posibilidad de renunciar al cableado, solución especialmente conveniente
   para cubrir grandes extensiones de terreno con baja densidad de población.
Está claro que estos dos aspecto de las redes inalámbricas están relacionados.
• Si para las comunicaciones telefónicas inalámbricas, inherentes a la posibilidad de
   mantener una comunicación en movimiento, es fundamental para la gestión de la red
   celular.
• Análogamente, las trasmisiones de datos inalámbricos, se encuentran unidos al hecho,
     de que un usuario pueda cambiar de un lugar a otro conectándose a la red a través de
      dos terminaciones de red fijos colocados en diversos lugares. Este concepto se basa
     en las conexiones de red y de trasmisión de datos, similar a las que se realizan con un
     ordenador portátil a la red de la oficina o a la de casa o en cualquier lugar en el que
     pueda establecer una conexión a la red.
Así, el usuario puede estar desconectado y conectado en cualquier momento a la red,
que deberá automáticamente reconfigurarse, permitiéndole estar disponible y comunicarse con
cualquiera, en cualquier lugar y a cualquier hora. Obviamente, la red reconocerá al usuario a
través de su identificador de red, que es para los sistemas celulares el número del teléfono
móvil y para los sistemas de trasmisión de datos la dirección del usuario, independientemente
de la dirección física donde ha conectado su ordenador portátil.
Está claro que realizar una red que soporte tráfico multimedia con capacidad para
albergar terminales móviles, conlleva numerosos problemas, unidos sobre todo a hecho de que
la interfaz aérea está sometida a fenómenos de interferencia o fading (variaciones a medio y
largo plazo de las características de propagación del medio, que determina distorsiones e
interferencias). Además, presenta una banda muy limitada respecto a aquellas comunicaciones
realizadas a través de cables coaxiales o fibra óptica.
Junto a este panorama, comienza a surgir el concepto de oficina virtual y el de
despacho móvil, como por ejemplo el hombre de negocios que trabaja a través de una
estación base, que reside en su medio de trasporte.
Por todos estos motivos, los sistemas inalámbricos están destinados a convertirse en el
frente de investigación y continua expansión.
Resumiendo, podemos afirmar que las tres fuerzas dinámicas en la tecnología actual
de las redes son la capacidad multimedia, la globalización y la gestión de las redes
inalámbricas.










Read More