miércoles, 4 de noviembre de 2009

Segunda clase: 04-11-2009 Primera asignación - Exposiciones (Parte I)

Presentación 1: La red (Primera asignación)
(Exposición de Alejandra Hernández)

La aparición y expansión de Internet por todo el globo terráqueo ha supuesto, sin lugar a dudas, una revolución sin precedentes en el mundo de la informática y de las comunicaciones.

Desde su creación, la “red de redes” o “autopista de la información”, como suele llamársele comúnmente, se ha convertido en importante objeto de estudio dada su influencia en los distintos ámbitos de la vida social. De allí la inquietud por conocer su historia, estructura funcionamiento y utilidad dentro del contexto de la sociedad tecnológica y globalizada de hoy día.

Pero antes de referirnos a Internet y sus orígenes es necesario saber lo qué es una red, cómo funciona y cuál es su estructura.


Definición de red
Según el Diccionario de la Real Academia Española (DRAE), una red es un “conjunto de elementos organizados para determinado fin”. Si partimos de esta base y encuadramos este concepto en el ámbito de la tecnología de las comunicaciones, podremos afirmar que red es una conexión de equipos (computadoras u ordenadores) que se enlazan entre sí a través de un material conductor (cable coaxial, fibra óptica) o por vía inalámbrica (bridge o router) y un lenguaje especial de comunicación con el fin de transmitir datos (texto, imagen, audio y video, entre otros).

Funcionamiento de una red
Pero ¿cómo funciona una red? Una forma fácil de responder esta interrogante es comparando su funcionamiento con el de un servicio de correos.

Se puede pensar por un momento en el servicio de correos. Cuando alguien desea mandar una carta a otra persona, la escribe, la mete en un sobre con el formato impuesto por correos, le pone un sello y la introduce en un buzón; la carta es recogida por el cartero, clasificada por el personal de correos, según su destino y enviada a través de medios de transporte hacia la ciudad destino; una vez allí otro cartero irá a llevarla a la dirección indicada en el sobre; si la dirección no existe, al cabo del tiempo la carta devolverá al origen por los mismos cauces que llegó al supuesto destino.

Más o menos, ésta es la forma en que funciona una red: la carta escrita es la información que se quiere transmitir; el sobre y sello es el paquete con el formato impuesto por el protocolo que se utiliza en la transmisión; la dirección del destinatario es la dirección del nodo destino y la dirección del remitente, será la dirección del nodo origen, los medios de transporte que llevan la carta cerca del destino es el medio de transmisión (cable coaxial, fibra óptica …); las normas del servicio de correos, carteros y demás personal son los protocolos de comunicaciones establecidos.


Estructura de una red
Los componentes básicos de una red son:
  • Los ordenadores
  • Los medios de transmisión
  • Las tarjeta de red
  • Los servidores
  • El protocolo

Clasificación de una red

1. Por el acceso:
  • Red pública
  • Red privada
2. Por el alcance:
  • Red de área personal (PAN)
  • Red de área local (LAN)
  • Red de área de campus (CAN)
  • Red de área metropolitana (MAN)
  • Red de área amplia (WAN)
3. Por el método de conexión:
  • Medios guiados o medios físicos: cable coaxial, cable de par trenzado, fibra óptica y otros tipos de cables.
  • Medios no guiados o inalámbricos: radio, infrarrojos, microondas, láser y otros sistemas inalámbricos.
4. Por la relación funcional:
  • Cliente-servidor
  • Igual-a-Igual (p2p)
5. Por la direccionalidad de los datos: Tipos de transmisión
  • Simplex (unidireccionales)
  • Half-Duplex (bidireccionales, pero uno a la vez)
  • Full-Duplex (bidireccionales, al mismo tiempo)
6. Por la arquitectura de la red: Topología o formas de conexión
  • Red de bus
  • Red de anillo
  • Red de estrella
  • Red Mixta (cualquier combinación de las anteriores) 

Presentación 2: Orígenes de Internet
(Exposición de Angie Contreras, Aihana Figueroa y Nabor Ruíz)

Concepto de Internet
Según el DRAE, Internet es una “red informática mundial, descentralizada, formada por la conexión directa entre computadoras u ordenadores mediante un protocolo especial de comunicación”.

"Internet hace referencia a un sistema global de información que (1) está relacionado lógicamente por un único espacio de direcciones global basado en el protocolo de Internet (IP) o en sus extensiones, (2) es capaz de soportar comunicaciones usando el conjunto de protocolos TCP/IP o sus extensiones u otros protocolos compatibles con IP, y (3) emplea, provee, o hace accesible, privada o públicamente, servicios de alto nivel en capas de comunicaciones y otras infraestructuras relacionadas aquí descritas". (Definición según la Asociación de Técnicos en Informática de España (AIT) y el Consejo Federal de Trabajo en Red (Federal Networking Council).

Historia de Internet

Los inicio de Internet nos remontan a los años 60. En plena guerra fría, Estados Unidos crea una red exclusivamente militar, con el objetivo de que, en el hipotético caso de un ataque ruso, se pudiera tener acceso a la información militar desde cualquier punto del país.


Esta red se creó en 1969 y se llamó ARPANET. En principio, la red contaba con 4 ordenadores distribuidos entre distintas universidades del país. Dos años después, ya contaba con unos 40 ordenadores conectados. Tanto fue el crecimiento de la red que su sistema de comunicación se quedó obsoleto. Entonces dos investigadores crearon el Protocolo TCP/IP, que se convirtió en el estándar de comunicaciones dentro de las redes informáticas (actualmente seguimos utilizando dicho protocolo).

ARPANET siguió creciendo y abriéndose al mundo, y cualquier persona con fines académicos o de investigación podía tener acceso a la red.

Las funciones militares se desligaron de ARPANET y fueron a parar a MILNET, una nueva red creada por los Estados Unidos.

La NSF (National Science Fundation) crea su propia red informática llamada NSFNET, que más tarde absorbe a ARPANET, creando así una gran red con propósitos científicos y académicos.

El desarrollo de las redes fue abismal, y se crean nuevas redes de libre acceso que más tarde se unen a NSFNET, formando el embrión de lo que hoy conocemos como INTERNET.

En 1985 la Internet ya era una tecnología establecida, aunque conocida por unos pocos.

El autor William Gibson hizo una revelación: el término "ciberespacio".

En ese tiempo la red era basicamente textual, así que el autor se baso en los videojuegos. Con el tiempo la palabra "ciberespacio" terminó por ser sinonimo de Internet.

El desarrollo de NSFNET fue tal que hacia el año 1990 ya contaba con alrededor de 100.000 servidores.

En el Centro Europeo de Investigaciones Nucleares (CERN), Tim Berners Lee dirigía la búsqueda de un sistema de almacenamiento y recuperación de datos. Berners Lee retomó la idea de Ted Nelson (un proyecto llamado "Xanadú" ) de usar hipervínculos. Robert Caillau quien cooperó con el proyecto, cuanta que en 1990 deciden ponerle un nombre al sistema y lo llamarón World Wide Web (WWW) o telaraña mundial.

La nueva formula permitía vincular información en forma lógica y através de las redes. El contenido se programaba en un lenguaje de hipertexto con "etíquetas" que asignaban una función a cada parte del contenido. Luego, un programa de computación, un intérprete, eran capaz de leer esas etiquetas para despeglar la información. Ese interprete sería conocido como "navegador" o "browser".

En 1993 Marc Andreesen produjo la primera versión del navegador "Mosaic", que permitió acceder con mayor naturalidad a la WWW.

La interfaz gráfica iba más allá de lo previsto y la facilidad con la que podía manejarse el programa abría la red a los legos. Poco después Andreesen encabezó la creación del programa Netscape.

Apartir de entonces Internet comenzó a crecer más rápido que otro medio de comunicación, convirtiendose en lo que hoy todos conocemos.

Algunos de los servicios disponibles en Internet aparte de la WEB son el acceso remoto a otras máquinas (SSH y telnet), transferencia de archivos (FTP), correo electrónico (SMTP), conversaciones en línea (IMSN MESSENGER, ICQ, YIM, AOL, jabber), transmisión de archivos (P2P, P2M, descarga directa), etc.




Presentación 3: Concepto cliente-servidor
(Exposición de Esther Gómez)

Cliente

El cliente es una aplicación que se utiliza para acceder a los servicios que ofrece un servidor. Se carcateriza por:
  • Es quien inicia solicitudes o peticiones, tienen por tanto un papel activo en la comunicación.
  • Espera y recibe las respuestas del servidor.
  • Puede conectarse a varios servidores a la vez.
  • Interactúa directamente con los usuarios finales mediante una interfaz gráfica de usuario.
Servidor

El servidor es un proceso que entrega información y provee servicios a computadoras que están conectadas en red. Se caracterizan por:
  • Desempeñan un papel pasivo en la comunicación.
  • Tras la recepción de una solicitud, la procesan y luego envían la respuesta al cliente.
  • Aceptan conexiones desde un gran número de clientes.
  • No es frecuente que interactúen directamente con los usuarios finales.
Modelo cliente-servidor


Arquitectura cliente-servidor

La arquitectura cliente-servidor consiste básicamente en un cliente que realiza peticiones a otro programa (el servidor) que le da respuesta. Aunque esta idea se puede aplicar a programas que se ejecutan sobre una sola computadora es más ventajosa en un sistema operativo multiusuario distribuido a través de una red de computadoras.

En esta arquitectura la capacidad de proceso está repartida entre los clientes y los servidores, aunque son más importantes las ventajas de tipo organizativo debidas a la centralización de la gestión de la información y la separación de responsabilidades, lo que facilita y clarifica el diseño del sistema.

La separación entre cliente y servidor es una separación de tipo lógico, donde el servidor no se ejecuta necesariamente sobre una sola máquina ni es necesariamente un sólo programa. Los tipos específicos de servidores incluyen los servidores web, los servidores de archivo, los servidores del correo, etc. Mientras que sus propósitos varían de unos servicios a otros, la arquitectura básica seguirá siendo la misma.

Una disposición muy común son los sistemas multicapa en los que el servidor se descompone en diferentes programas que pueden ser ejecutados por diferentes computadoras aumentando así el grado de distribución del sistema.

La arquitectura cliente-servidor sustituye a la arquitectura monolítica en la que no hay distribución, tanto a nivel físico como a nivel lógico.

Presentación 4: Sistemas abiertos y cerrados
(Exposición de Ocarina Espinoza y Alfredo Pimentel)

Sistemas abiertos

Los sistemas abiertos son aquellos sistemas informáticos que proporcionan alguna combinación de interoperabilidad, portabilidad y uso de estándares abiertos.

El término surgió a finales de los años 1970 y principios de los 1980, principalmente para describir los sistemas basados en Unix, especialmente en contraste con los más afianzados mainframes y minicomputadoras de la época.

A diferencia de los antiguos sistemas heredados, la nueva generación de sistemas Unix incluía unas interfaces de programación e interconexiones periféricas estandarizadas, animándose así al desarrollo de hardware y software por parte de terceros, una importante divergencia respecto a la norma de época, que vio a compañía como Amdahl e Hitachi reclamando ante la justicia el derecho a vender sistemas y periféricos compatibles con los mainframes de IBM.

Se dice que la definición de sistema abierto se hizo más formal en los años 1990 con el auge de los estándares de software administrados independientemente como la Single UNIX Specification de The Open Group.

Aunque los usuarios actuales están habituados a cierto grado de interoperatibilidad hardware y software, antes del año 2000 los sistemas abiertos fueron promocionados por los vendedores de Unix como una importante ventaja competitiva. IBM y otras compañías se resistieron a esta tendencia durante décadas, algo que puede ejemplificarse por el ya famoso aviso de un ejecutivo de IBM en 1991 sobre que uno debía «tener cuidado con quedar encerrado en los sistemas abiertos».

Sin embargo, a principios del siglo XXI muchos de estos mismos vendedores de sistemas heredados, particularmente IBM y Hewlett-Packard, comenzaron a adoptar Linux como parte de su estrategia de ventas global, comercializando el «código abierto» como triunfo sobre el sistema abierto.

De esta forma un mainframe IBM con el sistema operativo zLinux se comercializa como un sistema más abierto que servidores usando Microsoft Windows (código cerrado) e incluso que los que usan Unix, a pesar de un origen como sistema abierto. Como respuesta, más compañías están abriendo el código fuente de sus productos, siendo un ejemplo notable Sun Microsystems y su creación de los proyectos Openoffice.org y OpenSolaris a partir de sus productos de código cerrado Star Office y Solaris.


Sistemas cerrados o propietarios

Un sistema cerrado es aquel que sólo puede ser utilizado por un único usuario o por un reducido número de usuarios, porque su fabricación no es compatible con otros sistemas y no permite utilizar productos de otras marcas. También se le conoce con el nombre de sistema propietario.

Antes de que se suscitaran los procesos de estandarización de los equipos informáticos y la popularización de la World Wide Web, los sistemas existentes eran cerrados.

El caso más emblemático de este tipo de sistemas es ARPANET, creada en 1969, en el Departamento de Defensa de Estados Unidos como un experimento para unir en red a los ordenadores de los centros de investigación tanto a nivel militar como educacional. Las computadoras en red no emitían mensajes que pudieran ser de alguna manera “descifrados” por equipos similares, hacía falta la estandarización.

Presentación 5: El modelo de referencia de interconexión de sistemas abiertos (OSI)
(Exposición de Isaías Blanco)

El Modelo de Referencia de Interconexión de Sistemas Abiertos, conocido mundialmente como Modelo OSI (Open System Interconnection), fue creado por la ISO (Organizacion Estandar Internacional) y en él "pueden modelarse o referenciarse diversos dispositivos que reglamenta la ITU (Unión de Telecomunicación Internacional), con el fin de poner orden entre todos los sistemas y componentes requeridos en la transmisión de datos, además de simplificar la interrelación entre fabricantes", según se explica en la página de Telecomunicaciones de la Facultad de Ingeniería de Sistemas Informática y Ciencias de la Computación de la Universidad Francisco Marroquín.

Así, todo dispositivo de cómputo y telecomunicaciones podrá ser referenciado al modelo y por ende concebido como parte de un sistemas interdependiente con características muy precisas en cada nivel.

Esta idea da la pauta para comprender que el modelo OSI existe potencialmente en todo sistema de cómputo y telecomunicaciones, pero que sólo cobra importancia al momento de concebir o llevar a cabo la transmisión de datos.

El modelo OSI cuenta con 7 capas o niveles a saber:


En otras palabras, el modelo OSI es una norma universal para protocolos de comunicación lanzado en 1984, que proporciona a los fabricantes estándares que aseguran mayor compatibilidad e interoperatibilidad entre distintas tecnologías de red producidas a mundialmente.

A principios de la década de 1980 hubo un gran crecimiento en cantidad y tamaño de redes, especialmente por parte de empresas. A mediados de la década se comenzaron a notar los inconvenientes de este gran crecimiento. Las redes tenían problemas para comunicarse entre sí por las diferentes implementaciones que tenía cada empresa desarrolladora de tecnologías de red.

Para resolver este problema de incompatibilidades entre redes, la ISO produjo un conjunto de reglas y normas aplicables en forma general a todas las redes. El resultado fue un modelo de red que ayuda a fabricantes y empresas a crear redes compatibles entre sí.

Este esquema fue utilizado para crear numerosos protocolos. Con el tiempo comenzaron a llegar protocolos más flexibles, donde cada capa no estaba tan diferenciada y por lo tanto no estaba claro el nivel OSI al que correspondían. Esto hizo que este esquema se ponga en segundo plano. Sin embargo sigue siendo muy utilizado en la enseñanza en universidades y cursos de redes, especialmente para mostrar cómo pueden estructurarse los protocolos de comunicaciones en forma de pila, aunque no se corresponda demasiado con la realidad.



No hay comentarios:

Publicar un comentario