Historia de la web

13
Historia de la Web La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners- Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web. En marzo de 1989, Tim Berners Lee, ya como personal de la divisón DD del CERN, redacta la propuesta,2 que referenciaba a ENQUIRE y describía un sistema de gestión de información más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas referencias iniciales utilizándose para tal efecto el término mesh. Sin embargo, el World Wide Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal para la world wide web3 el 12 de noviembre de 1990. Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también escribió el primer navegador web, WorldWideWeb en 1990. En las Navidades del mismo año, Berners-Lee había creado todas las herramientas necesarias para que una web funcionase:4 el primer navegador web (el cual también era un editor web), el primer servidor web y las primeras páginas web5 que al mismo tiempo describían el proyecto. El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al newsgroup6 alt.hypertext. Esta fecha también señala el debut de la web como un servicio disponible públicamente en Internet. El concepto, subyacente y crucial, del hipertexto tiene sus orígenes

description

 

Transcript of Historia de la web

Page 1: Historia de la web

Historia de la Web

La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40

sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una

interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes

determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano

teórico bajo el nombre de Memex. Es en los años 50 cuando Ted Nelson realiza la primera

referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no

es hasta 1980, con un soporte operativo tecnológico para la distribución de información en

redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a

Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se

materializa la realización práctica de este concepto de incipientes nociones de la Web.

En marzo de 1989, Tim Berners Lee, ya como personal de la divisón DD del CERN, redacta la

propuesta,2 que referenciaba a ENQUIRE y describía un sistema de gestión de información

más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas

referencias iniciales utilizándose para tal efecto el término mesh. Sin embargo, el World Wide

Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal

para la world wide web3 el 12 de noviembre de 1990.

Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también escribió el

primer navegador web, WorldWideWeb en 1990. En las Navidades del mismo año, Berners-Lee

había creado todas las herramientas necesarias para que una web funcionase:4 el primer

navegador web (el cual también era un editor web), el primer servidor web y las primeras

páginas web5 que al mismo tiempo describían el proyecto.

El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al

newsgroup6 alt.hypertext. Esta fecha también señala el debut de la web como un servicio

disponible públicamente en Internet.

El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la

década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de

Douglas Engelbart. Los dos, Nelson y Engelbart, estaban a su vez inspirados por el ya citado

sistema basado en microfilm "memex", de Vannevar Bush.

El gran avance de Berners-Lee fue unir hipertexto e Internet. En su libro Weaving the Web (en

castellano, Tejiendo la Red), explica que él había sugerido repetidamente que la unión entre las

dos tecnologías era posible para miembros de las dos comunidades tecnológicas, pero como

nadie aceptó su invitación, decidió, finalmente, hacer frente al proyecto él mismo. En el

proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y

Page 2: Historia de la web

también: el Uniform Resource Identifier.

World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que estaban

disponibles en aquel momento:

WWW sólo requería enlaces unidireccionales en vez de los bidireccionales. Esto hacía

posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del

propietario de ese recurso. Con ello se reducía significativamente la dificultad de

implementar servidores web y navegadores (en comparación con los sistemas

anteriores), pero en cambio presentaba el problema crónico de los enlaces rotos.

A diferencia de sus predecesores, como HyperCard, World Wide Web era no-

propietario, haciendo posible desarrollar servidores y clientes independientemente y

añadir extensiones sin restricciones de licencia.

El 30 de abril de 1993, el CERN anunció7 que la web sería gratuita para todos, sin

ningún tipo de honorarios.

ViolaWWW fue un navegador bastante popular en los comienzos de la web que estaba basado

en el concepto de la herramienta hipertextual de software de Mac denominada HyperCard. Sin

embargo, los investigadores generalmente están de acuerdo en que el punto de inflexión de la

World Wide Web comenzó con la introducción8 del navegador9 web Mosaic en 1993, un

navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en

Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. Funding para Mosaic vino del

High-Performance Computing and Communications Initiative, un programa de fondos iniciado

por el entonces gobernador Al Gore High Performance Computing and Communication Act of

1991, también conocida como la Gore Bill.10 Antes del lanzamiento de Mosaic, las páginas

web no integraban un amplio entorno gráfico y su popularidad fue menor que otros protocolos

anteriores ya en uso sobre Internet, como el protocolo Gopher y WAIS. El interfaz gráfico de

usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más popular de

una manera fulgurante.

Este NeXTcube usado por Berners-Lee en el CERN se convirtió en el primer servidor web.

Page 3: Historia de la web

Definición de la Web

La palabra web (del inglés: red, malla, telaraña) puede referirse a:

La Web (con el determinante "La"), el sistema de documentos (o webs) interconectados por

enlaces de hypertexto, disponibles en Internet

Una página web: documento o fuente de información, generalmente en formato HTML y que

puede contener hiperenlaces a otras páginas web. Dicha página web, podrá ser accesible

desde un dispositivo físico, una intranet, o Internet.

Un sitio web, o red informática (en inglés: «website»), que es un conjunto de páginas web,

típicamente comunes a un dominio o subdominio en la World Wide Web en Internet.

Un servidor web, un programa que implementa el protocolo HTTP (hypertext transfer protocol)

para transferir lo que llamamos hipertextos, páginas web o páginas HTML (hypertext markup

language).

También se le da este nombre, al ordenador que ejecuta este programa.

Web 2.0, término acuñado por Tim O'Reilly en 2004 para referirse a una segunda generación

de Web basada en comunidades de usuarios y una gama especial de servicios, como las redes

sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio

ágil de información entre los usuarios.

Web 3.0, El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey

Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un

debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.

La Web y su Funcionamiento.

En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.

La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica.

Page 4: Historia de la web

La visualización de una página web de la World Wide Web normalmente comienza tecleando la URL de la página en el navegador web, o siguiendo un enlace de hipertexto a esa página o recurso. En ese momento el navegador comienza una serie de comunicaciones, transparentes para el usuario, para obtener los datos de la página y visualizarla. El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.

El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar. Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.

La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web. Esta colección de recursos útiles y relacionados, interconectados a través de enlaces de hipertexto, es lo que ha sido denominado como 'red' (web, en inglés) de información. Al trasladar esta idea a Internet, se creó lo que Tim Berners-Lee llamó WorldWideWeb (un término escrito en CamelCase, posteriormente desechado) en 1990.1

Si un usuario accede de nuevo a una página después de un pequeño intervalo, es probable que no se vuelvan a recuperar los datos del servidor web de la forma en que se explicó en el apartado anterior. Por defecto, los navegadores almacenan en una caché del disco duro local todos los recursos web a los que el usuario va accediendo. El navegador enviará una petición HTTP sólo si la página ha sido actualizada desde la última carga, en otro caso, la versión almacenada se reutilizará en el paso de renderizado para agilizar la visualización de la página.

Esto es particularmente importante para reducir la cantidad de tráfico web en Internet. La decisión sobre la caducidad de la página se hace de forma independiente para cada recurso (imagen, hoja de estilo, ficheros JavaScript, etc, además de para el propio código HTML). Sin embargo en sitios de contenido muy dinámico, muchos de los recursos básicos sólo se envían una vez por sesión. A los diseñadores de sitios web les interesa reunir todo el código CSS y JavaScript en unos pocos ficheros asociados a todo el sitio web, de forma que pueden ser descargados en las cachés de los usuarios y reducir así el tiempo de carga de las páginas y las peticiones al servidor. Hay otros componentes de Internet que pueden almacenar contenido Web. El más común en la práctica son los frecuentes firewalls de empresa y académicos donde se pueden almacenar los recursos web solicitados por un usuario para el beneficio de todos los que estén conectados a ese firewall. Algunos buscadores como Google, Yahoo!, GlowBoom o AltaVista también almacenan contenidos de sitios Web.

Aparte de las utilidades creadas en los servidores Web que pueden determinar cuándo los ficheros físicos han sido actualizados, los diseñadores de páginas web generadas dinámicamente pueden controlar las cabeceras HTTP enviadas a los usuarios, de forma que las páginas intermedias o sensibles a problemas de seguridad no sean guardadas en caché. Por ejemplo, en los bancos on line y las páginas de noticias se utiliza frecuentemente este sistema. Esto nos ayuda a comprender la diferencia entre los verbos HTTP 'GET' y 'POST' - los datos

Page 5: Historia de la web

solicitados con GET pueden ser almacenados en la caché, si se cumplen las otras condiciones, mientras que con los datos obtenidos después de enviar información al servidor con POST normalmente no se puede.

Semántica de la Web y sus Componentes.

La Web semántica (del inglés semantic web) es la "Web de los datos".1 Se basa en la idea de

añadir metadatos semánticos y ontológicos a la World Wide Web. Esas informaciones

adicionales —que describen el contenido, el significado y la relación de los datos— se deben

proporcionar de manera formal, para que así sea posible evaluarlas automáticamente por

máquinas de procesamiento. El objetivo es mejorar Internet ampliando la interoperabilidad

entre los sistemas informáticos y reducir la necesaria mediación de operadores humanos.

El precursor de la idea, Tim Berners-Lee, intentó desde el principio incluir informacion

semántica en su creación, la World Wide Web, pero por diferentes causas no fue posible.2 Por

ese motivo introdujo el concepto de semántica con la intención de recuperar dicha omisión.

Los principales componentes de la Web Semántica son los metalenguajes y los estándares de

representación XML, XML Schema, RDF, RDF Schema y OWL. La OWL Web Ontology

Language Overview describe la función y relación de cada uno de estos componentes de la

Web Semántica:

XML aporta la sintaxis superficial para los documentos estructurados, pero sin dotarles

de ninguna restricción sobre el significado.

XML Schema es un lenguaje para definir la estructura de los documentos XML.

RDF es un modelo de datos para los recursos y las relaciones que se puedan

establecer entre ellos. Aporta una semántica básica para este modelo de datos que

puede representarse mediante XML.

RDF Schema es un vocabulario para describir las propiedades y las clases de los

recursos RDF, con una semántica para establecer jerarquías de generalización entre

dichas propiedades y clases.

OWL añade más vocabulario para describir propiedades y clases: tales como

relaciones entre clases (p.ej. disyunción), cardinalidad (por ejemplo "únicamente uno"),

igualdad, tipologías de propiedades más complejas, caracterización de propiedades

(por ejemplo simetría) o clases enumeradas. La usabilidad y aprovechamiento de la

Web y sus recursos interconectados puede aumentar con la web semántica gracias a:

Los documentos etiquetados con información semántica (compárese ésta con la

etiqueta de HTML, usada para facilitar el trabajo de los robots). Se pretende que esta

Page 6: Historia de la web

información sea interpretada por el ordenador con una capacidad comparable a la del

lector humano. El etiquetado puede incluir metadatos descriptivos de otros aspectos

documentales o protocolarios.

Vocabularios comunes de metadatos (Ontología (Informática)) y mapas entre

vocabularios que permitan a quienes elaboran los documentos disponer de nociones

claras sobre cómo deben etiquetarlos para que los agentes automáticos puedan usar la

información contenida en los metadatos (p.ej. el metadato author tenga el significado

de "autor de la página" y no el del "autor del objeto descrito en la página").

Agentes automáticos que realicen tareas para los usuarios de estos metadatos de la

Web Semántica

Servicios Web (a menudo con agentes propios) que provean de información a los

agentes (por ejemplo un servicio de garantías a quien un agente pudiera consultar

sobre si un comercio electrónico tiene un historial de mal servicio o de generar correo

basura).

Los proveedores primarios de esta tecnología son las URIs que identifican los recursos

junto con XML y los namespaces. Si a esto se añade un poco de lógica, mediante una

RDF, u otras tecnologías como los mapas temáticos y algo de razonamiento basado en

técnicas de inteligencia artificial, Internet podría estar cerca de alcanzar las

aspiraciones iniciales de su inventor, Tim Berners-Lee.

El Ingeniero Web

Un ingeniero web no es un tipo que se la pasa programando en php.Un diseñador web

no se encarga de la información y las etiquetas que debe llevar un sitio web.Un

programador web no está interesado en los colores de la web y pocas veces se

preocupa por la seguridad.Un diagramador web siempre piensa en colores, pero pocas

veces se preocupa del código.

En este mundo creciente hacia la web 2.0 donde las comunidades juegan un papel

importante y además las formas de comunicación van cambiando día a día, la

Page 7: Historia de la web

profesión de Ingeniero Web se hace más importante y toma más peso a nivel mundial.

Sin embargo, a veces se confunde un poco el término Ingeniero Web con el de

Diseñador Web. Puede que una persona tenga los dos perfiles y estén ampliamente

ligados, pero son cosas diferentes.El Ingeniero Web se encarga de proyectar hacia el

mundo la visión corporativa de la empresa teniendo en cuenta factores como

Usabilidad y Accesibilidad, es decir que el portal sea fácil de usar e intuitivo, y

accesible tanto para diferentes dispositivos y navegadores como personas

discapacitadas. Por otro lado, debe manejar las estratégias para aumentar el

pocicionamiento en internet y aparecer de primero en los motores de búsqueda.

También el ingeniero Web analisa el mercado y los posibles visitantes de su sitio web

para establecer la estrategia a seguir para capturar su atención. La seguridad del sitio

web sus controles también están bajo el mando del Ingeniero Web.

El Diseñador Web no solo debe tener en cuenta la Usabilidad y Accesibilidad, sino que

además basado en los estudios de mercado y clientes/visitantes potenciales, debe

establecer un diseño atractivo tanto en ubicación de secciones como en colores.

Además el diseñador web es quien direcciona el trabajo del Diagramador web.

El Programador web poco se interesa por los usuarios, por los colores, por el mercado.

El programador web solo se interesa en hacer que un proceso funcione de X manera

(son felices y aman su trabajo cuando todo sale como quieren), de acuerdo con los

requerimientos realizados por el Ingeniero Web. Sin programadores no existirían sitios

web, pero desde mi punto de vista los programadores pocas veces tienen una visión de

ingeniero, aunque algunos comienzan como programadores web y evolucionan hacia

ingenieros web.

El Diagramador es aquel que siguiendo los patrones establecidos por el Ingeniero o el

Diseñador, es capaz de ponerle colores a casi cualquier cosa, incuso desde Paint

brush. Si se le dice ‘Necesito una viñeta roja’, la hace porque es su trabajo y lo adora.

El diagramador poco se interesa por la programación o por los estudios de mercado.

El Ingeniero Web es el responsable de la eficacia de un portal en internet. Lo

acompaña un equipo multidisciplinario para el desarrollo de proyectos web y tiene que

conocer casi de todo, por lo cual puede que evolucione desde otros niveles a Ingeniero

Web.

La Web como Servicio.

Un servicio web (en inglés, Web service) es un conjunto de protocolos y estándares que sirven

para intercambiar datos entre aplicaciones. Distintas aplicaciones de software desarrolladas en

lenguajes de programación diferentes, y ejecutadas sobre cualquier plataforma, pueden utilizar

Page 8: Historia de la web

los servicios web para intercambiar datos en redes de ordenadores como Internet.

La interoperabilidad se consigue mediante la adopción de estándares abiertos. Las

organizaciones OASIS y W3C son los comités responsables de la arquitectura y

reglamentación de los servicios Web. Para mejorar la interoperabilidad entre distintas

implementaciones de servicios Web se ha creado el organismo WS-I, encargado de desarrollar

diversos perfiles para definir de manera más exhaustiva estos estándares.

Estándares empleados por la Web:

Web Services Protocol Stack: Así se denomina al conjunto de servicios y protocolos de los

servicios Web.

XML (Extensible Markup Language): Es el formato estándar para los datos que se

vayan a intercambiar.

SOAP (Simple Object Access Protocol) o XML-RPC (XML Remote Procedure Call):

Protocolos sobre los que se establece el intercambio.

Otros protocolos: los datos en XML también pueden enviarse de una aplicación a otra

mediante protocolos normales como HTTP (Hypertext Transfer Protocol), FTP (File

Transfer Protocol), o SMTP (Simple Mail Transfer Protocol).

WSDL (Web Services Description Language): Es el lenguaje de la interfaz pública para

los servicios Web. Es una descripción basada en XML de los requisitos funcionales

necesarios para establecer una comunicación con los servicios Web.

UDDI (Universal Description, Discovery and Integration): Protocolo para publicar la

información de los servicios Web. Permite comprobar qué servicios web están

disponibles.

WS-Security (Web Service Security): Protocolo de seguridad aceptado como estándar

por OASIS (Organization for the Advancement of Structured Information Standards).

Garantiza la autenticación de los actores y la confidencialidad de los mensajes

enviados.

Ventajas de los servicios Web :

Aportan interoperabilidad entre aplicaciones de software independientemente de sus

propiedades o de las plataformas sobre las que se instalen.

Los servicios Web fomentan los estándares y protocolos basados en texto, que hacen

más fácil acceder a su contenido y entender su funcionamiento.

Page 9: Historia de la web

Al apoyarse en HTTP, los servicios Web pueden aprovecharse de los sistemas de

seguridad firewall sin necesidad de cambiar las reglas de filtrado.

Permiten que servicios y software de diferentes compañías ubicadas en diferentes

lugares geográficos puedan ser combinados fácilmente para proveer servicios

integrados.

Permiten la interoperabilidad entre plataformas de distintos fabricantes por medio de

protocolos estándar y abiertos. Las especificaciones son gestionadas por una

organización abierta, la W3C, por tanto no hay secretismos por intereses particulares

de fabricantes concretos y se garantiza la plena interoperabilidad entre aplicaciones.

Inconvenientes de los servicios Web

Para realizar transacciones no pueden compararse en su grado de desarrollo con los

estándares abiertos de computación distribuida como CORBA (Common Object

Request Broker Architecture).

Su rendimiento es bajo si se compara con otros modelos de computación distribuida,

tales como RMI (Remote Method Invocation), CORBA o DCOM (Distributed

Component Object Model). Es uno de los inconvenientes derivados de adoptar un

formato basado en texto. Y es que entre los objetivos de XML no se encuentra la

concisión ni la eficacia de procesamiento.

Al apoyarse en HTTP, pueden esquivar medidas de seguridad basadas en firewall

cuyas reglas tratan de bloquear o auditar la comunicación entre programas a ambos

lados de la barrera.

Lo nuevo en la Web: La web 2.0

La infraestructura de la Web 2.0 es muy compleja y va evolucionando, pero incluye el

software de servidor, redifusión de contenidos, protocolos de mensajes, navegadores

basados en estándares, y varias aplicaciones para clientes.

Razones para crear un sitio Web.

Page 10: Historia de la web

La principal razón para usar servicios Web es que se basan en HTTP sobre TCP (Transmission

Control Protocol) en el puerto 80. Dado que las organizaciones protegen sus redes mediante

firewalls -que filtran y bloquean gran parte del tráfico de Internet-, cierran casi todos los puertos

TCP salvo el 80, que es, precisamente, el que usan los navegadores. Los servicios Web

utilizan este puerto, por la simple razón de que no resultan bloqueados.

Otra razón es que, antes de que existiera SOAP, no había buenas interfaces para acceder a las

funcionalidades de otros ordenadores en red. Las que había eran ad hoc y poco conocidas,

tales como EDI (Electronic Data Interchange), RPC (Remote Procedure Call), u otras APIs.

Una tercera razón por la que los servicios Web son muy prácticos es que pueden aportar gran

independencia entre la aplicación que usa el servicio Web y el propio servicio. De esta forma,

los cambios a lo largo del tiempo en uno no deben afectar al otro. Esta flexibilidad será cada

vez más importante, dado que la tendencia a construir grandes aplicaciones a partir de

componentes distribuidos más pequeños es cada día más utilizada.

Se espera que para los próximos años mejoren la calidad y cantidad de servicios ofrecidos

basados en los nuevos estándares.