Trabajo De La Segunda Semana

51
UNIVERSIDAD DEL CARIBE ESCUELA DE INFORMATICA PRACTICA I SUSTENTADO POR TANCREDO LLUBERES MEJIA 2005-0710 ASESOR JOSE TAVARES SANTO DOMINGO, D.N., REPUBLICA DOMINICANA 2009 1

Transcript of Trabajo De La Segunda Semana

Page 1: Trabajo De La  Segunda  Semana

UNIVERSIDAD DEL CARIBE

ESCUELA DE INFORMATICA

PRACTICA I

SUSTENTADO POR

TANCREDO LLUBERES MEJIA2005-0710

ASESOR

JOSE TAVARES

SANTO DOMINGO, D.N., REPUBLICA DOMINICANA2009

1

Page 2: Trabajo De La  Segunda  Semana

INDICE

Pág.

I. Breve historia de la World Wide Web 3

II. Icann 5

II. Responsabilidad Para la Rep. Dominicana 6

III. Domain name 6

IV. Domain Name System 6

V. Web Server 7

VI. Apache Server 10

VII. Web Services 11

VIII. Wamp 13

IX. Datacenter 14

X. Hosting Services Provider 16

XI. Empresas Proveedoras de los Sev. De Hosting 18

XII. Back List y las Cinco Empresas Más Importantes 18

XIII. FTP, SMTP, TCP/IP, HTTP, HTTPS, SSL, URL 19

XIV. Temples, Cascade, Frame, Skin 26

XV. Firewall, DMZ, LAN, Wan, Vlan 28

XVI. Add-Ons, Plug-In, Spam, Cookies, Gadget 31

XVII. RSS, Sindicacion, Agregadores, XML 34

XVIII. Bibliografía 36

2

Page 3: Trabajo De La  Segunda  Semana

Breve historia de la World Wide Web

La World Wide Web: documentos con referencias cruzadas. El concepto en sí no es nuevo. Las referencias a otros documentos, en forma de notas al margen, existían ya en los manuscritos medievales. La diferencia es que la Web es más global, más rápida, y más fácil de usar. Todo ello es posible gracias a los avances tecnológicos de finales del siglo pasado.

En 1945, el Director de la Oficina de Desarrollo e Investigación Científica (EE.UU.), el Doctor Vannevar Bush, escribió el artículo “As We May Think” para “The Atlantic Online”, en que expresaba su preocupación por la ingente cantidad de información que existía y estaba siendo generada, y el poco tiempo y los ineficientes sistemas que había para encontrarla. Así, y basándose en la tecnología existente en aquel entonces, describió un dispositivo personal, al que llamó “memex”, y que imaginaba como un suplemento íntimo a su memoria. Este aparato permitiría a cada individuo almacenar su información en microfilmes, consultarlos rápidamente y, lo que es más importante, crear vínculos entre unos documentos y otros, de modo que durante la lectura de un documento se recordara al lector qué documentos contenían información relacionada. Era una visión de lo que ocurriría sólo 45 años después.

En los años 60, Douglas Engelbart, mientras trabajaba en el Stanford Research Institute, propuso el NLS (oNLine System), un entorno de trabajo por computadora, con un sistema para almacenar publicaciones, con catálogos e índices para facilitar la búsqueda, y con reglas establecidas para citar documentos, de modo que fuera más fácil para los lectores acceder a los documentos referenciados. Era un entorno con teclado, pantalla, ratón e impresora, con posibilidad de teleconferencia y correo electrónico a través de una red de computadoras para una rápida comunicación entre los profesionales. Tenía las herramientas básicas de composición, estudio, organización y modificación de información. Los ficheros se guardaban jerárquicamente para su mejor organización. Se trabajaba con los documentos en modo multiventana, para ver varios documentos a la vez en ventanas diferentes, y se podían copiar objetos seleccionados de una ventana a otra.

El término “hipertexto” fue acuñado por Ted Nelson en 1965, en su artículo “A File Structure for the Complex, the Changing, and the Indeterminate”, que leyó durante la vigésima conferencia anual de la Association of Computer Machinery (ACM). Ted Nelson ideó un modelo para la interconexión de documentos electrónicos. El proyecto Xanadu aún continúa luchando para conseguir un modelo de hipertexto superior al que trajo la World Wide Web.

La World Wide Web fue inventada en 1989 por un informático del CERN (Organización Europea de Investigación Nuclear) llamado Tim Berners-Lee. Era un sistema de hipertexto para compartir información basado en Internet, concebido originalmente para servir como herramienta de comunicación entre los científicos nucleares del CERN. Tim Berners-Lee había estado experimentando con hipertexto desde 1980, año en que programó Enquire, un programa para almacenar piezas de información y enlazarlas entre ellas. Enquire se ejecutaba en un entorno multiusuario y permitía acceder a varias personas a los mismos datos. Tim Berners-Lee entregó su propuesta al CERN en 1989, en

3

Page 4: Trabajo De La  Segunda  Semana

septiembre de 1990 recibió el visto bueno y junto con Robert Cailliau comenzó a escribir el nuevo sistema de hipertexto. A finales de 1990 el primer browser de la historia, WorldWide Web, ya tenía forma.

Los documentos necesitaban un formato que fuera adecuado para su misión. En aquella época casi todo el mundo utilizaba TeX y PostScript, pero éstos eran demasiado complicados teniendo en cuenta que debían ser leídos por todo tipo de computadoras, desde la terminales tontas hasta las estaciones de trabajo gráficas X-Windows. Así, tanto el lenguaje de intercambio (HTML), como el protocolo de red (HTTP) se diseñaron para ser realmente muy simples.

HTML son las siglas de “HyperText Mark-up Language”. “Mark-up” es un término de imprenta que significa el conjunto de instrucciones estilísticas detalladas escritas en un manuscrito que debe ser tipografiado. Así, HTML podría ser traducido como “Lenguaje de Formato de Documentos para Hipertexto”. HTML es una aplicación de SGML, un lenguaje muy general para definir lenguajes de formato de documentos.

A principios de 1993 había alrededor de 50 servidores. Existían básicamente dos tipos de browsers: el original, gráfico, pero sólo para plataformas NeXT, y el browser en modo de línea, preparado para cualquier plataforma pero muy limitado y muy poco atractivo. En Febrero se lanzó la primera versión alfa del navegador “Mosaic for X”, desarrollado en el NCSA (National Center for Supercomputing Applications). Funcionaba en X Windows, que era una plataforma popular entre la comunidad científica. En Abril el tráfico de la WWW era el 0,1% del total de Internet. El CERN declaraba la WWW como tecnología de acceso gratuito. En septiembre ya había versiones de Mosaic para PC y Macintosh. El tráfico alcanzaba el 1% de todo el tráfico de Internet y había más de 500 servidores. Es el comienzo del crecimiento explosivo de la Web. A finales del 94 ya había más de 10.000 servidores y 10 millones de usuarios. En 1997, más de 650.000 servidores.

Hoy, en 2003, la Web es algo cotidiano para una gran parte de los más de 600 millones de usuarios de Internet que hay en todo el mundo. Sus utilidades son diversas, su impacto en la economía mundial es apreciable. No sólo hay documentos de texto: hay imágenes, vídeos, música, se pueden comprar cosas, se pueden hacer reservas...

4

Page 5: Trabajo De La  Segunda  Semana

II. ICANN

La comunidad mundial de Internet se empeña en la promoción de la estabilidad e integridad de Internet.

¿Qué es ICANN?

Internet Corporation for Assigned Names and Numbers (ICANN) es una organización sin fines de lucro que opera a nivel internacional, responsable de asignar espacio de direcciones numéricas de protocolo de Internet (IP), identificadores de protocolo y de las funciones de gestión [o administración] del sistema de nombres de dominio de primer nivel genéricos (gTLD) y de códigos de países (ccTLD), así como de la administración del sistema de servidores raíz. Aunque en un principio estos servicios los desempeñaba Internet Assigned Numbers Authority (IANA) y otras entidades bajo contrato con el gobierno de EE.UU., actualmente son responsabilidad de ICANN.

Como asociación privada-pública, ICANN está dedicada a preservar la estabilidad operacional de Internet, promover la competencia, lograr una amplia representación de las comunidades mundiales de Internet y desarrollar las normativas adecuadas a su misión por medio de procesos “de abajo hacia arriba” basados en el consenso.

¿Qué papel desempeña ICANN?

ICANN es responsable de la coordinación de la administración de los elementos técnicos del DNS para garantizar una resolución unívoca de los nombres, de manera que los usuarios de Internet puedan encontrar todas las direcciones válidas. Para ello, se encarga de supervisar la distribución de los identificadores técnicos únicos usados en las operaciones de Internet, y delegar los nombres de dominios de primer nivel (como .com, .info, etc.).

Otros asuntos que preocupan a los usuarios de Internet, como reglamentación para transacciones financieras, control del contenido de Internet, correo electrónico de publicidad no solicitada (spam) y protección de datos, están fuera del alcance de la misión de coordinación técnica de ICANN.

¿Cómo funciona ICANN?

Dentro de la estructura de ICANN, los gobiernos y organizaciones de tratados internacionales en asociación con negocios, organizaciones e individuos capacitados trabajan en el desarrollo y sostenimiento de la Internet mundial. La innovación y el constante crecimiento de Internet presentan nuevos desafíos en el mantenimiento de su estabilidad. Por medio del trabajo en conjunto, los participantes de ICANN pueden resolver los asuntos que afectan directamente la misión de coordinación técnica de ICANN. ICANN es quizá el ejemplo más importante de colaboración entre diferentes miembros de la comunidad de Internet, basada en el principio de autorregulación aplicado en la economía de alta tecnología.

5

Page 6: Trabajo De La  Segunda  Semana

ICANN está gobernada por una Junta Directiva, de gran diversidad internacional, encargada de supervisar el proceso de desarrollo de normas y políticas. El Director General de ICANN está a la cabeza del personal de diversas nacionalidades que trabaja en tres continentes, y que asegura que ICANN cumpla con su compromiso operacional con la comunidad de Internet.

Diseñado para responder a las demandas de una tecnología y economía en constante evolución, el proceso flexible de desarrollo de normativas, implementadas rápidamente, se origina en las tres Organizaciones de apoyo (para nombres genéricos, nombres nacionales y direcciones IP). La comisión asesora de organizaciones de usuarios individuales y las comunidades de tecnología trabajan con las organizaciones de apoyo en la creación de normativas apropiadas y eficaces. El Comité Asesor Gubernamental, integrado por más de ochenta gobiernos, actúa como asesor de la Junta Directiva.

III. ORGANISMO PARA REPUBLICA DOMINICANA, COSTOS Y NUMEROS DE CONTACTO ES LA PCMMA

IV. DNS

¿Qué es el Sistema de Nombres de Dominio?

El sistema de nombres de dominio (DNS) ayuda a los usuarios a navegar en Internet. Las computadoras en Internet tienen una dirección única llamada “dirección IP” (dirección de protocolo de Internet). Como las direcciones IP (compuestas por una cadena de números) son difíciles de recordar, el DNS permite usar una cadena de letras (el “nombre del dominio”) para que usted pueda escribir www.icann.org en vez de “192.0.34.163”.

El DNS traduce el nombre del dominio a la dirección IP que le corresponde y lo conecta con el sitio web que desea. El DNS también permite el funcionamiento del correo electrónico, de manera tal que los mensajes que envía lleguen al destinatario que corresponda, y muchos otros servicios de Internet.

6

Page 7: Trabajo De La  Segunda  Semana

V. Servidor Web

Un servidor web es un programa que implementa el protocolo HTTP (HyperText Transfer Protocol). Este protocolo pertenece a la capa de aplicación del modelo OSI y está diseñado para transferir lo que llamamos hipertextos, páginas web o páginas HTML (HyperText Markup Language): textos complejos con enlaces, figuras, formularios, botones y objetos incrustados como animaciones o reproductores de música.

Es un programa que se ejecuta continuamente en un ordenador (también se emplea el término para referirse al ordenador que lo ejecuta), manteniéndose a la espera de peticiones por parte de un cliente (un navegador web) y que responde a estas peticiones adecuadamente, mediante una página web que se exhibirá en el navegador o mostrando el respectivo mensaje si se detectó algún error.

Instalar un servidor web en nuestro PC nos permitirá, entre otras cosas, poder montar nuestra propia página web sin necesidad de contratar hosting, probar nuestros desarrollos vía local, acceder a los archivos de nuestro equipo desde un PC remoto (aunque para esto existen otras opciones, como utilizar un servidor FTP) o utilizar alguno de los programas basados en web tan interesantes que están viendo la luz últimamente. El problema de usar nuestro ordenador como servidor web es que conviene tenerlo encendido permanentemente (para que esté accesible de forma continua como la mayoría de los sitios webs), con el consiguiente coste debido al consumo de electricidad (conviene tener en cuenta que hay alojamientos web gratuitos, incluso sin publicidad y con interesantes funciones).

7

Page 8: Trabajo De La  Segunda  Semana

Servidor web de la Wikimedia

Sin embargo, el hecho de que HTTP y HTML estén íntimamente ligados no debe dar lugar a confundir ambos términos. HTML es un lenguaje de marcas y HTTP es un protocolo.

Un servidor web se mantiene a la espera de peticiones HTTP por parte de un cliente HTTP que solemos conocer como navegador. El cliente realiza una petición al servidor y éste le responde con el contenido que el cliente solicita. A modo de ejemplo, al teclear www.wikipedia.org en nuestro navegador, éste realiza una petición HTTP al servidor de dicha dirección. El servidor responde al cliente enviando el código HTML de la página; el cliente, una vez recibido el código, lo interpreta y lo exhibe en pantalla. Como vemos con este ejemplo, el cliente es el encargado de interpretar el código HTML, es decir, de mostrar las fuentes, los colores y la disposición de los textos y objetos de la página; el servidor tan sólo se limita a transferir el código de la página sin llevar a cabo ninguna interpretación de la misma.

Sobre el servicio web clásico podemos disponer de aplicaciones web. Éstas son porciones de código que se ejecutan cuando se realizan ciertas peticiones o respuestas HTTP. Hay que distinguir entre:

8

Page 9: Trabajo De La  Segunda  Semana

Aplicaciones en el lado del cliente: el cliente web es el encargado de ejecutarlas en la máquina del usuario. Son las aplicaciones tipo Java o Javascript: el servidor proporciona el código de las aplicaciones al cliente y éste, mediante el navegador, las ejecuta. Es necesario, por tanto, que el cliente disponga de un navegador con capacidad para ejecutar aplicaciones (también llamadas scripts). Comúnmente, los navegadores permiten ejecutar aplicaciones escritas en lenguaje javascript y java, aunque pueden añadirse más lenguajes mediante el uso de plugins.

Aplicaciones en el lado del servidor: el servidor web ejecuta la aplicación; ésta, una vez ejecutada, genera cierto código HTML; el servidor toma este código recién creado y lo envía al cliente por medio del protocolo HTTP.

Las aplicaciones de servidor muchas veces suelen ser la mejor opción para realizar aplicaciones web. La razón es que, al ejecutarse ésta en el servidor y no en la máquina del cliente, éste no necesita ninguna capacidad añadida, como sí ocurre en el caso de querer ejecutar aplicaciones javascript o java. Así pues, cualquier cliente dotado de un navegador web básico puede utilizar este tipo de aplicaciones.

Algunos conceptos relacionados con las aplicaciones web son:

PHP ASP Perl Python/WSGI CGI .NET JSP (Tecnología Java ) CF (Adobe Coldfusion)

Algunos servidores web importantes son:

Apache IIS

Cherokee Otros servidores, más simples pero más rápidos, son:

lighttpd thttpd

VI. Servidor HTTP Apache

El servidor HTTP Apache es un servidor web HTTP de código abierto para plataformas Unix (BSD, GNU/Linux, etc.), Windows, Macintosh y otras, que implementa el

9

Page 10: Trabajo De La  Segunda  Semana

protocolo HTTP/1.11 y la noción de sitio virtual. Cuando comenzó su desarrollo en 1995 se basó inicialmente en código del popular NCSA HTTPd 1.3, pero más tarde fue reescrito por completo. Su nombre se debe a que Behelendorf eligió ese nombre porque quería que tuviese la connotación de algo que es firme y enérgico pero no agresivo, y la tribu Apache fue la última en rendirse al que pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación de su grupo era que llegasen las empresas y “civilizasen” el paisaje que habían creado los primeros ingenieros de internet. Además Apache consistía solamente en un conjunto de parches a aplicar al servidor de NCSA. Era, en inglés, a patchy Server (un servidor “parcheado”).

El servidor Apache se desarrolla dentro del proyecto HTTP Server (httpd) de la Apache Software Foundation.

Apache presenta entre otras características altamente configurables, bases de datos de autenticación y negociado de contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en su configuración.

Apache tiene amplia aceptación en la red: desde 1996, Apache, es el servidor HTTP más usado. Alcanzó su máxima cuota de mercado en 2005 siendo el servidor empleado en el 70% de los sitios web en el mundo, sin embargo ha sufrido un descenso en su cuota de mercado en los últimos años. (Estadísticas históricas y de uso diario proporcionadas por Netcraft2 ).

La mayoría de las vulnerabilidades de la seguridad descubiertas y resueltas tan sólo pueden ser aprovechadas por usuarios locales y no remotamente. Sin embargo, algunas se pueden accionar remotamente en ciertas situaciones, o explotar por los usuarios locales malévolos en las disposiciones de recibimiento compartidas que utilizan PHP como módulo de Apache.

VII. Servicio Web

Un servicio Web (en inglés, Web service) es un conjunto de protocolos y estándares que sirven para intercambiar datos entre aplicaciones. Distintas aplicaciones de software desarrolladas en lenguajes de programación diferentes, y ejecutadas sobre cualquier plataforma, pueden utilizar los servicios web para intercambiar datos en redes de ordenadores como Internet. La interoperabilidad se consigue mediante la adopción de

10

Page 11: Trabajo De La  Segunda  Semana

estándares abiertos. Las organizaciones OASIS y W3C son los comités responsables de la arquitectura y reglamentación de los servicios Web. Para mejorar la interoperabilidad entre distintas implementaciones de servicios Web se ha creado el organismo WS-I, encargado de desarrollar diversos perfiles para definir de manera más exhaustiva estos estándares.

Estándares empleados

Web Services Protocol Stack: Así se denomina al conjunto de servicios y protocolos de los servicios Web.

XML (Extensible Markup Language): Es el formato estándar para los datos que se vayan a intercambiar.

SOAP (Simple Object Access Protocol) o XML-RPC (XML Remote Procedure Call): Protocolos sobre los que se establece el intercambio.

Otros protocolos: los datos en XML también pueden enviarse de una aplicación a otra mediante protocolos normales como HTTP (Hypertext Transfer Protocol), FTP (File Transfer Protocol), o SMTP (Simple Mail Transfer Protocol).

WSDL (Web Services Description Language): Es el lenguaje de la interfaz pública para los servicios Web. Es una descripción basada en XML de los requisitos funcionales necesarios para establecer una comunicación con los servicios Web.

UDDI (Universal Description, Discovery and Integration): Protocolo para publicar la información de los servicios Web. Permite comprobar qué servicios web están disponibles.

WS-Security (Web Service Security): Protocolo de seguridad aceptado Como estándar por OASIS (Organization for the Advancement of Structured Information Standards). Garantiza la autenticación de los actores y la confidencialidad de los mensajes enviados.

Ventajas de los servicios Web

Aportan interoperabilidad entre aplicaciones de software independientemente de sus propiedades o de las plataformas sobre las que se instalen.

Los servicios Web fomentan los estándares y protocolos basados en texto, que hacen más fácil acceder a su contenido y entender su funcionamiento.

Al apoyarse en HTTP, los servicios Web pueden aprovecharse de los sistemas de seguridad firewall sin necesidad de cambiar las reglas de filtrado.

Permiten que servicios y software de diferentes compañías ubicadas en diferentes lugares geográficos puedan ser combinados fácilmente para proveer servicios integrados.

Permiten la interoperabilidad entre plataformas de distintos fabricantes por medio de protocolos estándar y abiertos. Las especificaciones son gestionadas por una organización abierta, la W3C, por tanto no hay secretismos por intereses particulares de fabricantes concretos y se garantiza la plena interoperabilidad entre aplicaciones.

Inconvenientes de los servicios Web

11

Page 12: Trabajo De La  Segunda  Semana

Para realizar transacciones no pueden compararse en su grado de desarrollo con los estándares abiertos de computación distribuida como CORBA (Common Object Request Broker Architecture).

Su rendimiento es bajo si se compara con otros modelos de computación distribuida, tales como RMI (Remote Method Invocation), CORBA o DCOM (Distributed Component Object Model). Es uno de los inconvenientes derivados de adoptar un formato basado en texto. Y es que entre los objetivos de XML no se encuentra la concisión ni la eficacia de procesamiento.

Al apoyarse en HTTP, pueden esquivar medidas de seguridad basadas en firewall cuyas reglas tratan de bloquear o auditar la comunicación entre programas a ambos lados de la barrera.

Razones para crear servicios Web

La principal razón para usar servicios Web es que se basan en HTTP sobre TCP (Transmission Control Protocol) en el puerto 80. Dado que las organizaciones protegen sus redes mediante firewalls -que filtran y bloquean gran parte del tráfico de Internet-, cierran casi todos los puertos TCP salvo el 80, que es, precisamente, el que usan los navegadores. Los servicios Web utilizan este puerto, por la simple razón de que no resultan bloqueados.

Otra razón es que, antes de que existiera SOAP, no había buenas interfaces para acceder a las funcionalidades de otros ordenadores en red. Las que había eran ad hoc y poco conocidas, tales como EDI (Electronic Data Interchange), RPC (Remote Procedure Call), u otras APIs.

Una tercera razón por la que los servicios Web son muy prácticos es que pueden aportar gran independencia entre la aplicación que usa el servicio Web y el propio servicio. De esta forma, los cambios a lo largo del tiempo en uno no deben afectar al otro. Esta flexibilidad será cada vez más importante, dado que la tendencia a construir grandes aplicaciones a partir de componentes distribuidos más pequeños es cada día más utilizada.

VIII. WAMP

WAMP es el acrónimo usado para describir un sistema de infraestructura de internet que usa las siguientes herramientas:

Windows, como sistema operativo; Apache, como servidor web; MySQL, como gestor de bases de datos; PHP (generalmente), Perl, o Python, como lenguajes de programación.

12

Page 13: Trabajo De La  Segunda  Semana

El uso de un WAMP permite servir páginas html a internet, además de poder gestionar datos en ellas, al mismo tiempo un WAMP, proporciona lenguajes de programación para desarrollar aplicaciones Web.

LAMP es el sistema análogo que corre bajo ambiente Linux

MAMP es el sistema análogo que corre bajo ambiente Mac

IX. Centro de procesamiento de datos

Se denomina centro de procesamiento de datos o CPD a aquella ubicación donde se concentran todos los recursos necesarios para el procesamiento de la información de una organización. También se conoce como centro de cómputo (Iberoamérica) o centro de cálculo (España) o centro de datos por su equivalente en inglés data center.

Dichos recursos consisten esencialmente en unas dependencias debidamente acondicionadas, computadoras y redes de comunicaciones.

Diseño

13

Page 14: Trabajo De La  Segunda  Semana

El diseño de un centro de procesamiento de datos comienza por la elección de su ubicación geográfica, y requiere un balance entre diversos factores:

Coste económico: coste del terreno, impuestos municipales, seguros, etc. Infraestructuras disponibles en las cercanías: energía eléctrica, carreteras,

acometidas de electricidad, centralitas de telecomunicaciones, bomberos, etc. Riesgo: posibilidad de inundaciones, incendios, robos, terremotos, etc.

Una vez seleccionada la ubicación geográfica es necesario encontrar unas dependencias adecuadas para su finalidad, ya se trate de un local de nueva construcción u otro ya existente a comprar o alquilar. Algunos requisitos de las dependencias son:

Doble acometida eléctrica. Muelle de carga y descarga. Montacargas y puertas anchas. Altura suficiente de las plantas. Medidas de seguridad en caso de incendio o inundación: drenajes, extintores, vías

de evacuación, puertas ignífugas, etc. Aire acondicionado, teniendo en cuenta que se usará para la refrigeración de

equipamiento informático. Almacenes. Etc.

Aún cuando se disponga del local adecuado, siempre es necesario algún despliegue de infraestructuras en su interior:

Falsos suelos y falsos techos. Cableado de red y teléfono. Doble cableado eléctrico. Generadores y cuadros de distribución eléctrica. Acondicionamiento de salas. Instalación de alarmas, control de temperatura y humedad con avisos SNMP o

SMTP. Etc.

Una parte especialmente importante de estas infraestructuras son aquellas destinadas a la seguridad física de la instalación, lo que incluye:

Cerraduras electromagnéticas. Torniquetes. Cámaras de seguridad. Detectores de movimiento. Tarjetas de identificación. etc.

14

Page 15: Trabajo De La  Segunda  Semana

X. Alojamiento Web

El alojamiento web (en inglés web hosting) es el servicio que provee a los usuarios de Internet un sistema para poder almacenar información, imágenes, vídeo, o cualquier contenido accesible vía Web. Los Web Host son compañías que proporcionan espacio de un servidor a sus clientes.

Tipos de Alojamiento Web

El alojamiento web se divide en seis tipos: gratuitos, compartidos, revendedores, servidores virtuales, servidores dedicados y de co-locación.

Alojamiento gratuito: El alojamiento gratuito es extremadamente limitado cuando se lo compara con el alojamiento de pago. Estos servicios generalmente agregan publicidad en los sitios y tienen un espacio y tráfico limitado.

15

Page 16: Trabajo De La  Segunda  Semana

Alojamiento compartido (shared hosting): En este tipo de servicio se alojan clientes de varios sitios en un mismo servidor, gracias a la configuración del programa servidor web. Resulta una alternativa muy buena para pequeños y medianos clientes, es un servicio económico y tiene buen rendimiento.

Alojamiento de imágenes: Este tipo de hospedaje se ofrece para guardar tus imágenes en internet, la mayoría de estos servicios son gratuitos y las páginas se valen de la publicidad colocadas en su página al subir la imagen.

Alojamiento revendedor (reseller): Este servicio de alojamiento está diseñado para grandes usuarios o personas que venden el servicio de Hosting a otras personas. Estos paquetes cuentan con gran cantidad de espacio y de dominios disponibles para cada cuenta.

Servidores virtuales (VPS, Virtual Private Server): mediante el uso de una máquina virtual, la empresa ofrece el control de un ordenador aparentemente no compartido. Así se pueden administrar varios dominios de forma fácil y económica, además de elegir los programas que se ejecutan en el servidor. Por ello, es el tipo de producto recomendado para empresas de diseño y programación web.

Servidores dedicados: El término servidor dedicado se refiere a una forma avanzada de alojamiento web en la cual el cliente alquila o compra un ordenador completo, y por tanto tiene el control completo y la responsabilidad de administrarlo. El cuidado físico de la máquina y de la conectividad a Internet es tarea de la empresa de alojamiento, que suele tenerlo en un centro de datos.

Colocación (o housing): Este servicio consiste básicamente en vender o alquilar un espacio físico de un centro de datos para que el cliente coloque ahí su propio ordenador. La empresa le da la corriente y la conexión a Internet, pero el ordenador servidor lo elige completamente el usuario (hasta el hardware).

Formas de obtener

Por lo general, se distingue entre servicios pagados y servicios gratuitos.

Servicios pagados

Este tipo de obtención, por lo general viene dado por el contrato de un proveedor de internet, el cual junto con dar conexión, entre la posibilidad de almacenamiento mediante disco virtual o espacio web o combinación de ambos.

Otro medio de obtención es contratando algún servicio de una empresa no dependiente de la conexión a internet, las cuales ofrecen según las capacidades de sus servidores o de su espacio. Casi siempre a la par, entregan servicios añadidos, como la ejecución de tareas automáticas o cuentas de correo electrónico gratuitas.

Servicios gratuitos

Este tipo de servicio viene dado por la base de ser gratuito, y sin costo alguno al suscriptor. Sin embargo, quienes usan este servicio, por lo general son páginas de bajos

16

Page 17: Trabajo De La  Segunda  Semana

recursos de mantención o aquellas que los dueños no poseen suficiente dinero para ser mantenida.

Como medio de financiamiento, el servidor coloca avisos de publicidad de Adsense u otras empresas, haciendo que la página se llene de publicidad en algún punto.

Otra limitación de estas ofertas es que tiene un espacio limitado y no se puede usar como almacén de datos, ni pueden alojar páginas subversivas o de contenido adulto o no permitido.

Servidores y servicios

Un alojamiento web se puede diferenciar de otro por el tipo de sistema operativo, uso de bases de datos y motor de generación de páginas webs exista en él. La combinación más conocida y extendida es la del tipo LAMP (Linux, Apache, MySQL y PHP), aunque se está comenzando a usar una combinación con Java.

Algunos de los servicios más comunes que se pueden entregar son lo de FTP, manejo por página web y múltiples clientes en las bases de datos.

Dominios

Algunos planes de alojamiento (pero no los gratuitos) incluyen un nombre de dominio para que sea más fácil acceder a la página. Si no viene incluido, es el usuario quien tiene que registrar un dominio mediante un registrador o bien usar un subdominio de la misma compañía.

XI. Empresas Proveedoras de los Servicios de HostingSon aquellas que rentan los espacios en servidores Web para alojar las páginas. Aquí tenemos por ejemplo a Tricom, Codetel, etc.

XII. Lista negra (Internet)

En Internet, una lista negra o black list es una lista donde se registran las direcciones IPS que generan spam de forma voluntaria o involuntaria.

Las blacklist son libres de tal forma que alguien de manera malintencionada puede añadir IPS inocentes e impedir que lleguen correos válidos.

Terminología

Términos relacionados:

17

Page 18: Trabajo De La  Segunda  Semana

RBL es un acrónimo de “Real-time Blackhole List”. Es el nombre del primer sistema que uso esta tecnología. Es una marca registrada de MAPS. Hay otras listas que son de libre distribución y que cumplen con los mismos requerimientos.

DNSBL es un acrónimo de “DNS blacklist”. El uso de la palabra “lista negra” genera controversia. El termino “rejectlist” ha sido usado por muchos desde sus inicios.

DRBL es un acrónimo de “Distributed Realtime Block List”. DNSWL es un acrónimo de “DNS whitelist”. Es una lista de direcciones IP que se

quiere tratar de manera correcta. RHSBL es un acrónimo de “Right Hand Side Blacklist”. Es similar a DNSBL lo

único que con nombre de dominio en vez de direcciones IP. El termino viene del lado derecho de las direcciones de mail “@dominio”.

URIBL es un acrónimo de “Uniform Resource Identifier Blacklist”. Al contrario que RHSBL, enumera los nombres del dominio usados en URIs en vez de en de direcciones del E-mail.

Enlaces externos

Spamhaus Block List Distributed Server Boycott List spam filtering daemon, that use DNSBL Black-Hole DNS List for blocking Malware and Spyware linux.ie: What is a DNS Blacklist? Declude’s list of known DNS-Based spam databases Jørgen Mash’s list of DNSBL Databases Spamcop Black List Herramienta de chequeo DNSBL

X.III File Transfer Protocol

FTP (sigla en inglés de File Transfer Protocol - Protocolo de Transferencia de Archivos) en informática, es un protocolo de red para la transferencia de archivos entre sistemas conectados a una red TCP, basado en la arquitectura cliente-servidor. Desde un equipo cliente se puede conectar a un servidor para descargar archivos desde él o para enviarle archivos, independientemente del sistema operativo utilizado en cada equipo.

El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible atacante puede capturar este tráfico, acceder al servidor, o apropiarse de los archivos transferidos.

18

Page 19: Trabajo De La  Segunda  Semana

Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.

Simple Mail Transfer Protocol

Simple Mail Transfer Protocol (SMTP) Protocolo Simple de Transferencia de Correo, es un protocolo de la capa de aplicación. Protocolo de red basado en texto utilizado para el intercambio de mensajes de correo electrónico entre computadoras u otros dispositivos (PDA’s, teléfonos móviles, etc.

Funcionamiento

SMTP se basa en el modelo cliente-servidor, donde un cliente envía un mensaje a uno o varios receptores. La comunicación entre el cliente y el servidor consiste enteramente en líneas de texto compuestas por caracteres ASCII. El tamaño máximo permitido para estas líneas es de 1000 caracteres.

Las respuestas del servidor constan de un código numérico de tres digitos, seguido de un texto explicativo. El número va dirigido a un procesado automático de la respuesta por autómata, mientras que el texto permite que un humano interprete la respuesta. En el protocolo SMTP todas las órdenes, réplicas o datos son líneas de texto, delimitadas por el carácter <CRLF>. Todas las réplicas tienen un código numérico al comienzo de la línea.

En el conjunto de protocolos TCP/IP, el SMTP va por encima del TCP, usando normalmente el puerto 25 en el servidor para establecer la conexión.

Resumen simple del funcionamiento del protocolo SMTP Cuando un cliente establece una conexión con el servidor SMTP, espera a que éste

envíe un mensaje “220 Service ready” o “421 Service non available” Se envía un HELO desde el cliente. Con ello el servidor se identifica. Esto puede

usarse para comprobar si se conectó con el servidor SMTP correcto. El cliente comienza la transacción del correo con la orden MAIL. Como

argumento de esta orden se puede pasar la dirección de correo al que el servidor notificará cualquier fallo en el envío del correo. El servidor responde “250 OK”.

Ya le hemos dicho al servidor que queremos mandar un correo, ahora hay que comunicarle a quien. La orden para esto es RCPT TO:<destino@host>. Se pueden mandar tantas órdenes RCPT como destinatarios del correo queramos. Por cada destinatario, el servidor contestará “250 OK” o bien “550 No such user here”, si no encuentra al destinatario.

Una vez enviados todos los RCPT, el cliente envía una orden DATA para indicar que a continuación se envían los contenidos del mensaje. El servidor responde “354 Start mail input, end with <CRLF>.<CRLF>” Esto indica al cliente como ha de notificar el fin del mensaje.

19

Page 20: Trabajo De La  Segunda  Semana

Ahora el cliente envía el cuerpo del mensaje, línea a línea. Una vez finalizado, se termina con un <CRLF>.<CRLF> (la última línea será un punto), a lo que el servidor contestará “250 OK”, o un mensaje de error apropiado.

Tras el envío, el cliente, si no tiene que enviar más correos, con la orden QUIT corta la conexión. También puede usar la orden TURN, con lo que el cliente pasa a ser el servidor, y el servidor se convierte en cliente. Finalmente, si tiene más mensajes que enviar, repite el proceso hasta completarlos.

En el ejemplo pueden verse las órdenes básicas de SMTP:

HELO, para abrir una sesión con el servidor MAIL FROM, para indicar quien envía el mensaje RCPT TO, para indicar el destinatario del mensaje DATA, para indicar el comienzo del mensaje, éste finalizará cuando haya una

línea únicamente con un punto. QUIT, para cerrar la sesión RSET Aborta la transacción en curso y borra todos los registros. SEND Inicia una transacción en la cual el mensaje se entrega a una terminal. SOML El mensaje se entrega a un terminal o a un buzon. SAML El mensaje se entrega a un terminal y a un buzón. VRFY Solicita al servidor la verificación del argumento. EXPN Solicita al servidor la confirmación del argumento. HELP Permite solicitar información sobre un comando. NOOP Se emplea para reiniciar los temporizadores. TURN Solicita al servidor que intercambien los paquetes.

De los tres dígitos del código numérico, el primero indica la categoría de la respuesta, estando definidas las siguientes categorías:

2XX, la operación solicitada mediante el comando anterior ha sido concluida con éxito

3XX, la orden ha sido aceptada, pero el servidor esta pendiente de que el cliente le envíe nuevos datos para terminar la operación

4XX, para una respuesta de error, pero se espera a que se repita la instrucción 5XX, para indicar una condición de error permanente, por lo que no debe repetirse

la orden

Una vez que el servidor recibe el mensaje finalizado con un punto puede bien almacenarlo si es para un destinatario que pertenece a su dominio, o bien retransmitirlo a otro servidor para que finalmente llegue a un servidor del dominio del receptor.

Familia de protocolos de Internet

La familia de protocolos de Internet es un conjunto de protocolos de red en la que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se le denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión

20

Page 21: Trabajo De La  Segunda  Semana

(TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.

El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa de dicho departamento.

El 1 de enero de 2009 el Protocolo TCP/IP cumplió 26 años.

Ventajas e inconvenientes

El conjunto TCP/IP está diseñado para enrutar y tiene un grado muy elevado de fiabilidad, es adecuado para redes grandes y medianas, así como en redes empresariales. Se utiliza a nivel mundial para conectarse a Internet y a los servidores web. Es compatible con las herramientas estándar para analizar el funcionamiento de la red.

Un inconveniente de TCP/IP es que es más difícil de configurar y de mantener que NetBEUI o IPX/SPX; además es algo más lento en redes con un volumen de tráfico medio bajo. Sin embargo, puede ser más rápido en redes con un volumen de tráfico grande donde haya que enrutar un gran número de tramas.

El conjunto TCP/IP se utiliza tanto en redes empresariales como por ejemplo en campus universitarios o en complejos empresariales, en donde utilizan muchos enrutadores y conexiones a mainframe o a ordenadores UNIX, como así también en redes pequeñas o domésticas, y hasta en teléfonos móviles y en domótica.

Hypertext Transfer Protocol

El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer Protocol) es el protocolo usado en cada transacción de la Web (WWW). HTTP fue desarrollado por el consorcio W3C y la IETF, colaboración que culminó en 1999 con la publicación de una serie de RFC, siendo el más importante de ellos el RFC 2616, que especifica la versión 1.1. HTTP define la sintaxis y la semántica que utilizan los elementos software de la arquitectura web (clientes, servidores, proxies) para comunicarse. Es un protocolo orientado a transacciones y sigue el esquema petición-respuesta entre un cliente y un servidor. Al cliente que efectúa la petición (un navegador o un spider) se lo conoce como “user agent” (agente del usuario). A la información transmitida se la llama recurso y se la identifica mediante un URL. Los recursos pueden ser archivos, el resultado de la

21

Page 22: Trabajo De La  Segunda  Semana

ejecución de un programa, una consulta a una base de datos, la traducción automática de un documento, etc.

HTTP es un protocolo sin estado, es decir, que no guarda ninguna información sobre conexiones anteriores. El desarrollo de aplicaciones web necesita frecuentemente mantener estado. Para esto se usan las cookiesXFX, que es información qu DAQç’l ,mOJe un servidor puede almacenar en el sistema cliente. Esto le permite a las aplicaciones web instituir la noción de “sesión”, y también permite rastrear usuarios ya que las cookies pueden guardarse en el cliente por tiempo indeterminado.

Hypertext Transfer Protocol Secure

Hypertext Transfer Protocol Secure (en español: Protocolo seguro de transferencia de hipertexto), más conocido por sus siglas HTTPS, es un protocolo de red basado en el protocolo HTTP, destinado a la transferencia segura de datos de hipertexto, es decir, es la versión segura de HTTP.

El sistema HTTPS utiliza un cifrado basado en SSL/TLS para crear un canal cifrado (cuyo nivel de cifrado depende del servidor remoto y del navegador utilizado por el cliente) más apropiado para el tráfico de información sensible que el protocolo HTTP. De este modo se consigue que la información sensible (usuario y claves de paso normalmente) no pueda ser usada por un atacante que haya conseguido interceptar la transferencia de datos de la conexión, ya que lo único que obtendrá será un flujo de datos cifrados que le resultará imposible de descifrar.

Cabe mencionar que el uso del protocolo HTTPS no impide que se pueda utilizar HTTP. Es aquí cuando nuestro navegador nos advertirá sobre la carga de elementos no seguros (HTTP), estando conectados a un entorno seguro (HTTPS).

Los protocolos HTTPS son utilizados por navegadores como: Safari, Internet Explorer, Mozilla Firefox, Opera y Google Chrome, entre otros.

Es utilizado principalmente por entidades bancarias, tiendas en línea, y cualquier tipo de servicio que requiera el envío de datos personales o contraseñas.

El puerto estándar para este protocolo es el 443.

Para conocer si una página web que estamos visitando, utiliza el protocolo https y es, por tanto, segura en cuanto a la trasmisión de los datos que estamos transcribiendo, debemos observar si en la barra de direcciones de nuestro navegador, aparece https al comienzo, en lugar de http, o si no hacer un scan.

Transport Layer Security

Secure Sockets Layer -Protocolo de Capa de Conexión Segura- (SSL) y Transport Layer Security -Seguridad de la Capa de Transporte- (TLS), su sucesor, son protocolos

22

Page 23: Trabajo De La  Segunda  Semana

criptográficos que proporcionan comunicaciones seguras por una red, comúnmente Internet.

Existen pequeñas diferencias entre SSL 3.0 y TLS 1.0, pero el protocolo permanece sustancialmente igual. El término “SSL” según se usa aquí, se aplica a ambos protocolos a menos que el contexto indique lo contrario.

Descripción

SSL proporciona autenticación y privacidad de la información entre extremos sobre Internet mediante el uso de criptografía. Habitualmente, sólo el servidor es autenticado (es decir, se garantiza su identidad) mientras que el cliente se mantiene sin autenticar; la autenticación mutua requiere un despliegue de infraestructura de claves públicas (o PKI) para los clientes. Los protocolos permiten a las aplicaciones cliente-servidor comunicarse de una forma diseñada para prevenir escuchas (eavesdropping), la falsificación de la identidad del remitente (phishing) y alterar la integridad del mensaje.

SSL implica una serie de fases básicas:

Negociar entre las partes el algoritmo que se usará en la comunicación Intercambio de claves públicas y autenticación basada en certificados digitales Cifrado del tráfico basado en cifrado simétrico

Durante la primera fase, el cliente y el servidor negocian qué algoritmos criptográficos se van a usar. Las implementaciones actuales proporcionan las siguientes opciones:

Para criptografía de clave pública: RSA, Diffie-Hellman, DSA (Digital Signature Algorithm) o Fortezza;

Para cifrado simétrico: RC2, RC4, IDEA (International Data Encryption Algorithm), DES (Data Encryption Standard), Triple DES o AES (Advanced Encryption Standard);

Con funciones hash: MD5 o de la familia SHA.

Cómo funciona

El protocolo SSL intercambia registros; opcionalmente, cada registro puede ser comprimido, cifrado y empaquetado con un código de autentificación del mensaje (MAC). Cada registro tiene un campo de content_type que especifica el protocolo de nivel superior que se está usando.

Cuando se inicia la conexión, el nivel de registro encapsula otro protocolo, el protocolo handshake, que tiene el content_type 22.

El cliente envía y recibe varias estructuras handshake:

23

Page 24: Trabajo De La  Segunda  Semana

Envía un mensaje ClientHello especificando una lista de conjunto de cifrados, métodos de compresión y la versión del protocolo SSL más alta permitida. Éste también envía bytes aleatorios que serán usados más tarde (llamados Challenge de Cliente o Reto). Además puede incluir el identificador de la sesión.

Después, recibe un registro ServerHello, en el que el servidor elige los parámetros de conexión a partir de las opciones ofertadas con anterioridad por el cliente.

Cuando los parámetros de la conexión son conocidos, cliente y servidor intercambian certificados (dependiendo de las claves públicas de cifrado seleccionadas). Estos certificados son actualmente X.509, pero hay también un borrador especificando el uso de certificados basados en OpenPGP.

El servidor puede requerir un certificado al cliente, para que la conexión sea mutuamente autentificada.

Cliente y servidor negocian una clave secreta (simétrica) común llamada master secret, posiblemente usando el resultado de un intercambio Diffie-Hellman, o simplemente cifrando una clave secreta con una clave pública que es descifrada con la clave privada de cada uno. Todos los datos de claves restantes son derivados a partir de este master secret (y los valores aleatorios generados en el cliente y el servidor), que son pasados a través una función pseudoaleatoria cuidadosamente elegida.

TLS/SSL poseen una variedad de medidas de seguridad:

Numerando todos los registros y usando el número de secuencia en el MAC. Usando un resumen de mensaje mejorado con una clave (de forma que solo con

dicha clave se pueda comprobar el MAC). Esto se especifica en el RFC 2104). Protección contra varios ataques conocidos (incluyendo ataques man-in-the-

middle), como los que implican un degradado del protocolo a versiones previas (por tanto, menos seguras), o conjuntos de cifrados más débiles.

El mensaje que finaliza el protocolo handshake (Finished) envía un hash de todos los datos intercambiados y vistos por ambas partes.

La función pseudo aleatoria divide los datos de entrada en 2 mitades y las procesa con algoritmos hash diferentes (MD5 y SHA), después realiza sobre ellos una operación XOR. De esta forma se protege a sí mismo de la eventualidad de que alguno de estos algoritmos se revelen vulnerables en el futuro.

Localizador Uniforme de Recursos

URL significa Uniform Resource Locator, es decir, localizador uniforme de recurso. Es una secuencia de caracteres, de acuerdo a un formato estándar, que se usa para nombrar recursos, como documentos e imágenes en Internet, por su localización.

Los URL fueron una innovación fundamental en la historia de la Internet. Fueron usadas por primera vez por Tim Berners-Lee en 1991, para permitir a los autores de documentos establecer hiperenlaces en la World Wide Web (WWW o Web). Desde 1994, en los estándares de la Internet, el concepto de URL ha sido incorporado dentro del más general de URI (Uniform Resource Identifier - Identificador Uniforme de Recurso), pero el término URL aún se utiliza ampliamente.

24

Page 25: Trabajo De La  Segunda  Semana

Aunque nunca fueron mencionadas como tal en ningún estándar, mucha gente cree que las iniciales URL significan Universal Resource Locator (Localizador Universal de Recurso). Esta interpretación puede ser debida al hecho de que, aunque la U en URL siempre ha significado Uniforme, la U de URI significó en un principio Universal, antes de la publicación del RFC 2396.

El URL es la cadena de caracteres con la cual se asigna una dirección única a cada uno de los recursos de información disponibles en la Internet. Existe un URL único para cada página de cada uno de los documentos de la World Wide Web, para todos los elementos de Gopher y todos los grupos de debate USENET, y así sucesivamente.

El URL de un recurso de información es su dirección en Internet, la cual permite que el navegador la encuentre y la muestre de forma adecuada. Por ello el URL combina el nombre del ordenador que proporciona la información, el directorio donde se encuentra, el nombre del archivo y el protocolo a usar para recuperar los datos.

XIV. Plantilla

Una plantilla es una forma de dispositivo que proporciona una separación entre la forma o estructura y el contenido.

Es un medio o un instrumento que permite guiar, portar o construir un diseño o esquema predefinido.

Una plantilla agiliza el trabajo de reproducción de muchas copias idénticas o casi idénticas (que no tiene que ser tan elaborado, sofisticado o personal). Si se quiere un trabajo más refinado, más creativo, la plantilla no es sino un punto de partida, un ejemplo, una idea aproximada de lo que se quiere hacer, o partes comunes de una diversidad de copias. A partir de la plantilla pueden asimismo diseñarse y fabricarse nuevas plantillas.

Las plantillas como norma general pueden ser utilizadas por personas o por sistemas automatizados. Se utilizan plantillas en todos los terrenos de la industria y la tecnología. Una plantilla puede servir como muestra base de una diversidad sobre la que comparten elementos comunes (patrón) y que en sí es lo que constituye la plantilla.

Relativo a la edición o composición de textos o imágenes se compone de cajas y líneas, con unos tamaños y márgenes, para facilitar la escritura de artículos o cartas, con títulos, fotos, diagramas.

Relativo a la mecánica, puede ser una forma específica de ángulos y medidas, tal que colocando las partes constituyentes en su sitio permite un ensamblaje calibrado y uniforme e identificar la carencia de algún elemento.

25

Page 26: Trabajo De La  Segunda  Semana

Relativo a sistemas computacionales, por ejemplo paquetes de programas basados en la web, utilizan en la actualidad un sistema de plantillas para separar la lógica del programa del formato visualizado. Típicamente, estas plantillas incluirán variables (frecuentemente denotadas como {VARIABLE}), y posiblemente unos pocos operadores lógicos para permitir una mejor adaptabilidad de la plantilla.

Hojas de estilo en cascada

Las hojas de Estilo en cascada (Cascading Style Sheets), CSS es un lenguaje artificial usado para definir la presentación de un documento estructurado escrito en HTML o XML (y por extensión en XHTML). El W3C (World Wide Web Consortium) es el encargado de formular la especificación de las hojas de estilo que servirán de estándar para los agentes de usuario o navegadores.

Por ejemplo, el elemento de HTML <H1> indica que un bloque de texto es un encabezamiento y que es más importante que un bloque etiquetado como <H2>. Versiones más antiguas de HTML permitían atributos extra dentro de la etiqueta abierta para darle formato (como el color o el tamaño de fuente). No obstante, cada etiqueta <H1> debía disponer de la información si se deseaba un diseño consistente para una página y, además, una persona que lea esa página con un navegador pierde totalmente el control sobre la visualización del texto.

Cuando se utiliza CSS, la etiqueta <H1> no debería proporcionar información sobre como va a ser visualizado, solamente marca la estructura del documento. La información de estilo separada en una hoja de estilo, especifica cómo se ha de mostrar <H1>: color, fuente, alineación del texto, tamaño y otras características no visuales como definir el volumen de un sintetizador de voz (véase Sintetización del habla), por ejemplo.

Etiqueta (lenguaje de marcado)

Una etiqueta o baliza (términos a veces reemplazados por el anglicismo tag) es una marca con tipo que delimita una región en los lenguajes basados en XML. También puede referirse a un conjunto de juegos informáticos interactivos que se añade a un elemento de los datos para identificarlo (Oxford English Dictionary). Esto ocurre, por ejemplo, en los archivos MP3 que guardan información sobre una canción así como sobre el artista que la ha cantado o compuesto.

Como ocurre en otros casos, a menudo se emplea la palabra inglesa (tag) a pesar de que «etiqueta» o «baliza» son perfectamente adecuadas. Con la llegada de la World Wide Web ha habido una invasión de tags. La Web se basa en el HTML, o «lenguaje de marcado de

26

Page 27: Trabajo De La  Segunda  Semana

hipertexto», que está basado en el uso de etiquetas. Las etiquetas (entre otras muchas cosas) le dicen al programa visualizador de páginas web (o navegador) en qué juego de caracteres está la página, de qué tipo es cada uno de los fragmentos de texto que contiene (por ejemplo, encabezamiento, texto normal, etc.), si están alineados a un lado o centrados, en qué tipo de letra está el texto (cursiva, negrita, etc.), si hay tablas, de qué anchura son etc. Dicho de otro modo: las balizas dan al navegador las instrucciones necesarias para que presente la página en pantalla.

XV. Cortafuegos (informática)

Esquema de una red de computadoras que utiliza un Cortafuegos.

Un cortafuego (o firewall en inglés) es una parte de un sistema o una red que está diseñado para bloquear el acceso no autorizado, permitiendo al mismo tiempo autorizado de comunicaciones. Se trata de un dispositivo o conjunto de dispositivos configurados para permitir, limitar, cifrar, descifrar, el tráfico entre los diferentes ámbitos sobre la base de un conjunto de normas y otros criterios.

Los cortafuegos pueden ser implementados en hardware o software, o una combinación de ambos. Los cortafuegos se utilizan con frecuencia para evitar que los usuarios de Internet no autorizados tengan acceso a redes privadas conectadas a Internet, especialmente intranets. Todos los mensajes que entren o salgan de la intranet pasan a través de los cortafuegos, que examina cada mensaje y bloquea aquellos que no cumplen los criterios de seguridad especificados. También es frecuente conectar al cortafuego a una tercera red, llamada zona desmilitarizada o DMZ, en la que se ubican los servidores de la organización que deben permanecer accesibles desde la red exterior. Un cortafuego correctamente configurado añade una protección necesaria a la red, pero que en ningún caso debe considerarse suficiente. La seguridad informática abarca más ámbitos y más niveles de trabajo y protección.

27

Page 28: Trabajo De La  Segunda  Semana

Red de área local

Una red de área local, red local o LAN (del inglés Local Área Network) es la interconexión de varios ordenadores y periféricos. Su extensión está limitada físicamente a un edificio o a un entorno de 200 metros o con repetidores podríamos llegar a la distancia de un campo de 1 kilómetro. Su aplicación más extendida es la interconexión de ordenadores personales y estaciones de trabajo en oficinas, fábricas, etc., para compartir recursos e intercambiar datos y aplicaciones. En definitiva, permite que dos o más máquinas se comuniquen.

El término red local incluye tanto el hardware como el software necesario para la interconexión de los distintos dispositivos y el tratamiento de la información.

Características importantes

Tecnología broadcast (difusión) con el medio de transmisión compartido. Cableado específico instalado normalmente a propósito. Capacidad de transmisión comprendida entre 1 Mbps y 1 Gbps. Extensión máxima no superior a 3 Km. (una FDDI puede llegar a 200 Km.) Uso de un medio de comunicación privado La simplicidad del medio de transmisión que utiliza (cable coaxial, cables

telefónicos y fibra óptica) La facilidad con que se pueden efectuar cambios en el hardware y el software Gran variedad y número de dispositivos conectados Posibilidad de conexión con otras redes Limitante de 100 m

WAN

Una Red de Área Amplia (Wide Área Network o WAN, del inglés), es un tipo de red de computadoras capaz de cubrir distancias desde unos 100km hasta unos 1000 Km., dando el servicio a un país o un continente. Un ejemplo de este tipo de redes sería RedIRIS, Internet o cualquier red en la cual no estén en un mismo edificio todos sus miembros (sobre la distancia hay discusión posible). Muchas WAN son construidas por y para una organización o empresa particular y son de uso privado, otras son construidas por los proveedores de Internet (ISP) para proveer de conexión a sus clientes.

28

Page 29: Trabajo De La  Segunda  Semana

Hoy en día Internet proporciona WAN de alta velocidad, y la necesidad de redes privadas WAN se ha reducido drásticamente mientras que las VPN que utilizan cifrado y otras técnicas para hacer esa red dedicada aumentan continuamente.

Normalmente la WAN es una red punto a punto, es decir, red de paquete conmutado. Las redes WAN pueden usar sistemas de comunicación vía satélite o de radio. Fue la aparición de los portátiles y los PDA la que trajo el concepto de redes inalámbricas.

Una red de área amplia o WAN (Wide Área Network) se extiende sobre un área geográfica extensa, a veces un país o un continente, y su función fundamental está orientada a la interconexión de redes o equipos terminales que se encuentran ubicados a grandes distancias entre sí. Para ello cuentan con una infraestructura basada en poderosos nodos de conmutación que llevan a cabo la interconexión de dichos elementos, por los que además fluyen un volumen apreciable de información de manera continúa. Por esta razón también se dice que las redes WAN tienen carácter público, pues el tráfico de información que por ellas circula proviene de diferentes lugares, siendo usada por numerosos usuarios de diferentes países del mundo para transmitir información de un lugar a otro. A diferencia de las redes LAN (siglas de “local área Network”, es decir, “red de área local”), la velocidad a la que circulan los datos por las redes WAN suele ser menor que la que se puede alcanzar en las redes LAN. Además, las redes LAN tienen carácter privado, pues su uso está restringido normalmente a los usuarios miembros de una empresa, o institución, para los cuales se diseñó la red.

La infraestructura de redes WAN la componen, además de los nodos de conmutación, líneas de transmisión de grandes prestaciones, caracterizadas por sus grandes velocidades y ancho de banda en la mayoría de los casos. Las líneas de transmisión (también llamadas “circuitos”, “canales” o “troncales”) mueven información entre los diferentes nodos que componen la red.

Los elementos de conmutación también son dispositivos de altas prestaciones, pues deben ser capaces de manejar la cantidad de tráfico que por ellos circula. De manera general, a estos dispositivos les llegan los datos por una línea de entrada, y este debe encargarse de escoger una línea de salida para reenviarlos. A continuación, en la Figura 1, se muestra un esquema general de los que podría ser la estructura de una WAN. En el mismo, cada Host está conectada a una red LAN, que a su vez se conecta a uno de los nodos de conmutación de la red WAN. Este nodo debe encargarse de encaminar la información hacia el destino para la que está dirigida.

Antes de abordar el siguiente tema, es necesario que quede claro el término conmutación, que pudiéramos definirlo como la manera en que los nodos o elementos de interconexión garantizan la interconexión de dos sistemas finales, para intercambiar información.

VLAN

Una VLAN (acrónimo de Virtual LAN, ‘red de área local virtual’) es un método de crear redes lógicamente independientes dentro de una misma red física. Varias VLANs pueden coexistir en un único conmutador físico o en una única red física. Son útiles para reducir

29

Page 30: Trabajo De La  Segunda  Semana

el tamaño del dominio de difusión y ayudan en la administración de la red separando segmentos lógicos de una red de área local (como departamentos de una empresa) que no deberían intercambiar datos usando la red local (aunque podrían hacerlo a través de un enrutador o un switch capa 3).Una ‘VLAN’ consiste en una red de ordenadores que se comportan como si estuviesen conectados al mismo conmutador, aunque pueden estar en realidad conectados físicamente a diferentes segmentos de una red de área local. Los administradores de red configuran las VLANs mediante software en lugar de hardware, lo que las hace extremadamente flexibles. Una de las mayores ventajas de las VLANs surge cuando se traslada físicamente algún ordenador a otra ubicación: puede permanecer en la misma VLAN sin necesidad de cambiar la configuración IP de la máquina.

XVI. Add-Ons Son suplementos adicionales que se le instalan a los programas para mejorar o realizar un función en especifico.

Complemento (informática)

Un complemento (o plug-in en inglés) es una aplicación que se relaciona con otra para aportarle una función nueva y generalmente muy especifica. Esta aplicación adicional es ejecutada por la aplicación principal e interactúan por medio de la API.

El primer plugin se diseñó en 1987 para el programa HyperCard de Macintosh.

Actualmente existe como una forma de expandir programas de forma modular, de manera que se puedan añadir sin afectar a las ya existentes ni complicar el desarrollo del programa principal.

Esto se refleja al intentar abrir un archivo que no posee un complemento en el sistema, como los documentos en PDF o las animaciones en Flash, lo que generará un error y se entrega, generalmente, un enlace para conseguir el complemento que no existe en el ordenador.

Spam

Se llama spam, correo basura o sms basura a los mensajes no solicitados, habitualmente de tipo publicitario, enviados en grandes cantidades (incluso masivas) que perjudican de alguna o varias maneras al receptor. La acción de enviar dichos mensajes se denomina spamming.

Aunque se puede hacer por distintas vías, la más utilizada entre el público en general es la basada en el correo electrónico.

30

Page 31: Trabajo De La  Segunda  Semana

Otras tecnologías de Internet que han sido objeto de correo basura incluyen grupos de noticias, usenet, motores de búsqueda, wikis, foros, blogs, también a través de popups y todo tipo de imágenes y textos en la web.

El correo basura también puede tener como objetivo los teléfonos móviles (a través de mensajes de texto) y los sistemas de mensajería instantánea como por ejemplo Outlook, Lotus Notes, etc.

También se llama spam a los virus sueltos en la red y páginas filtradas (casino, sorteos, premios, viajes y pornografía), se activa mediante el ingreso a páginas de comunidades o grupos o acceder a links en diversas páginas.

El correo basura mediante el servicio de correo electrónico nació el 5 de marzo de 1994. Este día una firma de abogados, Canter and Siegel, publica en Usenet un mensaje de anuncio de su firma legal; el día después de la publicación, facturó cerca de 10.000 dólares por casos de sus amigos y lectores de la red. Desde ese entonces, el marketing mediante correo electrónico ha crecido a niveles impensados desde su creación.

Aunque existen otras versiones de su origen que lo datan a hace 30 años: El 3 de mayo de 1978, 393 empleados de Arpanet, el predecesor de Internet gestionado por el gobierno estadounidense, recibían con sorpresa un correo de la compañía de ordenadores DEC invitándoles al lanzamiento de un nuevo producto.1

Cookie

Una cookie (pronunciado [’ku.ki]; literalmente galleta) es un fragmento de información que se almacena en el disco duro del visitante de una página Web a través de su navegador, a petición del servidor de la página. Esta información puede ser luego recuperada por el servidor en posteriores visitas. En ocasiones también se le llama “huella”.

Las inventó Lou Montulli, un antiguo empleado de Netscape Communications. Al ser el protocolo HTTP incapaz de mantener información por sí mismo, para que se pueda conservar información entre una página vista y otra (como login de usuario, preferencias de colores, etc.), ésta debe ser almacenada, ya sea en la URL de la página, en el propio servidor, o en una cookie en el ordenador del visitante.

De esta forma, los usos más frecuentes de las cookies son:

Llevar el control de usuarios: cuando un usuario introduce su nombre de usuario y contraseña, se almacena una cookie para que no tenga que estar introduciéndolas para cada página del servidor. Sin embargo una cookie no identifica a una persona, sino a una combinación de computador y navegador.

Conseguir información sobre los hábitos de navegación del usuario, e intentos de spyware, por parte de agencias de publicidad y otros. Esto puede causar problemas de privacidad y es una de las razones por la que las cookies tienen sus detractores.

31

Page 32: Trabajo De La  Segunda  Semana

Originalmente, sólo podían ser almacenadas por petición de un CGI desde el servidor, pero Netscape dio a su lenguaje Javascript la capacidad de introducirlas directamente desde el cliente, sin necesidad de CGIs. En un principio, debido a errores del navegador, esto dio algunos problemas de seguridad. Estas vulnerabilidades fueron descubiertas por Roberto Santizo. Las cookies pueden ser borradas, aceptadas o bloqueadas según desee, para esto sólo debe configurar convenientemente el navegador web.

Gadget

Un Gadget es un dispositivo que tiene un propósito y una función específica, generalmente de pequeñas proporciones, práctico y a la vez novedoso. Los Gadget suelen tener un diseño más ingenioso que el de la tecnología corriente.

Etimología y uso

Se suele pensar que la palabra fue inventada alrededor de los década de 1980 en Estados Unidos, pero en realidad su acuñación se remonta a los años 1884-5 por la compañía Gadget, Gauthier & CIA, encargada de la fundición de la Estatua de la Libertad, que al acercarse la fecha de la inauguración quería algo de publicidad y comenzó a vender réplicas en pequeña escala de la famosa dama.

La primera bomba atómica fue llamada Gadget por los científicos del Proyecto Manhattan, al ser experimentada en la Prueba Trinity.

En ficción, son populares en las películas de espías, especialmente en las series de James Bond o en las series de Batman e Iron Man, dependientes siempre de sus equipos. Otro personaje célebre de los dibujos animados dotado de un surtido de Gadget, era el Inspector Gadget.

Aunque en español se emplea esta palabra en los círculos tecnológicos por influencia del inglés, no viene recogida en la RAE (Real Academia Española) y ha suscitado una campaña por el uso de sinónimos con mayor tradición en el idioma, tales como “chisme”,1 a pesar de la connotación negativa que pueda tener. Otro sinónimo frecuentemente mencionado es el de artilugio.

Mini aplicaciones Gadget

El término Gadget (o widget), también se ha dado a una nueva categoría de mini aplicaciones, diseñadas para proveer de información o mejorar una aplicación o servicios de un ordenador o computadora, o bien cualquier tipo de interacción a través de Internet, por ejemplo una extensión de alguna aplicación de negocios, que nos provea información en tiempo real del estatus del negocio u organización.

Un ejemplo de un Gadget en una computadora serían los Gadget del Dashboard del sistema de Apple el Mac OS X Leopard o los de la barra lateral de Windows, que viene incluida en el nuevo sistema operativo de Microsoft: Windows Vista

32

Page 33: Trabajo De La  Segunda  Semana

Algunos ejemplos de Gadget

Muchos aparatos tecnológicos de tamaño reducido pueden ser considerados Gadget, como es el caso de los móviles, mandos a distancia, iPods, PDA, calculadoras, relojes, etc.

También Google tiene su sidebar con muchos Gadget (virtuales) que se pueden usar con el sistema operativo Windows XP, Windows Vista, Mac y GNU Linux

La lapicera (portaminas), la llave inglesa, el peine, el tenedor, entre muchos otros, también caben dentro de la definición menos tecnológica.

También se utiliza para designar todos los accesorios utilizados por corredores populares de carreras y maratones que no son calificados como imprescindibles.

XVII. RSS

RSS es una familia de formatos de fuentes Web codificados en XML. Se utiliza para suministrar a suscriptores de información actualizada frecuentemente. El formato permite distribuir contenido sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión Web o sindicación web (una traducción incorrecta, pero de uso muy común).

Fuente web

RSS fue el primer formato de fuente Web y sigue siendo el más común. Es un formato tan popular que es común que el término RSS es usado erróneamente para referirse a fuente web, independientemente de que el formato de dicha fuente sea RSS o no.

Agregadores

Gracias a los agregadores o lectores de fuentes Web (programas o sitios que permiten leer fuentes Web) se pueden obtener resúmenes de todos los sitios que se desee desde el escritorio del sistema operativo, programas de correo electrónico o por medio de aplicaciones web que funcionan como agregadores. No es necesario abrir el navegador y visitar decenas de webs.

Redifusión web

Redifusión Web (o sindicación web) es el reenvío o reemisión de contenidos desde una fuente original (sitio web de origen) hasta otro sitio web de destino (receptor) que a su

33

Page 34: Trabajo De La  Segunda  Semana

vez se convierte en emisor puesto que pone a disposición de sus usuarios los contenidos a los que en un principio sólo podían tener acceso los usuarios del sitio web de origen.

Habitualmente esta redifusión web se lleva a cabo mediante a un contrato o licencia entre las partes: sitio web de origen y sitio web de destino.

Si bien redifusión web es el término correcto, los que utilizan jerga emplean con mayor frecuencia el término sindicación web, especialmente en lo referido a contenidos web, si bien la redifusión de contenidos, además de en la internet, puede llevarse a cabo en cualquier medio de comunicación.

La redifusión web se refiere a la redifusión o redistribución de contenido web mediante la cual parte de la información de una página Web se pone a disposición de otros sitios web. Esto puede ser simplemente licenciando el contenido para que puedan usarlo otras personas; sin embargo, en general, la redifusión web se refiere a ofrecer un contenido informativo desde una fuente Web originario de una página Web para proporcionar a otras personas la actualización del mismo (por ejemplo, noticias de un periódico, nuevos artículos en una bitácora, los últimos comentarios en un foro, etcétera).

Las fuentes Web suelen codificarse en XML, aunque el formato puede ser cualquier otro que pueda transportarse mediante HTTP, como son HTML o Java script. Las dos principales familias de formatos de redifusión web son RSS y Atom. Recientemente el término RSS (Sindicación Realmente Simple) se ha usado indistintamente para referirse también a cualquiera de los formatos de fuentes web, ya sea RSS o Atom.

Para leer una fuente Web es necesario suscribirse mediante un agregador, una aplicación (de escritorio o basada en web) que muestra los contenidos nuevos publicados por el proveedor de la fuente Web suscrita.

Esto tuvo su origen en las páginas de noticias y las bitácoras, pero cada vez se utiliza más para redifundir cualquier tipo de información. La redifusión web también está ganando importancia en el comercio en línea, ya que los internautas son reacios a proporcionar información personal con fines comerciales (como apuntarse a un boletín de noticias) y en cambio esperan la posibilidad de recibir información mediante la suscripción a una fuente Web que permita la redifusión de sus contenidos.

Extensible Markup Language

XML, siglas en inglés de Extensible Markup Language (lenguaje de marcas extensible), es un metalenguaje extensible de etiquetas desarrollado por el World Wide Web Consortium (W3C). Es una simplificación y adaptación del SGML y permite definir la gramática de lenguajes específicos (de la misma manera que HTML es a su vez un lenguaje definido por SGML). Por lo tanto XML no es realmente un lenguaje en particular, sino una manera de definir lenguajes para diferentes necesidades. Algunos de estos lenguajes que usan XML para su definición son XHTML, SVG, MathML.

34

Page 35: Trabajo De La  Segunda  Semana

XML no ha nacido sólo para su aplicación en Internet, sino que se propone como un estándar para el intercambio de información estructurada entre diferentes plataformas. Se puede usar en bases de datos, editores de texto, hojas de cálculo y casi cualquier cosa imaginable.

XML es una tecnología sencilla que tiene a su alrededor otras que la complementan y la hacen mucho más grande y con unas posibilidades mucho mayores. Tiene un papel muy importante en la actualidad ya que permite la compatibilidad entre sistemas para compartir la información de una manera segura, fiable y fácil.

XVIII. BIBLIOGRAFIA

Todos los datos recopilados en este trabajo fueron extraídos de:

Enciclopedia Libre “Wikipedia”Y

Las experiencias vividas en mi trabajo

35