Capitulo 3

13
PLANETA WEB 2.0 CAPITULO 3.

Transcript of Capitulo 3

PLANETA WEB 2.0

CAPITULO 3.

Líneas Fundamentales de la arquitectura de la web 2.0.

PLANETA WEB 2.0CAPITULO 3.Mapa de aplicaciones. Una taxonomía comentada.

Líneas Fundamentales de la arquitectura de la web 2.0.

Bajo el riesgo de caer en simplificaciones, este capítulo busca presentar algunas líneas fundamentales de la arquitectura de la Web 2.0, definiendo las principales líneas de una compleja red de interconexiones y combinaciones.Conscientes de que todo esfuerzo de sistematizar u organizar los recursos existentes en la Red se reduce a un intento de éxito parcial, en este capítulo se proponen algunas pautas para orientar la selección de herramientas disponibles en Internet. Intentar depurar, clasificar y organizar el universo digital es una tarea sin fin y, por tanto, una especie de harakiri académico, cuya misión nunca se alcanzará plenamente. Esto se intensifica si se entiende la red de redes como un sistema abierto, vivo y en permanente mutación, donde mucho de lo que hoy se apunta en el papel mañana evoluciona o se fusiona y pierde vigencia.Hecha esta salvedad el ejercicio desarrollado en las próximas páginas tiene por objetivo ofrecer una selección de aplicaciones útiles, fáciles y gratuitas para quienes puedan interesarse en ellas.

ALEPH.

Afnix (llamado Aleph hasta el 2003) es un lenguaje de programación funcional mutihilos con alcance dinámico de variables y soporte para el paradigma de programación orientada a objetos.

El interpretador de Afnix está escrito en C++ y provee integración en tiempo de ejecución que incluye la posibilidad de instanciar clases de C++, utilizar métodos virtuales, lanzar y atrapar excepciones. Se dispone también de una interfaz para facilitar la integración de librerías externas.

Afnix está disponible para varias versiones de las plataformas UNIX, Linux y FreeBSD. La documentación incluye una guía de usuarios y el material de referencia. Está distribuido como software libre.

BIBLIOGRAFÍA DE BORGES (EL MICROCOSMO DE ALQUIMISTAS Y CABALISTAS).

Los diversos estratos de los textos de Borges estan tan envueltos en un "aura cabalistica" que

convierten a sus interpretes en "investigadores cabalisticos" (Alazraki ix, 15). Las concepciones cabalisticas se mencionan a lo largo de toda la obra de Borges: el primer testimonio de una teoria cabalistica aparece en su ensayo temprano "La historia de los angeles", escrito a los veintisiete anos, mientras que el relato cabalistico enfocado por el presente ensayo, "La rosa de Paracelso", fue escrito a los ochenta y tres anos, tres anos antes de su muerte. En terminos generales puede afirmarse que la atraccion por la cabala se fusiona con su interes intelectual por teorias y textos esotericos (Jaen 3-44), y por teorias idealistas como la del microcosmos y la intangibilidadde la realidad (Textos 376).

La doctrina cabalistica es analizada en detalle en diversos textos teoricos y poeticos. Entre los primeros cabe mencionar los ensayos "Del culto de los libros" (un analisis del culto cabalistico a la letra escrita) y "El espejo de los enigmas" (la concepcion del mundo como un sistema de simbolos), incluidos en Otras inquisiciones (1952). Asimismo, hay tres textos teoricos dedicados en exclusividad a la cabala: el ensayo "Una vindicacion de la cabala", una justificacion del metodo cabalistico como logicamente derivado de la hipotesis del texto absoluto. El segundo es la disertacion "La Cabala", parte de una serie de exposiciones pronunciadas en Buenos Aires, 1977, en la que Borges examina diversas teorias cabalisticas. El tercer ensayo, "The Kabbalah", el mas profundo e interesante sobre este tema, fue reescrito con Alazraki a partir de una conferencia grabada en 1970 y publicado en ingles como apendice al libro Borges and the Kabbalah en 1988. Borges expone aqui su propia concepcion intima sobre la cabala y las caracteristicas y metas del lenguaje cabalistico (Alazraki 7). El ultimo texto ocupara el centro de nuestro analisis teorico. Con respecto a los textos poeticos y de ficcion, tambien en ellos surge la teoria cabalistica en todo su esplendor, en especial en los que describen concepciones misticas. (6) La cabala es asimismo el tema central de los dos textos siguientes, que seran analizados en detalle: el poema "El golem", que describe la creacion del golem por el Rabino Juda Leon y cuyas primeras dos estrofas se focalizan en la descripcion del lenguaje como espacio ontologico, y el relato "La rosa de Paracelso", que describe la creacion de la rosa desde la ceniza a traves de "la ciencia de la cabala".

e interesante sobre este tema, fue reescrito con Alazraki a partir de una conferencia grabada en 1970 y publicado en ingles como apendice al libro Borges and the Kabbalah en 1988. Borges expone aqui su propia concepcion intima sobre la cabala y las caracteristicas y metas del lenguaje cabalistico (Alazraki 7). El ultimo texto ocupara el centro de nuestro analisis teorico. Con respecto a los textos poeticos y de ficcion, tambien en ellos surge la teoria cabalistica en todo su esplendor, en especial en los que describen concepciones misticas. (6) La cabala es asimismo el tema central de los dos textos siguientes, que seran analizados en detalle: el poema "El golem", que describe la creacion del golem por el Rabino Juda Leon y cuyas primeras dos estrofas se focalizan en la descripcion del lenguaje como espacio ontologico, y el relato "La rosa de Paracelso", que describe la creacion de la rosa desde la ceniza a traves de "la ciencia de la cabala".

UBUNTU Ubuntu (AFI: /uˈbuntu/) es una distribución Linux basada en Debian GNU/Linux que

proporciona un sistema operativo actualizado y estable para el usuario promedio, con un fuerte enfoque en la facilidad de uso y de instalación del sistema. Al igual que otras distribuciones se compone de múltiples paquetes de software normalmente distribuidos bajo una licencia libre o de código abierto.

Está patrocinado por Canonical Ltd., una compañía británica propiedad del empresario sudafricano Mark Shuttleworth que en vez de vender la distribución con fines lucrativos, se financia por medio de servicios vinculados al sistema operativo[4] [5] y vendiendo soporte técnico.[6] Además, al mantenerlo libre y gratuito, la empresa es capaz de aprovechar el talento de los desarrolladores de la comunidad en mejorar los componentes de su sistema operativo. Canonical también apoya y proporciona soporte para cuatro derivaciones de Ubuntu: Kubuntu, Xubuntu Edubuntu y la versión de Ubuntu orientada a servidores ("Ubuntu Server Edition").[7]

Cada seis meses se publica una nueva versión de Ubuntu la cual recibe soporte por parte de Canonical, durante dieciocho meses, por medio de actualizaciones de seguridad, parches para bugs críticos y actualizaciones menores de programas. Las versiones LTS (Long Term Support), que se liberan cada dos años,[8] reciben soporte durante tres años en los sistemas de escritorio y cinco para la edición orientada a servidores.[9]

La versión actual de Ubuntu, 9.10 ("Karmic Koala"), se liberó el 29 de octubre de 2009[10] y la próxima versión, 10.04 (nombre en código: Lucid Lynx), programada para ser publicada el 29 de abril de 2010.[11] Su nombre proviene de la ideología sudafricana Ubuntu ("humanidad hacia otros

TAXONOMÍA La taxonomía (del griego ταξις, taxis, "ordenamiento", y νομος, nomos, "norma" o "regla") es, en su

sentido más general, la ciencia de la clasificación. Habitualmente, se emplea el término para designar a la taxonomía biológica, la ciencia de ordenar a los organismos en un sistema de clasificación compuesto por una jerarquía de taxones anidados.

La Taxonomía Biológica es una subdisciplina de la Biología Sistemática, que estudia las relaciones de parentesco entre los organismos y su historia evolutiva. Actualmente, la Taxonomía actúa después de haberse resuelto el árbol filogenético de los organismos estudiados, esto es, una vez que están resueltos los clados, o ramas evolutivas, en función de las relaciones de parentesco entre ellos.

En la actualidad existe el consenso en la comunidad científica de que la clasificación debe ser enteramente consistente con lo que se sabe de la filogenia de los taxones, ya que sólo entonces dará el servicio que se espera de ella al resto de las ramas de la Biología (ver por ejemplo Soltis y Soltis 2003[1] ), pero hay escuelas dentro de la Biología Sistemática que definen con matices diferentes la manera en que la clasificación debe corresponderse con la filogenia conocida.

Más allá de la escuela que la defina, el fin último de la Taxonomía es organizar al árbol filogenético en un sistema de clasificación. Para ello, la escuela cladística (la que predomina hoy en día) convierte a los clados en taxones. Un taxón es un clado al que fue asignada una categoría taxonómica, al que se otorgó un nombre en latín, del que se hizo una descripción, al que se asoció a un ejemplar "tipo", y que fue publicado en una revista científica. Cuando se hace todo esto, el taxón tiene un nombre correcto. La Nomenclatura es la subdisciplina que se ocupa de reglamentar estos pasos, y se ocupa de que se atengan a los principios de nomenclatura. Los sistemas de clasificación que nacen como resultado, funcionan como contenedores de información por un lado, y como predictores por otro.

Una vez que está terminada la clasificación de un taxón, se extraen los caracteres diagnósticos de cada uno de sus miembros, y sobre esa base se confeccionan claves dicotómicas de identificación, las cuales son utilizadas en la tarea de la determinación o identificación de organismos, que ubica a un organismo desconocido en un taxón conocido del sistema de clasificación dado. La Determinación o identificación es además la especialidad, dentro de la taxonomía, que se ocupa de los principios de elaboración de las claves dicotómicas y otros instrumentos dirigidos al mismo fin.

Las normas que regulan la creación de los sistemas de clasificación son en parte convenciones más o menos arbitrarias. Para comprender estas arbitrariedades (por ejemplo, la nomenclatura binominal de las especies y la uninominal de las categorías superiores a especie, o también la cantidad de categorías taxonómicas y los nombres de las mismas) es necesario estudiar la historia de la Taxonomía, que nos ha dejado como herencia los Códigos Internacionales de Nomenclatura a cuyas reglas técnicas deben atenerse los sistemas de clasificación.

La nueva crisis de biodiversidad, los avances en el análisis del ADN, y la posibilidad de intercambiar información a través de Internet, han dado un enorme impulso a esta ciencia en la década de 2000, y han generado un debate acerca de la necesidad de hacer reformas sustanciales a los Códigos, que aún se están discutiendo. Algunos ejemplos de nuevas propuestas son la "Taxonomía libre de rangos", las "marcas de ADN" y la publicación por Internet.

LA ESTRUCTURA PROPUESTA BUSCA ORDENAR LA WEB 2.0 EN CUATRO LÍNEAS FUNDAMENTALES: En el ámbito de las ciencias sociales, una red social es una estructura social, un grupo de personas relacionadas entre sí, y puede representarse analíticamente en forma de uno o varios grafos, en los cuales los nodos representan individuos (a veces denominados actores) y las aristas representan las relaciones entre ellos. De 1997 a 2001, AsianAvenue, Blackplanet y MiGente permitían a los usuarios crear relaciones personales y profesionales, creando perfiles que permitían a los usuarios identificar amigos en sus redes sin pedir la aprobación de esas conexiones. La figura 1 en el apéndice describe el importante lanzamiento y relanzamiento de las fechas clave SRS dentro de la industria. Desde entonces diversas redes se han creado, unas permanecen y otras han desaparecido. Según la zona geográfica, el líder puede ir cambiando, pero hasta el 2009 los principales competidores a nivel mundial eran: Hi5, MySpace, Facebook, Tuenti, Twitter y Orkut.[

cita requerida]

MySpace se instaló en 2003 y se ha diferenciado de otros sitios porque permite a los usuarios personalizar sus páginas. Los adolescentes fueron los primeros en adoptarlo, y MySpace floreció a través de la atracción de este grupo demográfico. MySpace incluso ha modificado su política de usuario para permitir a los menores de edad crear sus propios perfiles a raíz de la demanda en el segmento de mercado. Conforme el sitio ha crecido, tres poblaciones se empezaron a formar: los músicos/artistas, jóvenes y adultos en su etapa posterior a la universidad.

Facebook fue creado originalmente para apoyar a las redes universitarias, en 2004 los usuarios del sitio estaban obligados a proporcionar las direcciones de correo electrónico asociada con las instituciones educativas. Este requisito lo llevó a ser un modelo de acceso relativamente cerrado, por lo que los usuarios tenían la percepción de la web como un sitio íntimo y privado de una comunidad demográfica cerrada. Facebook posteriormente se ha ampliado para incluir a los estudiantes de secundaria, profesionales, y finalmente todos los usuarios potenciales de Internet. otras tareas.

CONTENIDOS

La idea de los “contenidos generados por el usuario” (CGU) traducción de user-generated contents, se refiere a aquella información producida por cualquier usuario de Internet en espacios virtuales de alta visibilidad sin requerir conocimientos tecnológicos avanzados.Esto hace referencia a una evolución desde la etapa en que los cibernautas consumen contenidos creados por personas con ciertos privilegios (acceso a plataformas tecnológicas, experiencia en programación, etc.) hacia una fase en que los contenidos se generan por usuarios, quienes sólo necesitan una computadora, conectividad y conocimientos básicos en el uso de la Red.

Esta revolución tecnológica y también social hace posible la exploración de nuevas formas de organizar y compartir la información, que al mismo tiempo se convierten en una oportunidad para intercambiar el conocimiento distribuido entre las personas de todo el mundo.Esta revolución tecnológica y también social hace posible la exploración de nuevas formas de organizar y compartir la información, que al mismo tiempo se convierten en una oportunidad para intercambiar el conocimiento distribuido entre las personas de todo el mundo (conectado).Bajo esta perspectiva, la creación y el consumo de contenidos se transforman en un proceso unipersonal y colectivo, donde todos los actores alimentan esta cadena como un círculo virtuoso que potencia lo social con lo tecnológico, y viceversa.

ORGANIZACIÓN SOCIAL E INTELIGENTE DE LA INFORMACIÓN.

Multitudes inteligentes, Smart mobs, flash mobs o mobs en inglés, es una forma de organización social que nace y se estructura a través de las nuevas tecnologías de la información y las comunicaciones. El termino fue acuñado por Howard Rheingold en su libro Smart Mobs: The Next Social Revolution (Smart Mobs: La Próxima Revolución Social) y se puede traducir como "Multitud o Muchedumbre Inteligente". Según Rheingold, los "smart mobs" son un indicador de la evolución de las tecnologías de comunicación y son estas las que le otorgan poderes a las personas.

Estas tecnologías en desarrollo incluyen a Internet, con medios de Comunicación Digital tales como Chat, blogs, y páginas de contenido colaborativo así como también dispositivos de comunicación inalámbrico como teléfonos móviles y PDAs. Además, métodos como las redes peer to peer y la computación ubicua están cambiando la forma en que estas personas organizan y comparten la información. Un "smart mob" es un grupo que, contrario a la usual connotación de «muchedumbre», se comporta de manera inteligente o eficiente debido al crecimiento exponencial de enlaces en la red. Esta red de enlaces permite a las personas conectarse con la información y con otras personas, permitiendo de esta manera que se forme una coordinación social.

Estas estructuras descentralizadas, se organizan de una forma tal que se asemeja al comportamiento del "slime mold" o Myxomycota un moho (hongo) que adopta una apariencia unicelular o pluricelular dependiendo de las condiciones ambientales, haciendo el paralelo, a veces una voz y es a veces muchas voces, pero siempre organizadas.

Mashup (aplicación web )

Una aplicación web híbrida (mashup o remezcla) es un sitio web o aplicación web que usa contenido de otras aplicaciones Web para crear un nuevo contenido completo, consumiendo servicios directamente, siempre a través de protocolo http.

El contenido de un mashup normalmente proviene de sitios web de terceros a través de una interfaz pública o usando un API. Otros métodos que constituyen el origen de sus datos incluyen sindicadores web (RSS o Atom), Screen scraping, etc.

Los mashups están revolucionando el desarrollo web del mismo modo que los weblogs han revolucionado la publicación en línea.

Los mashups permiten que cualquiera combine, de forma innovadora, datos que existen en diferentes páginas web. Requieren pocos conocimientos técnicos, las APIs existentes son sencillas y potentes y los mashups son relativamente fáciles de diseñar. Los creadores de mashups son generalmente gente innovadora que desea combinar de formas nuevas y creativas datos disponibles públicamente.

Así como hay mashups muy útiles, existen otros que no pasan de ser sólo novedosos o publicitarios, con mínima utilidad práctica.

Los defensores e impulsores de las aplicaciones Web 2.0 afirman que los mashups son un ejemplo de este nuevo movimiento en el que los usuarios crean, participan e interactúan activamente.