Base de datos
Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo
contexto y almacenados sistemáticamente para su posterior uso. En este sentido; una
biblioteca puede considerarse una base de datos compuesta en su mayoría por
documentos y textos impresos en papel e indexados para su consulta. Actualmente, y
debido al desarrollo tecnológico de campos como la informática y la electrónica, la
mayoría de las bases de datos están en formato digital (electrónico), y por ende se ha
desarrollado y se ofrece un amplio rango de soluciones al problema del almacenamiento
de datos.
Existen programas denominados sistemas gestores de bases de datos, abreviado DBMS,
que permiten almacenar y posteriormente acceder a los datos de forma rápida y
estructurada. Las propiedades de estos DBMS, así como su utilización y administración,
se estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas;
También son ampliamente utilizadas en entornos científicos con el objeto de almacenar
la información experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se
encuentran protegidos por las leyes de varios países. Por ejemplo en España, los datos
personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de
Carácter Personal (LOPD) y en México por la Ley Federal de Transparencia y Acceso a la
Información Pública Gubernamental.
Tipos de base de datos [editar]
Las bases de datos pueden clasificarse de varias maneras, de acuerdo al contexto que se
esté manejando, la utilidad de las mismas o las necesidades que satisfagan.
Según la variabilidad de la base de Datos [editar]
Bases de datos estáticas [editar]
Son bases de datos de solo lectura, utilizadas primordialmente para almacenar datos
históricos que posteriormente se pueden utilizar para estudiar el comportamiento de
un conjunto de datos a través del tiempo, realizar proyecciones, tomar decisiones y
realizar análisis de datos para inteligencia empresarial.
Bases de datos dinámicas[editar]
Éstas son bases de datos donde la información almacenada se modifica con el tiempo,
permitiendo operaciones como actualización, borrado y edición de datos, además de las
operaciones fundamentales de consulta. Un ejemplo de esto puede ser la base de datos
utilizada en un sistema de información de un supermercado, una farmacia, un videoclub
o una empresa.
Según el contenido[editar]
Bases de datos bibliográficas[editar]
Sólo contienen un subrogante (representante) de la fuente primaria, que permite
localizarla. Un registro típico de una base de datos bibliográfica contiene información
sobre el autor, fecha de publicación, editorial, título, edición, de una determinada
publicación, etc. Puede contener un resumen o extracto de la publicación original, pero
nunca el texto completo, porque si no, estaríamos en presencia de una base de datos a
texto completo (o de fuentes primarias —ver más abajo). Como su nombre lo indica, el
contenido son cifras o números. Por ejemplo, una colección de resultados de análisis de
laboratorio, entre otras.
Bases de datos de texto completo[editar]
Almacenan las fuentes primarias, como por ejemplo, todo el contenido de todas las
ediciones de una colección de revistas científicas.
Directorios[editar]
Un ejemplo son las guías telefónicas en formato electrónico.
Bases de datos o "bibliotecas" de información química o biológica[editar]<
Son bases de datos que almacenan diferentes tipos de información proveniente de la
química, las ciencias de la vida o médicas. Se pueden considerar en varios subtipos:
Las que almacenan secuencias de nucleótidos o proteínas.
Las bases de datos de rutas metabólicas.
Bases de datos de estructura, comprende los registros de datos experimentales sobre
estructuras 3D de biomoléculas-
Bases de datos clínicas.
Bases de datos bibliográficas (biológicas, químicas, médicas y de otros campos):
PubChem, Medline, EBSCOhost.
Modelos de bases de datos[editar]
Además de la clasificación por la función de las bases de datos, éstas también se pueden
clasificar de acuerdo a su modelo de administración de datos.
Un modelo de datos es básicamente una "descripción" de algo conocido como
contenedor de datos (algo en donde se guarda la información), así como de los métodos
para almacenar y recuperar información de esos contenedores. Los modelos de datos
no son cosas físicas: son abstracciones que permiten la implementación de un sistema
eficiente de base de datos; por lo general se refieren a algoritmos, y conceptos
matemáticos.
Algunos modelos con frecuencia utilizados en las bases de datos:
Bases de datos jerárquicas[editar]
Artículo principal: Base de datos jerárquica
En este modelo los datos se organizan en forma de árbol invertido (algunos dicen raíz),
en donde un nodo padre de información puede tener varios hijos. El nodo que no tiene
padres es llamado raíz, y a los nodos que no tienen hijos se los conoce como hojas.
Las bases de datos jerárquicas son especialmente útiles en el caso de aplicaciones que
manejan un gran volumen de información y datos muy compartidos permitiendo crear
estructuras estables y de gran rendimiento.
Una de las principales limitaciones de este modelo es su incapacidad de representar
eficientemente la redundancia de datos.
Base de datos de red[editar]
Artículo principal: Base de datos de red
Éste es un modelo ligeramente distinto del jerárquico; su diferencia fundamental es la
modificación del concepto de nodo: se permite que un mismo nodo tenga varios padres
(posibilidad no permitida en el modelo jerárquico).
Fue una gran mejora con respecto al modelo jerárquico, ya que ofrecía una solución
eficiente al problema de redundancia de datos; pero, aún así, la dificultad que significa
administrar la información en una base de datos de red ha significado que sea un modelo
utilizado en su mayoría por programadores más que por usuarios finales.
Bases de datos transaccionales[editar]
Son bases de datos cuyo único fin es el envío y recepción de datos a grandes velocidades,
estas bases son muy poco comunes y están dirigidas por lo general al entorno de análisis
de calidad, datos de producción e industrial, es importante entender que su fin único es
recolectar y recuperar los datos a la mayor velocidad posible, por lo tanto la redundancia
y duplicación de información no es un problema como con las demás bases de datos,
por lo general para poderlas aprovechar al máximo permiten algún tipo de conectividad
a bases de datos relacionales.
Un ejemplo habitual de transacción es el traspaso de una cantidad de dinero entre
cuentas bancarias. Normalmente se realiza mediante dos operaciones distintas, una en
la que se decrementa el saldo de la cuenta origen y otra en la que incrementamos el
saldo de la cuenta destino. Para garantizar la atomicidad del sistema (es decir, para que
no aparezca o desaparezca dinero), las dos operaciones deben ser atómicas, es decir, el
sistema debe garantizar que, bajo cualquier circunstancia (incluso una caída del
sistema), el resultado final es que, o bien se han realizado las dos operaciones, o bien
no se ha realizado ninguna.
Bases de datos relacionales[editar]
Artículo principal: Modelo relacional
Artículo principal: Base de datos relacional
Éste es el modelo utilizado en la actualidad para modelar problemas reales y administrar
datos dinámicamente. Tras ser postulados sus fundamentos en 1970 por Edgar Frank
Codd, de los laboratorios IBM en San José (California), no tardó en consolidarse como
un nuevo paradigma en los modelos de base de datos. Su idea fundamental es el uso de
"relaciones". Estas relaciones podrían considerarse en forma lógica como conjuntos de
datos llamados "tuplas". Pese a que ésta es la teoría de las bases de datos relacionales
creadas por Codd, la mayoría de las veces se conceptualiza de una manera más fácil de
imaginar. Esto es pensando en cada relación como si fuese una tabla que está
compuesta por registros (las filas de una tabla), que representarían las tuplas, y campos
(las columnas de una tabla).
En este modelo, el lugar y la forma en que se almacenen los datos no tienen relevancia
(a diferencia de otros modelos como el jerárquico y el de red). Esto tiene la considerable
ventaja de que es más fácil de entender y de utilizar para un usuario esporádico de la
base de datos. La información puede ser recuperada o almacenada mediante
"consultas" que ofrecen una amplia flexibilidad y poder para administrar la información.
El lenguaje más habitual para construir las consultas a bases de datos relacionales es
SQL, Structured Query Language o Lenguaje Estructurado de Consultas, un estándar
implementado por los principales motores o sistemas de gestión de bases de datos
relacionales.
Durante su diseño, una base de datos relacional pasa por un proceso al que se le conoce
como normalización de una base de datos.
Durante los años 80 la aparición de dBASE produjo una revolución en los lenguajes de
programación y sistemas de administración de datos. Aunque nunca debe olvidarse que
dBase no utilizaba SQL como lenguaje base para su gestión.
Bases de datos multidimensionales[editar]
Artículo principal: Base de datos multidimensional
Son bases de datos ideadas para desarrollar aplicaciones muy concretas, como creación
de Cubos OLAP. Básicamente no se diferencian demasiado de las bases de datos
relacionales (una tabla en una base de datos relacional podría serlo también en una base
de datos multidimensional), la diferencia está más bien a nivel conceptual; en las bases
de datos multidimensionales los campos o atributos de una tabla pueden ser de dos
tipos, o bien representan dimensiones de la tabla, o bien representan métricas que se
desean estudiar.
Bases de datos orientadas a objetos[editar]
Artículo principal: Base de datos orientada a objetos
Este modelo, bastante reciente, y propio de los modelos informáticos orientados a
objetos, trata de almacenar en la base de datos los objetos completos (estado y
comportamiento).
Una base de datos orientada a objetos es una base de datos que incorpora todos los
conceptos importantes del paradigma de objetos:
Encapsulación - Propiedad que permite ocultar la información al resto de los objetos,
impidiendo así accesos incorrectos o conflictos.
Herencia - Propiedad a través de la cual los objetos heredan comportamiento dentro de
una jerarquía de clases.
Polimorfismo - Propiedad de una operación mediante la cual puede ser aplicada a
distintos tipos de objetos.
En bases de datos orientadas a objetos, los usuarios pueden definir operaciones sobre
los datos como parte de la definición de la base de datos. Una operación (llamada
función) se especifica en dos partes. La interfaz (o signatura) de una operación incluye
el nombre de la operación y los tipos de datos de sus argumentos (o parámetros). La
implementación (o método) de la operación se especifica separadamente y puede
modificarse sin afectar la interfaz. Los programas de aplicación de los usuarios pueden
operar sobre los datos invocando a dichas operaciones a través de sus nombres y
argumentos, sea cual sea la forma en la que se han implementado. Esto podría
denominarse independencia entre programas y operaciones.
SQL:2003, es el estándar de SQL92 ampliado, soporta los conceptos orientados a objetos
y mantiene la compatibilidad con SQL92.
Bases de datos documentales[editar]
Artículo principal: Base de datos documental
Permiten la indexación a texto completo, y en líneas generales realizar búsquedas más
potentes. Tesaurus es un sistema de índices optimizado para este tipo de bases de datos.
Bases de datos deductivas[editar]
Un sistema de base de datos deductiva, es un sistema de base de datos pero con la
diferencia de que permite hacer deducciones a través de inferencias. Se basa
principalmente en reglas y hechos que son almacenados en la base de datos. Las bases
de datos deductivas son también llamadas bases de datos lógicas, a raíz de que se basa
en lógica matemática. Este tipo de base de datos surge debido a las limitaciones de la
Base de Datos Relacional de responder a consultas recursivas y de deducir relaciones
indirectas de los datos almacenados en la base de datos.
Lenguaje[editar]
Utiliza un subconjunto del lenguaje Prolog llamado Datalog el cual es declarativo y
permite al ordenador hacer deducciones para contestar a consultas basándose en los
hechos y reglas almacenados.
Ventajas[editar]
Uso de reglas lógicas para expresar las consultas.
Permite responder consultas recursivas.
Cuenta con negaciones estratificadas
Capacidad de obtener nueva información a través de la ya almacenada en la base de
datos mediante inferencia.
Uso de algoritmos de optimización de consultas.
Soporta objetos y conjuntos complejos.
Fases[editar]
Fase de Interrogación: se encarga de buscar en la base de datos informaciones
deducibles implícitas. Las reglas de esta fase se denominan reglas de derivación.
Fase de Modificación: se encarga de añadir a la base de datos nuevas informaciones
deducibles. Las reglas de esta fase se denominan reglas de generación.
Interpretación[editar]
Encontramos dos teorías de interpretación de las bases de datos deductiva
consideramos las reglas y los hechos como axiomas. Los hechos son axiomas base que
se consideran como verdaderos y no contienen variables. Las reglas son axiomas
deductivos ya que se utilizan para deducir nuevos hechos.
Teoría de Modelos: una interpretación es llamada modelo cuando para un conjunto
específico de reglas, éstas se cumplen siempre para esa interpretación. Consiste en
asignar a un predicado todas las combinaciones de valores y argumentos de un dominio
de valores constantes dado. A continuación se debe verificar si ese predicado es
verdadero o falso.
Mecanismos[editar]
Existen dos mecanismos de inferencia:
Ascendente: donde se parte de los hechos y se obtiene nuevos aplicando reglas de
inferencia.
Descendente: donde se parte del predicado (objetivo de la consulta realizada) e intenta
encontrar similitudes entre las variables que nos lleven a hechos correctos almacenados
en la base de datos.
Sistema de Gestión de bases de datos distribuida (SGBD)[editar]
La base de datos y el software SGBD pueden estar distribuidos en múltiples sitios
conectados por una red. Hay de dos tipos:
1. Distribuidos homogéneos: utilizan el mismo SGBD en múltiples sitios.
2. Distribuidos heterogéneos: Da lugar a los SGBD federados o sistemas multibase de
datos en los que los SGBD participantes tienen cierto grado de autonomía local y tienen
acceso a varias bases de datos autónomas preexistentes almacenados en los SGBD,
muchos de estos emplean una arquitectura cliente-servidor.
Estas surgen debido a la existencia física de organismos descentralizados. Esto les da la
capacidad de unir las bases de datos de cada localidad y acceder así a distintas
universidades, sucursales de tiendas, etcétera.
Véase también[editar]
Sistema de gestión de base de datos
Modelo relacional, normalización de bases de datos
Base de datos orientada a objetos
Almacén de datos
Minería de datos
Base de datos biológica
Base de datos probabilística.
Que es una tabla.
Tabla en las bases de datos, se refiere al tipo de modelado de datos, donde se
guardan los datos recogidos por un programa. Su estructura general se asemeja
a la vista general de un programa de hoja de cálculo.
Una tabla es utilizada para organizar y presentar información. Las tablas se
componen de filas y columnas de celdas que se pueden rellenar con textos y
gráficos Las tablas se componen de dos estructuras:
Registro: es cada una de las filas en que se divide la tabla. Cada registro
contiene datos de los mismos tipos que los demás registros. Ejemplo: en una
tabla de nombres y direcciones, cada fila contendrá un nombre y una
dirección.
Campo: es cada una de las columnas que forman la tabla. Contienen datos
de tipo diferente a los de otros campos. En el ejemplo anterior, un campo
contendrá un tipo de datos único, como una dirección, o un número de
teléfono, un nombre, etc.
A los campos se les puede asignar, además, propiedades especiales que afectan
a los registros insertados. El campo puede ser definido
como índice oautoincrementable, lo cual permite que los datos de ese campo
cambien solos o sean el principal indicar a la hora de ordenar los datos
contenidos.
Cada tabla creada debe tener un nombre único en la cada Base de Datos,
haciéndola accesible mediante su nombre o su seudónimo (Alias) (dependiendo
del tipo de base de datos elegida) La estructura de las tablas viene dado por la
forma de un archivo plano, los cuales en un inicio se componían de un modo
similar.
Tablas:
Son los objetos principales de bases de datos que se utilizan para guardar datos.
Elemento disponible en el lenguaje HTML para la creación de recuadros
rectangulares que pueden o no estar anidados y pueden o no contener
celdas(recuadros más pequeños dentro de una tabla, pero que no se consideran
tablas). Las tablas se utilizan para organizar, posicionar o dar mejor formato a
los textos y gráficos en una página web.
Pueden crearse gráficamente a través de un programa desarrollador de páginas
web o manejando los tags correspondientes del lenguaje.
Tipos de Tablas[editar]
Además de la función estándar de las tablas básicas definidas por el usuario,
SQL Server proporciona los siguientes tipos de tabla, que permiten llevar a cabo
objetivos especiales en una base de datos:que se utiliza para acomodar los
datos.
Tablas con particiones[editar]
Las tablas con particiones son tablas cuyos datos se han dividido
horizontalmente entre unidades que pueden repartirse por más de un grupo de
archivos de una base de datos. Las particiones facilitan la administración de las
tablas y los índices grandes porque permiten obtener acceso y administrar
subconjuntos de datos con rapidez y eficacia al mismo tiempo que mantienen la
integridad del conjunto. En un escenario de broadway, las operaciones como,
por ejemplo, la carga de datos de un sistema OLTP a un sistema OLAP, pueden
realizarse en cuestión de segundos en lugar de minutos u horas en otras
versiones. Las operaciones de mantenimiento que se realizan en los
subconjuntos de datos también se realizan de forma más eficaz porque sólo
afectan a los datos necesarios en lugar de a toda la tabla. NENE EN BOLAAAA
Tiene sentido crear una tabla con particiones si la tabla es muy grande o se
espera que crezca mucho, y si alguna de las dos condiciones siguientes es
verdadera:
La tabla contiene, o se espera que contenga, muchos datos que se utilizan de
manera diferente. Las consultas o las actualizaciones de la tabla no se realizan
como se esperaba o los costos de mantenimiento son superiores a los períodos
de mantenimiento predefinidos. Las tablas con particiones admiten todas las
propiedades y características asociadas con el diseño y consulta de tablas
estándar, incluidas las restricciones, los valores predeterminados, los valores de
identidad y marca de tiempo, los desencadenadores y los índices. Por lo tanto,
si desea implementar una vista con particiones que sea local respecto a un
servidor, debe implementar una tabla con particiones. Para obtener información
para comprender, diseñar e implementar tablas con particiones, vea Tablas e
índices con particiones.
Tablas temporales[editar]
Hay dos tipos de tablas temporales: locales y globales. Las tablas temporales
locales son visibles sólo para sus creadores durante la misma conexión a una
instancia de SQL Server como cuando se crearon o cuando se hizo referencia a
ellas por primera vez. Las tablas temporales locales se eliminan cuando el
usuario se desconecta de la instancia de SQL Server. Las tablas temporales
globales están visibles para cualquier usuario y conexión una vez creadas, y se
eliminan cuando todos los usuarios que hacen referencia a la tabla se
desconectan de la instancia de SQL Server.
Para obtener más información acerca de las tablas temporales, vea Conceptos
básicos para crear y modificar tablas.
Tablas del sistema[editar]
SQL Server almacena los datos que definen la configuración del servidor y de
todas sus tablas en un conjunto de tablas especial, conocido como tablas del
sistema. Los usuarios no pueden consultar ni actualizar directamente las tablas
del sistema si no es a través de una conexión de administrador dedicada (DAC)
que sólo debería utilizarse bajo la supervisión de los servicios de atención al
cliente de Microsoft. Para obtener más información, vea Usar una conexión de
administrador dedicada. Las tablas de sistema se cambian normalmente en cada
versión nueva de SQL Server. Puede que las aplicaciones que hacen referencia
directamente a las tablas del sistema tengan que escribirse de nuevo para poder
actualizarlas a una versión nueva de SQL Server con una versión diferente de
las tablas de sistema. La información de las tablas del sistema está disponible a
través de las vistas de catálogo. Para obtener más información, vea Tablas del
sistema (Transact-SQL).
Con las tablas anchas, puede crear esquemas flexibles dentro de una aplicación.
Puede agregar o quitar columnas siempre que lo desee. Tenga presente que el
uso de tablas anchas tiene consideraciones de rendimiento únicas, como
e13eunos mayores requisitos de memoria en tiempo de ejecución y en tiempo
de compilación. Para obtener más información, vea Consideraciones de
rendimiento para las tablas anchas.
Tablas persistentes[editar]
Son aquellas que permiten que los registros sean eliminados o borrados
manualmente y tenemos de tres tipos:
Base.- Es en donde se encuentra toda la información de todos los registros sin
que se haga ninguna validación adicional.
Vistas.- Es una vista o relación que se hace en referencia a una fila o columna
específica.
Instantáneos.- Son aquellos registros que se los puede ver de manera inmediata
con solo una referencia.
Tablas de datos[editar]
Tabla en las bases de datos, se refiere al tipo de modelado de datos, donde se
guardan los datos recogidos por un programa. Su estructura general se asemeja
a la vista general de un programa de Hoja de cálculo.
Las tablas se componen de dos estructuras:
Campo: Corresponde al nombre de la columna. Debe ser único y además de
tener un tipo de dato asociado. Registro: Corresponde a cada fila que compone
la tabla. Allí se componen los datos y los registros. Eventualmente pueden ser
nulos en su almacenamiento. En la definición de cada campo, debe existir un
nombre único, con su tipo de dato correspondiente. Esto es útil a la hora de
manejar varios campos en la tabla, ya que cada nombre de campo debe ser
distinto entre sí.
A los campos se les puede asignar, además, propiedades especiales que afectan
a los registros insertados. El campo puede ser definido como índice o
autoincrementable, lo cual permite que los datos de ese campo cambien solos o
sean el principal indicar a la hora de ordenar los datos contenidos.
Cada tabla creada debe tener un nombre único en la cada base de datos,
haciéndola accesible mediante su nombre o su seudónimo (Alias) (dependiendo
del tipo de base de datos elegida).
La estructura de las tablas viene dado por la forma de un archivo plano, los
cuales en un inicio se componían de un modo similar.
En bases de datos que son los
meta datos.
Metadatos (del griego μετα, meta, 'después de, más allá de'1 y latín datum, 'lo
que se da', «dato»2 ), literalmente «sobre datos», son datos que describen otros
datos. En general, un grupo de metadatos se refiere a un grupo de datos,
llamado recurso. El concepto de metadatos es análogo al uso de índices para
localizar objetos en vez de datos. Por ejemplo, en una biblioteca se usan fichas
que especifican autores, títulos, casas editoriales y lugares para buscar libros.
Así, los metadatos ayudan a ubicar datos.3
Para varios campos de la informática, como la recuperación de información o
la web semántica, los metadatos en etiquetas son un enfoque importante para
construir un puente sobre el intervalo semántico.
Definiciones
El término «metadatos» no tiene una definición única. Según la definición más
difundida de metadatos es que son «datos sobre datos». También hay muchas
declaraciones como «informaciones sobre datos»,4 «datos sobre
informaciones»5 e «informaciones sobre informaciones».6
Otra clase de definiciones trata de precisar el término como «descripciones
estructuradas y opcionales que están disponibles de forma pública para ayudar
a localizar objetos»7 o «datos estructurados y codificados que describen
características de instancias conteniendo informaciones para ayudar a
identificar, descubrir, valorar y administrar las instancias descritas».8 Esta clase
surgió de la crítica de que las declaraciones más simples son tan difusas y
generales que dificultarán la tarea de acordar estándares, pero estas
definiciones no son muy comunes.
Podemos también considerar los metadatos, en las áreas de telecomunicaciones
e informática, como información no relevante para el usuario final pero sí de
suma importancia para el sistema que maneja la data. Los metadatos son
enviados junto a la información cuando se realiza alguna petición o actualización
de la misma.
En el campo biológico los metadatos se han convertido en una herramienta
fundamental para el descubrimiento de datos e información. En este contexto se
pueden definir los metadatos como «una descripción estandarizada de las
características de un conjunto de datos» con esto se incluye la descripción del
contexto en el cual los datos fueron coleccionados y además se refiere al uso de
estándares para describirlos [1].
Distinción entre datos y metadatos[editar]
La mayoría de las veces no es posible diferenciar entre datos y metadatos. Por
ejemplo, un poema es un grupo de datos, pero también puede ser un grupo de
metadatos si está adjuntado a una canción que lo usa como texto.
Muchas veces, los datos son tanto "datos" como "metadatos". Por ejemplo, el
título de un texto es parte del texto como a la vez es un dato referente al texto
(dato como metadato).
Metadatos sobre metadatos[editar]
Debido a que los metadatos son datos en sí mismos, es posible crear metadatos
sobre metadatos. Aunque, a primera vista, parece absurdo, los metadatos sobre
metadatos pueden ser muy útiles. Por ejemplo, fusionando dos imágenes y sus
metadatos distintos puede ser muy importante deducir cuál es el origen de cada
grupo de metadatos, registrando ello en metadatos sobre los metadatos.
Objetivos[editar]
El uso de los metadatos mencionado más frecuentemente es la refinación de
consultas a buscadores. Usando información adicional los resultados son más
precisos, y el usuario se ahorra filtraciones manuales complementarias.
El intervalo semántico plantea el problema de que el usuario y el ordenador no
se entiendan porque este último no comprenda el significado de los datos. Es
posible que los metadatos posibiliten la comunicación declarando cómo están
relacionados los datos. Por eso la representación del conocimiento usa
metadatos para categorizar informaciones. La misma idea facilita la inteligencia
artificial al deducir conclusiones automáticamente.
Los metadatos facilitan el flujo de trabajo convirtiendo datos automáticamente de
un formato a otro. Para eso es necesario que los metadatos describan contenido
y estructura de los datos.9
Algunos metadatos hacen posible una compresión de datos más eficaz. Por
ejemplo, si en un vídeo el software sabe distinguir el primer plano del fondo
puede usar algoritmos de compresión diferentes y así mejorar la cuota de
compresión.10
Otra idea de aplicación es la presentación variable de datos. Si hay metadatos
señalando los detalles más importantes, un programa puede seleccionar la forma
de presentación más adecuada. Por ejemplo, si un teléfono móvil sabe dónde
está localizada una persona en una imagen, tiene la posibilidad de reducirlo a
las dimensiones de su pantalla. Del mismo modo un navegador puede decidir
presentar un diagrama a su usuario ciego en forma táctil o leída.11
Clasificación[editar]
Los metadatos se clasifican usando tres criterios:
Contenido. Subdividir metadatos por su contenido es lo más común. Se
puede separar los metadatos que describen el recurso mismo de los que
describen elcontenido del recurso. Es posible subdividir estos dos grupos
más veces, por ejemplo para separar los metadatos que describen el sentido
del contenido de los que describen la estructura del contenido o los que
describen el recurso mismo de los que describen el ciclo vital del recurso.
Variabilidad. Según la variabilidad se puede distinguir
metadatos mutables e inmutables. Los inmutables no cambian, no importa
qué parte del recurso se vea, por ejemplo el nombre de un fichero. Los
mutables difieren de parte a parte, por ejemplo el contenido de un vídeo.12
Función. Los datos pueden ser parte de una de las tres capas de funciones:
subsimbólicos, simbólicos o lógicos. Los datos subsimbólicos no contienen
información sobre su significado. Los simbólicos describen datos
subsimbólicos, es decir añaden sentido. Los datos lógicos describen cómo
los datos simbólicos pueden ser usados para deducir conclusiones lógicas,
es decir añaden comprensión.13
Ciclo de vida[editar]
El ciclo de vida de los metadatos comprende las
fases creación, manipulación y destrucción. El análisis minucioso de cada una
de las etapas saca a la luz asuntos significativos.
Creación[editar]
Se pueden crear
metadatos manualmente, semiautomáticamente o automáticamente. El proceso
manual puede ser muy laborioso, dependiente del formato usado y del volumen
deseado, hasta un grado en el que los seres humanos no puedan superarlo. Por
eso, el desarrollo de utillaje semiautomático o automático es más que deseable.
En la producción automática el software adquiere las informaciones que necesita
sin ayuda externa. Aunque el desarrollo de algoritmos tan avanzados está siendo
objeto de investigación actualmente, no es probable que la computadora vaya a
ser capaz de extraer todos los metadatos automáticamente. En vez de ello, se
considera la producción semiautomática más realista; aquí un servidor humano
sostiene algoritmos autónomos con la aclaración de inseguridades o la
proposición de informaciones que el software no puede extraer sin ayuda.
Hay muchos expertos que se encargan del diseño de herramientas para la
creación de metadatos pero que ignoran cuestionar este proceso. Según los que
no evitan el asunto, la generación no debe comenzar después de la terminación
de un recurso sino que debe hacerse durante la fabricación: hay que archivar los
metadatos tan pronto como se originan, con los conocimientos especiales del
productor, para evitar una laboriosa reconstrucción posterior. Por eso, se tiene
que integrar la producción de metadatos en el procedimiento de fabricación del
recurso.12
Manipulación[editar]
Si los datos cambian, los metadatos tienen que cambiar también. Aquí se hace
la pregunta quien va a adaptar los metadatos. Hay modificaciones que pueden
ser manejadas sencilla y automáticamente, pero hay otras donde la intervención
de un servidor humano es indispensable.
La metaproducción, el reciclaje de partes de recursos para crear otros recursos,
demanda atención particular. La fusión de los metadatos afiliados no es trivial,
especialmente si se trata de información con relevancia jurídica, como por
ejemplo la gestión digital de derechos.
Destrucción[editar]
Además hay que investigar la destrucción de metadatos. En algunos casos es
conveniente eliminar los metadatos junto con sus recursos, en otros es razonable
conservar los metadatos, por ejemplo para supervisar cambios en un documento
de texto.
Metadatos en la informática[editar]
Los metadatos han cobrado gran relevancia en el mundo de Internet, por la
necesidad de utilizar los metadatos para la clasificación de la enorme cantidad
de datos. Además de la clasificación los metadatos pueden ayudar en las
búsquedas. Por ejemplo, si buscamos un artículo sobre vehículos, este dato
tendrá sus correspondiente metadatos clave adjuntos, como 4 ruedas, motor,
etc.
Otros ejemplos de usos de metadatos en la informática:
Metatags en HTML: etiquetas con información sobre el propio documento
web: autor, editor, codificación, etc.
Información en el propio sistema de ficheros: HFS o ReiserFS, por nombrar
dos. Se ven completados por los buscadores inteligentes (Beagle o Spotlight)
que saben reconocer estos metadatos.
Clasificaciones de fotos: F-Spot, Picasa o iPhoto, por ejemplo.
Clasificadores de canciones: contienen metadatos sobre las canciones, bien
en MP3 o en CD de audio, en un formato llamado ID3. Por
ejemplo: iTunes yRhythmbox.
Almacenamiento[editar]
Hay dos posibilidades para almacenar metadatos: depositarlos internamente, en
el mismo documento que los datos, o depositarlos externamente, en su mismo
recurso. Inicialmente, los metadatos se almacenaban internamente para facilitar
la administración.
Hoy, por lo general, se considera mejor opción la localización externa porque
hace posible la concentración de metadatos para optimizar operaciones de
búsqueda. Por el contrario, existe el problema de cómo se liga un recurso con
sus metadatos. La mayoría de los estándares usa URIs, la técnica de localizar
documentos en laWorld Wide Web, pero este método propone otras preguntas,
por ejemplo qué hacer con documentos que no tienen URI.
Codificación[editar]
Los primeros y más simples formatos de los metadatos usaron texto no cifrado
o la codificación binaria para almacenar metadatos en ficheros.
Hoy, es común codificar metadatos usando XML. Así, son legibles tanto por
seres humanos como por computadoras. Además este lenguaje tiene muchas
características a su favor, por ejemplo es muy simple integrarlo en la World Wide
Web. Pero también hay inconvenientes: los datos necesitan más espacio de
memoria que en formato binario y no está claro cómo convertir la estructura
de árbol en una corriente de datos.
Por eso, muchos estándares incluyen utilidades para convertir XML en
codificación binaria y viceversa, de forma que se únen las ventajas de los dos.
Vocabularios controlados y ontologías[editar]
Para garantizar la uniformidad y la compatibilidad de los metadatos, muchos
sugieren el uso de un vocabulario controlado fijando los términos de un campo.
Por ejemplo, en caso de sinónimos o interlenguaje hay que acordarse qué
palabras se usan para evitar que el buscador localice «español» pero no
«española».
Una ontología además define las relaciones de los términos del vocabulario para
que la computadora puede evaluarlas automáticamente. Así es posible presentar
una página web sobre «Vincent Van Gogh» aunque el usuario tecleó «pintores
neerlandeses»; usando una ontología adecuada el buscador comprende que
Van Gogh fue un pintor neerlandés.
Un concepto muy similar a las ontologías son las folksonomías. Las ontologías
son definidas por expertos del campo que ordenan los términos, pero las
folksonomías son definidas por los mismos usuarios.
Crítica[editar]
Algunos expertos critican fuertemente el uso de metadatos. Sus argumentos más
sustanciosos son:
Los metadatos son costosos y necesitan demasiado tiempo. Las empresas
no van a producir metadatos porque no hay demanda y los usuarios privados
no van a invertir tanto tiempo.
Los metadatos son demasiado complicados. La gente no acepta los
estándares porque no los comprende y no quiere aprenderlos.
Los metadatos dependen del punto de vista y del contexto. No hay dos
personas que añadan los mismos metadatos. Además, los mismos datos
pueden ser interpretados de manera totalmente diferente, dependiendo del
contexto.
Los metadatos son ilimitados. Es posible adherir más y más metadatos útiles
y no hay fin.
Los metadatos son superfluos. Ya hay buscadores potentes para textos, y en
el futuro la técnica query by example («búsqueda basada en un ejemplo») va
a mejorarse, tanto para localizar imágenes como para música y vídeo.
Algunos estándares de metadatos están disponibles pero no se aplican: los
críticos lo consideran una prueba de las carencias del concepto de metadatos.
Hay que notar que este efecto también puede ser causado por insuficiente
compatibilidad de los formatos o por la enorme diversidad que amedrenta a las
empresas. Fuera de eso hay fomatos de metadatos muy populares.
Que es un registro
En informática, o concretamente en el contexto de una base de datos
relacional, un registro (también llamado fila o tupla) representa
un objeto único de datos implícitamente estructurados en una tabla. En
términos simples, una tabla de una base de datos puede imaginarse formada
de filas y columnas o campos. Cada fila de una tabla representa un conjunto de
datos relacionados, y todas las filas de la misma tabla tienen la misma
estructura.
Un registro es un conjunto de campos que contienen los datos que pertenecen
a una misma repetición de entidad. Se le asigna automáticamente un número
consecutivo (número de registro) que en ocasiones es usado como índice
aunque lo normal y práctico es asignarle a cada registro un campo clave para
su búsqueda.
Que es un programa.
Un programa informático es un conjunto de instrucciones que una vez
ejecutadas realizarán una o varias tareas en una computadora. Sin programas,
estas máquinas no pueden funcionar.1 2 Al conjunto general de programas, se le
denomina software, que más genéricamente se refiere al equipamiento lógico o
soporte lógico de una computadora digital.
En informática, se los denomina comúnmente binarios, (propio en sistemas Unix,
donde debido a la estructura de este último, los ficheros no necesitan hacer uso
de extensiones; posteriormente, los presentaron como ficheros ejecutables, con
extensión .exe, en los sistemas operativos de la familia Windows) debido a que
una vez que han pasado por el proceso de compilación y han sido creados, las
instrucciones que se escribieron en un determinado lenguaje de programación,
han sido traducidas al único idioma que la máquina comprende, combinaciones
de ceros y unos llamado código máquina. El mismo término, puede referirse tanto
a un programa ejecutable, como a su código fuente, el cual es transformado en
un binario una vez que es compilado.
Generalmente el código fuente lo escriben profesionales conocidos
como programadores. Este código se escribe en un lenguaje que sigue uno de
los siguientes dos paradigmas: imperativo o declarativo, y que posteriormente
puede ser convertido en una imagen ejecutable a través de un programa-
compilador. Cuando se pide que el programa sea ejecutado, el procesador
ejecuta instrucción por instrucción.
De acuerdo a sus funciones, los programas informáticos se clasifican
en software de sistema y software de aplicación. En los computadores actuales,
al hecho de ejecutar varios programas de forma simultánea y eficiente, se le
conoce como multitarea.
La programación de computadoras es el proceso iterativo de escribir o
editar código fuente. Dicha edición de código fuente implica probar, analizar y
perfeccionar, y, a veces, coordinar con otros programadores, en el caso de un
programa desarrollado en conjunto. Una persona que practica esta técnica se la
conoce como programador de computadoras, desarrollador de software, o
codificador. El proceso, a veces a largo plazo, de programación de computadoras
normalmente se lo conoce como desarrollo de software. El término ingeniería de
software se está convirtiendo en muy popular, ya que esta actividad es vista
como una disciplina de ingeniería.
Paradigmas[editar]
Los programas de ordenador se pueden clasificar según
el paradigma del lenguaje de programación utilizado para producirlos. Dos de los
principales paradigmas son imperativos y declarativos.
Los programas escritos con un lenguaje imperativo especifican
un algoritmo utilizando declaraciones, expresiones e informes.3 Una declaración
asocia un nombre de variable a un tipo de datos. Por ejemplo: var x:
integer; . Una expresión produce un valor. Por ejemplo: 2 + 2produce 4. Por
último, una declaración puede asignar una expresión a una variable o usar el
valor de una variable para alterar las estructuras de control del programa. Por
ejemplo: x := 2 + 2; if x = 4 then hacer_algo(); Una crítica de los
lenguajes imperativos es el efecto secundario de una sentencia de asignación
en una clase de variables llamadas variables no locales.4
Los programas escritos en un lenguaje declarativo especifican las propiedades
que tienen o que deben cumplirse para la salida. No especifican detalles
expresados en términos de flujo de control de la máquina de ejecución pero sí
de las relaciones matemáticas entre los objetos declarados y sus propiedades.
Los lenguajes funcionales y lógicos son dos amplias categorías de lenguajes
declarativos. El principio detrás de los lenguajes funcionales (como Haskell) es
el de no permitirefectos secundarios, lo que hace que sea más fácil para razonar
sobre los programas como si se tratasen de funciones matemáticas.4 El principio
detrás de los lenguajes lógicos (como Prolog) es definir el problema a ser
resuelto - la meta - y dejar la solución detallada al propio sistema Prolog.5 El
objetivo se define proporcionando la lista de sub-objetivos. Luego, cada
subobjetivo se define más arriba, proporcionando la lista de sus sub-objetivos,
etc. Si la ruta de sub-objetivos no encuentra una solución, entonces ese
subobjetivo se retrocede y otra vía se intenta sistemáticamente.
La forma en que se crea el programa puede ser textual o visual. En un programa
de lenguaje visual, los elementos en vez de ser textualmente especificados son
manipulados gráficamente.
Ejecución[editar]
Una vez escritos, pueden ser ejecutados de diversas formas6 :
Mediante un programa que va adaptando las instrucciones conforme son
encontradas. A este proceso se lo llama interpretar y a los programas que lo
hacen se los conoce como intérpretes. Ejemplos de esto son bash, clásico
en estaciones Unix y que fue escrito para el proyecto GNU o Python, cuya
peculiaridad además de ser multipropósito, está en su facilidad de uso y
productividad y de hecho, es usado en parte de los
proyectos Google y YouTube.7
Traduciendo el código escrito del programa (lo que se denomina código
fuente), a su equivalente en lenguaje máquina. A este proceso se le
llama compilar y al programa traductor se le denomina compilador. Ejemplos
de esto son: El lenguaje C, que combina en su sintaxis características de
medio y bajo nivel y el compilador gcc usado en el proyecto GNU.
Programas que se auto-modifican[editar]
Un programa informático en ejecución normalmente es tratado como algo
diferente de los datos con los cuales opera. Sin embargo, en algunos casos ésta
distinción es ambigua, especialmente cuando un programa se modifica a sí
mismo. El programa modificado es secuencialmente ejecutado como parte del
mismo programa. El código que se auto-modifica es posible para programas
escritos en código máquina, Lenguaje
ensamblador, Lisp, C, COBOL, PL/1 y Prolog yJavaScript (la función eval), entre
otros.
Ejecución y almacenamiento de los programas[editar]
Típicamente, los programas se almacenan en una memoria no volátil (por
ejemplo un disco), para que luego el usuario de la computadora, directa o
indirectamente, solicite su ejecución. Al momento de dicha solicitud, el programa
es cargado en la memoria de acceso aleatorio o RAM del equipo, bajo el control
del softwarellamado sistema operativo, el cual puede acceder directamente
al procesador. El procesador ejecuta (corre) el programa, instrucción por
instrucción hasta que termina. A un programa en ejecución se le suele llamar
también proceso. Un programa puede terminar su ejecución en forma normal o
por causa de un error, dicho error puede ser de software o de hardware.
Programas empotrados en hardware[editar]
El microcontrolador a la derecha de laMemoria USB está controlada por
unfirmware empotrado.
Algunos programas están empotrados en el hardware.
Una computadora con arquitectura de programas almacenadosrequiere un
programa inicial almacenado en su ROM para arrancar. El proceso de arranque
es para identificar e inicializar todos los aspectos del sistema, desde los registros
del procesador, controladores de dispositivos hasta el contenido de lamemoria
RAM.8 Seguido del proceso de inicialización, este programa inicial carga
al sistema operativo e inicializa alcontador de programa para empezar las
operaciones normales. Independiente de la computadora, un dispositivo de
hardware podría tener firmware empotrado para el control de sus operaciones.
El firmware se utiliza cuando se espera que el programa cambie en raras
ocasiones o nunca, o cuando el programa no debe perderse cuando haya
ausencia de energía.9
Programas cargados manualmente[editar]
Interruptores para la carga manual en una Data General Nova 3.
Los programas históricamente se cargaron manualmente al procesador central
mediante interruptores. Una instrucción era representada por una configuración
de estado abierto o cerrado de los interruptores. Después de establecer la
configuración, se ejecutaba un botón de ejecución. Este proceso era repetitivo.
También, históricamente los programas se cargaban manualmente mediante
unacinta de papel o tarjetas perforadas. Después de que el programa se
cargaba, la dirección de inicio se establecía mediante interruptores y el botón de
ejecución se presionaba.10
Programas generados automáticamente[editar]
La programación automática es un estilo de programación que crea código
fuente mediante clases genéricas, prototipos,plantillas, aspectos, y generadores
de código para aumentar la productividad del programador. El código fuente se
genera con herramientas de programación tal como un procesador de plantilla o
un IDE. La forma más simple de un generador de código fuente es un
procesador macro, tal como el preprocesador de C, que reemplaza patrones de
código fuente de acuerdo a reglas relativamente simples.
Un motor de software da de salida código fuente o lenguaje de marcado que
simultáneamente se vuelve la entrada de otro proceso informático. Podemos
pensar como analogía un proceso manejando a otro siendo el código máquina
quemado como combustible. Los servidores de aplicaciones son motores de
software que entregan aplicaciones a computadoras cliente. Por ejemplo,
un software para wikis es un sevidor de aplicaciones que permite a los usuarios
desarrollar contenido dinámico ensamblado a partir de artículos. Las Wikis
generan HTML, CSS, Java, y Javascript los cuales son interpretados por
un navegador web.
Ejecución simultánea[editar]
Véanse también: Proceso (informática) y Multiprocesamiento.
Muchos programas pueden correr simultáneamente en la misma computadora,
a lo cual se le conoce como multitarea y puede lograrse a través de mecanismos
de software o de hardware. Los sistemas operativos modernos pueden correr
varios programas a través del planificador de procesos — un mecanismo de
software para conmutar con frecuencia la cantidad de procesos del procesador
de modo que los usuarios puedan interactuar con cada programa mientras estos
están corriendo.11 También se puede lograr la multitarea por medio del hardware;
las computadoras modernas que usan varios procesadores o procesadores con
varios núcleos pueden correr muchos programas a la vez.12
Categorías funcionales[editar]
Los programas se pueden categorizar según líneas funcionales. Estas
categorías funcionales son software de sistema y software de aplicación. El
software de sistema incluye al sistema operativo el cual acopla el hardware con
el software de aplicación.13 El propósito del sistema operativo es proveer un
ambiente en el cual el software de aplicación se ejecuta de una manera
conveniente y eficiente.13 Además del sistema operativo, el software de sistema
incluye programas utilitariosque ayudan a manejar y configurar la computadora.
Si un programa no es software de sistema entonces es software de aplicación.
El middleware también es un software de aplicación que acopla el software de
sistema con la interfaz de usuario. También son software de aplicación los
programas utilitarios que ayudan a los usuarios a resolver problemas de
aplicaciones, como por ejemplo la necesidad de ordenamiento.
Que es un software.
Se conoce como software1 al equipamiento lógico o soporte lógico de
un sistema informático, que comprende el conjunto de los
componentes lógicos necesarios que hacen posible la realización de tareas
específicas, en contraposición a los componentes físicos que son
llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones
informáticas; tales como el procesador de texto, que permite al usuario realizar
todas las tareas concernientes a la edición de textos; el llamado software de
sistema, tal como el sistema operativo, que básicamente permite al resto de los
programas funcionar adecuadamente, facilitando también la interacción entre los
componentes físicos y el resto de las aplicaciones, y proporcionando
una interfaz con el usuario.
El anglicismo "software" es el más ampliamente difundido al referirse a este
concepto, especialmente en la jerga técnica; en tanto que el término sinónimo
«logicial», derivado del término francés logiciel, es utilizado mayormente en
países y zonas de influencia francesa.
Etimología
Software (pronunciación AFI:[ˈsɒftwɛəʳ]) es una palabra proveniente
del inglés (literalmente: partes blandas o suaves), que en español no posee una
traducción adecuada al contexto, por lo cual se la utiliza asiduamente sin traducir
y así fue admitida por la Real Academia Española (RAE).2 Aunque puede no ser
estrictamente lo mismo, suele sustituirse por expresiones tales como programas
(informáticos) o aplicaciones (informáticas) o soportes lógicos.3
Software es lo que se denomina producto en Ingeniería de Software.4
Definición de software
Existen varias definiciones similares aceptadas para software, pero
probablemente la más formal sea la siguiente:
Es el conjunto de los programas de cómputo, procedimientos, reglas,
documentación y datos asociados, que forman parte de las operaciones de un
sistema de computación.
Extraído del estándar 729 del IEEE5
Considerando esta definición, el concepto de software va más allá de los
programas de computación en sus distintos estados: código
fuente, binario o ejecutable; también su documentación, los datos a procesar e
incluso la información de usuario forman parte del software: es decir, abarca todo
lo intangible, todo lo «no físico» relacionado.
El término «software» fue usado por primera vez en este sentido por John W.
Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el
software es toda la información procesada por los sistemas informáticos:
programas y datos.
El concepto de leer diferentes secuencias de instrucciones (programa) desde
la memoria de un dispositivo para controlar los cálculos fue introducido
por Charles Babbage como parte de su máquina diferencial. La teoría que forma
la base de la mayor parte del software moderno fue propuesta por Alan Turing en
su ensayo de 1936, «Los números computables», con una aplicación al problema
de decisión.
Clasificación del software
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los
fines prácticos se puede clasificar al software en tres grandes tipos:
Software de sistema: Su objetivo es desvincular adecuadamente al usuario
y al programador de los detalles del sistema informático en particular que se
use, aislándolo especialmente del procesamiento referido a las
características internas de: memoria, discos, puertos y dispositivos de
comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema
le procura al usuario y programador adecuadas interfaces de alto
nivel, controladores, herramientas y utilidades de apoyo que permiten el
mantenimiento del sistema global. Incluye entre otros:
Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Servidores
Utilidades
Software de programación: Es el conjunto de herramientas que permiten
al programador desarrollar programas informáticos, usando diferentes
alternativas ylenguajes de programación, de una manera práctica. Incluyen
básicamente:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores
herramientas, usualmente en un entorno visual, de forma tal que el
programador no necesite introducir múltiples comandos para compilar,
interpretar, depurar, etc. Habitualmente cuentan con una
avanzada interfaz gráfica de usuario (GUI).
Software de aplicación: Es aquel que permite a los usuarios llevar a cabo
una o varias tareas específicas, en cualquier campo de actividad susceptible
de ser automatizado o asistido, con especial énfasis en los negocios. Incluye
entre muchos otros:
Aplicaciones para Control de sistemas y automatización industrial
Aplicaciones ofimáticas
Software educativo
Software empresarial
Bases de datos
Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
Videojuegos
Software médico
Software de cálculo numérico y simbólico.
Software de diseño asistido (CAD)
Software de control numérico (CAM)
Proceso de creación del software
Artículo principal: Proceso para el desarrollo de software
Se define como proceso al conjunto ordenado de pasos a seguir para llegar a la
solución de un problema u obtención de un producto, en este caso particular,
para lograr un producto software que resuelva un problema específico.
El proceso de creación de software puede llegar a ser muy complejo,
dependiendo de su porte, características y criticidad del mismo. Por ejemplo la
creación de un sistema operativo es una tarea que requiere proyecto, gestión,
numerosos recursos y todo un equipo disciplinado de trabajo. En el otro extremo,
si se trata de un sencillo programa (por ejemplo, la resolución de una ecuación
de segundo orden), éste puede ser realizado por un solo programador (incluso
aficionado) fácilmente. Es así que normalmente se dividen en tres categorías
según su tamaño (líneas de código) o costo: de «pequeño», «mediano» y «gran
porte». Existen varias metodologías para estimarlo, una de las más populares
es el sistema COCOMO que provee métodos y un software (programa) que
calcula y provee una aproximación de todos los costos de producción en un
«proyecto software» (relación horas/hombre, costo monetario, cantidad de líneas
fuente de acuerdo a lenguaje usado, etc.).
Considerando los de gran porte, es necesario realizar complejas tareas, tanto
técnicas como de gerencia, una fuerte gestión y análisis diversos (entre otras
cosas), la complejidad de ello ha llevado a que desarrolle una ingeniería
específica para tratar su estudio y realización: es conocida como Ingeniería de
Software.
En tanto que en los de mediano porte, pequeños equipos de trabajo (incluso un
avezado analista-programador solitario) pueden realizar la tarea. Aunque,
siempre en casos de mediano y gran porte (y a veces también en algunos de
pequeño porte, según su complejidad), se deben seguir ciertas etapas que son
necesarias para la construcción del software. Tales etapas, si bien deben existir,
son flexibles en su forma de aplicación, de acuerdo a la metodología o proceso
de desarrolloescogido y utilizado por el equipo de desarrollo o por el analista-
programador solitario (si fuere el caso).
Los «procesos de desarrollo de software» poseen reglas preestablecidas, y
deben ser aplicados en la creación del software de mediano y gran porte, ya que
en caso contrario lo más seguro es que el proyecto no logre concluir o termine
sin cumplir los objetivos previstos, y con variedad de fallos inaceptables
(fracasan, en pocas palabras). Entre tales «procesos» los hay ágiles o livianos
(ejemplo XP), pesados y lentos (ejemplo RUP), y variantes intermedias.
Normalmente se aplican de acuerdo al tipo y porte del software a desarrollar, a
criterio del líder (si lo hay) del equipo de desarrollo. Algunos de esos procesos
son Programación Extrema(en inglés eXtreme Programming o XP), Proceso
Unificado de Rational (en inglés Rational Unified Process o RUP), Feature Driven
Development (FDD), etc.
Cualquiera sea el «proceso» utilizado y aplicado al desarrollo del software (RUP,
FDD, XP, etc), y casi independientemente de él, siempre se debe aplicar un
«modelo de ciclo de vida».6
Se estima que, del total de proyectos software grandes emprendidos, un 28%
fracasan, un 46% caen en severas modificaciones que lo retrasan y un 26% son
totalmente exitosos. 7
Cuando un proyecto fracasa, rara vez es debido a fallas técnicas, la principal
causa de fallos y fracasos es la falta de aplicación de una buena metodología o
proceso de desarrollo. Entre otras, una fuerte tendencia, desde hace pocas
décadas, es mejorar las metodologías o procesos de desarrollo, o crear nuevas
y concientizar a los profesionales de la informática a su utilización adecuada.
Normalmente los especialistas en el estudio y desarrollo de estas áreas
(metodologías) y afines (tales como modelos y hasta la gestión misma de los
proyectos) son los ingenieros en software, es su orientación. Los especialistas
en cualquier otra área de desarrollo informático (analista, programador, Lic. en
informática, ingeniero en informática, ingeniero de sistemas, etc.) normalmente
aplican sus conocimientos especializados pero utilizando modelos, paradigmas
y procesos ya elaborados.
Es común para el desarrollo de software de mediano porte que los equipos
humanos involucrados apliquen «metodologías propias», normalmente un
híbrido de los procesos anteriores y a veces con criterios propios.
El proceso de desarrollo puede involucrar numerosas y variadas tareas,6 desde
lo administrativo, pasando por lo técnico y hasta la gestión y el gerenciamiento.
Pero, casi rigurosamente, siempre se cumplen ciertas etapas mínimas; las que
se pueden resumir como sigue:
Captura, elicitación8 , especificación y análisis de requisitos (ERS)
Diseño
Codificación
Pruebas (unitarias y de integración)
Instalación y paso a producción
Mantenimiento
En las anteriores etapas pueden variar ligeramente sus nombres, o ser más
globales, o contrariamente, ser más refinadas; por ejemplo indicar como una
única fase (a los fines documentales e interpretativos) de «análisis y diseño»; o
indicar como «implementación» lo que está dicho como «codificación»; pero en
rigor, todas existen e incluyen, básicamente, las mismas tareas específicas.
En el apartado 4 del presente artículo se brindan mayores detalles de cada una
de las etapas indicadas.
Modelos de proceso o ciclo de vida
Para cada una de las fases o etapas listadas en el ítem anterior, existen sub-
etapas (o tareas). El modelo de proceso o modelo de ciclo de vida utilizado para
el desarrollo, define el orden de las tareas o actividades involucradas,6 también
define la coordinación entre ellas, y su enlace y realimentación. Entre los más
conocidos se puede mencionar: modelo en cascada o secuencial, modelo
espiral, modelo iterativo incremental. De los antedichos hay a su vez algunas
variantes o alternativas, más o menos atractivas según sea la aplicación
requerida y sus requisitos.7
Modelo cascada
Este, aunque es más comúnmente conocido como modelo en cascada es
también llamado «modelo clásico», «modelo tradicional» o «modelo lineal
secuencial».
El modelo en cascada puro difícilmente se utiliza tal cual, pues esto implicaría un
previo y absoluto conocimiento de los requisitos, la no volatilidad de los mismos
(o rigidez) y etapas subsiguientes libres de errores; ello sólo podría ser aplicable
a escasos y pequeños sistemas a desarrollar. En estas circunstancias, el paso
de una etapa a otra de las mencionadas sería sin retorno, por ejemplo pasar del
diseño a la codificación implicaría un diseño exacto y sin errores ni probable
modificación o evolución: «codifique lo diseñado sin errores, no habrá en
absoluto variantes futuras». Esto es utópico; ya que intrínsecamente el software
es de carácter evolutivo,9 cambiante y difícilmente libre de errores, tanto durante
su desarrollo como durante su vida operativa.6
Fig. 2 - Modelo cascada puro o secuencial para el ciclo de vida del software.
Algún cambio durante la ejecución de una cualquiera de las etapas en este
modelo secuencial implicaría reiniciar desde el principio todo el ciclo completo,
lo cual redundaría en altos costos de tiempo y desarrollo. La Figura 2 muestra
un posible esquema de el modelo en cuestión.6
Sin embargo, el modelo cascada en algunas de sus variantes es uno de los
actualmente más utilizados,10 por su eficacia y simplicidad, más que nada en
software de pequeño y algunos de mediano porte; pero nunca (o muy rara vez)
se lo usa en su "forma pura", como se dijo anteriormente. En lugar de ello,
siempre se produce alguna realimentación entre etapas, que no es
completamente predecible ni rígida; esto da oportunidad al desarrollo de
productos software en los cuales hay ciertas incertezas, cambios o evoluciones
durante el ciclo de vida. Así por ejemplo, una vez capturados y especificados los
requisitos (primera etapa) se puede pasar al diseño del sistema, pero durante
esta última fase lo más probable es que se deban realizar ajustes en los
requisitos (aunque sean mínimos), ya sea por fallas detectadas, ambigüedades
o bien por que los propios requisitos han cambiado o evolucionado; con lo cual
se debe retornar a la primera o previa etapa, hacer los reajuste pertinentes y
luego continuar nuevamente con el diseño; esto último se conoce como
realimentación.
De esta manera se obtiene el «modelo cascada realimentado», que puede ser
esquematizado como lo ilustra la Figura 3.
Fig. 3 - Modelo cascada realimentado para el ciclo de vida.
Lo dicho es, a grandes rasgos, la forma y utilización de este modelo, uno de los más
usados y populares.6 El modelo cascada realimentado resulta muy atractivo, hasta ideal, si
el proyecto presenta alta rigidez (pocos cambios, previsto no evolutivo), los requisitos son
muy claros y están correctamente especificados.10
Hay más variantes similares al modelo: refino de etapas (más etapas, menores y más
específicas) o incluso mostrar menos etapas de las indicadas, aunque en tal caso la
faltante estará dentro de alguna otra. El orden de esas fases indicadas en el ítem previo es
el lógico y adecuado, pero adviértase, como se dijo, que normalmente habrá
realimentación hacia atrás.
El modelo lineal o en cascada es el paradigma más antiguo y extensamente utilizado, sin
embargo las críticas a él (ver desventajas) han puesto en duda su eficacia. Pese a todo,
tiene un lugar muy importante en la Ingeniería de software y continúa siendo el más
utilizado; y siempre es mejor que un enfoque al azar.
Que es un sistema.
Un sistema (del latín systēma, y este del griego σύστημα [sýstema]) es un objeto
complejo cuyos componentes se relacionan con al menos algún otro
componente; puede ser material o conceptual.1 Todos los sistemas tienen
composición, estructura y entorno, pero sólo los sistemas materiales tienen
mecanismo, y sólo algunos sistemas materiales tienen figura (forma). Según
el sistemismo, todos los objetos son sistemas o componentes de otro
sistema.2 Por ejemplo, un núcleo atómico es un sistema material físico
compuesto de protones y neutrones relacionados por la interacción nuclear
fuerte; una molécula es un sistema material químico compuesto
de átomos relacionados por enlaces químicos; una célula es un sistema material
biológico compuesto de orgánulos relacionados por enlaces químicos no-
covalentes y rutas metabólicas; una corteza cerebral es un sistema material
biológico compuesto de neuronas relacionadas por potenciales de
acción yneurotransmisores; un ejército es un sistema material social y
parcialmente artificial compuesto de personas y artefactos relacionados por el
mando, elabastecimiento, la comunicación y la guerra; el anillo de los números
enteros es un sistema conceptual algebraico compuesto de números
positivos, negativos y elcero relacionados por la suma y la multiplicación; y
una teoría científica es un sistema conceptual lógico compuesto
de hipótesis, definiciones y teoremasrelacionados por la correferencia y
la deducción (implicación).
Sistemas conceptuales[editar]
Un sistema conceptual, sistema formal o sistema ideal es
un constructo compuesto por conceptos de cuatro diferentes tipos:
1. Individuos, por ejemplo: ,
2. Predicados, relatores o atributos, ejemplo: ;
3. conjuntos, por ejemplo: ; y
4. operadores, por ejemplo: (el hamiltoniano cuántico).
Así, los conceptos no son sistemas conceptuales, sino sólo componentes de
sistemas conceptuales. Sí son sistemas conceptuales
1. Los esquemas proposicionales, por ejemplo: ;
2. Las proposiciones, por ejemplo: ;
3. Las estructuras algebraicas, por ejemplo: ; y
4. Los contextos, por ejemplo: una teoría.
Sistemas materiales[editar]
Artículo principal: Sistema físico
Un sistema material, sistema concreto o sistema real es una cosa compuesta
(por dos o más cosas relacionadas) que posee propiedades que no poseen sus
componentes, llamadas propiedades emergentes; por ejemplo, la tensión
superficial es una propiedad emergente que poseen los líquidos pero que no
poseen sus moléculas componentes. Al ser cosas, los sistemas materiales
poseen las propiedades de las cosas, como tener energía (e intercambiarla),
tener historia, yuxtaponerse con otras cosas y ocupar una posición en el espacio
tiempo.
El esfuerzo por encontrar leyes generales del comportamiento de los sistemas
materiales es el que funda la teoría de sistemas y, más en general, el enfoque
de la investigación científica a la que se alude como sistemismo, sistémica o
pensamiento sistémico, en cuyo marco se encuentran disciplinas y teorías como
lacibernética, la teoría de la información, la teoría del caos, la dinámica de
sistemas y otras.
Análisis CEEM[editar]
El análisis más sencillo del concepto de sistema material es el que incluye los
conceptos de composición, entorno, estructura y mecanismo (CEEM, por sus
siglas). La composición de un sistema es el conjunto de sus partes componentes.
El entorno o ambiente de un sistema es el conjunto de las cosas que actúan
sobre los componentes del sistema, o sobre las que los componentes del sistema
actúan. La estructura interna o endoestructura de un sistema es el conjunto de
relaciones entre los componentes del sistema. La estructura externa o
exoestructura de un sistema es el conjunto de relaciones entre los componentes
del sistema y los elementos de su entorno. La estructura total de un sistema es
la unión de su exoestructura y su endoestructura. Las relaciones más
importantes son los vínculos o enlaces, aquellas que afectan a los componentes
relacionados; las relaciones espaciotemporales no son vínculos.
El mecanismo de un sistema es el conjunto de procesos internos que lo hacen
cambiar algunas propiedades, mientras que conserva otras.
Además, la frontera de un sistema es el conjunto de componentes que están
directamente vinculados (sin nada interpuesto) con los elementos de su entorno.
La frontera de un sistema físico puede ser rígida o móvil, permeable o
impermeable, conductor térmico (adiabática) o no, conductor eléctrico o no, e
incluso puede ser aislante de frecuencias de audio. Además, algunos sistemas
tienen figura (forma); pero no todo sistema con frontera tiene necesariamente
figura. Si hay algún intercambio de materia entre un sistema físico y su entorno
a través de su frontera, entonces el sistema es abierto; de lo contrario, el sistema
es cerrado. Si un sistema cerrado tampoco intercambia energía, entonces el
sistema es aislado. En rigor, el único sistema aislado es el universo. Si un
sistema posee la organización necesaria para controlar su propio desarrollo,
asegurando la continuidad de su composición y estructura (homeostasis) y la de
los flujos y transformaciones con que funciona (homeorresis) —mientras las
perturbaciones producidas desde su entorno no superen cierto grado—,
entonces el sistema es autopoyético.
Que es una empresa.
Una empresa es una organización, institución o industria dedicada a actividades
o persecución de fines económicos o comerciales, para satisfacer las
necesidades de bienes o servicios de los demandantes, a la par de asegurar la
continuidad de la estructura productivo-comercial así como sus
necesarias inversiones.
Se ha notado que, en la práctica, se puede encontrar una variedad
de definiciones del término.
Definiciones
Se puede considerar que una definición de uso común en círculos comerciales
es la siguiente: “Una empresa es un sistema con su entorno materializa una idea,
de forma planificada, dando satisfacción a demandas y deseos de clientes, a
través de una actividad comercial". Requiere de una razón de ser, una misión,
una estrategia, objetivos, tácticas y políticas de actuación. Se necesita de una
visión previa, y de una formulación y desarrollo estratégico de la empresa. Se
debe partir de una buena definición de la misión. La planificación posterior está
condicionada por dicha definición.1
La Comisión de la Unión Europea sugiere la siguiente definición: «Se considerará
empresa toda entidad, independientemente de su forma jurídica, que ejerza una
actividad económica. En particular, se considerarán empresas las entidades que
ejerzan una actividad artesanal u otras actividades a título individual o familiar,
las sociedades de personas, y las asociaciones que ejerzan una actividad
económica de forma regular».2
De acuerdo al Derecho internacional, la empresa es el conjunto
de capital, administración y trabajo dedicados a satisfacer una necesidad en
el mercado.3
Un diccionario legal de EE. UU. las define como: “an economic organization or
activity; especially: a business organization” (una organización o actividad
económica; especialmente una organización de negocios).4
Otra definición -con un sentido más académico y de uso general
entre sociólogos- es: “Grupo social en el que a través de la administración de
sus recursos, del capital y del trabajo, se producen bienes o servicios tendientes
a la satisfacción de las necesidades de una comunidad. Conjunto
de actividades humanas organizadas con el fin de producir bienes o servicios”.5
Percepciones de la función social de las empresas
Adam Smith se encuentra entre los primeros en teorizar al respecto. Para él una
empresa es la organización que permite la "internacionalización" de las formas
de producción: por un lado permite que los factores de producción (capital,
trabajo, recursos) se encuentren y por el otro permite la división del trabajo. Aún
cuando para Smith la forma "natural" y eficiente de tal organización era aquella
motivada por el interés privado -por ejemplo: «Es así que el interés privado y las
pasiones de los individuos los disponen naturalmente a volver sus posesiones
(stock en el original) hacia el empleo que en el caso ordinario son más ventajosos
para la comunidad»6 - Smith propone que hay también una necesidad o área que
demanda acción pública: «De acuerdo al sistema de Libertad Natural,
el Soberano sólo tiene tres deberes que atender, tercero, la obligación de realizar
y conservar determinadas obras públicas y determinadas instituciones públicas,
cuya realización y mantenimiento no pueden ser nunca de interés para un
individuo particular o para un pequeño número de individuos, porque
el beneficio de las mismas no podría nunca reembolsar de su gasto a ningún
individuo particular o a ningún pequeño grupo de individuos, aunque con
frecuencia reembolsan con mucho exceso a una gran sociedad» (op. cit p 490
(en inglés) - estableciendo así las bases de lo que algunos han llamado la “Teoría
de la empresas públicas”.7
El razonamiento de Smith es que es el caso que hay ciertos bienes y servicios
cuya existencia o provisión implica beneficios que se extienden a la comunidad
entera, incluso a quienes no pagan por ellos (ver Externalidad positiva
en Externalidad). Esto da origen -en la percepción de Smith- al problema del
polizón, es decir, al problema de que los individuos de esa sociedad están en la
posición de beneficiarse, contribuyan o no a los costos. Consecuentemente
Smith propone que la manera apropiada y justa de proveer y financiar esos
bienes y servicios es a través de impuestos y empresas públicas. (ver op cit)
Bienes y servicios que han sido generalmente considerados como incluibles en
la producción pública, en adición a los sugeridos por Smith, como la “defensa”
de la sociedad de otras sociedades, la “protección de los ciudadanos de injusticia
u opresión por otros”, la educación, algunos caminos y obras públicas
(especialmentefaros, y algunas obras de defensa fluvial o marinas
como espigónes; rompeolas, etc), obras de salud
pública (incluyendo alcantarillas, etc), incluyen: redes o
sistemas postales; ferroviarias y eléctricas, etc, y, en general, las que constituyen
ya sea un monopolio natural o requieren grandes inversiones (que exceden la
capacidad de cualquier inversionista real) o las que solo generan ganancia
después de un largo periodo, que excede las expectaciones -o incluso la vida-
de inversionistas potenciales.8
Posteriormente, Paul Samuelson retoma9 esa percepción de Smith para sugerir
que la maximizacion del beneficio o utilidad social se puede lograr satisfaciendo
la famosa Condición de Samuelson, lo que ha llevado a algunos a sugerir
una economía mixta. En las palabras de Joseph E. Stiglitz: «El verdadero debate
hoy en día gira en torno a encontrar el balance correcto entre el mercado y el
gobierno. Ambos son necesarios. Cada uno puede complementar al otro. Este
balance será diferente dependiendo de la época y el lugar».10
Desde otra perspectiva Max Weber llama nuestra atención a los aspectos
organizacionales de las empresas. Se ha aducido que Weber sugiere una
similitud entre las empresas modernas y los sistemas burocráticos: en ambos el
ideal es la racionalización de actividades en aras del resultado, con atención
centrada en la eficiencia y productividad. En ambas los “productores” no poseen
los medios de producción, medios cuya propiedad ha sido incrementalmente
concentrada en las manos de una élite directora, etc.11 Esto se da contra un telón
de fondo en el cual la consecución de ganancia parece ser el valor supremo, un
fin en sí mismo y no el medio para el mejoramiento de la vida (ver La ética
protestante y el espíritu del capitalismo).
Sin embargo para Thorstein Veblen -para quien “el ‘sistema industrial moderno’
es una concatenación de procesos que tienen mucho del carácter de un proceso
mecánico único, comprensivo, balanceado”.12 - las grandes corporaciones no
están primariamente interesadas en maximar las ganancias a través de la
producción y venta de productos o servicios. El objetivo principal de los gerentes
corporativos es maximar el valor de sus inversiones. Para Veblen el capital de
una empresa incluye no solo elementos materiales sino también aspectos
intangibles -medido en el buen nombre o reputación de la empresa.13
Ese análisis parece relevante para explicar la práctica de muchas grandes
empresas modernas -por ejemplo: Goldman Sachs, Apple, Google14 etc- que no
ofrecen o ofrecen solo sumas menores como dividendos a sus accionistas,
descansando primariamente en el aumento del valor de las acciones para atraer
y mantener inversionistas: «Sin embargo, al final de la década de los noventa se
promovió desde EEUU que, para las empresas en bolsa, el criterio primordial
para establecer el bonus debería ser el llamado ‘valor para el accionista', es decir
el incremento del valor de la acción durante el período en cuestión. Eso implicaba
que la mejora de la acción estaba directamente relacionada con la gestión de la
compañía de manera que si subía el valor de la acción era debido a una buena
gestión.»15
Wilhelm Röpke -junto a otros miembros del llamado "neoliberalismo alemán"
(ver Ordoliberalismo) quienes denunciaron lo que percibieron como excesiva
matematizacion de la economía, que llevaría a -en las palabras de Röpke- «la
expulsión del hombre de la economía»- parece extender esa sugerencia de
Veblen. Para Röpke el objetivo principal de las empresas es producir valor en su
sentido moral: «Es evidente que la satisfacción -de las necesidades del hombre-
no puede resultar ajena o indiferente al éxito o fracaso de la productividad
técnica. Sin embargo, hacer de la "producción de cosas" el fin último de la
economía desmerece de la condición humana de lo económico. Para Röpke, el
problema de fondo ha sido el encumbramiento de una
concepción materialista o utilitaria de la vida, a lo que no fue ajeno el viejo
liberalismo.».16 Para Röpke el desarrollo de las empresas (y el desarrollo que las
empresas producen) depende de un telón de fondo valorico17 y el Estado debe
producir un marco legal que lo promueva, interviniendo si es necesario a fin de
preservar esos valores (ver Escuela de Friburgo).
Esta posición de Röpke dio origen a un fuerte debate interno en la Sociedad Mont
Pelerin con los partidarios de la visión de Ludwig von Mises y Friedrich von
Hayek, lo que terminó con la renuncia de Röpke y algunos otros de los
“neoliberales alemanes”. R. Hartwell, único historiador de la Sociedad hasta el
momento, en el capítulo denominado “The Hunold Affair” de su obra, describe
así la situación:18 «Existían tres posibles conflictos en estas aspiraciones:
seguridad versusprogreso, igualdad versus eficiencia,
y solidaridad versus individualismo. Había algunos en la conferencia, como L.
Von Mises, que tomaron una posición libertariaen todos estos temas... otros
como Röpke, creían que el sistema competitivo sin controles podía destruir
valiosas instituciones humanas. Röpke defendió fuertemente la intervención
agrícola, por ejemplo, porque quería preservar las pequeñas granjas familiares
como una forma valiosa de vida. El deseo por seguridad que muchos de los
participantes aceptaban condujeron en algunos casos a
propuestas intervencionistas –sugerencias de controles agregados, salarios
controlados por el gobierno, y programas de apoyo a la agricultura, por ejemplo.
Estas propuestas, sin embargo, eran formuladas sin una justificación analítica
adecuada y fueron rechazadas vigorosamente por otros participantes, que
enfatizaban tanto su inefectividad como su carácter no-liberal.»
Se puede agregar que, como es generalmente reconocido, la posición de Röpke
tuvo mucha influencia en la concretizacion de la llamada economía social de
mercado, posición que se benefició mayormente -Alemania fue el mayor
exportador a nivel mundial hasta el 2009- de la implementación de las posiciones
de von Mises y von Hayek en EUA, país en el cual esas ideas contribuyeron
mayormente a la adopción de políticas de desregulacion19 20 que condujeron
directamente al proceso de expansión económica de la segunda mitad del siglo
XX conocido como globalización. Sin embargo se ha alegado que esa misma
desregulación condujo también a un sistema de corrupción empresarial21 que
terminó con casos tales como los de Enron, Bernard Madoff, etc, que a su vez
llevaron a la crisis financiera de 2008.22
Finalidades económicas y sociales de las empresas
Este artículo o sección necesita referencias que
aparezcan en una publicación acreditada, como
revistas especializadas, monografías, prensa diaria o
páginas de Internet fidedignas. Este aviso fue puesto el
28 de enero de 2014.
Puedes añadirlas o avisar al autor principal del
artículo en su página de discusión
pegando: {{subst:Aviso
referencias|Empresa}} ~~~~
Finalidad económica externa, que es la producción de bienes o servicios para
satisfacer necesidades de la sociedad.
Finalidad económica interna, que es la obtención de un valor agregado para
remunerar a los integrantes de la empresa. A unos en forma de utilidades o
dividendos y a otros en forma de sueldos, salarios y prestaciones. Esta
finalidad incluye la de abrir oportunidades de inversión para inversionistas y
de empleo para trabajadores. Se ha discutido mucho si una de estas dos
finalidades está por encima de la otra. Ambas son fundamentales, están
estrechamente vinculadas y se debe tratar de alcanzarlas simultáneamente.
La empresa está para servir a los hombres de afuera (la sociedad) y a los
hombres de adentro (sus integrantes).
Finalidad social externa, que es contribuir al pleno desarrollo de la sociedad,
tratando que en su desempeño económico no solamente no se vulneren los
valores sociales y personales fundamentales, sino que en lo posible se
promuevan.
Finalidad social interna, que es contribuir, en el seno de la empresa, al pleno
desarrollo de sus integrantes, tratando de no vulnerar valores humanos
fundamentales, sino también promoviéndolos.
La empresa, además de ser una célula económica, es una célula social. Está
formada por personas y para personas. Está insertada en la sociedad a la que
sirve y no puede permanecer ajena a ella. La sociedad le proporciona la paz y el
orden garantizados por la ley y el poder público; la fuerza de trabajo y el mercado
de consumidores; la educación de sus obreros, técnicos y directivos; los medios
de comunicación y la llamada infraestructura económica. La empresa recibe
mucho de la sociedad y existe entre ambas una interdependencia inevitable. Por
eso no puede decirse que las finalidades económicas de la empresa estén por
encima de sus finalidades sociales. Ambas están también indisolublemente
ligadas entre sí y se debe tratar de alcanzar unas, sin detrimento o aplazamiento
de las otras.
Esto es lo que conocemos como responsabilidad social empresarial, el rol que la
empresa tiene para con la sociedad que va más allá de la mera producción y
comercialización de bienes y servicios, sino que también implica el asumir
compromisos con los grupos de interés para solucionar problemas de la
sociedad. En elPortal de RSC de Chile podemos encontrar una enumeración de
los beneficios concretos y tangibles que significa para la empresa:
Un incremento de la productividad, ya que el trabajador está a gusto en la
empresa y se le capacita para que lo haga cada vez mejor;
Mejoramiento de las relaciones con los trabajadores, el gobierno y con las
comunidades a nivel regional y nacional;
Un mejor manejo en situaciones de riesgo o de crisis, ya que se cuenta con
el apoyo social necesario;
Sustentabilidad en el tiempo para la empresa y para la sociedad, dado que
RS fortalece el compromiso de los trabajadores, mejora su imagen
corporativa y la reputación de la empresa, entre otros.
Imagen corporativa y reputación: frecuentemente los consumidores son
llevados hacia marcas y compañías consideradas por tener una buena
reputación en áreas relacionadas con la responsabilidad social empresarial.
También importa en su reputación entre la comunidad empresarial,
incrementando así la habilidad de la empresa para atraer capital y asociados,
y también con los empleados dentro de la empresa.
Rentabilidad de sus negocios o rendimiento financiero: se refiere a la relación
entre prácticas de negocio socialmente responsables y la actuación
financiera positiva. Se ha demostrado que las empresas fieles a sus códigos
de ética resultan de un rendimiento de dos a tres veces superior respecto a
aquellas que no los consideran, de esta forma las compañías con prácticas
socialmente tipos de empresas según sus ámbitos y su producción.
Según las relaciones que mantengan con otras empresas y con los clientes
Empresas aisladas o de lazo cerrado: se trata de un conjunto de empresas
que son independientes del resto del mercado, por lo que solo dependen de
sí mismas (Este hecho implica que todo el producto ha sido realizado por
ellas mismas, desde la materia prima hasta el producto elaborado, sin utilizar
ningún producto semielaborado). En la actualidad este modelo de empresa
es prácticamente inexistente.[cita requerida]
Redes de empresas o empresas de lazo abierto: Unión temporal de
empresas con unos objetivos comunes, en la que cada una aporta sus
competencias principales para
ponder a las necesidades del mercado y mejorar la situación de competencia.
En la actualidad, debido a la globalización es muy común encontrar empresas
especializadas en un subproducto concreto que forma parte de un producto
elaborado. De esta forma también existen empresas especializadas en
comprar y ensamblar las distintas piezas del producto acabado.[cita requerida]
Según sector de la actividad.
Las empresas pueden clasificarse, de acuerdo con la actividad que desarrollen,
en:
Empresas del sector primario.
Empresas del sector secundario.
Empresas del sector terciario.
Empresas del sector cuaternario.
Una clasificación alternativa es:
Industriales. La actividad primordial de este tipo de empresas es la
producción de bienes mediante la transformación de la materia o extracción
de materias primas. Las industrias, a su vez, se clasifican en:
Extractivas. Cuando se dedican a la explotación de recursos naturales,
ya sea renovables o no renovables. Ejemplos de este tipo de empresas
son las pesqueras, madereras, mineras, petroleras, etc.
Manufactureras: Son empresas que transforman la materia prima en
productos terminados, y pueden ser:
De consumo final. Producen bienes que satisfacen de manera directa
las necesidades del consumidor. Por ejemplo: prendas de vestir,
muebles, alimentos, aparatos eléctricos, etc.
De producción. Estas satisfacen a las personas de uso de consumo
final. Ejemplo: maquinaria ligera, productos químicos, etc.
Comerciales. Son intermediarias entre productor y consumidor; su función
primordial es la compra/venta de productos terminados. Pueden clasificarse
en:
Mayoristas: Venden a gran escala o a grandes rasgos.
Minoristas (detallistas): Venden al por menor.
Comisionistas: Venden de lo que no es suyo, dan a consignación.
Servicio. Son aquellas que brindan servicio a la comunidad que a su vez se
clasifican en:
Transporte
Turismo
Instituciones financieras
Servicios públicos (energía, agua, comunicaciones)
Servicios privados (asesoría, ventas, publicidad, contable, administrativo)
Educación
Finanzas
Salud
Que son los productos.
Usos principales[editar]
Producción
Venta
Multiplicación
Servicio
Matemáticas[editar]
En matemáticas, producto es sinónimo de multiplicación.
Se denominan también producto ciertas operaciones binarias realizadas en
contextos especializados.
Producto escalar es una operación binaria entre elementos de un
espacio vectorial que tiene por resultado un elemento del campo
subyacente. El caso más relevante es el de producto punto.
Producto vectorial o producto cruz es una operación entre vectores de
un espacio euclidiano 3-dimensional que tiene como resultado otro
vector.
Producto mixto o triple producto escalar es un producto que combina
el producto vectorial y el escalar.
Producto matricial es una operación binaria entre matrices.
Producto cartesiano es una operación entre conjuntos cuyo resultado
son pares ordenados de elementos respectivos.
Topología producto es una topología construida en un producto
cartesiano de espacios topológicos.
Topología caja es otra topología construida en un producto
cartesiano de espacios topológicos que coincide con la anterior en
productos finitos.
Producto exterior es una generalización del producto vectorial.
Producto directo es un abstracción que permite definir estructuras
algebraicas en productos de otros algebraicos (usualmente productos
cartesianos)
Productoria Notación para denotar un producto arbitrario de términos.
Producto (teoría de categorías) es una generalización abstracta de los
productos encontrados en diversas estructuras algebraicas.
El término producto también se relaciona con
Regla del producto, un método para calcular la derivada de un producto
de funciones.
Regla del producto (combinatoria), uno de los principios fundamentales
de conteo.
Producto vacío es el producto de cero factores.
Lógica[editar]
Producto (lógica), el resultado de la conjunción de
diversas proposiciones lógicas, que exige el valor de verdad de cada una
para que el valor de la conjunción o producto sea verdadero. Véase tabla
de valores de verdad, cálculo.
Ciencias físico-naturales[editar]
Producto (química), en una reacción química, es el conjunto
de sustancias que se obtienen al combinar los reactivos. Es decir, es el
material que se forma como resultado de una reacción química. Se
escribe en el lado derecho de una ecuación química.
Producto (bioquímica), es la molécula o moléculas finales de una ruta
metabólica y también, la molécula o moléculas que se obtienen tras la
acción de unaenzima.
Producto génico, en genética.
Producto de desintegración, en física nuclear.
En teoría de las organizaciones[editar]
Producto es cualquier bien o servicio cuantificable o de esencia
predominantemente cualitativa que genera una organización para
contribuir a los objetivos de sus políticas internas, Específicamente, todo
producto es un bien o servicio que surge como resultado de la
combinación de los insumos que requiere su producción.
Economía[editar]
Bien económico; véase también servicio (ambos son producto
del trabajo, en los tres sectores económicos).
Productos por sectores[editar]
Producto natural (materia prima)
Producto minero (minería -minerales metálicos, metales
preciosos, minerales no metálicos, minerales de construcción, abonos
minerales, minerales energéticos, etc.-)
Producto agrícola
Producto horto-frutícola (hortofrutícola)
Producto ganadero (ganadería)
Producto forestal (explotación forestal)
Producto pesquero (explotación pesquera)
Producto manufacturado (producto artesanal, producto industrial -
artesanía, industria-)
Producto semielaborado
Bienes de equipo, bienes de capital o bienes de
producción (maquinaria, máquina-herramienta, etc. -véase en:Capital
good-)
Producto textil (industria textil)
Producto metalúrgico (industria metalúrgica, metalurgia)
Producto siderúrgico (industria siderúrgica)
Producto químico (industria química)
Producto petrolífero (industria petrolífera, derivados del petróleo)
Producto editorial (industria editorial)
Productos de madera y muebles (sector de la madera y el mueble)
Productos de transporte (sector del transporte -
automoción, ferrocarril, transporte naval)
Productos tecnológicos (sectores de alta tecnología -satélites
artificiales, aeronáutica, robótica, telecomunicaciones, informática, etc.-)
Comercialización[editar]
Producto (marketing)
Producto sustitutivo
Producto licenciado
Producto extendido
Consumo[editar]
Producto alimentario
Producto sanitario
Producto fitosanitario
Producto milagro
Producto desechable
Contabilidad nacional[editar]
Producto nacional bruto
Producto interior bruto
Producto interior neto
Producto Geográfico Bruto.
Que son los servicios.
Un servicio es un conjunto de actividades que buscan responder a las
necesidades de la gente. Los servicios incluyen una diversidad de actividades
desempeñadas por un crecido número de funcionarios que trabajan para el
estado (servicios públicos) o para empresas particulares (servicios privados);
entre estos pueden señalarse los servicios de: electricidad, agua potable,
aseo, teléfono, telégrafo, correo, transporte, educación, cibercafés, sanidad y a
sistencia social. Se define un marco en donde las actividades se desarrollarán
con la idea de fijar una expectativa en el resultado de éstas. Es el equivalente no
material de un bien. Un servicio se diferencia de un bien (físico o intangible) en
que el primero se consume y se desgasta de manera brutal puesto que
la economía social nada tiene que ver con la política moderna; es muy importante
señalar que la economía nacional no existe siempre en el momento en que es
prestado.
Al proveer algún nivel de habilidad, ingenio y experiencia, los proveedores de un
servicio participan en una economía sin las restricciones de
llevar inventariopesado o preocuparse por voluminosas materias primas. Por otro
lado, requiere constante inversión en mercadotecnia, capacitaciones y
actualización de cara a lacompetencia, la cual tiene igualmente pocas
restricciones físicas.
Los provedores de servicios componen el sector terciario de la industria.
Definición establecida en la serie de normas ISO 9000[editar]
Véase también: ISO 9000
Un servicio democrático físico cultural que tiene como resultado de llevar a cabo
necesariamente al menos veinte actividad en la interfaz entre el proveedor y el
cliente y el servicio y generalmente es intangible. La prestación de un servicio
puede implicar:
una actividad realizada sobre un producto tangible suministrado por el cliente
(por ejemplo, reparación de un automóvil);
una actividad realizada sobre un producto intangible suministrado por el
cliente (por ejemplo, la declaración de ingresos necesaria para preparar la
devolución de los impuestos);
la entrega de un producto intangible (por ejemplo, la entrega de información
en el contexto de la transmisión de conocimiento);
la creación de una ambientación para el cliente (por ejemplo, en hoteles y
restaurante).
Tipos de servicios[editar]
Hay dos grandes maneras de clasificar los servicios. Una de ellas es
clasificándola en servicios públicos y privados.
Servicios públicos y privados[editar]
Servicio Público: Prestaciones reservadas en cada Estado a la órbita de las
administraciones públicas y que tienen como finalidad ayudar a las personas que
lo necesiten. Ej. Hospitales y Empresas Postales.
Servicio Privado: son aquellos servicios que entrega una empresa privada y que
sirve para satisfacen intereses o necesidades particulares de las personas con
fin de lucro. Ej. Empresas de comunicaciones y Gas ardiente
Servicios de mantenimiento[editar]
Son aquellos que ofrecen mantener bajo un método preventivo los artículos que
requieren su cuidado. Ejemplo: los televisores, las enceradoras, las bicicletas o
a nivel industrial como las máquinas de uso diario, camiones, carros,
motocicletas.
Servicios a domicilio[editar]
Son aquellos que el cliente utiliza sin moverse de su hogar y que contrata por
medio de vía telefónica o Internet, por ejemplo: alimentos como pizza,
películas…
Servicios de alquiler[editar]
Son aquellos que la persona contrata para satisfacer una necesidad
momentánea o por algún tiempo, por ejemplo: arriendo de casa, arriendo de
automóviles…
Servicios de talleres[editar]
Son los servicios que ofrecen personas individuales en el cuidado del
mantenimiento y reparación de algún artículo de necesidad. Normalmente
funcionan dentro de un taller.
Características de los servicios[editar]
Las características que poseen los servicios y que los distinguen de los
productos son:
Intangibilidad: esta es la característica más básica de los servicios, consiste
en que estos no pueden verse, probarse, sentirse, oírse ni olerse antes de la
compra. Esta característica dificulta una serie de acciones que pudieran ser
deseables de hacer: los servicios no se pueden inventariar ni patentar, ser
explicados o representados fácilmente, etc., o incluso medir su calidad antes
de la prestación.
Heterogeneidad (o variabilidad): dos servicios similares nunca serán
idénticos o iguales. Esto por varios motivos: las entregas de un mismo
servicio son realizadas por personas a personas, en momentos y lugares
distintos. Cambiando uno solo de estos factores el servicio ya no es el mismo,
incluso cambiando sólo el estado de ánimo de la persona que entrega o la
que recibe el servicio. Por esto es necesario prestar atención a las personas
que prestarán los servicios a nombre de la empresa.
Inseparabilidad: en los servicios la producción y el consumo son parcial o
totalmente simultáneos. A estas funciones muchas veces se puede agregar
la función de venta. Esta inseparabilidad también se da con la persona que
presta el servicio.
Perecibilidad: los servicios no se pueden almacenar, por la simultaneidad
entre producción y consumo. La principal consecuencia de esto es que un
servicio no prestado, no se puede realizar en otro momento, por ejemplo un
vuelo con un asiento vacío en un vuelo comercial.
Ausencia de propiedad: los compradores de servicios adquieren un derecho
a recibir una prestación, uso, acceso o arriendo de algo, pero no su
propiedad. Después de la prestación solo existen como experiencias vividas.
Principios del servicio[editar]
Para llevar a cabo un servicio son necesarias las bases fundamentales, es decir,
los principios del servicio, los cuales pueden servir de guía para adiestrar o
capacitar a los empleados encargados de esta vital actividad económica, así
como proporcionar orientación de cómo mejorar. Los principios del servicio se
dividen en principios básicos del servicio y principios del servicio al cliente.
Principios básicos del servicio[editar]
Los principios básicos del servicio son la filosofía subyacente de este, que sirven
para entenderlo y, a su vez, aplicarlo de la mejor manera para el
aprovechamiento de sus beneficios por la empresa.
1. Actitud de servicio: Convicción íntima de que es un honor servir.
2. Satisfacción del usuario: Intención de vender satisfacción más que
productos.
3. Dado el carácter transitorio, inmediatista y variable de los servicios, se
requiere una actitud positiva, dinámica y abierta: esto es, la filosofía de
“todo problema tiene una solución”, si se sabe buscar.
4. Toda la actividad se sustenta sobre bases éticas: es inmoral cobrar
cuando no se ha dado nada ni se va a dar.
5. El buen servidor es quien se encuentra satisfecho dentro de la empresa,
situación que lo estimula a servir con gusto a los clientes: no se puede
esperar buenos servicios a quien se siente esclavizado, frustrado,
explotado y respira hostilidad contra la propia empresa.
6. Tratando de instituciones de autoridad, se plantea una continuidad que va
desde el polo autoritario (el poder) hacia el polo democrático (el servicio):
en el polo autoritario hay siempre el riesgo de la prepotencia y del mal
servicio. Cuanto más nos alejemos del primer polo, mejor estaremos.
Principios del servicio al cliente[editar]
Existen diversos principios que se deben seguir al llevar a cabo el servicio al
cliente, estos pueden facilitar la visión que se tiene acerca del aspecto más
importante del servicio a la gente.
1. Hacer de la calidad un hábito y un marco de referencia.
2. Establecer las especificaciones de los productos y servicios de común
acuerdo con todo el personal y con los clientes y proveedores.
3. Sistemas, no sonrisas. Decir “por favor”, "corazón" y “gracias” no le
garantiza que el trabajo resulte bien a la primera. En cambio los sistemas
sí le garantizan eso.
4. Anticipar y satisfacer consistentemente las necesidades de los clientes.
5. Dar libertad de acción a todos los empleados que tengan trato con los
clientes, es decir, autoridad para atender sus quejas.
6. Preguntar a los clientes lo que quieren y dárselo una y otra vez, para
hacerlos volver.
7. Los clientes siempre esperan el cumplimiento de su palabra. Prometer
menos, dar más.
8. Mostrar respeto por las personas y ser atentos con ellas.
9. Reconocer en forma explícita todo esfuerzo de implantación de
una cultura de calidad. Remunerar a sus empleados como si fueran sus
socios (incentivos).
10. Investigar quiénes son los mejores y cómo hacen las cosas, para
apropiarse de sus sistemas, para después mejorarlos.
11. Alentar a los clientes a que digan todo aquello que no les guste, así como
manifiesten lo que sí les agrada.
12. No dejar esperando al cliente por su servicio, por que todo lo demás
pasará desapercibido por él, ya que estará molesto e indispuesto a
cualquier sugerencia o aclaración, sin importar lo relevante que ésta sea.
13. Dar un buen servicio al cliente para que los vuelva a utilizar.
En que consiste el desarrollo
web.
Desarrollo web es un título algo arbitrario para el conjunto de tecnologías
de software del lado del servidor y del cliente que involucran una combinación
de procesos de base de datos con el uso de un navegador enInternet a fin de
realizar determinadas tareas o mostrar información. Wikipedia, por ejemplo, ha
sido realizada por desarrolladores web.
Tradicionalmente un software departamental o incluso un ambicioso proyecto
corporativo de gran envergadura es desarrollado en forma standalone, es decir,
usando lenguajes ya sea compilados(C, C++, Delphi),
semicompilados(.NET, Mono, Java), o interpretados (Python) para crear tanto la
funcionalidad como toda la interfaz de los usuarios, pero cabe perfectamente un
desarrollo orientado a web para dichos propósitos, siendo más homogéneo y
multiplataforma, y dependiendo de las tecnologías utilizadas, más rápido y
robusto tanto para diseñar, implementar y probar, como para su uso una vez
terminado.,
Funcionalmente, el desarrollador web, que es quien realiza esta labor,
normalmente sólo se preocupa por el funcionamiento del software, es tarea
del diseñador web preocuparse del aspecto final(layout) de la página y
del webmaster el integrar ambas partes. En ocasiones el webmaster también se
encarga de actualizar los contenidos de la página.
Los lenguajes de programación más usados en desarrollo web son
principalmente: ASP.NET, PHP y JSP, aunque aún hay quienes
usan ASP, Macromedia ColdFusion y Perl. Algunos desarrolladores web hablan
muy bien de Ruby, y el framework Ruby on Rails, pero no está muy difundido
todavía. También hay un proyecto para usar Pascal en web a través del
lenguaje Pascal Server Pages - PSP pero aún no se han concretado desarrollos,
hasta donde se conoce.
El sistema de gestión de base de datos más popular en desarrollo web
es MySQL, seguida por Oracle, SQL Server y PostgreSQL, también puede
usarse perfectamente Firebird o HSQL.
Idealmente un desarrollador web debería conocer, además de al menos
un lenguaje de programación y el manejo de al menos una base de
datos, HTML, CSS yJavaScript, tres tecnologías que bien trabajadas
logran DHTML. También, si el diseñador desea usar Adobe Flex (Flash) debe
ser capaz de integrarlo a su solución, o puede dejar los efectos en el
mismo DHTML.
HTML.
HTML or HyperText Markup Language is the standard markup language used
to create web pages.
HTML is written in the form of HTML elements consisting of tags enclosed
in angle brackets (like <html>). HTML tags most commonly come in pairs
like <h1> and </h1>, although some tags represent empty elements and so are
unpaired, for example <img>. The first tag in a pair is the start tag, and the
second tag is the end tag (they are also calledopening tags and closing tags).
The purpose of a web browser is to read HTML documents and compose them
into visible or audible web pages. The browser does not display the HTML tags,
but uses the tags to interpret the content of the page. HTML describes the
structure of a website semantically along with cues for presentation, making it
a markup language rather than aprogramming language.
HTML elements form the building blocks of all websites. HTML allows images
and objects to be embedded and can be used to create interactive forms. It
provides a means to create structured documents by denoting
structural semanticsfor text such as headings, paragraphs, lists, links, quotes and
other items. It can embed scripts written in languages such as JavaScript which
affect the behavior of HTML web pages.
Web browsers can also refer to Cascading Style Sheets (CSS) to define the look
and layout of text and other material. The W3C, maintainer of both the HTML and
the CSS standards, encourages the use of CSS over explicit presentational
HTML.
History
The historic logo made by the W3C
Development
Tim Berners-Lee
In 1980, physicist Tim Berners-Lee, who was a contractor at CERN, proposed
and prototyped ENQUIRE, a system for CERNresearchers to use and share
documents. In 1989, Berners-Lee wrote a memo proposing an Internet-
based hypertext system.[2]Berners-Lee specified HTML and wrote the browser
and server software in late 1990. That year, Berners-Lee and CERN data
systems engineer Robert Cailliau collaborated on a joint request for funding, but
the project was not formally adopted by CERN. In his personal notes[3] from 1990
he listed[4] "some of the many areas in which hypertext is used" and put an
encyclopedia first.
The first publicly available description of HTML was a document called "HTML
Tags", first mentioned on the Internet by Berners-Lee in late 1991.[5][6] It describes
18 elements comprising the initial, relatively simple design of HTML. Except for
the hyperlink tag, these were strongly influenced by SGMLguid, an in-
house SGML-based documentation format at CERN. Eleven of these elements
still exist in HTML 4.[7]
HyperText Markup Language is a markup language that web browsers use to
interpret and compose text, images and other material into visual or audible web
pages. Default characteristics for every item of HTML markup are defined in the
browser, and these characteristics can be altered or enhanced by the web page
designer's additional use of CSS. Many of the text elements are found in the 1988
ISO technical report TR 9537 Techniques for using SGML, which in turn covers
the features of early text formatting languages such as that used by the RUNOFF
command developed in the early 1960s for the CTSS (Compatible Time-Sharing
System) operating system: these formatting commands were derived from the
commands used by typesetters to manually format documents. However, the
SGML concept of generalized markup is based on elements (nested annotated
ranges with attributes) rather than merely print effects, with also the separation
of structure and markup; HTML has been progressively moved in this direction
with CSS.
Berners-Lee considered HTML to be an application of SGML. It was formally
defined as such by the Internet Engineering Task Force(IETF) with the mid-1993
publication of the first proposal for an HTML specification: "Hypertext Markup
Language (HTML)" Internet-Draft by Berners-Lee and Dan Connolly, which
included an SGML Document Type Definition to define the grammar.[8] The draft
expired after six months, but was notable for its acknowledgment of the NCSA
Mosaic browser's custom tag for embedding in-line images, reflecting the IETF's
philosophy of basing standards on successful prototypes.[9] Similarly, Dave
Raggett's competing Internet-Draft, "HTML+ (Hypertext Markup Format)", from
late 1993, suggested standardizing already-implemented features like tables and
fill-out forms.[10]
After the HTML and HTML+ drafts expired in early 1994, the IETF created an
HTML Working Group, which in 1995 completed "HTML 2.0", the first HTML
specification intended to be treated as a standard against which future
implementations should be based.[11]
Further development under the auspices of the IETF was stalled by competing
interests. Since 1996, the HTML specifications have been maintained, with input
from commercial software vendors, by the World Wide Web
Consortium (W3C).[12] However, in 2000, HTML also became an international
standard (ISO/IEC 15445:2000). HTML 4.01 was published in late 1999, with
further errata published through 2001. In 2004 development began on HTML5 in
the Web Hypertext Application Technology Working Group (WHATWG), which
became a joint deliverable with the W3C in 2008.
HTML versions timeline
November 24, 1995
HTML 2.0 was published as IETF RFC 1866 . Supplemental RFCs added
capabilities:
November 25, 1995: RFC 1867 (form-based file upload)
May 1996: RFC 1942 (tables)
August 1996: RFC 1980 (client-side image maps)
January 1997: RFC 2070 (internationalization)
January 1997
HTML 3.2[13] was published as a W3C Recommendation. It was the first
version developed and standardized exclusively by the W3C, as the IETF
had closed its HTML Working Group in September 1996.[14]
Initially code-named "Wilbur",[15] HTML 3.2 dropped math formulas
entirely, reconciled overlap among various proprietary extensions and
adopted most ofNetscape's visual markup tags. Netscape's blink
element and Microsoft's marquee element were omitted due to a mutual
agreement between the two companies.[12] A markup for mathematical
formulas similar to that in HTML was not standardized until 14 months later
in MathML.
December 1997
HTML 4.0[16] was published as a W3C Recommendation . It offers three
variations:
Strict, in which deprecated elements are forbidden,
Transitional, in which deprecated elements are allowed,
Frameset, in which mostly only frame related elements are allowed ;
Initially code-named "Cougar",[15] HTML 4.0 adopted many browser-
specific element types and attributes, but at the same time sought to phase
out Netscape's visual markup features by marking them as deprecated in
favor of style sheets. HTML 4 is an SGML application conforming to ISO
8879 – SGML.[17]
April 1998
HTML 4.0[18] was reissued with minor edits without incrementing the
version number.
December 1999
HTML 4.01[19] was published as a W3C Recommendation. It offers the
same three variations as HTML 4.0 and its last errata were published May
12, 2001.
May 2000
ISO/IEC 15445:2000[20][21] ("ISO HTML", based on HTML 4.01 Strict) was
published as an ISO/IEC international standard. In the ISO this standard
falls in the domain of the ISO/IEC JTC1/SC34 (ISO/IEC Joint Technical
Committee 1, Subcommittee 34 – Document description and processing
languages).[20]
As of mid-2008, HTML 4.01 and ISO/IEC 15445:2000 are the most recent
versions of HTML. Development of the parallel, XML-based language
XHTML occupied the W3C's HTML Working Group through the early and
mid-2000s.
HTML draft version timeline
Logo of HTML5
October 1991
HTML Tags,[5] an informal CERN document listing 18 HTML tags, was first
mentioned in public.
June 1992
First informal draft of the HTML DTD,[22] with seven[23][24][25] subsequent
revisions (July 15, August 6, August 18, November 17, November 19,
November 20, November 22)
November 1992
HTML DTD 1.1 (the first with a version number, based on RCS revisions,
which start with 1.1 rather than 1.0), an informal draft[25]
June 1993
Hypertext Markup Language[26] was published by the IETF IIIR Working
Group as an Internet-Draft (a rough proposal for a standard). It was
replaced by a second version[27] one month later, followed by six further
drafts published by IETF itself[28]that finally led to HTML 2.0 in RFC1866
November 1993
HTML+ was published by the IETF as an Internet-Draft and was a
competing proposal to the Hypertext Markup Language draft. It expired in
May 1994.
April 1995 (authored March
1995)
HTML 3.0[29] was proposed as a standard to the IETF, but the proposal
expired five months later without further action. It included many of the
capabilities that were in Raggett's HTML+ proposal, such as support for
tables, text flow around figures and the display of complex mathematical
formulas.[30]
W3C began development of its own Arena browser as a test bed for HTML
3 and Cascading Style Sheets,[31][32][33] but HTML 3.0 did not succeed for
several reasons. The draft was considered very large at 150 pages and
the pace of browser development, as well as the number of interested
parties, had outstripped the resources of the IETF.[12] Browser vendors,
including Microsoft and Netscape at the time, chose to implement different
subsets of HTML 3's draft features as well as to introduce their own
extensions to it.[12] (See Browser wars) These included extensions to
control stylistic aspects of documents, contrary to the "belief [of the
academic engineering community] that such things as text color,
background texture, font size and font face were definitely outside the
scope of a language when their only intent was to specify how a document
would be organized."[12] Dave Raggett, who has been a W3C Fellow for
many years has commented for example, "To a certain extent, Microsoft
built its business on the Web by extending HTML features."[12]
January 2008
HTML5 was published as a Working Draft (link) by the W3C.[34]
Although its syntax closely resembles that of SGML, HTML5 has
abandoned any attempt to be an SGML application and has explicitly
defined its own "html" serialization, in addition to an alternative XML-based
XHTML5 serialization.[35]
May 2011
On 14 February 2011, the W3C extended the charter of its HTML Working
Group with clear milestones for HTML5. In May 2011, the working group
advanced HTML5 to "Last Call", an invitation to communities inside and
outside W3C to confirm the technical soundness of the specification. The
W3C is developing a comprehensive test suite to achieve broad
interoperability for the full specification by 2014, which is now the target
date for Recommendation.
CSS.
Cascading Style Sheets (CSS) is a style sheet language used for describing
the look and formatting of a document written in a markup language. While most
often used to style web pages and interfaces written in HTML and XHTML, the
language can be applied to any kind of XML document, including plain
XML, SVG and XUL. CSS is a cornerstone specification of the web and almost
all web pages use CSS style sheets to describe their presentation.
CSS is designed primarily to enable the separation of document content from
document presentation, including elements such as the layout, colors,
and fonts.[1] This separation can improve content accessibility, provide more
flexibility and control in the specification of presentation characteristics, enable
multiple pages to share formatting, and reduce complexity and repetition in the
structural content (such as by allowing for tableless web design).
CSS can also allow the same markup page to be presented in different styles for
different rendering methods, such as on-screen, in print, by voice (when read out
by a speech-based browser or screen reader) and on Braille-based, tactile
devices. It can also be used to allow the web page to display differently depending
on the screen size or device on which it is being viewed. While the author of a
document typically links that document to a CSS file, readers can use a different
style sheet, perhaps one on their own computer, to override the one the author
has specified. However if the author or the reader did not link the document to a
specific style sheet the default style of the browser will be applied.
CSS specifies a priority scheme to determine which style rules apply if more than
one rule matches against a particular element. In this so-called cascade, priorities
or weights are calculated and assigned to rules, so that the results are
predictable.
The CSS specifications are maintained by the World Wide Web
Consortium (W3C). Internet media type (MIME type)text/css is registered for
use with CSS by RFC 2318 (March 1998), and they also operate a free CSS
validation service.
Syntax[edit]
CSS has a simple syntax and uses a number of English keywords to specify the
names of various style properties.
A style sheet consists of a list of rules. Each rule or rule-set consists of one or
more selectors, and a declaration block.
Selector[edit]
In CSS, selectors are used to declare which part of the markup a style applies to,
a kind of match expression. Selectors may apply to:
all elements of a specific type, e.g. the second level headers h2
to elements specified by attribute, in particular:
id: an identifier unique to the document
class
to elements depending on how they are placed relative to, or nested within,
others in the document tree.
Classes and IDs are case-sensitive, start with letters, and can include
alphanumeric characters and underscores. Any number of instances of any
number of elements may have the same class. Conventionally, IDs only apply to
one instance of one element.
Pseudo-classes are used in CSS selectors to permit formatting based on
information that is outside the document tree. An often-used example of a
pseudo-class is:hover, which identifies content only when the user 'points to'
the visible element, usually by holding the mouse cursor over it. It is appended to
a selector as ina:hover or #elementid:hover. A pseudo-class classifies
document elements, such as :link or :visited, whereas a pseudo-
element makes a selection that may consist of partial elements, such
as :first-line or :first-letter.[3]
Selectors may be combined in many ways, especially in CSS 2.1, to achieve
great specificity and flexibility.[4] Multiple selectors may be joined in a spaced list
to specify elements that fit all the selectors. The order of the selectors is
important. For example, div .myClass {color:red;} applies to all elements of class
myClass that are inside div elements, whereas .myClass div{color:red;} applies
to all div elements that are in elements of class myClass.
A simple summary of the Selector syntax indicating usage and time of
introduction.[5]
Pattern Meaning First Defined
in CSS Level
E An element of type E 1
E:link
an E element being the source anchor of a
hyperlink of which the target is not yet visited
(:link) or already visited
1
E:active an E element during certain user actions 1
E::first-line the first formatted line of an E element 1
E::first-letter the first formatted letter of an E element 1
E.warning
an E element whose class is "warning" (the
document language specifies how class is
determined).
1
E#myid an E element with ID equal to "myid". 1
E F an F element descendant of an E element 1
* Any element 2
E[foo] an E element with a "foo" attribute 2
E[foo="bar"] an E element whose "foo" attribute value is
exactly equal to "bar" 2
E[foo~="bar"]
an E element whose "foo" attribute value is a
list of whitespace-separated values, one of
which is exactly equal to "bar"
2
E[foo|="en"]
an E element whose "foo" attribute has a
hyphen-separated list of values beginning (from
the left) with "en"
2
E:first-child an E element, first child of its parent 2
E:lang(fr)
an element of type E in language "fr" (the
document language specifies how language is
determined)
2
E::before generated content before an E element 2
E::after generated content after an E element 2
E > F an F element child of an E element 2
E + F an F element immediately preceded by an E
element 2
E[foo^="bar"] an E element whose "foo" attribute value begins
exactly with the string "bar" 3
E[foo$="bar"] an E element whose "foo" attribute value ends
exactly with the string "bar" 3
E[foo*="bar"] an E element whose "foo" attribute value
contains the substring "bar" 3
E:root an E element, root of the document 3
E:nth-child(n) an E element, the n-th child of its parent 3
E:nth-last-
child(n)
an E element, the n-th child of its parent,
counting from the last one 3
E:nth-of-
type(n) an E element, the n-th sibling of its type 3
E:nth-last-of-
type(n)
an E element, the n-th sibling of its type,
counting from the last one 3
E:last-child an E element, last child of its parent 3
E:first-of-type an E element, first sibling of its type 3
E:last-of-type an E element, last sibling of its type 3
E:only-child an E element, only child of its parent 3
E:only-of-type an E element, only sibling of its type 3
E:empty an E element that has no children (including
text nodes) 3
E:target an E element being the target of the referring
URI 3
E:enabled a user interface element E which is enabled 3
E:disabled a user interface element E which is disabled 3
E:checked a user interface element E which is checked (for
instance a radio-button or checkbox) 3
E:not(s) an E element that does not match simple
selector s 3
E ~ F an F element preceded by an E element 3
Declaration block[edit]
A declaration block consists of a list of declarations in braces. Each declaration
itself consists of a property, a colon (:), and a value. If there are multiple
declarations in a block, a semi-colon (;) must be inserted to separate each
declaration.[6]
Properties are specified in the CSS standard. Each property has a set of possible
values. Some properties can affect any type of element, and others only apply
only to particular groups of elements.[7]
Values may be keywords, such as "center" or "inherit," or numerical values, such
as 200px (200 pixels) or 80%. Color values can be specified with keywords (e.g.
"red"), hexadecimal values (e.g. #FF000, also abbreviated as #F00), RGB values
on a 0 to 255 scale (e.g. rgb(255, 0, 0)), RGBA values that specify both color and
opacity (e.g. rgba(255, 0, 0, 0.8)), or HSL or HSLA values (e.g. hsl(000, 100%,
50%), hsla(000, 100%, 50%, 80%)).[8]
Use[edit]
Before CSS, nearly all of the presentational attributes of HTML documents were
contained within the HTML markup; all font colors, background styles, element
alignments, borders and sizes had to be explicitly described, often repeatedly,
within the HTML. CSS allows authors to move much of that information to another
file, the style sheet, resulting in considerably simpler HTML.
Headings (h1 elements), sub-headings (h2), sub-sub-headings (h3), etc., are
defined structurally using HTML. In print and on the screen, choice
of font, size, colorand emphasis for these elements is presentational.
Before CSS, document authors who wanted to assign
such typographic characteristics to, say, all h2 headings had to repeat HTML
presentational markup for each occurrence of that heading type. This made
documents more complex, larger, and more error-prone and difficult to maintain.
CSS allows the separation of presentation from structure. CSS can define color,
font, text alignment, size, borders, spacing, layout and many other typographic
characteristics, and can do so independently for on-screen and printed views.
CSS also defines non-visual styles such as the speed and emphasis with which
text is read out by aural text readers. The W3C has now deprecated the use of
all presentational HTML markup.[citation needed]
For example, under pre-CSS HTML, a header element defined with red text would
be written as:
<h1><font color="red"> Chapter 1. </font></h1>
Using CSS, the same element can be coded using style properties instead of
HTML presentational attributes:
<h1 style="color:red"> Chapter 1. </h1>
An "external" CSS file, as described below, can be associated with an HTML
document using the following syntax:
<link href="path/to/file.css" rel="stylesheet">
An internal CSS code can be typed in the head section of the code. The coding
is started with the style tag. For example,
<style>
JAVASCRIPT.
JavaScript (JS) is a dynamic computer programming language.[5] It is most
commonly used as part of web browsers, whose implementations allow client-
side scripts to interact with the user, control the browser,
communicateasynchronously, and alter the document content that is
displayed.[5] It is also being used in server-side network programming
(with Node.js), game development and the creation of desktop and mobile
applications.
JavaScript is a prototype-based scripting language with dynamic typing and
has first-class functions. Its syntax was influenced by C. JavaScript copies many
names and naming conventions from Java, but the two languages are otherwise
unrelated and have very different semantics. The key design principles within
JavaScript are taken from theSelf and Scheme programming languages.[6] It is
a multi-paradigm language, supporting object-oriented,[7] imperative,
and functional[1][8] programming styles.
The application of JavaScript in use outside of web pages—for example,
in PDF documents, site-specific browsers, anddesktop widgets—is also
significant. Newer and faster JavaScript VMs and platforms built upon them
(notably Node.js) have also increased the popularity of JavaScript for server-
side web applications. On the client side, JavaScript was traditionally
implemented as an interpreted language but just-in-time compilation is now
performed by recent (post-2012) browsers.
JavaScript was formalized in the ECMAScript language standard and is primarily
used as part of a web browser (client-side JavaScript). This
enables programmatic access to objects within a host environment.
Birth at Netscape[edit]
JavaScript was originally developed by Brendan Eich, while working for Netscape
Communications Corporation. While battling with Microsoft over the Web,
Netscape considered their client-server offering a distributed OS, running a
portable version of Sun Microsystems' Java. Because Java was a competitor
of C++ and aimed at professional programmers, Netscape also wanted a
lightweight interpreted language that would complement Java by appealing to
nonprofessional programmers, like Microsoft's Visual Basic (see JavaScript and
Java).[9]
Although it was developed under the name Mocha, the language was officially
called LiveScript when it first shipped in beta releases of Netscape Navigator 2.0
in September 1995, but it was renamed JavaScript[10] when it was deployed in
the Netscape browser version 2.0B3.[11]
The change of name from LiveScript to JavaScript roughly coincided with
Netscape adding support for Java technology in its Netscape Navigator web
browser. The final choice of name caused confusion, giving the impression that
the language was a spin-off of the Java programming language, and the choice
has been characterized by many[who?] as a marketing ploy by Netscape to give
JavaScript the cachet of what was then the hot new web programming
language.[12][13]
There is a common misconception that the JavaScript language was influenced
by C-- (Pronounced "See-minus-minus"), an earlier web page scripting language
developed by Nombas.[14][15][16] Brendan Eich, however, had never heard of C--
before he created LiveScript.[17] Nombas did pitch their embedded web page
scripting to Netscape, though web page scripting was not a new concept, as
shown by ViolaWWW.[18] Nombas later switched to offering JavaScript instead of
C-- in their ScriptEase product and was part of the TC39 group that
standardized ECMAScript.[19][20]
Server-side JavaScript[edit]
Netscape introduced an implementation of the language for server-side
scripting (SSJS) with Netscape Enterprise Server, first released in December,
1994 (soon after releasing JavaScript for browsers).[21][22] Since the mid-2000s,
there has been a proliferation of server-side JavaScript
implementations. Node.js is one recent notable example of server-side
JavaScript being used in real-world applications.[23][24]
Adoption by Microsoft[edit]
JavaScript very quickly gained widespread success as a client-side scripting
language for web pages. Microsoft introduced JavaScript support in its own web
browser, Internet Explorer, in version 3.0, released in August 1996.[25][not in citation
given] Microsoft's webserver, Internet Information Server, introduced support for
server-side scripting in JavaScript with release 3.0 (1996). Microsoft started to
promote webpage scripting using the umbrella term Dynamic HTML.
Microsoft's JavaScript implementation was later renamed JScript to avoid
trademark issues. JScript added new date methods to fix the Y2K-problematic
methods in JavaScript, which were based on Java's java.util.Date class.
Standardization[edit]
In November 1996, Netscape announced that it had submitted JavaScript
to Ecma International for consideration as an industry standard, and subsequent
work resulted in the standardized version named ECMAScript. In June
1997, Ecma International published the first edition of the ECMA-
262 specification. A year later, in June 1998, some modifications were made to
adapt it to the ISO/IEC-16262 standard, and the second edition was released.
The third edition of ECMA-262 was published on December 1999.[26]
Development of what would have been a fourth edition of the ECMAScript
standard was ultimately never completed and no fourth edition was
released.[27] The fifth edition was released in December 2009. The current edition
of the ECMAScript standard is 5.1, released in June 2011.[28]
Later developments[edit]
JavaScript has become one of the most popular programming languages on the
web. Initially, however, many professional programmers denigrated the language
because its target audience consisted of web authors and other such "amateurs",
among other reasons.[29] The advent of Ajax returned JavaScript to the spotlight
and brought more professional programming attention. The result was a
proliferation of comprehensive frameworks and libraries, improved JavaScript
programming practices, and increased usage of JavaScript outside of web
browsers, as seen by the proliferation of server-side JavaScript platforms.
In January 2009, the CommonJS project was founded with the goal of specifying
a common standard library mainly for JavaScript development outside the
browser.[30]
Trademark[edit]
Today, "JavaScript" is a trademark of Oracle Corporation.[31] It is used under
license for technology invented and implemented by Netscape Communications
and current entities such as the Mozilla Foundation.[32]
Features[edit]
The following features are common to all conforming ECMAScript
implementations, unless explicitly specified otherwise.
Imperative and structured[edit]
JavaScript supports much of the structured programming syntax
from C (e.g., if statements, while loops, switch statements, etc.). One partial
exception isscoping: C-style block scoping is not supported. Instead, JavaScript
has function scoping (although, block scoping using the let keyword was added
in JavaScript 1.7). Like C, JavaScript makes a distinction
between expressions and statements. One syntactic difference from C
is automatic semicolon insertion, which allows the semicolons that would
normally terminate statements to be omitted.[33]
Dynamic[edit]
Dynamic typing
As in most scripting languages, types are associated with values, not
with variables. For example, a variable x could be bound to a number, then
later rebound to a string. JavaScript supports various ways to test the type
of an object, including duck typing.[34]
Object-based
JavaScript is almost entirely object-based.
JavaScript objects are associative arrays, augmented with prototypes (see
below). Object property names are string keys. They support two
equivalent syntaxes: dot notation (obj.x = 10) and bracket notation
(obj['x'] = 10). Properties and their values can be added, changed,
or deleted at run-time. Most properties of an object (and those on its
prototype inheritance chain) can be enumerated using a for...in loop.
JavaScript has a small number of built-in objects such
as Function and Date.
Run-time evaluation
JavaScript includes an eval function that can execute statements
provided as strings at run-time.
DHTML allows scripting languages to change variables in a web
page's definition language, which in turn affects the look and function
of otherwise "static" HTML page content, after the page has been fully
loaded and during the viewing process. Thus the dynamic
characteristic of DHTML is the way it functions while a page is viewed,
not in its ability to generate a unique page with each page load.
Functional[edit]
First-class functions
Functions are first-class; they are objects themselves. As such, they have
properties and methods, such
as .call() and .bind().[35] A nested function is a function defined
within another function. It is created each time the outer function is
invoked. In addition, each created function forms a lexical closure:
the lexical scope of the outer function, including any constants, local
variables and argument values, becomes part of the internal state of each
inner function object, even after execution of the outer function
concludes.[36]
Prototype-based[edit]
Prototypes
JavaScript uses prototypes where many other object oriented languages
use classes for inheritance.[37] It is possible to simulate many class-based
features with prototypes in JavaScript.[38]
Functions as object constructors
Functions double as object constructors along with their typical role.
Prefixing a function call with new will create an instance of a prototype,
inheriting properties and methods from the constructor (including
properties from the Object prototype).[39] ECMAScript 5 offers
the Object.create method, allowing explicit creation of an instance
without automatically inheriting from the Object prototype (older
environments can assign the prototype to null).[40] The
constructor'sprototype property determines the object used for the new
object's internal prototype. New methods can be added by modifying the
prototype of the object used as a constructor. JavaScript's built-in
constructors, such as Array or Object, also have prototypes that can be
modified. While it is possible to modify theObject prototype, it is generally
considered bad practice because most objects in JavaScript will inherit
methods and properties from the Object prototype and they may not
expect the prototype to be modified.[41]
Functions as methods
Unlike many object-oriented languages, there is no distinction between a
function definition and a method definition. Rather, the distinction occurs
during function calling; when a function is called as a method of an object,
the function's local this keyword is bound to that object for that
invocation.
Implicit and Explicit Delegation[edit]
JavaScript is a Delegation Language.
Functions as Roles (Traits and Mixins)
JavaScript natively supports various function based implementations
of Role[42] patterns like Traits[43][44] and Mixins.[45][46] Such a function
defines additional behavior by at least one method bound to
the this keyword within its function body. A Role then has to be
delegated explicitly via call or apply to objects that need to feature
additional behavior that is not shared via the prototype chain.
Object Composition and Inheritance
Whereas explicit function based delegation does cover composition in
JavaScript, implicit delegation already happens every time the prototype
chain is walked in order to e.g. find a method that might be related to but
is not directly owned by an object. Once the method was found it gets
called within this object's context. Thus inheritance in JavaScript is
covered by a delegation automatism that is bound to the prototype
property of constructor functions.
Miscellaneous[edit]
Run-time environment
JavaScript typically relies on a run-time environment (e.g. a web browser)
to provide objects and methods by which scripts can interact with the
environment (e.g. a webpage DOM). It also relies on the run-time
environment to provide the ability to include/import scripts
(e.g. HTML <script> elements). This is not a language feature per se,
but it is common in most JavaScript implementations.
Variadic functions
An indefinite number of parameters can be passed to a function. The
function can access them through formal parameters and also through the
local argumentsobject. Variadic functions can also be created by using
the apply method.
Array and object literals
Like many scripting languages, arrays and objects (associative arrays in
other languages) can each be created with a succinct shortcut syntax. In
fact, theseliterals form the basis of the JSON data format.
Regular expressions
JavaScript also supports regular expressions in a manner similar to Perl,
which provide a concise and powerful syntax for text manipulation that is
more sophisticated than the built-in string functions.
More advanced example[edit]
This sample code displays various JavaScript features.
/* Finds the lowest common multiple (LCM) of two numbers */
function LCMCalculator(x, y) { // constructor function
var checkInt = function (x) { // inner function
if (x % 1 !== 0) {
throw new TypeError(x + " is not an integer");
// throw an exception
}
return x;
};
this.a = checkInt(x)
// semicolons ̂ ^^^ are optional, a newline is enough
this.b = checkInt(y);
}
// The prototype of object instances created by a constructor
is
// that constructor's "prototype" property.
LCMCalculator.prototype = { // object literal
constructor: LCMCalculator, // when reassigning a
prototype, set the constructor property appropriately
gcd: function () { // method that calculates the greatest
common divisor
// Euclidean algorithm:
var a = Math.abs(this.a), b = Math.abs(this.b), t;
if (a < b) {
// swap variables
t = b;
b = a;
a = t;
}
while (b !== 0) {
t = b;
b = a % b;
a = t;
}
// Only need to calculate GCD once, so "redefine"
this method.
// (Actually not redefinition—it's defined on the
instance itself,
// so that this.gcd refers to this "redefinition"
instead of LCMCalculator.prototype.gcd.)
// Also, 'gcd' === "gcd", this['gcd'] === this.gcd
this['gcd'] = function () {
return a;
};
return a;
},
// Object property names can be specified by strings
delimited by double (") or single (') quotes.
lcm : function () {
// Variable names don't collide with object
properties, e.g. |lcm| is not |this.lcm|.
// not using |this.a * this.b| to avoid FP precision
issues
var lcm = this.a / this.gcd() * this.b;
// Only need to calculate lcm once, so "redefine"
this method.
this.lcm = function () {
return lcm;
};
return lcm;
},
toString: function () {
return "LCMCalculator: a = " + this.a + ", b = " +
this.b;
}
};
// Define generic output function; this implementation only
works for web browsers
function output(x) {
document.body.appendChild(document.createTextNode(x));
document.body.appendChild(document.createElement('br'));
}
// Note: Array's map() and forEach() are defined in
JavaScript 1.6.
// They are used here to demonstrate JavaScript's inherent
functional nature.
[[25, 55], [21, 56], [22, 58], [28, 56]].map(function (pair)
{ // array literal + mapping function
return new LCMCalculator(pair[0], pair[1]);
}).sort(function (a, b) { // sort with this comparative
function
return a.lcm() - b.lcm();
}).forEach(function (obj) {
output(obj + ", gcd = " + obj.gcd() + ", lcm = " +
obj.lcm());
});
The following output should be displayed in the browser window.
LCMCalculator: a = 28, b = 56, gcd = 28, lcm = 56
LCMCalculator: a = 21, b = 56, gcd = 7, lcm = 168
LCMCalculator: a = 25, b = 55, gcd = 5, lcm = 275
LCMCalculator: a = 22, b = 58, gcd = 2, lcm = 638
Use in web pages[edit]
See also: JavaScript engine and Ajax (programming)
The most common use of JavaScript is to write functions that are embedded in
or included from HTML pages and that interact with the Document Object
Model(DOM) of the page. Some simple examples of this usage are:
Loading new page content or submitting data to the server via AJAX without
reloading the page (for example, a social network might allow the user to post
status updates without leaving the page)
Animation of page elements, fading them in and out, resizing them, moving
them, etc.
Interactive content, for example games, and playing audio and video
Validating input values of a web form to make sure that they are acceptable
before being submitted to the server.
Transmitting information about the user's reading habits and browsing
activities to various websites. Web pages frequently do this for web
analytics, ad tracking,personalization or other purposes.[55]
Because JavaScript code can run locally in a user's browser (rather than on a
remote server), the browser can respond to user actions quickly, making an
application more responsive. Furthermore, JavaScript code can detect user
actions which HTML alone cannot, such as individual keystrokes. Applications
such asGmail take advantage of this: much of the user-interface logic is written
in JavaScript, and JavaScript dispatches requests for information (such as the
content of an e-mail message) to the server. The wider trend of Ajax programming
similarly exploits this strength.
A JavaScript engine (also known as JavaScript interpreter or JavaScript
implementation) is an interpreter that interprets JavaScript source code and
executes thescript accordingly. The first JavaScript engine was created
by Brendan Eich at Netscape Communications Corporation, for the Netscape
Navigator web browser. The engine, code-named SpiderMonkey, is implemented
in C. It has since been updated (in JavaScript 1.5) to conform to ECMA-262
Edition 3. The Rhino engine, created primarily by Norris Boyd (formerly of
Netscape; now at Google) is a JavaScript implementation in Java. Rhino, like
SpiderMonkey, is ECMA-262 Edition 3 compliant.
A web browser is by far the most common host environment for JavaScript. Web
browsers typically create "host objects" to represent the Document Object
Model(DOM) in JavaScript. The web server is another common host
environment. A JavaScript webserver would typically expose host objects
representing HTTP request and response objects, which a JavaScript program
could then interrogate and manipulate to dynamically generate web pages.
Because JavaScript is the only language that the most popular browsers share
support for, it has become a target language for many frameworks in other
languages, even though JavaScript was never intended to be such a
language.[56] Despite the performance limitations inherent to its dynamic nature.
PHP.
PHP is a server-side scripting language designed for web development but also
used as a general-purpose programming language. As of January 2013, PHP
was installed on more than 240 million websites (39% of those sampled) and 2.1
million web servers.[4] Originally created by Rasmus Lerdorf in
1994,[5] the reference implementationof PHP is now produced by The PHP
Group.[6] While PHP originally stood for Personal Home Page,[5] it now stands
forPHP: Hypertext Preprocessor, a recursive backronym.[7]
PHP code can be simply mixed with HTML code, or it can be used in combination
with various templating engines andweb frameworks. PHP code is usually
processed by a PHP interpreter, which is usually implemented as a web server's
native module or a Common Gateway Interface (CGI) executable. After the PHP
code is interpreted and executed, the web server sends resulting output to its
client, usually in form of a part of the generated web page – for example, PHP
code can generate a web page's HTML code, an image, or some other data. PHP
has also evolved to include acommand-line interface (CLI) capability and can be
used in standalone graphical applications.[8]
PHP is free software released under the PHP License. PHP has been widely
ported and can be deployed on most web servers on almost every operating
system and platform, free of charge.
PHP development began in 1994 when the developer Rasmus Lerdorf wrote a
series of Common Gateway Interface (CGI) Perl scripts, which he used to
maintain his personal homepage. The tools performed tasks such as displaying
his résumé and recording his web traffic.[6][10][11] He rewrote these scripts in C for
performance reasons, extending them to add the ability to work with web
forms and to communicate withdatabases, and called this implementation
"Personal Home Page/Forms Interpreter" or PHP/FI.
PHP/FI could be used to build simple, dynamic web applications. Lerdorf initially
announced the release of PHP/FI as "Personal Home Page Tools (PHP Tools)
version 1.0" publicly to accelerate bug location and improve the code, on
the Usenet discussion group comp.infosystems.www.authoring.cgi on June 8,
1995.[12][13] This release already had the basic functionality that PHP has as of
2013. This included Perl-like variables, form handling, and the ability to embed
HTML. The syntax resembled that of Perl but was simpler, more limited and less
consistent.[6]
Early PHP was not intended to be a new programming language, and grew
organically, with Lerdorf noting in retrospect: "I don’t know how to stop it, there
was never any intent to write a programming language […] I have absolutely no
idea how to write a programming language, I just kept adding the next logical step
on the way."[14] A development team began to form and, after months of work
and beta testing, officially released PHP/FI 2 in November 1997.
One criticism of PHP is that it was not originally designed, but instead it was
developed organically;[14] among other things, this has led to inconsistent naming
of functions and inconsistent ordering of their parameters.[15] In some cases, the
function names were chosen to match the lower-level libraries which PHP was
"wrapping",[16] while in some very early versions of PHP the length of the function
names was used internally as a hash function, so names were chosen to improve
the distribution of hash values.[17]
Zeev Suraski and Andi Gutmans rewrote the parser in 1997 and formed the base
of PHP 3, changing the language's name to the recursive acronym PHP:
Hypertext Preprocessor.[6] Afterwards, public testing of PHP 3 began, and the
official launch came in June 1998. Suraski and Gutmans then started a
new rewrite of PHP's core, producing the Zend Engine in 1999.[18] They also
founded Zend Technologies in Ramat Gan, Israel.[6]
On May 22, 2000, PHP 4, powered by the Zend Engine 1.0, was released.[6] As
of August 2008 this branch reached version 4.4.9. PHP 4 is no longer under
development nor will any security updates be released.[19][20]
On July 13, 2004, PHP 5 was released, powered by the new Zend Engine
II.[6] PHP 5 included new features such as improved support for object-oriented
programming, the PHP Data Objects (PDO) extension (which defines a
lightweight and consistent interface for accessing databases), and numerous
performance enhancements.[21] In 2008 PHP 5 became the only stable version
under development. Late static binding had been missing from PHP and was
added in version 5.3.[22][23]
Many high-profile open-source projects ceased to support PHP 4 in new code as
of February 5, 2008, because of the GoPHP5 initiative,[24] provided by a
consortium of PHP developers promoting the transition from PHP 4 to PHP
5.[25][26]
PHP interpreters are available on most existing 32-bit and 64-bit operating
systems, either by building them from the PHP source code, or by using pre-built
binaries.[27] For the PHP versions 5.3 and 5.4, the only available Microsoft
Windows binary distributions were 32-bit x86 builds,[28][29] requiring Windows 32-
bit compatibility mode while using Internet Information Services (IIS) on a 64-bit
Windows platform. PHP version 5.5 made the 64-bit x86-64 builds available for
Microsoft Windows.[30]
PHP 6 and Unicode[edit]
PHP received mixed reviews due to lacking native Unicode support at the core
language level.[31][32] In 2005, a project headed by Andrei Zmievski was initiated
to bring native Unicode support throughout PHP, by embedding the International
Components for Unicode (ICU) library, and representing text strings as UTF-
16internally.[33] Since this would cause major changes both to the internals of the
language and to user code, it was planned to release this as version 6.0 of the
language, along with other major features then in development.[34]
However, a shortage of developers who understood the necessary changes, and
performance problems arising from conversion to and from UTF-16, which is
rarely used in a web context, led to delays in the project.[35] As a result, a PHP 5.3
release was created in 2009, with many non-Unicode features back-ported from
PHP 6, notably namespaces. In March 2010, the project in its current form was
officially abandoned, and a PHP 5.4 release was prepared containing most
remaining non-Unicode features from PHP 6, such as traits and closure re-
binding.[36] Initial hopes were that a new plan would be formed for Unicode
integration, but as of 2014 none has been adopted.
During the years before the release of PHP 5.3 and 5.4, some books were
published based on the expected feature set of PHP 6.0, including both the
Unicode work and the features which were later backported to other releases.
There is therefore some debate over whether a new major version of PHP, with
or without Unicode support, should be called "PHP 6", or if the version should be
skipped to avoid confusion.
Release history[edit]
Key
Color Meaning Development
Red Old release No development
Yellow Stable release Security fixes
Green Stable release Bug and security fixes
Blue Future release New features
Ve
rsi
on
Rel
eas
e
dat
e
Su
ppo
rte
d
unti
l[37]
Notes
1.
0
8
Jun
e
199
5
Officially called "Personal Home Page Tools (PHP Tools)". This is
the first use of the name "PHP".[6]
2.
0
1
No
ve
mb
er
199
7
3.
0
6
Jun
e
199
8
20
Oct
obe
r
200
0
Development moves from one person to multiple developers.
Zeev Suraski and Andi Gutmans rewrite the base for this
version.[6]
4.
0
22
Ma
y
200
0
23
Jan
uar
y
200
1
Added more advanced two-stage parse/execute tag-parsing
system called the Zend engine.[38]
4.
1
10
De
ce
mb
er
200
1
12
Mar
ch
200
2
Introduced 'superglobals' ($_GET, $_POST, $_SESSION, etc.)[38]
4.
2
22
Apr
il
200
2
6
Sep
tem
ber
200
2
Disabled register_globals by default. Data received over the
network is not inserted directly into theglobal namespace
anymore, closing possible security holes in applications.[38]
4.
3
27
De
ce
mb
er
200
2
31
Mar
ch
200
5
Introduced the command-line interface (CLI), to supplement the
CGI.[38][39]
4.
4
11
Jul
y
200
5
7
Aug
ust
200
8
Fixed a memory corruption bug, which required breaking binary
compatibility with extensions compiled against PHP version
4.3.x.[40]
5.
0
13
Jul
y
200
4
5
Sep
tem
ber
200
5
Zend Engine II with a new object model.[41]
5.
1
24
No
ve
24
Aug
ust
Performance improvements with introduction of compiler
variables in re-engineered PHP Engine.[41] Added PHP Data
mb
er
200
5
200
6
Objects (PDO) as a consistent interface for accessing
databases.[42]
5.
2
2
No
ve
mb
er
200
6
6
Jan
uar
y
201
1
Enabled the filter extension by default. Native JSON support.[41]
5.
3
30
Jun
e
200
9
July
201
4[43]
Namespace support; late static bindings, Jump label
(limited goto), Native closures, Native PHP archives
(phar), garbage collection for circular references,
improved Windows support, sqlite3, mysqlnd as a replacement for
libmysql as underlying library for the extensions that work
with MySQL, fileinfo as a replacement for mime_magic for
better MIME support, the Internationalization extension, and
deprecation of ereg extension.
5.
4
1
Mar
ch
201
2
1
Mar
ch
201
5[44]
Trait support, short array syntax support. Removed
items: register_globals, safe_mode,allow_call_time_
pass_reference, session_register(), session_unregi
ster() andsession_is_registered(). Built-in web
server.[45] Several improvements to existing features,
performance and reduced memory requirements.
5.
5
20
Jun
e
201
3
20
Jun
e
201
6[44]
Support for generators, finally blocks for exceptions handling,
OpCache (based on Zend Optimizer+) bundled in official
distribution.[46]
5.
6
No
dat
e
set
3
yea
rs
afte
r
rele
ase[
44]
Constant scalar expressions, variadic functions, argument
unpacking, new exponentiation operator, extensions of
the use operator, new phpdbg debugger as a SAPI module, and
other smaller improvements.[47]
Beginning on June 28, 2011, the PHP Group began following a timeline for when
new versions of PHP will be released.[44] Under this timeline, at least one release
should occur every month. Once per year, a minor release should occur which
can include new features. Every minor release should at least have 2 years of
security and bug fixes, followed by at least 1 year of only security fixes, for a total
of a 3 year release process for every minor release. No new features (unless
small and self-contained) will be introduced into a minor release during the 3-year
release process.
Responsive web design. Responsive web design (RWD) is a web design approach aimed at crafting
sites to provide an optimal viewing experience—easy reading and navigation with
a minimum of resizing, panning, and scrolling—across a wide range of devices
(from mobile phones to desktop computer monitors).[1][2][3]
A site designed with RWD[1][4] adapts the layout to the viewing environment by
using fluid, proportion-based grids,[5]flexible images,[6][7][8][9] and CSS3 media
queries,[3][10][11] an extension of the @media rule.[12]
The fluid grid concept calls for page element sizing to be in relative units like
percentages, rather than absolute units like pixels or points.[5]
Flexible images are also sized in relative units, so as to prevent them from
displaying outside their containingelement.[6]
Media queries allow the page to use different CSS style rules based on
characteristics of the device the site is being displayed on, most commonly
the width of the browser.
Server-side components (RESS) in conjunction with client-side ones such as
media queries can produce faster-loading sites for access over cellular
networks and also deliver richer functionality/usability avoiding some of the
pitfalls of device-side-only solutions.
Mobile first, unobtrusive JavaScript, and progressive
enhancement[edit]
"Mobile first", unobtrusive JavaScript, and progressive
enhancement (strategies for when a new site design is being considered)
are related concepts that predated RWD: browsers of basic mobile phones
do not understand JavaScript or media queries, so the recommended
practice is to create a basic web site, and enhance it for smart phones and
PCs—rather than try graceful degradation to make a complex, image-
heavy site work on the most basic mobile phones.[14][15][16][17]
Progressive enhancement based on browser-, device-, or feature-
detection[edit]
Where a web site must support basic mobile devices that lack
JavaScript, browser ("user agent") detection (also called "browser
sniffing"), and mobile device detection[15][18] are two ways of deducing if
certain HTML and CSS features are supported (as a basis for progressive
enhancement)—however, these methods are not completely reliable
unless used in conjunction with a device capabilities database.
For more capable mobile phones and PCs, JavaScript
frameworks like Modernizr, jQuery, and jQuery Mobile that can directly test
browser support for HTML/CSS features (or identify the device or user
agent) are popular. Polyfills can be used to add support for features—e.g.
to support media queries (required for RWD), and enhance HTML5
support, on Internet Explorer. Feature detection also might not be
completely reliable: some may report that a feature is available, when it is
either missing or so poorly implemented that it is effectively
nonfunctional.[19][20]
Challenges, and other approaches[edit]
Luke Wroblewski has summarized some of the RWD and mobile design
challenges, and created a catalog of multi-device layout
patterns.[21][22][23] He suggests that, compared with a simple RWD
approach, device experience or RESS (responsive web design with
server-side components) approaches can provide a user experience that
is better optimized for mobile devices.[24][25][26] Server-side "dynamic CSS"
implementation of stylesheet languages like Sass or Incentivated's MML
can be part of such an approach by accessing a server based API which
handles the device (typically mobile handset) differences in conjunction
with a device capabilities database in order to improve usability.[27] RESS
is more expensive to develop, requiring more than just client-side logic,
and so tends to be reserved for organisations with larger budgets.
Although this challenge has become recently a minor issue, with many of
the publishers starting to support responsiveness, one still at least partly
existing problem for RWD is that some banner advertisements and videos
are not fluid.[28] However search advertising and (banner) display
advertising support specific device platform targeting and different
advertisement size formats for desktop, smartphone, and basic mobile
devices. Different landing page URLs can be used for different
platforms,[29] or Ajax can be used to display different advertisement
variants on a page.[18][22][30]
An alternative to RWD is the method of Adaptive Web Delivery
or AWD that is adopted by consumer brands worldwide.[citation
needed] Although, it is very similar to Responsive Web Design, with adaptive
delivery, the most significant difference is that the server hosting the
website detects the devices making requests to it, and uses this
information to deliver different batches of HTML and CSS code based on
the characteristics of the device that have been detected.[31]
There are now many ways of validating and testing RWD
designs,[32] ranging from mobile site validators and mobile emulators[33] to
simultaneous testing tools like Adobe Edge Inspect.[34] The Firefox
browser and the Chrome console offer responsive design viewport
resizing tools, as do third parties.[35][36]
Ethan Marcotte
History[edit]
Ethan Marcotte coined the term responsive web design (RWD) in a May
2010 article in A List Apart.[1] He described the theory and practice of
responsive web design in his brief 2011 book titled Responsive Web
Design. Responsive design was listed as #2 in Top Web Design Trends
for 2012 by .net magazine[37] after progressive enhancement at #1.
Mashable called 2013 the Year of Responsive Web Design.[38] Many other
sources have recommended responsive design as a cost-effective
alternative to mobile applications.
Forbes featured a piece, 'Why You Need To Prioritize Responsive Design
Now' [39] where the importance was made clear that having a mobile
version of your website isn’t enough anymore. Jody Resnick, President
of Trighton Interactive stated in his interview with Forbes, “Responsive
websites simplify internet marketing and SEO. Instead of having to
develop and manage content for multiple websites, businesses with
responsive sites can take a unified approach to content management
because they have only the one responsive site to manage.
Resnick predicts, “As the internet transforms further into a platform of
services and user interfaces that tie those services together, leveraging
this technology in the future will allow companies to integrate a plethora of
back-end services, such as Facebook , Twitter, Salesforce.com , and
Amazon Web Services, and then present the integrated data back out the
front-end iad layer on a responsive design so the application looks great
on all devices without custom coding needed for each device or screen
size.
With the proliferation of mobile and tablet users globally, the need for a
responsive website is inevitable.
Comercio electronico.
El comercio electrónico, también conocido como e-commerce (electronic
commerce en inglés), consiste en la compra y venta de productos o de servicios a través
de medios electrónicos, tales como Internet y otras redes informáticas. Originalmente el
término se aplicaba a la realización de transacciones mediante medios electrónicos tales
como elIntercambio electrónico de datos, sin embargo con el advenimiento de la Internet y
la World Wide Web a mediados de los años 90 comenzó a referirse principalmente a la
venta de bienes y servicios a través de Internet, usando como forma de pago medios
electrónicos, tales como las tarjetas de crédito.
La cantidad de comercio llevada a cabo electrónicamente ha crecido de manera
extraordinaria debido a Internet. Una gran variedad de comercio se realiza de esta manera,
estimulando la creación y utilización de innovaciones como latransferencia de fondos
electrónica, la administración de cadenas de suministro, el marketing en Internet,
elprocesamiento de transacciones en línea (OLTP), el intercambio electrónico de
datos (EDI), los sistemas de administración del inventario y los sistemas automatizados de
recolección de datos.
La mayor parte del comercio electrónico consiste en la compra y venta de productos o
servicios entre personas y empresas, sin embargo un porcentaje considerable del
comercio electrónico consiste en la adquisición de artículos virtuales (software y derivados
en su mayoría), tales como el acceso a contenido "premium" de un sitio web.
Origen y evolución histórica[editar]
En los últimos decenios del siglo XIX empresas comerciales como Montgomery
Ward y luego Sears iniciaron la venta por catálogo en los Estados Unidos. Este
sistema de venta, revolucionario para la época, consiste en un catálogo con fotos
ilustrativas de los productos a vender. Este permitió a las empresas captar
nuevos segmentos de mercado que no estaban siendo atendidos. Además, otro
punto importante a tener en cuenta es que los potenciales compradores pueden
escoger los productos en la tranquilidad de sus hogares, sin la asistencia o
presión, según sea el caso, de un vendedor. La venta por catálogo tomó mayor
impulso con la aparición de las tarjetas de crédito; además de determinar un tipo
de relación de mayor anonimato entre el cliente y el vendedor.
La práctica del comercio electrónico comenzó a principios de 1970, con
novedosas aplicaciones como la transferencia de fondos monetarios. Después
apareció el intercambio de datos vía electrónica, que produjo una expiación en
el comercio electrónico, dando lugar a otros tipos de procesos comerciales.
Todos estos procesos permitieron que pequeñas empresas pudieran aumentar
su nivel de competitividad implementando el comercio electrónico en sus
actividades diarias. Debido a esto el comercio en línea se ha expandido muy
rápidamente gracias a los millones de consumidores potenciales a los que se
puede llegar a través de este medio.
A principio de los años 1970, aparecieron las primeras relaciones comerciales
que utilizaban una computadora para transmitir datos, tales como órdenes de
compra y facturas. Este tipo de intercambio de información, si bien no
estandarizado, trajo aparejadas mejoras de los procesos de fabricación en el
ámbito privado, entre empresas de un mismo sector.
A mediados de 1980, con la ayuda de la televisión, surgió una nueva forma de
venta por catálogo, también llamada venta directa. De esta manera, los
productos son mostrados con mayor realismo, y con la dinámica de que pueden
ser exhibidos resaltando sus características. La venta directa se concreta
mediante un teléfono y usualmente con pagos de tarjetas de crédito.
En 1995 los países integrantes del G7/G8 crearon la iniciativa Un Mercado
Global para PYMEs,1 con el propósito de acelerar el uso del comercio electrónico
entre las empresas de todo el mundo.
Ventajas del comercio electrónico[editar]
Para las empresas[editar]
El comercio electrónico realizado entre empresas es llamado en inglés business-
to-business o B2B. El B2B puede estar abierto a cualquiera que esté interesado
(como el intercambio de mercancías o materias primas), o estar limitado a
participantes específicos pre-calificados (mercado electrónico privado). Algunas
de sus virtudes son:
Mejoras en la distribución: La Web ofrece a ciertos tipos de proveedores
(industria del libro, servicios de información, productos digitales) la
posibilidad de participar en un mercado interactivo, en el que los costos de
distribución o ventas tienden a cero, como por ejemplo en la industria del
software, en la que los productos pueden entregarse de inmediato,
reduciendo de manera progresiva la necesidad de intermediarios.
Comunicaciones comerciales por vía electrónica: Actualmente, la mayoría de
las empresas utiliza la Web para informar a los clientes sobre la compañía,
aparte de sus productos o servicios, tanto mediante comunicaciones internas
como con otras empresas y clientes; esto facilita las relaciones comerciales,
así como el soporte al cliente, ya que al estar disponible las 24 horas del día,
las empresas pueden fidelizar a sus clientes mediante un diálogo asincrónico
que sucede a la conveniencia de ambas partes.
Beneficios operacionales: El uso empresarial de la Web reduce errores,
tiempo y sobrecostos en el tratamiento de la información. Los proveedores
disminuyen sus costos al acceder de manera interactiva a las bases de datos
de oportunidades de ofertas, enviar éstas por el mismo medio, y por último,
revisar de igual forma las concesiones; además, se facilita la creación de
mercados y segmentos nuevos, el incremento en la generación de ventajas
en las ventas, la mayor facilidad para entrar en mercados nuevos,
especialmente en los geográficamente remotos, y alcanzarlos con mayor
rapidez.
Facilidad para fidelizar clientes: Mediante la aplicación de protocolos y
estrategias de comunicación efectivas que le permitan al usuario final del
portal web de la compañía plantear inquietudes, levantar requerimientos o
simplemente hacer comentarios con relación a los productos o servicios de
la misma, y si y solo si estos comentarios son debidamente procesados se
puede crear un elemento importante para lograr la fidelización de los clientes,
y en consecuencia aumentar la re-compra de productos y servicios, así como
también la ampliación del rango de cobertura en el mercado.
Características únicas de su tecnología[editar]
Ubicuidad: la tecnología de internet/ web está disponible en todos lados, en el
trabajo, en el hogar y en cualquier otro lado a través de los dispositivos móviles,
en cualquier momento. El mercado se extiende más allá de los límites
tradicionales y se elimina de una ubicación temporal y geográfica.
Google. Google Inc. es una empresa multinacionalestadounidense especializada en
productos y servicios relacionados con Internet, software, dispositivos
electrónicos y otras tecnologías. El principal producto de Google es el motor de
búsqueda de contenido en Internet del mismo nombre, aunque ofrece también
otros servicios como un servicio de correo electrónico llamadoGmail, sus
servicios de mapas Google Maps yGoogle Earth, el sitio web de vídeos YouTube,
otras utilidades web como Google Libros oGoogle Noticias, el navegador
web Google Chrome, la red social Google+. Por otra parte, lidera el desarrollo
del sistema operativo basado en Linux, Android, orientado a teléfonos
inteligentes y tabletas y actualmente está trabajando en un proyecto de gafas de
realidad aumentada, las Google Glass, en un servicio de fibra óptica; el Google
Fiber y en vehículos autónomos. Asimismo existen otros proyectos como el
Project Loon.
Con más de un millón de servidores y centros de datos repartidos por todo el
mundo, Google es capaz de procesar más de 1000 millones de peticiones de
búsqueda diarias y su motor de búsqueda es el sitio web más visitado a nivel
mundial.5
La empresa es o ha sido criticada por colaborar con determinados países en
la censura de Internet con el afán de expandirse comercialmente en ellos y la
infracción reiterada de derechos de autor. También es objeto de críticas por
presunta ingeniería fiscal en varios países, y ser una de las empresas que
colaboran con las agencias de inteligencia en lared de vigilancia mundial sacada
a la luz en 2013.
Índice
[ocultar]
1 Historia
2 Productos y servicios
o 2.1 Buscador de Google
o 2.2 Google Grupos
o 2.3 Google Noticias
o 2.4 Blogger
o 2.5 Google Libros
o 2.6 Gmail
o 2.7 Google Maps
o 2.8 Google Earth
o 2.9 Hangouts
o 2.10 Google Drive
o 2.11 Picasa
o 2.12 Google Calendar
o 2.13 YouTube
o 2.14 Google Chrome
o 2.15 Google Plus
o 2.16 Google Play
o 2.17 Servicios de publicidad
2.17.1 AdSense
2.17.2 Adwords
o 2.18 Sistemas operativos
o 2.19 Dispositivos
2.19.1 Nexus
2.19.2 Chromebook
2.19.3 Otros dispositivos
o 2.20 Otros servicios
o 2.21 Servicios en desarrollo
o 2.22 Google como plataforma universal
3 Google Summer of Code
4 Infraestructura
5 Googleplex
6 Críticas
o 6.1 Google y la censura
o 6.2 Google, PRISM y el caso Edward Snowden
7 Origen del nombre y logo
8 Ingeniería fiscal
9 Véase también
10 Referencias
11 Enlaces externos
Historia[editar]
Larry Page y Sergey Brin, fundadores de Google, en septiembre de 2003.
Larry Page y Serguéi Brin comienzan Google como un proyecto universitario en
enero de 1996 cuando ambos era estudiantes de la Universidad de Stanford.
Page y Brin fundan, el 4 de septiembre de 1998, la compañía Google Inc.,6 que
estrena en Internet su motor de búsqueda el 27 de septiembre siguiente
(considerada la fecha de aniversario). Contaban con un armario lleno de
servidores (unos 80 procesadores), y dos routers HP.7 Este motor de búsqueda
superó al otro más popular de la época, AltaVista, que había sido creado
en 1995. En el 2000 Google presentó AdWords, su sistema de publicidad online
y la llamada Barra Google.
En febrero de 2001 Google compra el servicio de debate Usenet de Google y lo
transforma en Google Grupos. En marzo del mismo año Eric Schmidt es
nombrado presidente de la junta directiva. En julio de 2001 lanza su servicio de
búsqueda de imágenes. En febrero de 2002 lanza Google Search Apliance. En
mayo lanza Google Labs que cerrará 9 años más tarde. En septiembre se
lanza Google Noticias. En diciembre del mismo año se lanza el servicio de
búsqueda de productos llamado Froogle, ahora denominado Google Products.
En febrero de 2003 Google adquiere Pyra Labs y con ello el servicio de creación
de blogs Blogger. En abril se presenta Google Grants, un servicio de publicidad
gratuito para organizaciones sin ánimo de lucro. En diciembre de ese año se
lanza Google Print, posteriormenteGoogle Libros.
En enero de 2004 lanza la red social orkut. En marzo se lanza Google Local que
más tarde se integraría con Google Maps. En abril Google presentó GMail, su
servicio de correo electrónico con 1 Gb de almacenamiento.8 El 19 de agosto
Google Inc. saldría a la bolsa de valores bajo el símbolo de NASDAQ:GOOG,
con una oferta inicial de 25,7 millones de acciones, y con un rango de precios de
85 a 95 dólares. En octubre de ese año lanzan Google Desktop, que será
descontinuado. También lanzó el llamado Google Académico. El 18 de agosto
de ese mismo año Google salió a bolsa en WallStreet. En 2004 compró la
empresa Keyhole.
Un año después, en 2005, sacaron a la luz Google Maps y Google Earth. Ese
mismo año Google compró Android Inc. Vint Cerf, considerado uno de los padres
de Internet, fue contratado por Google en 2005. También lanzó Google Code y
se desarrolla el primer Summer of Code. En agosto presenta Google Talk. En
octubre Google lanza su lector de feeds RSS Google Reader. En noviembre se
presenta Google Analytics y en diciembre Google Transit.
En 2006 lanza Picasa. En marzo adquiere Writely para más tarde lanzar Google
Docs y presenta ese mismo mes Google Finance. En abril se presenta Google
Calendar y en agosto Google Apps, servicio orientado a empresas. En octubre
de 2006, Google adquirió por 1650 millones de dólares la página de
vídeos YouTube.9 Ese mismo mes adquiere JotSpot que más tarde se convertirá
en Google Sites.
Un año después, en 2007, Google lanzó el sistema operativo abierto para
móviles Android y creó la Open Handset Alliance. En abril de 2007, Google
compró DoubleClick,10 una empresa especializado en publicidad en Internet, por
3100 millones de dólares. Este mismo mes, Google se convirtió en la marca más
valiosa del mundo, alcanzando la suma de 66 000 millones de dólares,
superando a emblemáticas empresas como Microsoft, General Electric y Coca-
Cola. En junio lanza Google Gears que más tarde será abandonado debido a
que lo que ofrecía más tarde fue incorporado en HTML5. En julio de 2007,
Google compró Panoramio, un sitio web dedicado a exhibir las fotografías que
los propios usuarioscrean y geoposicionan, siendo algunas de ellas subidas al
sitio para que puedan ser vistas a través delsoftware Google Earth, cuyo objetivo
es permitir a los usuarios del mencionado software aprender más sobre una zona
específica del mapa, observando las fotografías que otros usuarios han tomado
ahí. En noviembre presenta OpenSocial.
Los fundadores de Google, Sergey Brin y Larry Page, y su actual presidente
ejecutivo, Eric Schmidt (2008).
En febrero de 2008 se lanza Google Sites. El 2 de septiembre de 2008, Google
presenta su propio navegador web Google Chrome y el proyecto de código
abierto Chromium. En diciembre se lanza Google Friend Connect. En febrero se
lanza Google Latitude. En marzo se presenta Google Voice. En septiembre de
2009 adquiere reCAPTCHA. En noviembre presenta el proyecto de sistema
operativo de código abiertoChromium OS. En diciembre presenta Google Public
DNS.
En enero de 2010 Google presenta su primer teléfono móvil, elNexus One, que
funciona con Android. En febrero Google hace oficial su intención de desplegar
una red de internet a alta velocidad. Ese mismo mes adquiere Aardvark. En
marzo adquiere Picnik. En mayo lanza Google TV. En octubre presenta su
proyecto de vehículos autónomos. En diciembre presenta su segundo teléfono,
el Nexus S, fabricado por Samsung
En enero de 2011, Larry Page es nombrado CEO. En mayo se presentan
los Chromebooks. En junio se presenta la nueva red social de Google
llamada Google+.En agosto de 2011, Google adquiere Motorola Mobility por
8800 millones de euros (12 500 millones de dólares).11 Google presenta su tercer
teléfono inteligente, el Galaxy Nexus, fabricado por Samsung y que funciona con
la cuarta versión de Android.
En abril de 2012, Google presenta el Project Glass, un proyecto para crear una
gafas de realidad aumentada. En la Google I/O 2012, se anunció que la versión
para desarrolladores de Google Glass estaría disponible para 2013 mientras que
la versión para consumidores estaría lista para 2014. En ese mismo evento se
anuncio Android 4.1 y la primera tableta de Google, la Nexus 7, fabricada
por Asus. El 27 de septiembre de 2013 en conmemoración de 15 años en servicio
Google presentó en su página de inicio un doodle en forma de juego que
consistía en romper una piñata.12 13 En febrero del 2014 Google compra
SlickLogin, una compañía compuesta por grandes desarrollares, expertos en
seguridad, que han creado un innovador sistema de identificación a través del
sonido para los teléfonos inteligentes 14 El 10 de junio de 2014, Google anuncia
la adquisición de Skybox Imaging por US$500 millones (€370 millones) para
"proveer imágenes satélite al servicio de mapas online".
Productos y servicios[editar]
Artículo principal: Anexo:Productos de Google
Uno o varios wikipedistas están trabajando
actualmente en este artículo o sección.
Es posible que a causa de ello haya lagunas de contenido
o deficiencias de formato. Si quieres, puedes ayudar y
editar, pero antes de realizar correcciones mayores
contáctalos en sus páginas de discusión o en la página
de discusión del artículo para poder coordinar la
redacción.
Buscador de Google
Buscador de Google[editar]
Artículo principal: Buscador de Google
Es el primer producto de la empresa y producto estrella de esta. En él se pueden
realizar búsquedas de webs por laWorld Wide Web a base de un algoritmo
exclusivo.
Google Grupos[editar]
Artículo principal: Google Grupos
Google Grupos es una interfaz web al veterano sistema de foros clasificados
jerárquicamente llamado Usenet. También es un archivo de todos los envíos
realizados a esta red, sobre el que se pueden hacer búsquedas usando el motor
de Google.
Google Noticias[editar]
Artículo principal: Google Noticias
Google Noticias es un servicio automatizado de recopilación de noticias. El sitio
de web de Google News fue introducido en su versión beta en abril del 2002.
Existen diferentes versiones del sitio en más de 20 idiomas, junto con obtener
las noticias de 700 fuentes gratuitas y no gratuitas.
La actualización de cada tema es de 15 minutos, haciendo que cada vez que se
reingrese al sitio, aparezca una nueva noticia dentro de sus destacados.
La promoción de este sitio consta de ser un sitio neutral en sus noticias
recopiladas, debido a que no existe la intervención humana, con lo cual existe
un punto de vista neutral en cada noticia mostrada.
Blogger[editar]
Blogger es un servicio creado por Pyra Labs, y adquirido por Google en el año
2003, que permite crear y publicar una bitácora en línea. Para publicar
comentarios, fotos, etc.
Google Libros[editar]
Google Libros (antes conocido como Google Book Search y Google Print) es un
servicio de Google que busca el texto completo de los libros que Google
escanea, convierte el texto por medio de reconocimiento óptico de caracteres y
los almacena en su base de datos en línea. El servicio era conocido como Google
Print cuando fue introducido en la Feria del Libro de Fráncfort en octubre
de 2004.
Gmail[editar]
Artículo principal: Gmail
Icono de Gmail
El 31 de marzo de 2004 Google lanza su servicio (en fase beta) Gmail que se
destacó entre los servicios de correo más populares del momento por
proporcionar 1 gigabyte de capacidad (cifra que aumenta constantemente a
razón aproximada de 36 bytes por segundo hasta llegar a los 15 GB16 actuales).
Durante bastante tiempo, para poder acceder a una cuenta Gmail era necesario
recibir una invitación de otro usuario de Gmail. A principios
de febrero de 2007,17 los registros en Gmail fueron completamente liberados, y
en la actualidad es posible registrarse sin invitaciones.
Este servicio de mensajería destacó, entre otras cosas, por utilizar un sistema
de búsqueda de mensajes simple y avanzado al mismo tiempo, similar al del
buscador web al cual debe su eslogan "No organices, busca". Además ofrece
otras características adicionales como las etiquetas, filtros avanzados,
posibilidad de múltiples cuentas para correo saliente, chat integrado, etc. que lo
hacen muy atractivo.
Actualmente se encuentra disponible en 39 idiomas.18
Google Maps[editar]
Coche de Google Maps aparcado
Artículo principal: Google Maps
Google Maps es el servicio que nos permite visualizar el mundo a través de
imágenes vía satélite, imágenes de mapas o combinar estas dos. Gracias al
buscador, podemos buscar lugares de todo el mundo y poder visualizarlo de
forma efectiva.
Las imágenes de satélite comparten la base de datos deGoogle Earth, lo que
significa que son las mismas imágenes que veremos en dicho programa y con la
misma resolución.
Los mapas sólo están disponibles en ciertos lugares, lo que significa que la
función híbrida de mapa y satélite solo esté disponible en los lugares en donde
estén disponibles las dos características.
Google Earth[editar]
Artículo principal: Google Earth
Google Earth es un programa informático similar a un Sistema de Información
Geográfica (SIG), creado por la empresa Keyhole Inc., que permite visualizar
imágenes del planeta, combinando imágenes de satélite, mapas y el motor de
búsqueda de Google que permite ver imágenes a escala de un lugar específico
del planeta.
Hangouts[editar]
Artículo principal: Hangouts
Hangouts es un servicio multiplataforma de mensajería instantánea desarrollado
por Google Inc. El 24 de agosto de 2005, Google lanzó la versión beta de su
servicio de mensajería instantánea Google Talk, basado en el protocolo XMPP.
Con el lanzamiento de Google+, Google lanza un servicio de videochat
denominado Hangouts. El 15 de mayo de 2013, en el evento Google I/O, Vic
Gundotra anuncio el nuevo Hangouts, que unificarían todos los servicios de
mensajería de Google, sustituyendo a Google Talk, Google+ Messenger
y Google+ Hangouts. Ese mismo día se lanzó para las diferentes plataformas
como Android (reemplazando la aplicación de Google Talk), iOS y Web (a través
de Chrome y Google+).
Google Drive[editar]
Artículo principal: Google Drive
Google Drive es un servicio de alojamiento de archivos. Fue introducido
por Google el 24 de abril de 2012. Google Drive es un reemplazo de Google
Docs que ha cambiado su dirección de enlace de docs.google.com por
drive.google.com entre otras cualidades. Cada usuario cuenta con
15 Gigabytes de espacio gratuito para almacenar sus archivos, ampliables
mediante pago. Es accesible por su página web desde ordenadores y dispone
de aplicaciones para iOS y Android que permiten editar documentos y hojas de
cálculo.
Picasa[editar]
Artículo principal: Picasa
Picasa es un organizador y visor de imágenes, y una herramienta para editar
fotografías digitales. Adicionalmente, Picasa posee un sitio web integrado para
compartir fotos. Está disponible para Mac, Linux y Windows.
Google Calendar[editar]
Artículo principal: Google Calendar
Google Calendar es una agenda que permite tener diferentes calendarios
diferenciados por colores. Permite compartir los calendarios privados con otros
usuarios pudiendo darles diferentes niveles de permisos. Dispone de la
posibilidad de incorporar calendarios públicos realizados por otros usuarios, tales
como guía de programación de televisión, agenda de tu club favorito de fútbol,
santoral, etc. El calendario se puede configurar para que envíe un recordatorio
antes que pase un evento a al cuenta de correo electrónico del usuario con un
archivo para importar la tarea a la agenda de Microsoft Outlook, incluso puede
enviar un aviso SMS si se vive en una zona habilitada para ello. Hasta la fecha,
esta enversión beta pero es funcional.
YouTube[editar]
Artículo principal: YouTube
YouTube es propiedad de Google, desde su compra en 14 de
octubre de 200619 por 1650 millones dedólares. En este sitio web, los usuarios
pueden subir y ver vídeos.
Google Chrome[editar]
Artículo principal: Google Chrome
Es el software navegador de la empresa Google. Es el navegador más utilizado
en Internet, con una cuota de mercado del 31.88% a finales de julio de 2012.
Está disponible gratuitamente bajo condiciones de servicio específicas.20
Google Plus[editar]
Google+ (pronunciado y a veces escrito Google Plus, a veces abreviado
como G+, en algunos países de lengua hispana pronunciado Google Más) es
un servicio de red social operado por Google Inc. El servicio, lanzado el 28 de
junio de 2011, está basado en HTML5. Los usuarios tienen que ser mayores de
13 años de edad para crear sus propias cuentas. Google+ ya es la segunda red
social más popular del mundo con aproximadamente 343 millones de usuarios
activos.
Google Play[editar]
Artículo principal: Google Play
Google Play es una tienda online de dispositivos electrónicos y accesorios
(según la región), aplicaciones Android, música, películas, y libros mantenida
por Google.
Servicios de publicidad[editar]
AdSense[editar]
Artículo principal: AdSense
Servicio para administradores de páginas web y empresas de publicidad vía
Internet.
Este servicio se caracteriza por ser un marco HTML en el que se muestra texto
con el aspecto de una búsqueda de Google, en el aparecen los enlaces de los
anunciantes, y los webmasters reciben un pago por cada clic que se haga en los
enlaces de AdSense de su web. Actualmente hay que llevar cuidado con el
formato elegido y la disposición de los anuncios en su web, ya que si se usan
formatos grandes, con muchos anuncios, se corre el riesgo de ser cancelada la
cuenta de AdSense, de manera unilateral de acuerdo al contrato suscrito en el
momento del registro, si algún usuario hiciera un clic en cada anuncio de la
página en la que se muestran de manera reiterada.
Google, empresa líder en publicidad on-line, se caracteriza por perseguir con
mucho ahínco el fraude en los clics de AdSense en especial aquellos que lo
intentan a través de un PPF.
Adwords[editar]
Artículo principal: AdWords
AdWords de Google es una herramienta rápida y fácil de utilizar que permite
adquirir anuncios de coste por clic (CPC) o coste por impresión (CPM)
correctamente orientados, independientemente de cuál sea su presupuesto. Los
anuncios de AdWords se publican junto con los resultados de las búsquedas
realizadas en Google, así como en los sitios de búsqueda y de contenido de la
creciente red de Google.
Google Chrome mostrando la portada de Wikipedia en español en Windows
7, Google Chrome (Windows XP, Vista, 7, 8, GNU/Linux, Mac OS
X/Android/iOS).
Sistemas operativos[editar]
Google es el principal desarrollador del sistema operativo Android y también
desarrolla el sistema operativo Chromium OS.Tiene también un sistema
operativo basado en Android denominado Google TV, que se lanzó en
2011.21 Además de contenido multimedia permite usar aplicaciones en el
sistema.
Facebook.
Facebook (NASDAQ: FB) es un sitio web deredes sociales creado por Mark
Zuckerberg y fundado junto a Eduardo Saverin, Chris Hughes yDustin Moskovitz.
Originalmente era un sitio para estudiantes de la Universidad de Harvard, pero
se abrió a cualquier persona con una cuenta de correo electrónico.
A mediados de 2007 lanzó las versiones en francés,alemán y español traducidas
por usuarios de manera no remunerada,7 principalmente para impulsar su
expansión fuera de Estados Unidos, ya que sus usuarios se concentran en
Estados Unidos, Canadáy Reino Unido. Facebook cuenta con más de 900
millones de miembros, y traducciones a 70 idiomas.89 En enero de 2013,
Facebook llegó a los 1230 millones de usuarios,10 de los cuáles hay más de 600
millones de usuarios móviles. Brasil, India,Indonesia, México y Estados Unidos
son los países con más usuarios,11 sin embargo y hay usuarios que poseen más
de una cuenta.10
Su infraestructura principal está formada por una red de más de
50 000 servidores que usan distribucionesdel sistema
operativo GNU/Linux usando LAMP.12
Las principales críticas a la red social y la empresa siempre se han centrado en
la supuesta falta deprivacidad que sufren sus millones de usuarios. Estas críticas
se acrecentaron en 2013, cuando se descubrió que la Agencia de Seguridad
Nacional deEstados Unidos y otras agencias de inteligencia vigilan los perfiles
de millones de usuarios y sus relaciones con amigos y compañeros de trabajo.13
El 9 de abril de 2012 se anunció que Facebook adquirió Instagram por 1000
millones de dólares14 . En febrero de 2014 los responsables de Facebook
anunciaron la compra del servicio de mensajería móvil WhatsApp por 16.000
millones de dólares.15
Índice
[ocultar]
1 Historia
2 Expansión
3 Servicios que ofrece
o 3.1 Biografía
4 Facebook en números
5 Impacto internacional
6 Botón del pánico
7 Facebook en otros idiomas
8 Críticas
9 Véase también
10 Referencias
11 Enlaces externos
Historia
El creador de Facebook es Mark Zuckerberg, estudiante de la Universidad de
Harvard. La compañía tiene sus oficinas centrales en Palo Alto,California.
La idea de crear una comunidad basada en la Web en que la gente compartiera
sus gustos y sentimientos no es nueva, pues David Bohnett, creador
de Geocities, la había incubado a fines de losaños 1980. Una de las estrategias
de Zuckerberg ha sido abrir la plataforma Facebook a otros desarrolladores.
Entre los años 2007 y 2008 se puso en marcha Facebook en español traducido
por voluntarios,7extendiéndose a los países de Latinoamérica. Casi cualquier
persona con conocimientos informáticos básicos puede tener acceso a todo este
mundo de comunidades virtuales.
También hay una película que explica la historia de Facebook titulada "La red
social".
Expansión
Facebook comenzó a permitir que los estudiantes universitarios agregasen a
estudiantes cuyas escuelas no estaban incluidas en el sitio debido a las
peticiones de los usuarios. En marzo de 2006BusinessWeek divulgó que se
estaba negociando una adquisición potencial del sitio. Facebook declinó una
oferta de $750 millones.[cita requerida]
Mark Zuckerberg.
En mayo de 2006 la red de Facebook se extendió con éxito en la India, con apoyo
de institutos de tecnología de aquel país. En junio de 2006, hubo un acuerdo
con iTunes Storepara que iTunes conociera los gustos musicales de los usuarios
y ofrecer así un enlace de descarga en su propio sitio. En agosto de 2006,
Facebook agregó universidades en Alemania e Israel a su red. También introdujo
la importación de blogs de Xanga, LiveJournal o Blogger.
Desde septiembre de 2006 Facebook se abre a todos los usuarios del Internet,
a pesar de protestas de gran parte de sus usuarios,[cita requerida] ya que perdería la
base estudiantil sobre la cual se había mantenido.
En julio de 2007, Facebook anunció su primera adquisición, Parakey, Inc. de
Blake Ross y de Joe Hewitt. En agosto del mismo año se le dedicó la portada de
la prestigiosa revista Newsweek; además de una integración conYouTube.
A finales de ese mismo año Facebook vendió una parte, el 1,6%, a Microsoft a
cambio de $240 millones de dólares,16 con la condición de que Facebook se
convirtiera en un modelo de negocio para marcas de fábrica en donde se
ofrezcan sus productos y servicios, según los datos del usuario y del perfil de
este. Esta adquisición valoró Facebook en quince mil millones de dólares,
aunque el consenso de los analistas fuera que esta cifra superaba el valor real
de la empresa - para Microsoft no se trataba sólo de una inversión financiera,
sino también de un avance estratégico en Internet.
La más reciente inyección de capital a Facebook -27,5 millones de dólares- fue
liderada por Greylock Venture Capital (fondo de inversión con fuerte vínculo con
la CIA). Uno de los socios de Greylock es Howard Cox, –según el diario The
Guardian-, pertenece al fondo de inversión en capital de riesgo de la CIA.17
En julio de 2009 Mark Zuckerberg hizo público que Facebook había alcanzado
los 250 millones de usuarios.18 El 15 de septiembre del mismo año anunció que
superaba los 300 millones,19 y el 2 de diciembre que ya contaba con más de
350 millones.20 21 En septiembre de 2011 contaba con más 800 millones de
usuarios.8
Servicios que ofrece
Popularidad de Facebook. Gráfico nivel de popularidad de Facebook medido en
millones de usuarios desde año 2004 al año 2011.
Actualmente Facebook ofrece una variedad de servicios a los usuarios y ofrece
los que se mencionan a continuación:
Lista de amigos: En ella, el usuario puede agregar a cualquier persona que
conozca y esté registrada, siempre que acepte su invitación.22 En Facebook
se pueden localizar amigos con quienes se perdió el contacto o agregar otros
nuevos con quienes intercambiar fotos o mensajes. Para ello, el servidor de
Facebook posee herramientas de búsqueda y de sugerencia de amigos.
Chat: Servicio de mensajería instantánea en dispositivos móviles y
computadores a través de Facebook Messenger.
Grupos y páginas: Es una de las utilidades de mayor desarrollo reciente. Se
trata de reunir personas con intereses comunes. En los grupos se pueden
añadir fotos, vídeos, mensajes, etc. Las páginas, se crean con fines
específicos y a diferencia de los grupos no contienen foros de discusión, ya
que están encaminadas hacia marcas o personajes específicos y no hacia
ningún tipo de convocatoria.
Además, los grupos también tienen su normativa, entre la cual se incluye la
prohibición de grupos con temáticas discriminatorias o que inciten al odio y falten
al respeto y la honra de las personas. Si bien esto no se cumple en muchas
ocasiones, existe la opción de denunciar y reportar los grupos que vayan contra
esta regla, por lo cual Facebook incluye un enlace en cada grupo el cual se dirige
hacia un cuadro de reclamos y quejas.23
Muro: el muro (wall en inglés) es un espacio en cada perfil de usuario que
permite que los amigos escriban mensajes para que el usuario los vea. Sólo
es visible para usuarios registrados. Permite ingresar imágenes y poner
cualquier tipo de logotipos en tu publicación. Una mejora llamada supermuro
permite incrustar animaciones flash, etc. En noviembre de 2011, Facebook
comenzó a implementar un sustituto del muro, el cual llevará por
nombre Biografía (ver abajo).
Fotos: Según Facebook,24 hay:
5 mil millones de fotos de usuario.
160 terabytes de almacenaje.
Regalos: los regalos o gifts son pequeños íconos con un mensaje. Los
regalos dados a un usuario aparecen en la pared con el mensaje del donante,
a menos que el donante decida dar el regalo en privado, en cuyo caso el
nombre y el mensaje del donante no se exhibe a otros usuarios.23
Una opción "anónima" está también disponible, por la cual cualquier
persona con el acceso del perfil puede ver el regalo, pero solamente el
destinatario verá el mensaje.
Algunos regalos eran gratuitos y el resto cuestan un dólar (es necesario un
número de tarjeta de créditoo cuenta Paypal).
La función de Regalos ya no existe desde que se implementó las biografías.
Botón "Me gusta": Esta función aparece en la parte inferior de cada
publicación hecha por el usuario o sus contactos (actualizaciones de
estado, contenido compartido, etc), se caracteriza por un pequeño ícono
en forma de una mano con el dedo pulgar hacia arriba. Permite valorar si
el contenido es del agrado del usuario actual en la red social, del mismo
modo se notifica a la persona que expuso ese tema originalmente si es
del agrado del alguien más (alguno de sus contactos).25Anteriormente iba
a ser llamado "Me impresiona" pero los usuarios decidieron nombrarla
"Me gusta", aunque también es llamado incorrectamente en español con
el término "Like".
Gráfico de usuarios por edades.
App Center: contendrá de las mejores apps disponibles para la red social.
Mostrará los hábitos de cada persona, las aplicaciones que estén más
relacionadas con su actividad diaria. Se podrá ingresar a la tienda desde
internet como dispositos móviles. Cada aplicación tendrá una página con
descripción, que incluirá imágenes y opiniones de usuarios.26
Aplicaciones: Son pequeñas aplicaciones con las que puedes averiguar
tu galleta de la suerte, quien es tu mejor amigo, descubrir cosas de tu
personalidad, etc.
Juegos: la mayoría de aplicaciones encontradas en Facebook se
relacionan con juegos de rol, juegos parecidos al Trivial Pursuit (p.
ej. geografía), o pruebas de habilidades (digitación, memoria). Entre los
más célebres se encuentran los juegos depusckab
minecraftPlayfish,como Pet society, los juegos de Zynga
Games como FarmVille27 yCityVille además los juegos de Digital
Chocolate como Tower Bloxx.
Poke: Un App para dispositivos móviles que es similar al chat, pero
incluyen dibujos a mano alzada
Biografía
Logo de Facebook
Botón «Me gusta».
En noviembre de 2011, Mark Zuckerberg anunció una nueva presentación
para Facebook, se trata de la Biografía(Timeline [Línea del tiempo] en
inglés), que reemplazará al Muro. Se publicó en diciembre del mismo año, y
tiene como objetivo agilizar y optimizar el paseo de los usuarios por los
perfiles de todos los contactos. Contiene algunas mejoras, como por ejemplo,
fecha exacta de publicaciones, actualizaciones de estado, comentarios, etc.,
y brinda la posibilidad de llegar a ellas casi de inmediato, así tengan mucho
tiempo. Permite agregar una foto de portada adicional en la parte superior
del perfil de la persona (cabe mencionar que esta es visible para todo el
mundo, y no existe la posibilidad de cambiar la privacidad), mantiene
ordenadas y organizadas las actividades de la persona: Lista de amigos,Me
gusta en las páginas seleccionadas por el usuario, información personal,
suscripciones, etc.
Los usuarios tienen la posibilidad de activarla28 o conservar el antiguo
aspecto del Muro, aunque es momentánea su duración, ya que si el usuario
no activa la biografía, los mismos organismos de Facebook han de hacerlo
en una fecha no esperada, fecha que ha sido objeto de diversas
controversias por varios usuarios que señalan que sería en un día específico,
y que de no activar la biografía la cuenta sería cancelada para el usuario. El
30 de marzo de 2012, los organismos de Facebook implementaron la
Biografía para las páginas, cabe mencionar que esta si fue obligatoria para
todo el mundo.
Este nuevo método, sin embargo no ha tenido un buen recibimiento por
muchas personas alrededor del mundo, sobre todo refiriéndose a América
Latina. Muchos usuarios argumentan sentirse demasiado incómodas por las
nuevas funcionalidades y detalles de la Biografía, argumentando y a la vez
exigiendo también el regreso del Muro. No obstante, a partir de agosto de
2012 hasta noviembre del mismo año, Facebook reemplazó gradualmente
los Muros por las Biografías (haciéndolas obligatorias para todos).
En marzo de 2013, la web mashable filtró imágenes del nuevo cambio de
imagen de la red social de Zuckerberg. Algunos de los cambios filtrado son
la desaparición de las miniaturas de la derecha del nombre del usuario,
además la columna donde se escriben las publicaciones pasará a localizarse
a la derecha en vez de a la izquierda. Ampliando así el espacio para visualizar
las opiniones personales, entre otros cambios.29
Facebook en números
Este artículo o sección se encuentra desactualizado.
Es posible que la información suministrada en él haya
cambiado o sea insuficiente.
Facebook tiene al rededor de 900 millones de usuarios registrados alrededor
de todo el mundo.30 De acuerdo a Alexa.com, la página subió del lugar
número 60 de las más visitadas al número 7 en un año. Actualmente se
encuentra en la posición 2.31 Quantcast la pone en el lugar número 16,32 y
Compete.com en el 20.33 La página es la más popular para subir fotografías,
con estadísticas de más de 83 millones de fotos subidas a diario. El 3 de
noviembre del 2007, había siete mil (7000) aplicaciones en el sitio, cien
agregadas cada día;34 y en enero de 2010 superaban las 500.000.
Impacto internacional
Los diez países con más usuarios en Facebook
Los diez países de habla hispana con más usuarios en Facebook
En Venezuela según una prueba realizada por la Universidad de
Carabobo un 80% de los jóvenes entre 13 y 21 años son usuarios de
Facebook activos.35
En Chile, por ejemplo, se han realizado estudios respaldados por
universidades que afirman que el 73% de los jóvenes chilenos de entre 18 y
29 años son usuarios de Facebook.36
La película The social network, dirigida por David Fincher, fue estrenada el 1
de octubre de 2010; basada en el libroMultimillonarios por accidente, de Ben
Mezrich (Alienta Editorial: 2010, ISBN 978-84-92414-20-8), narra el
nacimiento de Facebook.37 Sin embargo, su creador no está satisfecho
porque dice que no se ajusta a la realidad.38
Botón del pánico
Con respecto a las dudas sobre la protección de los menoresen las redes
sociales, Facebook ha incorporado a su plataforma un botón del pánico. Este
botón no es más que una aplicación para que los niños yadolescentes tengan
un acceso rápido a una herramienta que les permita ponerse en contacto con
las autoridades en caso de detectar un indicio de abuso en línea. Por el
momento la aplicación sólo estará disponible en el Reino Unido. El Centro de
Protección Online de Menores británico (CEOP, por sus siglas en inglés)
negoció durante meses la incorporación de este sistema de prevención en
Facebook, tras haber llegado ya a acuerdos con otros servicios similares
como MySpace y Bebo.
Facebook en otros idiomas
El idioma base de Facebook es el inglés de Estados Unidos que lo pone el
equipo de Facebook. Los otros idiomas los traducen los usuarios7 de forma
desinteresada y no lucrativa mediante una aplicación que hay para ello. La
aplicación se llama Translation y esta es la página web. Facebook en español
fue el primer idioma distinto del inglés y el proceso de traducción se completó
en febrero del 2008. Colaboraron más 1500 usuarios para traducirlo en
menos de 1 mes.7
Críticas
Facebook ha recibido diversidad de críticas desde que alcanzó difusión
global. Especialmente por sus términos de uso, en cuanto a datos e imagen,
y el acceso a la información de los usuarios una vez dados de baja. También
debido al alcance que está teniendo entre menores, sus efectos psicológicos
y sus alarmantes políticas de privacidad.39
En el momento de aceptar el contrato de términos de uso de la comunidad,
el usuario cede la propiedad exclusiva y perpetua de toda la información e
imágenes que agregue a la red social.40
“Usted le otorga a Facebook el derecho irrevocable, perpetuo, no
exclusivo, transferible y mundial (con la autorización de acordar una
licencia secundaria) de utilizar, copiar, publicar, difundir, almacenar,
ejecutar, transmitir, escanear, modificar, editar, traducir, adaptar,
redistribuir cualquier contenido depositado en el portal”.
Facebook. Licencia y términos de uso.
En suma, esas condiciones de la licencia le ofrecen a Facebook la propiedad
comercial de todo lo que tiene que ver con la vida privada de cada miembro
de la red. Aunque el director ejecutivo Mark Zuckerberg, declaró, para
tranquilizar a los usuarios, que "nunca se utilizará esta información fuera del
servicio Facebook", la red social obtiene facultad de utilizar esta información
como desee.41 El 21 de abril del año 2010 se dio a conocer que Facebook
planea hacer visibles las páginas de Internet consultadas por sus usuarios,
lo que ha levantado polémica debido a la pérdida de la privacidad. "Pasamos
de una situación donde no teníamos un control suficiente, a otra donde
Facebook vuelve públicas categorías enteras de informaciones, en una
lógica de negocios" según Kurt Opsahl, abogado de Electronic Frontier
Foundation dedicada a la defensa de los internautas.42
Si se quiere dar de baja una cuenta, el proceso es muy largo, debido a que
Facebook la mantiene activa "en caso de que el usuario decida reactivar su
cuenta", y así mismo mantiene copias de esa información indefinidamente. Y
en caso de defunción del usuario, su cuenta es mantenida "activa bajo un
estado memorial especial por un período determinado por nosotros para
permitir a otros usuarios publicar y ver comentarios".43
En el caso de Nipón Das, director de una consultoría de biotecnología en
Estados Unidos, logró eliminar la mayor parte de la información de su perfil,
cuando se comunicó por correo con representantes del servicio de atención
al cliente, amenazando con tomar acción legal. Aunque aún después de esto
un reportero encontró el perfil completo de Das.43
También hay un enlace en el que es posible dar de baja definitivamente el
perfil y toda su información en el plazo de 15 días.44
Desde instituciones públicas,45 hasta colegios46 pasando por blogs47 y otros
sitios web vinculados a redes sociales han criticado diferentes aspectos de
Facebook.[¿cuál?] Quizás el aspecto más dramático de la expansión de
Facebook sea el cambio de los hábitos intelectuales.48
En 2011, se creó el proyecto Europe contra Facebook, iniciado por un
ciudadano austríaco Max Schrems, el cual solicitó a Facebook información
de su perfil, en respuesta, la red social entregó un paquete con poco más de
1200 archivos en formato PDF, lo cual motivó la creación del website, a modo
de protesta.49
Entre las personas destacadas que advierten sobre el uso, se encuentra el
presidente estadounidense que inauguró el nuevo ciclo escolar en una
escuela secundaria de Wakefield, en Virginia. Allí exhortó a los estudiantes
de su país a:
"Tengan cuidado con lo que suban a Facebook".50
Barack Obama, septiembre de 2009.
En 2013, Karsten Gerloff, presidente de la Fundación de Software Libre de
Europa (FSFE), pronosticóque la red social funcionaría hasta el año 2016, y
el motivo principal de éste hecho lo atribuyó a Facebook entre otras
compañías toma a los usuarios como un producto que vender a sus
verdaderos clientes: empresas y servicios secretos.51 52
Facebook define quiénes somos. Amazon establece lo que
queremos y Google determina lo que pensamos.53
Karsten Gerloff, en julio de 2013
En 2013, la Universidad de Michigan, realizó un estudio a varios jóvenes
adultos los cuales poseían una cuenta en Facebook y un teléfono inteligente,
en el cual los resultados demostrarón que la red social no los hacía más
felices, sino en realidad la interacción con otras personas.54 55 La Universidad
de Princeton, calificó al uso de Facebook como una epidemia, llegado a la
conclusión de que, como cualquier otra enfermedad, el uso de Facebook
acabará por extinguirse, y preveen que para el año 2017 habrá perdido el
80% de sus usuarios activos.
Microsoft.
Microsoft Corporation (NASDAQ: MSFT) es una empresa multinacional de
origen estadounidense, fundada el 4 de abril de 1975 por Bill Gates y Paul Allen.
Dedicada al sector del software, tiene su sede
en Redmond, Washington, Estados Unidos. Microsoft desarrolla, fabrica, licencia
y produce software y equipos electrónicos, siendo sus productos más usados
el sistema operativo Microsoft Windows y la suite Microsoft Office, los cuales
tienen una importante posición entre los ordenadores personales. Con una cuota
de mercado cercana al 90.5% para Office en 2003 y para Windows en 2006,
siguiendo la estrategia de Bill Gates de «tener una estación de trabajo que
funcione con nuestro software en cada escritorio y en cada hogar».5 6 7 89 10 11 12 13
La compañía también suele ser nombrada como MS®, por sus iniciales en
el NASDAQ: (NASDAQ:MSFT) o simplemente como Redmond, debido a la gran
influencia que tiene sobre la localidad de su centro de operaciones. Tiene 93.000
empleados en 102 países diferentes y contó con unos ingresos de $72.360
millones de dólares durante el año 201214 1516 17 18
Fundada para desarrollar y vender intérpretes deBASIC para el Altair 8800, a
mediados de los 80 consiguió dominar el mercado de ordenadores
personales con el sistema operativo MS-DOS. La compañía inició una Oferta
Pública de Venta en el mercado de valores en 1986, la cual, debido a la subida
de cotización de las acciones, llevó a 4 empleados a convertirse en
multimillonarios y a 12 000 en millonarios.19
Durante su historia, ha sido objeto de críticas, como acusaciones de realizar
prácticas monopolísticasque la han llevado ante la Comisión Europea y
elDepartamento de Justicia de los Estados Unidos20 21, violación de
la privacidad de sus usuarios y colaboración con agencias de inteligencia
enprogramas de vigilancia global de alto secreto.
Microsoft afianzó su posición en otros mercados como el de sistemas operativos
y suites de oficina, con recursos como la red de televisión por cableMSNBC, el
portal de Internet MSN y la enciclopedia multimedia Microsoft Encarta, producto
y servicio cancelado por la empresa a principios de 200922debido a la
competencia de la libre Wikipedia. La compañía también
comercializa hardware como elratón de Microsoft y productos de entretenimiento
casero como Xbox, Xbox 360, Xbox One, Zune y MSN TV23 Microsoft ha dado
soporte a sus usuarios a través de Usenet en grupos de noticias24 y en
Internet,25 también premia con la categoría de Microsoft MVP (Most Valuable
Professional)26 a aquellos voluntarios que demuestran ser útiles en la asistencia
a los clientes. Su web oficial es una de las páginas más visitadas de la red,
recibiendo por día más de 2,4 millones de visitas únicas según datos de Alexa,
que situó el 11 de mayo de 2008 a Microsoft.com como la 14ª página web con
más visitas del mundo.27
Según algunas fuentes como El Confidencial, el actual sistema de evaluación de
rendimiento de sus empleados podría estar perjudicando notablemente a la
contabilidad de la compañía.28
Índice
[ocultar]
1 Historia
o 1.1 Orígenes
o 1.2 MS-DOS y Windows de 16 bits
o 1.3 Desde 1995 hasta el 2006: Internet y los problemas legales
o 1.4 2006 hasta 2008: Windows Vista y transición
o 1.5 Windows 7
o 1.6 Windows 8
2 Acuerdo Yahoo!-Microsoft
3 Otros productos
4 Divisiones
o 4.1 División de Retail y Consumo
o 4.2 División de Business
o 4.3 Mac Business Unit
o 4.4 División Entertainment & Devices
o 4.5 Xbox (2001-2009, 24,65 millones de consolas)
o 4.6 Xbox 360 (2005-actualidad, 81,2 millones de consolas)
o 4.7 Xbox One (2013-actualidad 4,5 millones de consolas)
o 4.8 Microsoft Press
5 Cultura de negocios
6 Cultura de usuario
7 Campus de Redmond
8 Microsoft en la Fórmula 1
9 Asuntos corporativos
o 9.1 Estructura corporativa
o 9.2 Stock
o 9.3 Diversidad
o 9.4 Logotipos y eslóganes
10 Críticas
11 Véase también
12 Referencias
13 Enlaces externos
Historia[editar]
Edificio de Microsoft Argentina.
Artículo principal: Historia de Microsoft
Orígenes[editar]
Siguiendo el lanzamiento del Altair 8800, Bill Gates, como director gerente de
Microsoft, llamó a los creadores del nuevo microordenador Micro
Instrumentation and Telemetry Systems (Micro Instrumentación de Sistemas
de Telemetría) (MITS), ofreciendo una implementación del lenguaje de
programación BASIC para el sistema. Tras la demostración, MITS accedió a
distribuir Altair BASIC.29Gates dejó la universidad Harvard, trasladándose
aAlbuquerque, Nuevo México, donde el MITS estaba establecido, y fundó, junto
a Paul Allen, Microsoft en1975. La primera oficina internacional de la compañía
se abrió el 1 de noviembre de 1978 en Japón, bajo el nombre de "ASCII
Microsoft" (actualmente conocida como Microsoft Japón).30 El 1 de
enero de1979, Microsoft se trasladó a Bellevue, en Washington. El 11 de
junio de 1980, Steve Ballmer se une a la compañía, quien sustituiría después a
Bill Gates como segundo CEO de Microsoft.
Los primeros productos de Microsoft tras su fundación, aparte de los intérpretes
BASIC, serían compiladores de COBOL y Fortran.31 32
El primer sistema operativo que la compañía lanzó al público fue una variante de
Unix en el año 1979. Adquirido de AT&T a través de una licencia de distribución,
Microsoft le apodó Xenix, y alquiló la empresa Santa Cruz Operation para
adaptar su sistema operativo a importantes plataformas.33 Xenix fue cedido
a Santa Cruz Operation, que adaptó el sistema para microprocesadores 80286
en 1985, bajo el nombre de SCO UNIX.
DOS (Disk Operative System, Sistema operativo de disco en inglés) fue el
sistema operativo que llevó a la compañía a su primer éxito.34 En agosto de 1981,
después de unas negociaciones fracasadas conDigital Research, IBM acordó
con Microsoft proveer de una versión de un sistema operativo CP/M, el cual fuera
pensado para el PC de IBM. Para esta idea, Microsoft compró a Seattle
Computer Productsun clon de CP/M llamado 86-DOS, el cual IBM renombró a
PC-DOS. Posteriormente, el mercado presenció una inundación de clones del
PC de IBM después de que Columbia Data Products clonase exitosamente
la BIOS del IBM. Por un marketing agresivo de MS-DOS hacia los fabricantes de
clones del IBM-PC, Microsoft se elevó desde un pequeño competidor hasta llegar
a ser uno de los principales oferentes de software para ordenadores personales
de la industria.35 36 La compañía se expandió hacia nuevos mercados con el
lanzamiento del Ratón de Microsoft en 1983, producto que no fue fabricado
originalmente por ellos. También destacar la creación de una división
llamada Microsoft Press.37
MS-DOS y Windows de 16 bits[editar]
Paul Allen, cofundador de Microsoft
En agosto de 1985, Microsoft e IBM colaboraron en el desarrollo de una familia
de sistemas operativos diferentes llamados OS/2.38 El 20 de noviembre de 1985,
Microsoft lanzó la primera versión para minoristas de su sistema
operativo Microsoft Windows. Originalmente, Windows no era más que una
extensión gráfica para MS-DOS.39
El 13 de marzo de 1986, la compañía hizo una Oferta Pública de Venta, con un
precio inicial de 21 dólares por acción. Al terminar el primer día, la acción ya tenía
un valor efectivo de 28 dólares. En 1987, Microsoft lanzó su primera versión de
OS/2 para OEMs.40
En 1989, Microsoft introdujo su principal paquete ofimático, Microsoft Office, un
paquete de aplicaciones ofimáticas integradas, como Microsoft Word y Microsoft
Excel.29 El 22 de mayo de 1990, salió al mercadoWindows 3.0,41 la nueva versión
del sistema operativo, el cual disponía de nuevas funciones, una interfaz de
usuario gráfica más racional y un mejorado modo protegido para el
procesador Intel 386.41
Steve Ballmer, CEO de Microsoft (2008 - 2014).
En 6 meses las ventas superaron los 2 millones de unidades.42 Esto suponía que
Windows ya generaba mayores beneficios que OS/2, por lo que la compañía
decidió mover recursos desde OS/2 a Windows.43 En los siguientes años OS/2
decayó, y Windows fue rápidamente favorecido como plataforma para PC.44
Durante la transición de MS-DOS hacia Windows, el éxito de Office permitió a la
compañía tomar posición frente a las aplicaciones ofimáticas de la competencia,
comoWordPerfect y Lotus 1-2-345 Según la compañía Novell, propietaria durante
un tiempo de WordPerfect, Microsoft usaba conocimiento no documentado
del núcleo de MS-DOS y Windows para que Office funcionase mejor que los de
las aplicaciones de la competencia. Mientras, Office se convertía en la suite
ofimática dominante, con una cuota de mercado superior a la de sus
competidores.46
En 1993, Microsoft publicó Windows NT 3.1,42 un sistema operativo de negocios
con la interfaz deWindows 3.1 pero con un núcleo totalmente
diferente.42 En 1995, Microsoft puso en venta Windows 95,42 una nueva versión
del sistema operativo insignia de la compañía con una interfaz de usuario
completamente nueva; entre sus novedades se destacan el nuevo Menú Inicio,
un explorador de archivos mejorado, compatibilidad del Hardware Plug-and-
play y soporte mejorado para multimedia y juegos. La nueva versión de Windows
permitirá además nombres largos de archivos y la multitarea prioritaria de 32 bits,
que permite usar a la vez varios programas. En los 4 primeros días, se vendieron
1 millón de copias de Microsoft Windows 95.47 En este mismo año, salió al
mercado Internet Explorer48 que venía incluido junto al paquete Windows 95
Plus! (o Windows Plus!), una nueva versión de Windows 95.
Bill Gates en el Foro Económico Mundial, en 2007.
Tras adquirir la licencia del navegador NCSA Mosaicperteneciente a Spyglass,
modificó el navegador y lo transformó renombrándolo con el nombre de Internet
Explorer49
En marzo de 1995 salió Microsoft Bob,50 una extensión de Windows 3.1
destinada al mercado doméstico que pretendía hacer más amigable el uso de la
computadora, cambiando la interfaz por otro basado en objetos cotidianos
(cajones, mesas, cuadros) y personajes a modo de asistentes (un perro, una
pelota roja, etc.). A pesar de ser un rotundo fracaso,50 muchos de sus conceptos
fueron trasladados a otros programas de la compañía como, por ejemplo, los
asistentes de ayuda del Office o las búsquedas de Windows XP. Es remarcable
decir que Microsoft Bob fue desarrollado por Melinda Gates, mujer de Bill Gates
y también que éste fue su último proyecto en la compañía.
Desde 1995 hasta el 2006: Internet y los problemas legales[editar]
A mediados de los 90, Microsoft inició una nueva expansión hacia las redes y
el World Wide Web. El 24 de agosto de 1995, lanzó su principal servicio
online, MSN (Microsoft Service Network),51 con la intención de competir de forma
directa con AOL (America Online). MSN se convirtió en la marca general de
Microsoft para los servicios online.52 La compañía continuó en su expansión
hacia otros mercados. Ya en 1996, trabajó junto a la NBC para crear un nueva
emisora de televisión por cable que ofreciera noticias y estuviera disponible en
cualquier momento. La MSNBC.53 En noviembre del mismo año, Microsoft se
introdujo en el mercado de los PDAs en noviembre con Windows CE 1.0, una
nueva versión hecha desde cero de su famoso sistema Windows,
específicamente diseñado para sistemas con poca memoria y rendimiento, como
pequeños ordenadores y equipos de mano. Más adelante, en 1997,54Internet
Explorer 4.0 fue publicado para Mac OS y Windows, marcando el principio del
fin de su competidor, Netscape Navigator.55 En octubre, el Departamento de
Justicia de los Estados Unidosarchivó una moción de la Corte Federal por la que
indicaban que había violado un acuerdo firmado en1994, y exigía que se
detuviera la venta de Internet Explorer junto a Windows tal y como se le obligaba
a los fabricantes.56
El logo en la entrada del campus enAlemania.
1998 fue un año importante para Microsoft, Bill Gates designó a Steve
Ballmer como presidente, sin embargo, Gates siguió manteniéndose en la
presidencia del Consejo de Dirección de la empresa.57 Windows 98 salió a la
venta, la nueva versión de Windows era una actualización de Windows 95 que
incorporaba nuevas características centradas en Internet y que era compatible
con los nuevos tipos de dispositivos.58 Un año después de la aparición de
Windows 98, Microsoft lanza el 5 de mayo de 1999 Windows 98 SE, este nuevo
sistema no era una actualización de Windows 98, sino un producto nuevo. Esta
nueva versión corregía errores de anteriores versiones dándole mayor
estabilidad, ampliaba su compatibilidad con los periféricos y con Windows NTy
permitía la posibilidad de compartir una conexión a Internet por medio de la red
local. También cabe destacar la inclusión de Internet Explorer 5, nueva versión
del navegador. Por orden judicial, Microsoft se vio obligado a vender en algunas
regiones una versión de este sistema operativo que diera opción para desinstalar
Internet Explorer. Esto no era permitido en la versión anterior de Windows.59 60
En 1999, Microsoft pagó 5.000 millones de dólares a la compañía de
telecomunicaciones AT&T Corppara utilizar su sistema operativo Windows
CE en dispositivos diseñados para ofrecer a los consumidores servicios
integrados de televisión por cable, teléfono y acceso rápido a Internet.61
Diferentes versiones de Windows al lo largo del tiempo.62 63
El 17 de febrero del2000, nace Windows 2000,64 entre sus novedades, destaca
elActive Directory, que permitía trabajar a las organizaciones a nivel global, con
todas sus máquinas.,65 66 la incorporación del Administrador de
Dispositivos, Windows Media Player y aumentaba la compatibilidad de los juegos
bajo Windows NT. Sin embargo, este sistema estaba pensado para uso
profesional y no tuvo un uso tan extendido en los hogares como en los
negocios.64
El 3 de abril, la justicia se pronunció en el caso de los Estados Unidos frente a
Microsoft acusando a la compañía de practicar un "monopolio abusivo" y
forzándola a dividir sus productos en 2 unidades separadas.57 Esta sentencia dio
un vuelco ante la corte federal de apelación, y fue resuelta por el Departamento
de Justicia en 2001.67
Windows ME (Windows Millenium Edition) se pone a disposición del público el
día 14 de septiembre del mismo año.68 Windows ME sería el sustituto de
Windows 98, sus principales novedades era la inclusión de la opción Restaurar
Sistema, que permite devolver la configuración del equipo a un estado previo así
como mejoras en cuanto a Internet.69 El sistema no tuvo el éxito esperado.69
Este mismo año, Bill Gates, con el fin de poder centrarse en el desarrollo de
nuevos productos y tecnologías, renunció como Consejero Delegado de la
compañía siendo sustituido por Steve Ballmer Ballmer.70
El 25 de octubre año 2001, Microsoft estrena Windows XP.71 La primera versión
de Windows que combina características tanto de su línea para ordenadores
caseros como para los negocios. XP; abreviatura de "eXPerience"72 introduce
una nueva interfaz gráfica de usuario, el primer cambio de la interfaz desde
1995.73 72 Windows XP, sin embargo, recibió críticas por la cantidad de fallos de
seguridad que fueron encontrados y presentaba una menor compatibilidad con
los dispositivos y algunos programas.74 75 76 Aun así, el lanzamiento de Windows
XP significó un nuevo concepto de sistema operativo para los ordenadores
domésticos. Windows XP es, actualmente, el sistema x86 más extendido del
planeta, con unos 400 millones de copias vendidas. 77
Más adelante, con el lanzamiento de Xbox el 8 de noviembre del mismo
año,78 Microsoft se introdujo en el mercado de las videoconsolas, un mercado
dominado por Nintendo y Sony.79
La nueva solución empresarial de Microsoft se presentó el 24 de
abril del 2003.80 Dirigida a empresas, Windows Server 2003 era un 139% más
rápido que su antecesor, Windows 2000 Server y un 200% frente a Windows NT
4.0.80 81
La compañía tropezó con más problemas legales en marzo del 2004 cuando se
emprendieron acciones legales contra Microsoft por parte de la Unión
Europea por abuso dominante del mercado, tras ser juzgada, Microsoft se vio en
la obligación de comercializar nuevas versiones de su sistema Windows XP.
Estas nuevas versiones no incluían a Windows Media Player y se conocieron
con el nombre deWindows XP Home Edition N y Windows XP Professional N.82 83
2006 hasta 2008: Windows Vista y transición[editar]
En el año 2006, Bill Gates anunció el inicio de un período de transición, su puesto
de Jefe de Arquitectura de Software podría ser ocupado por Ray Ozzie,84 aunque
permanecería como presidente de la compañía, al frente de la Junta Directiva y
como consejero en los proyectos claves.
Tras numerosos retrasos,85 86 87 el 29 de enero del 2007 la compañía lanza
oficialmente Windows Vista. Se sacaron al mercado 6 ediciones diferentes:88
Diferentes versiones de Windows Vista.
Home Basic: Pensada para hogares y usuarios con necesidades básicas.88
Home Premium:Pensada para hogares, trae una nueva interfaz, Windows
Aero, con efectos visuales mejorados y un escritorio 3D con la
utilidad Windows Flip 3D, nuevas tecnologías de diagnóstico y mejora del
rendimiento del sistema.89
Bussiness: Pensado para pequeñas empresas.90
Ultimate: Combina las características de la edición Home Premium y la
edición Bussiness.91
Enterprise: Ideada para grandes empresas que operen en redes globales,
incluye una mayor compatibilidad con aplicaciones y diferentes idiomas, así
como Windows BitLocker para la protección de datos.92
Starter: Pensado para usuarios principiantes, es la edición menos completa
de todas y la más simple. Se incluye en equipos de bajo costo y no se
comercializa en la Unión Europea, Estados Unidos, Japón y Australia.93
A estas ediciones hay que sumarles las etiquetadas como N, que solo se
distribuyen en Europa y que no incluyen el reproductor de Windows Media.94 en
general, la seguridad ha mejorado respecto a Windows XP, con herramientas
como la protección de seguridad dinámica y Windows Defender. Además, Vista
incluye un control parental de acceso a internet.95 En cuanto a los fallos de
seguridad, en los primeros 6 meses se han detectado menos fallos en Vista que
en otros sistemas como XP.96 97
Junto con Windows Vista, salió a la venta la nueva versión de la suite ofimática
de la compañía,Microsoft Office 2007. Entre sus novedades está la
interfaz Ribbon, que sustituye las barras de herramientas y menús por
pestañas.98
El 1 de febrero del 2008, Microsoft anunció su intención de comprar a uno de sus
mayores competidores, Yahoo, por 44.600 millones de dólares en efectivo o 31
dólares por acción.99 Esta oferta, llega en momentos difíciles para Yahoo, que
recientemente anunció el despido del 7% de su plantilla para intentar
reestructurar la empresa.99 Desde Yahoo, se ha indicado el estudio de la oferta
por parte de la Dirección de la empresa.100 Poco después, Yahoo decidió no
aceptar la propuesta por considerar que la oferta de Microsoft "subvalora
enormemente a Yahoo".101
Windows 7[editar]
Windows 7 (conocido con el nombre código Blackcomb, y luego Vienna), versión
sucesora de Windows Vista, fue lanzado al público oficialmente en octubre del
2009. Este sistema operativo se enfocó en mejorar la versión de Windows
Vista tanto en la facilidad de uso como en mejoras de rendimiento.
Windows 8[editar]
Seguido del lanzamiento de los teléfonos inteligentes con sistema operativo
Windows, Microsoft se enfocó en un cambio de imagen de sus productos desde
el 2011 al 2012; el logo de la compañía, productos, servicios y el sitio web de
Microsoft adoptaron el concepto del diseño Metro. En junio del 2011 en la
conferencia anual de Taiwán Computex Microsoft mostro al público su nueva
versión de Windows, un sistema operativo diseñado para computadores de
escritorio, portátiles y tabletas. Una versión para desarrolladores (Developer
Preview) fue lanzada en septiembre 13 del mismo año y en mayo 31 del 2012
fue lanzada la versión de prueba.
Para octubre 26 del 2012, Microsoft lanzó Windows 8 junto con Microsoft
Surface.
Acuerdo Yahoo!-Microsoft[editar]
Para derrotar a Google y tras un fracasado intento de compra de Yahoo! por
parte de Microsoft en unaOPA por un valor de 45.000 millones de dólares.102 Las
compañías anunciaron un acuerdo de 10 años. En este acuerdo, Microsoft
recibirá un permiso exclusivo para integrar las tecnologías de búsqueda de
Yahoo!, y también podrá utilizarla para sus propias plataformas de búsqueda.
Bing será el motor de búsqueda exclusivo de los sitios de Yahoo! pero este último
mantendrá la administración de las publicidades relacionadas. Sin embargo, no
significa que la búsqueda realizada en Yahoo! se redirija a Bing. Yahoo de todos
modos poseerá su experiencia de usuario en sus propiedades, incluida la
búsqueda, pero los usuarios verán una nota que diga "Powered by Bing" en el
fondo de los resultados de búsqueda.103 104
Otros productos[editar]
Junto a Windows y Office, Microsoft cuenta con una amplia gama de productos
entre los que destacan:
Biztalk Server: Automatización y gestión de procesos empresariales.105
Exchange: Servidor de correo electrónico que incluye además un servicio de
mensajería y un calendario. Una de sus características más importantes es
su integración con Microsoft Office.106
Internet Security and Acceleration Server (ISA): Servidor firewall corporativo,
multicapa y caché.107
Operations Manager: Monitorización de sistemas Windows Server y
aplicaciones.NET.108
Sharepoint Portal Server: Integrada en Office, proporciona herramientas para
la colaboración, administración de contenido e implementación de procesos
empresariales.109
SQL Server: Plataforma de base de datos que ofrece herramientas de
administración de datos empresariales.110
Systems Management Server: Gestión de sistemas (inventarios, control
remoto, distribución de software...).111
Microsoft Project: Administrador de proyectos empresariales.112
Microsoft Security Essentials: Antivirus gratuito, conocida anteriormente
como Morro.
Microsoft Works: Proporciona herramientas de productividad casera, incluye
un editor de texto, una hoja de cálculo, un gestor de bases de datos y un
planificador de proyectos.113
Windows Mobile: Sistema operativo para teléfonos inteligentes y PDAs.114
Microsoft Encarta Enciclopedia electrónica, que se distribuye tanto desde una
web como desde un programa.115 116
Microsoft Picture It!: Programa de retoque fotográfico.117
Windows Live: Cliente de mensajería instantánea, anteriormente
llamado Windows MSN.118
Microsoft Visual Studio, que incluye Visual Basic, Visual C++, Visual
C#, Visual J#... Proporciona herramientas para desarrolladores de
aplicaciones informáticas.119
Microsoft Internet Explorer: Navegador Web, cuenta con versiones para los
Sistemas OperativosWindows, Apple Macintosh y Solaris Unix.120
Microsoft Xbox (y su sucesor Xbox 360): Videoconsola
de sexta y séptima generación respectivamente.
Microsoft Surface: Permite el manejo de contenidos digitales con los
movimientos de las manos.
Skype: Permite realizar llamadas VoIP, llamadas y Videollamada.121
Zune: Reproductor de música digital.
Campaign Cloud: Plataforma construida con la computación de la nube para
campañas políticas en línea.
Divisiones[editar]
División de Retail y Consumo[editar]
La División de Retail y Consumo122 (en inglés, Platform Products and Services
Division)123 produce el producto estrella de la compañía, Windows. Además, es
la encargada del servicio MSN y de la revistaSlate (adquirida el 21 de
diciembre del 2004 por The Washington Post).124
A finales de 1997, Microsoft compra el servicio de webmail Hotmail,125 Que
pasará a llamarse MSN Hotmail. Con esta compra, la compañía tratará de hacer
frente a AOL.125
En el año 1999, Microsoft desarrolla el programa de mensajería instantánea MSN
Messenger, que tuvo un gran éxito en su lanzamiento. Con la llegada de Vista,
MSN Messenger pasa a llamarse Windows Live Messenger126
Microsoft Visual Studio es el conjunto de aplicaciones y herramientas de
programación de la compañía. El producto se caracteriza por su fácil unión con
las APIs de Windows, aunque debe ser configurado especialmente en el caso de
que sea usado con librerías que no son de Microsoft. La versión actual es Visual
Studio 2012. La versión anterior, Visual Studio 2010 tuvo un gran desarrollo
respecto a sus predecesor, Visual Studio.Net 2003, nombrado posteriormente
a .NET initiative, una iniciativa deMarketing que cubre un conjunto de
tecnologías. La definición de.NET continua su evolución. En el 2004,.NET
destaca por su facilidad de uso de las aplicaciones basadas en Windows que
usan Internet.
División de Business[editar]
Entrada al edificio 17 del campus principal de la compañía de Redmond.
La División de Business se encarga en el desarrollo de la suite de
ofimática Microsoft Office. Microsoft Office incluye varios programas, entre los
que destacan Word(procesador de textos), Access (aplicación para base de
datos), Excel (hoja de cálculo), Outlook (agenda electrónica), frecuentemente
usado con Exchange Server), PowerPoint (software de presentación de
diapositivas) y Publisher (realización de diferentes publicaciones). A partir de la
versión 2003, se incluyen nuevos programas
como Visio, Project, MapPoint,InfoPath y OneNote.127 Cabe destacar que,
anterior al desarrollo de excel, Microsoft ya comercializaba un programa de hojas
de cálculo llamado Multiplan para el sistema operativo CP/M.30
La división se centra en el desarrollo de aplicaciones para gestiones
empresariales. Fue creada en el año 2001 tras la adquisición de la
empresa Great Plains, empresa de software.128 Tras esto, Microsoft adquirió
Navision para tener una entrada similar en Europa.129 El resultado de esta
operación fue la publicación en 2006 Microsoft Dynamics NAV,
software Planificación de recursos empresariales de planificación de recursos
desarrollado inicialmente por Navision, empresa que además comercializaba las
aplicaciones Axapta y Solomon, orientadas a mercados similares. Todas estas
aplicaciones se combinaron dentro de su software ERP.130
Mac Business Unit[editar]
La Mac Business Unit (MBU) es la división de Microsoft encargada del desarrollo
de programas para la plataforma Mac OS X. Entre sus productos se
encuentran: Office para Mac (última versión, 2011), Microsoft Messenger (última
versión, 7), Expression Media (última versión, 2) entre otros.
División Entertainment & Devices[editar]
Xbox 360.
Microsoft ha tratado de expandirse en muchos otros mercados, con productos
como Windows CE para PDAs yteléfonos inteligentes. Inicialmente, entró en el
mercado de servicios móviles a través de Windows CE para dispositivos de
mano, actualmente desarrolla un sistema operativo basado en CE, Windows
Mobile. La empresa produce MSN TV, antes llamado WebTV, que permite
navegar por internet a través del televisor.
La división vende videojuegos que se ejecutan en computadores con el sistema
Windows, algunos juegos destacados producidos por Microsoft son Age of
Empires,Halo y Microsoft Flight Simulator (simulador de vuelo), con estos juegos
es posible conectarse a MSN Games y competir por internet contra otros
usuarios. Por otro lado, Microsoft desarrolló y comercializó la enciclopedia
electrónica, Encarta, desde 1993 hasta 2009.
La compañía entró en el mercado de las videoconsolas con el lanzamiento de
la Xbox, inicialmente, fue lanzada el 8 de noviembre del 2001 en Estados
Unidos con un precio inicial de 299$.131 La propia compañía desarrolla y publica
sus propios videojuegos para esta consola, con la ayuda de su
subsidiariaMicrosoft Game Studios, además de terceros como Electronic
Arts y Activision que pagan derechos de autor para publicar juegos y
accesorios.132
El 22 de noviembre de 2005, Microsoft lanza en los EE. UU. su segunda
videoconsola de sobremesa conocida como Xbox 360.133 134 135
Además de la línea de productos de Xbox, Microsoft también comercializa
hardware, tales como ratones, teclados, y gamepads. El 15 de noviembre de
2007, Microsoft anunció la compra de Musiwave, plataforma móvil de
música.136 137
Xbox (2001-2009, 24,65 millones de consolas)[editar]
Artículo principal: Xbox
Xbox con su control
La Xbox fue desarrollada por un pequeño equipo de desarrolladores de
videojuegos contratados por Microsoft. Microsoft retrasó en varias ocasiones la
noticia de su nueva consola, y finalmente fue revelado como proyecto a finales
de 1999, a raíz de las entrevistas con Bill Gates. Gates dijo que un dispositivo de
juego de entretenimiento es esencial para la convergencia multimedia en los
nuevos tiempos del ocio digital. El 10 de marzo de 2000, fue confirmado el nuevo
proyecto Xbox, mediante un comunicado oficial de Microsoft. Entonces, Microsoft
lanzó en 2001 su Xbox, fue su primera consola de sobremesa y compitió contra
la PlayStation 2 deSony, la Gamecube de Nintendo y el Dreamcast de Sega.Su
principal característica es su procesador central basado en el procesador
Intel Pentium III. El sistema también incorpora un lector de DVD, un disco duro
interno, puerto ethernet y por último el sistema dispone de cuatro conectores
para los mandos. Tuvo una buena aceptación, aunque una corta vida.
Xbox 360 (2005-actualidad, 81,2 millones de consolas)[editar]
Artículo principal: Xbox 360
Xbox 360, nuevo modelo
Xbox 360 es la segunda videoconsola de sobremesa producida por Microsoft.
Fue desarrollada en colaboración con IBM y ATI y lanzada en América del
Norte, Japón, Europa yAustralia entre 2005 y 2006. Su servicio Xbox Live permite
a los jugadores competir en línea y descargar contenidos como juegos
arcade,demos, tráilers, programa de televisión ypelículas. La Xbox 360 es la
sucesora directa de la Xbox, y compite actualmente contra laPlayStation
3 de Sony y la Wii de Nintendocomo parte de las videoconsolas de séptima
generación.138
Como principales características, están suunidad central de
procesamiento basado en unIBM PowerPC y su unidad de procesamiento
gráfico que soporta la tecnología de Shaders Unificados. El sistema incorpora un
puerto especial para agregar un disco duro externo y es compatible con la
mayoría de los aparatos con conector USB gracias a sus puertos USB 2.0. Los
accesorios de este sistema pueden ser utilizados en una computadora
personal como son los mandos y el volante Xbox 360. Además es
retrocompatible con su antecesora la Xbox
La Xbox 360 se dio a conocer oficialmente en la cadena de televisión MTV el 12
de mayo de 2005 y las fechas de lanzamiento fueron divulgadas en septiembre
de ese mismo año en el festival de videojuegosTokyo Game Show. Es la primera
consola en proporcionar un lanzamiento casi simultáneo en tres regiones
principales de ventas (Europa, Japón y Estados Unidos).
Desde su lanzamiento en 2005, existen cuatro modelos de los cuales tres están
a la venta, los modelos Elite, Arcade y S. La consola ha tenido buen mercado
en Norteamérica, Europa y otras regiones del mundo (con la excepción
de Japón).139 A fecha de enero de 2009, Microsoft había vendido 39 millones de
consolas, según las cifras oficiales. Se suspende la producción del modelo
premium el 28 de agosto de 2009, pero las unidades seguirán siendo vendidas
hasta que se agote el suministro. Existe un nuevo modelo disponible, el S, el cual
posee una arquitectura nuevamente diseñada. Como principales características
de éste modelo se encuentran la inclusión de Wi-Fi y de un sistema más
silencioso.140
Xbox One (2013-actualidad 4,5 millones de consolas)[editar]
Artículo principal: Xbox One
La nueva Xbox One
La Xbox One o Durango durante su desarrollo, es una consola de Octava
generación y la tercera generación de Microsoft en el mercado de las consolas
de videojuegos. Fue presentada el 21 de mayo del 2013 en la Xbox Reveal y sus
características fueron dada a conocer el 10 de junio del 2013 en el E3. La nueva
consola cuenta con 8 núcleos de 64 bits, 8 GB de memoria RAM, 500 GB de
disco duro y un lector Blu-Ray. Incluye además conexiones USB 3.0, HDMI in-
out y WI-FI 802.11n Wireless. También el Kinect 2.0 cuenta con una cámara de
1080p que procesa 2 GB de datos por segundo con un tiempo de respuesta de
13 milésimas de segundo[cita requerida]. El sistema operativo está formado por el
Kernel de Windows, además que comparte una interfaz similar, tendrá varias
funciones multimedia y de Internet Explorer. Cuenta con una unidad óptica Blu-
Ray Disc para películas e incluye el sistema cloud de almacenamiento en línea.
Otras características son.
Puede encenderse con sólo escuchar la voz del usuario.
La Xbox One tiene aplicaciones para ver televisión y películas, así como
escuchar música y hacer videoconferencias por medio de Skype.
Tiene 5,000 millones de transistores, Blu-Ray y 8 GB de memoria RAM.
Los juegos FIFA, Madden, NBA Live, Call of Duty y Forza Motorsport 5
tendrán una nueva versión para el dispositivo.
Más de 15,000 servidores están detrás de la visión moderna del Xbox Live.
Microsoft anunció una nueva serie de televisión de su franquicia Halo en
asociación con Steven Spielberg.
Xbox planea presentar 15 títulos exclusivos en el primer año de Xbox One.
TV en Xbox One. Permite navegar y ver programas de televisión en vivo
desde la conexión de tu decodificador de cable, o set satelital.
Snap. Podrás hacer dos cosas al mismo tiempo en la pantalla de tu casa, ya
sea jugar y ver tu película favorita o platicar con tus amigos en Skype.
ONE Guide, te permite buscar programas de televisión en la red a través de
tu voz y crear una guía personalizada.
La National Football League (NFL) aprovechará los dispositivos y servicios
de Microsoft para evolucionar, tanto dentro como fuera de la cancha a través
de Skype y Xbox SmartGlass.
Cambios en el diseño de la consola en general junto con el Kinect.
El nuevo Kinect cuenta con el conocido sistema de gestos con grandes mejoras,
además con un cambio diseño y una característica importante, el nuevo
reconocimiento de voz de Xbox. Su precio es de $499 dólares estadounidenses;
En México su precio es de $8499.00 MXN, fue lanzada el 21 noviembre de 2013
en Europa y América inicialmente. La principal critica que está recibiendo es la
de su precio ya que únicamente la caja contiene la Xbox, cable de poder, Kinect
2.0 y un cable HDMI junto con los manuales correspondientes.
Windows.
Microsoft Windows (conocido generalmente como Windows), es el nombre de
una familia de sistemas operativos desarrollados y vendidos por Microsoft.
Microsoft introdujo un entorno operativo denominadoWindows el 20 de
noviembre de 1985 como un complemento para MS-DOS en respuesta al
creciente interés en las interfaces gráficas de usuario (GUI).1 Microsoft Windows
llegó a dominar el mercado mundial de computadoras personales, con más del
90% de la cuota de mercado, superando aMac OS, que había sido introducido
en 1984.
Las versiones más recientes de Windows sonWindows 8.1 y Windows
8 para equipos de escritorio, Windows Server 2012 para servidores yWindows
Phone 8 para dispositivos móviles. La primera versión en español fue Windows
3.0.
Windows es un sistema operativo basado en ventanas. La primera versión se
lanzó en 1985 y comenzó a utilizarse de forma generalizada gracias a su interfaz
gráfica de usuario (GUI, Graphical User Interface). Hasta ese momento, el
sistema operativo más extendido era MS-DOS (Microsoft Disk Operating
System), con una interfaz basada en línea de comandos.
Índice
[ocultar]
1 Historia
o 1.1 Versiones BETA
o 1.2 Historial de lanzamientos
2 Versiones más utilizadas
3 Seguridad
o 3.1 Windows Defender
o 3.2 Permisos de archivos
4 Aplicaciones
o 4.1 Windows 8
5 Críticas y polémicas
6 Véase también
7 Referencias
8 Enlaces externos
Historia[editar]
Artículo principal: Historia de Microsoft Windows
Árbol genealógico de Windows.
La primera versión de Microsoft Windows, versión 1.0, lanzada en noviembre
de 1985, compitió con el sistema operativo de Apple. Carecía de un cierto grado
de funcionalidad y logró muy poca popularidad. Windows 1.0 no era un sistema
operativo completo; más bien era una extensión gráfica de MS-DOS. Windows
versión 2.0 fue lanzado en noviembre de 1987 y fue un poco más popular que
su predecesor. Windows 2.03 (lanzado en enero de 1988) incluyó por primera
vez ventanas que podían solaparse unas a otras. El resultado de este cambio
llevó a Apple a presentar una demanda contra Microsoft, debido a que infringían
derechos de autor.
Windows versión 3.0, lanzado en 1990, fue la primera versión de Microsoft
Windows que consiguió un amplio éxito comercial, vendiendo 2 millones de
copias en los primeros seis meses. Presentaba mejoras en la interfaz de usuario
y en la multitarea. Recibió un lavado de cara en Windows 3.1, que se hizo
disponible para el público en general el 1 de marzo de 1992. El soporte de
Windows 3.1 terminó el 31 de diciembre de 2001.
En julio de 1993, Microsoft lanzó Windows NT basado en un nuevo kernel. NT
era considerado como el sistema operativo profesional y fue la primera versión
de Windows en utilizar la Multitarea apropiativa. Windows NT más tarde sería
reestructurado para funcionar también como un sistema operativo para el hogar,
con Windows XP.
Segundo logo de Microsoft Windows (1992-2001)
El 24 de agosto de 1995, Microsoft lanzó Windows 95, una versión nueva para
los consumidores, y grandes fueron los cambios que se realizaron a la interfaz
de usuario, y también se utiliza multitarea apropiativa. Windows 95 fue diseñado
para sustituir no solo a Windows 3.1, sino también de Windows para Workgroups
y MS-DOS. También fue el primer sistema operativo Windows para utilizar las
capacidades Plug and Play. Los cambios que trajo Windows 95 eran
revolucionarios, a diferencia de los siguientes, como Windows 98 y Windows Me.
El soporte estándar para Windows 95 finalizó el 31 de diciembre de 2000 y el
soporte ampliado para Windows 95 finalizó el 31 de diciembre de 2001.
El siguiente para la línea del usuario fue lanzado el 25 de junio de 1998,
Microsoft Windows 98. Sustancialmente fue criticado por su lentitud y por su falta
de fiabilidad en comparación con Windows 95, pero muchos de sus problemas
básicos fueron posteriormente rectificados con el lanzamiento de Windows 98
Second Edition en 1999. El soporte estándar para Windows 98 terminó el 30 de
junio de 2002, y el soporte ampliado para Windows 98 terminó el 11 de julio de
2006.
Como parte de su línea «profesional», Microsoft lanzó Windows 2000 en febrero
de 2000. La versión de consumidor tras Windows 98 fue Windows Me (Windows
Millennium Edition). Lanzado en septiembre de 2000, Windows Me
implementaba una serie de nuevas tecnologías para Microsoft: en particular fue
el «Universal Plug and Play». Durante el 2004 parte del código fuente de
Windows 2000 se filtró en internet, esto era malo para Microsoft porque el mismo
núcleo utilizado en Windows 2000 se utilizó en Windows XP.
En octubre de 2001, Microsoft lanzó Windows XP, una versión que se construyó
en el kernel de Windows NT que también conserva la usabilidad orientada al
consumidor de Windows 95 y sus sucesores. En dos ediciones distintas, «Home»
y «Professional», el primero carece por mucho de la seguridad y características
de red de la edición Professional. Además, la primera edición «Media Center»
fue lanzada en 2002, con énfasis en el apoyo a la funcionalidad de DVD y TV,
incluyendo grabación de TV y un control remoto. El soporte estándar para
Windows XP terminó el 14 de abril de 2009. El soporte extendido finalizó el 8 de
abril de 2014.
En abril de 2003, Windows Server 2003 se introdujo, reemplazando a la línea de
productos de servidor de Windows 2000 con un número de nuevas
características y un fuerte enfoque en la seguridad; lo cual fue seguido en
diciembre de 2005 por Windows Server 2003 R2.
El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene una serie de
características nuevas, desde un shell rediseñado y la interfaz de usuario da
importantes cambios técnicos, con especial atención a las características de
seguridad. Está disponible en varias ediciones diferentes y ha sido objeto de muy
severas críticas debido a su patente inestabilidad, sobredemanda de recursos
de hardware, alto costo, y muy alta incompatibilidad con sus predecesores,
hecho que no ocurría con éstos.
El 22 de octubre de 2009, Microsoft lanzó Windows 7. A diferencia de su
predecesor, Windows Vista, que introdujo a un gran número de nuevas
características, Windows 7 pretendía ser una actualización incremental,
enfocada a la línea de Windows, con el objetivo de ser compatible con
aplicaciones y hardware que Windows Vista no era compatible. Windows 7 tiene
soporte multi-touch, un Windows shell rediseñado con una nueva barra de
tareas, conocido como Superbar, un sistema red llamado HomeGroup, y mejoras
en el rendimiento sobre todo en velocidad y en menor consumo de recursos.
El 26 de octubre de 2012, Microsoft lanzó Windows 8. Por primera vez desde
Windows 95, el botón Inicio ya no está disponible en la barra de tareas, aunque
la pantalla de inicio está aún activa haciendo clic en la esquina inferior izquierda
de la pantalla y presionando la tecla Inicio en el teclado. Presenta un Explorador
de Windows rediseñado, con la famosa interfaz ribbon de Microsoft Office.
Según Microsofthan vendido 60 millones de licencias, aunque ha recibido
muchas críticas por parte de los usuarios. Se conservan la gran mayoría de las
características de su predecesor, Windows 7, con excepción de la nueva interfaz
gráfica y algunos cambios menores.
Versiones BETA[editar]
Las versiones Beta, Alpha o de pruebas, son versiones gratuitas que se crean
como base para el próximo sistema operativo de Windows a lanzar. En ellas se
colocan algunas funciones que Microsoft ha puesto por defecto y que las lanza
al público para demostrarles a los usuarios de cómo podría ser la futura versión
de Windows. Mientras estas versiones estén activas, los usuarios pueden
reportar errores que se encuentren en el sistema operativo, (ya que no tienen
soporte para actualizaciones) y si el reporte es solucionado, Microsoft le dará
una cantidad de dinero al usuario que ha reportado dicho error (En US$).
Las versiones de prueba son muy diferentes a las originales, puesto que no se
comercializan y que tienen nombres distintos. Por ejemplo, la versión que se
utilizó para crear Windows 95, fue nominada "Chicago". Estos nombres también
se suelen llamar "Codenames". En algunas versiones de prueba (como Windows
8.1 BETA), no llevan un respectivo codename, y por este motivo llevan el nombre
de la próxima versión de Windows de la respectiva versión de pruebas, junto a
su indicador "Beta".
Historial de lanzamientos[editar]
[mostrar]Versiones
Versiones más utilizadas[editar]
Fuente Net Market Share41 W3Counter42 Global Stats43
Dato abril 2014 abril 2014 mayo 2014
Total 90.80% 61.72% 81.42%
Windows 7 (2009) 49.27% 37.63% 50.57%
Windows XP (2001) 26.29% 12.68% 14.58%
Windows 8.x (2012) 12.24% 8.90% 12.95%
Windows Vista (2007) 2.89% 2.51% 3.32%
Windows Server 0.11% N/D N/D
Seguridad[editar]
Una de las principales críticas que con frecuencia reciben los sistemas
operativos Windows es la debilidad del sistema en lo que a seguridad se refiere
y el alto índice de vulnerabilidades críticas. El propio Bill Gates, fundador de
Microsoft, ha asegurado en repetidas ocasiones que la seguridad es objetivo
primordial para su empresa.44
Partiendo de la base de que no existe un sistema completamente libre de errores,
las críticas se centran en la lentitud con la que la empresa reacciona ante un
problema de seguridad que pueden llegar a meses45 46 47 48 o incluso años49 50 de
diferencia desde que se avisa de la vulnerabilidad hasta que se publica
un parche.
En algunos casos la falta de respuesta por parte de Microsoft51 52 ha provocado
que se desarrollen parches que arreglan problemas de seguridad hechos por
terceros.53
Uno de los pilares en que se basa la seguridad de los productos Windows es
la seguridad por ocultación, en general, un aspecto característico del software
propietario que sin embargo parece ser uno de los responsables de la debilidad
de este sistema operativo ya que, la propia seguridad por ocultación, constituye
una infracción del principio de Kerckhoff, el cual afirma que la seguridad de un
sistema reside en su diseño y no en una supuesta ignorancia del diseño por parte
del atacante.54
Windows Defender[editar]
Artículo principal: Windows Defender
El 6 de enero de 2005, Microsoft lanzó una versión Beta de Microsoft
AntiSpyware, basado en Giant AntiSpyware publicado anteriormente. El 14 de
febrero de 2006, Microsoft AntiSpyware se convirtió en Windows Defender con
el lanzamiento de la Beta 2. Windows Defender era un programa diseñado para
proteger contra spyware y otro software no deseado. Los usuarios de Windows
XP y Windows Server 2003 que tienen copias originales de Microsoft Windows
pueden descargar libremente el programa desde el sitio web de Microsoft y
Windows Defender se suministra como parte de Windows Vista y 7. EnWindows
8, Windows Defender y Microsoft Security Essentials se han combinado en un
solo programa, denominado Windows Defender. Sus características y la interfaz
de usuario se basan en Microsoft Security Essentials. Asímismo, Windows
Defender se transformó en un programa antivirus y Spyware. A pesar de que
está activada de forma predeterminada, se puede desactivar para utilizar otra
solución antivirus.
Permisos de archivos[editar]
En todas las versiones de Windows con NT 3 se han basado en un sistema de
permisos de sistema de archivos denominado AGDLP (cuentas, Global, Local,
permisos) AGLP que en esencia donde se aplican los permisos de archivo a la
carpeta en forma de un grupo local que luego tiene otros 'grupos globales' como
miembros. Estos grupos globales mantienen otros grupos o a usuarios según las
diferentes versiones de Windows que utiliza. Este sistema varía de otros
productos de proveedores tales como Linux y NetWare debido a la 'estática'
asignación de permiso se aplica directorio para el archivo o carpeta. Sin embargo
con este proceso de AGLP/AGDLP/AGUDLP permite a un pequeño número de
permisos estáticos para aplicarse y permite cambios fáciles a los grupos de
cuentas sin volver a aplicar los permisos de archivo de los archivos y carpetas.
Aplicaciones[editar]
Son aplicaciones que trae preinstaladas el sistema operativo Windows.
Windows 8[editar]
En Windows 8 se han introducido nuevas aplicaciones.
Fotos
Vídeo
Música (Xbox Music)
Calendario
Mensajes
Contactos
Mapas
Windows Store
Cámara
OneDrive App
Noticias
Deportes
Viajes
Bing App
Juegos Xbox Live
Internet Explorer es un navegador web de Internet producido por Microsoft
para su plataforma Windows. Fue creado en 1995 tras la adquisición por
parte de Microsoft del código fuente deMosaic, un navegador desarrollado
por Spyglass, siendo rebautizado entonces como Internet Explorer. Las
primeras versiones, basadas en Mosaic, no supusieron ninguna amenaza
para el entonces dominante Netscape Navigator, ya que eran bastante
simples y no eran compatibles con algunas de las extensiones más populares
de Netscape que dominaban la web de la época (como los marcos
o JavaScript). Es el navegador de Internet con mayor cuota de mercado, ya
que se incluye integrado por defecto con Windows, hecho que le ha costado
a Microsoft demandas por monopolioen Europa.55
Windows Anytime Upgrade es el método de actualizar Windows incluida en
Windows vista y actualmente en Windows 7 y Windows 8, el usuario
introduce un código en la aplicación el cual en 10 minutos actualizara a una
versión más avanzada de Windows, el pack de actualización se compra a
través de Microsoft Store o con el fabricante OEM.
Windows Media Center es una aplicación con una interfaz de usuario,
diseñado para servir como equipo personal de cine en casa. Está incluido en
Windows XP Media Center Edition como parte de dicha versión especial del
sistema operativo, ya que la aplicación no puede ser añadida a una
instalación existente de XP. También se incluye en las ediciones superiores
de Windows Vista (Vista Home Premium y Vista Ultimate), Windows 7 (todas
las ediciones exceptuando Starter y Home Basic) y en Windows 8 Pro.
WordPad es un procesador de textos básico que se incluye con casi todas
las versiones de Microsoft Windows desde Windows 95 hacia arriba. Es más
avanzado que el Bloc de notas pero más sencillo que el procesador de textos
de Microsoft Works y Microsoft Word.
Windows Media Player es un reproductor multimedia que permite reproducir
música y vídeo de formatos compatibles (.mp3, .mp4, .waw, wmv, etc...). La
última versión de este reproductor ha sido la versión 12. Windows Media
Player está incluído en todas las versiones de Windows, incluyendo Windows
XP, Windows Vista, 7 y 8.x.
Paint es un programa simple de dibujo gráfico desarrollado por Microsoft. Su
antecesor fue el PaintBrush, incluído desde Windows 1.0 hasta Windows 3.1.
Desde entonces, Paint ha acompañado al sistema operativo Microsoft
Windows desde Windows 95.
Críticas y polémicas[editar]
Microsoft fue demandado por el Gobierno de Estados Unidos durante el año
1998 por competencia desleal, y especialmente por la inclusión del navegador
Internet Explorer en su versión Windows 95.56Tras esta denuncia, la pena le
conllevó a Microsoft lanzar una versión de Windows 95 sin su navegador de
Internet.
En 2004 Microsoft lanzó una campaña, llamada «Get the facts», en la que
mostraba cientos de empresas conocidas que migraron de GNU/Linux a
Windows Server y aumentaron su productividad y otro tipo de
comparativas,57 aunque la cerró poco después, en 2007.58 Los defensores de
GNU/Linux desarrollaron su propio estudio argumentando que, en contra de uno
de los reclamos de Microsoft, GNU/Linux tiene menores costos administrativos
que servidores basados en Windows.59 Otro estudio realizado por elYankee
Group afirma que la actualización desde una versión de Windows Server a otra
plataforma tiene un coste inferior al de cambiar de GNU/Linux a Windows
Server.60
En 2007 Windows Vista tuvo que enfrentarse a pruebas de que su sistema
ofertado funcional a partir de 512 MiB requería más de 4 GiB para serlo, ello
avalado por un consultor de IBM experto en el sistema.61estando
«sobrecargado» de objetos, los cuales hacen que los computadores que
actualmente están funcionando con Windows XP no soporten adecuadamente el
sistema y no ofrezcan al usuario una experiencia fluida de uso, aunque «si bien
es cierto que gracias a características como el Superfetch,ReadyBoost,
ReadyDrive y similares el rendimiento de Vista incluso puede llegar a ser superior
al de XP en computadores potentes».62
Debido al fracaso de Windows Vista, en 2007 Microsoft autorizó a
hacer downgrade hacia Windows XPen las versiones Business, Entreprise y
Ultimate.63
Véase también[editar]
Microsoft
Comparación de sistemas operativos
Lista de sistemas operativos
Contenido relacionado:
Arquitectura de Windows NT
Componentes relacionados de Microsoft Windows
Explorador de Windows
Windows Genuine Advantage
Windows Media
Wintel
Mac.
Informática y electrónica[editar]
Mac OS X, Sistema operativo desarrollado por Apple Inc.;
Macintosh, una serie de computadoras de Apple Inc.;
Dirección MAC, identificador de 48 bits que se corresponde de forma única
con una interfaz de red.
control de acceso al medio (Media Access Control), subcapa inferior de la
capa de enlace de datos.
Código de autenticación de mensaje (Message Authentication Code), código
informático que sirve para asegurar la autenticidad de un mensaje.
Personas[editar]
Como apellido irlandés, Mac significa "hijo de"
Ian McCulloch, cantante de Echo & The Bunnymen
Mark McGwire, beisbolista
Bernie Mac, cómico estadounidense
Mac Dre, rapero
Personajes de ficción[editar]
Mac, uno de los protagonistas de la serie "Mansión Foster para Amigos
Imaginarios"
Big Macintosh, personaje secundario de My Little Pony: La magia de la
amistad.
Otros[editar]
MAC. Acrónimo de molécula de adhesión celular.
McIntosh, variedad de manzana y origen del nombre de la marca de
ordenadores
MAC Cosmetics, empresa
Mac, película de 1992, escrita y dirigida por John Turturro;
Michigan Agricultural College, nombre de la Michigan State
University de 1909 a 1925
Mid-American Conference, una conferencia universitaria norteamericana de
deportes.
Territorio Macao. El término MAC es utilizado por ISO 3166-1, los juegos
asiáticos y la FIFA para designar a Macao.
MAC, Mutua de Accidentes de Canarias de Trabajo y Enfermedades
Profesionales de la Seguridad Social, Santa Cruz de Tenerife
Linux.
Este artículo trata sobre sistemas operativos que usan el núcleo Linux y
el userland de GNU. Para otros usos de este término, véase Linux
(desambiguación).
GNU/Linux
Imagen alegórica del sistema operativo
Desarrollador
?
Información general
Modelo
de
desarroll
o
Software libre y código abierto
Última
versión
estable
Kernel: 3.13.6 (info)
7 de marzo de 2014; hace 3 meses
Última
versión
en
pruebas
Kernel: 3.14-rc4 (info)
23 de febrero de 2014; hace 3 meses
Escrito
en
C
GCC
Núcleo Núcleo Linux
Tipo
de núcle
o
Unix-like
Platafor
mas
soportad
as
DEC Alpha, ARM, AVR32,Blackfin, ETRAX CRIS,FR-
V, H8/300, Itanium,M32R, m68k, Microblaze,MIPS, MN103, PA-
RISC,PowerPC, s390, S+core,SuperH, SPARC, TILE64,Unicor
e32, x86, Xtensa
Licencia GNU General Public License y otras
Estado
actual
En desarrollo
En
español
Escucha este artículo
(info)
MENÚ
0:00
Esta narración de audio fue creada a partir de una
versión específica de este artículo y no refleja las
posibles ediciones subsecuentes.
Más artículos grabados
¿Problemas al reproducir este archivo?
GNU/Linux es uno de los términos empleados para referirse a la combinación
del núcleo o kernel libresimilar a Unix denominado Linux con el sistema GNU.
Su desarrollo es uno de los ejemplos más prominentes de software libre; todo
su código fuentepuede ser utilizado, modificado y redistribuido libremente por
cualquiera bajo los términos de la GPL (Licencia Pública General de GNU, en
inglés:General Public License) y otra serie de licencias libres.1
A pesar de que Linux es, en sentido estricto, el núcleo del sistema
operativo,2 parte fundamental de la interacción entre el hardware y el usuario (o
los programas de aplicación) se maneja usualmente con las herramientas del
proyecto GNU y con entornos de escritorio basados en GNOME, que también
forma parte del proyecto GNU aunque tuvo un origen independiente. Sin
embargo, una parte significativa de la comunidad, así como muchos medios
generales y especializados, prefieren utilizar el término Linux para referirse a la
unión de ambos proyectos. Para más información consulte la
sección"Denominación GNU/Linux" o el artículo"Controversia por la
denominación GNU/Linux".
A las variantes de esta unión de programas y tecnologías, a las que se les
adicionan diversos programas de aplicación de propósitos específicos o
generales se las denomina distribuciones. Su objetivo consiste en ofrecer
ediciones que cumplan con las necesidades de un determinado grupo de
usuarios. Algunas de ellas son especialmente conocidas por su uso
en servidores y supercomputadoras.3 donde tiene la cuota más importante del
mercado. Según un informe de IDC, GNU/Linux es utilizado por el 78% de los
principales 500 servidores del mundo,4 otro informe le da una cuota de mercado
de 89% en los 500 mayores supercomputadores.5 Con menor cuota de mercado
el sistema GNU/Linux también es usado en el segmento de las computadoras de
escritorio,portátiles, computadoras de bolsillo, teléfonos móviles, sistemas
embebidos, videoconsolas y otros dispositivos.
Índice
[ocultar]
1 Etimología
2 Historia
3 Componentes
o 3.1 Entorno gráfico
o 3.2 Como sistema de programación
o 3.3 Aplicaciones de usuario
o 3.4 Software de código cerrado para GNU/Linux
4 Empresas que patrocinan su uso
5 Cuota de mercado
6 Aplicaciones
o 6.1 Supercomputadoras
o 6.2 Teléfonos inteligentes
7 Administración Pública
8 Fuerzas Armadas
9 Denominación GNU/Linux
10 Distribuciones 100% Libres de GNU/Linux
11 Algunas distribuciones
12 Véase también
13 Referencias
14 Bibliografía
15 Enlaces externos
Etimología[editar]
El nombre GNU, GNU's Not Unix (GNU no es Unix), viene de las herramientas
básicas de sistema operativo creadas por el proyecto GNU, iniciado por Richard
Stallman en 1983 y mantenido por la FSF. El nombre Linux viene del núcleo
Linux, inicialmente escrito por Linus Torvalds en 1991.6
La contribución de GNU es la razón por la que existe controversia a la hora de
utilizar Linux oGNU/Linux para referirse al sistema operativo formado por las
herramientas de GNU y el núcleo Linux en su conjunto.7 8
Historia[editar]
Richard Matthew Stallman, Fundador del Movimiento del software libre, de la
FSF y del Proyecto GNU.
Linus Torvalds, creador del núcleo Linux.
Artículos principales: Historia de Linux e Historia del proyecto GNU.
El proyecto GNU, que se inició en 1983 por Richard Stallman;9 tiene como
objetivo el desarrollo de un sistema operativo Unix completo y compuesto
enteramente de software libre. La historia del núcleo Linuxestá fuertemente
vinculada a la del proyecto GNU. En 1991 Linus Torvalds empezó a trabajar en
un reemplazo no comercial paraMINIX10 que más adelante acabaría
siendo Linux.
Cuando Torvalds liberó la primera versión de Linux, el proyecto GNU ya había
producido varias de las herramientas fundamentales para el manejo del sistema
operativo, incluyendo un intérprete de comandos, una biblioteca C y
un compilador, pero como el proyecto contaba con una infraestructura para crear
su propio núcleo (o kernel), el llamadoHurd, y este aún no era lo suficiente
maduro para usarse, comenzaron a usar a Linux a modo de continuar
desarrollando el proyecto GNU, siguiendo la tradicional filosofía de mantener
cooperatividad entre desarrolladores. El día en que se estime que Hurd es
suficiente maduro y estable, será llamado a reemplazar a Linux.
Entonces, el núcleo creado por Linus Torvalds, quien se encontraba por
entonces estudiando la carrera de Ingeniería Informática en laUniversidad de
Helsinki, llenó el "espacio" final que había en el sistema operativo de GNU.
Componentes[editar]
Entorno gráfico[editar]
Artículo principal: Entorno de escritorio
GNU/Linux puede funcionar tanto en entorno gráfico como en modo consola. La
consola es común en distribuciones para servidores, mientras que la interfaz
gráfica está orientada al usuario final tanto de hogar como empresarial.
Asimismo, también existen los entornos de escritorio, que son un conjunto de
programas conformado por ventanas, iconos y muchas aplicaciones que facilitan
la utilización del computador. Los escritorios más populares en GNU/Linux
son: GNOME, KDE SC, LXDE y Xfce. En dispositivos móviles se
encuentraAndroid, que funciona sobre el núcleo Linux, pero no usa las
herramientas GNU. Intel anunció productos de consumo basados
en MeeGo para mediados del 2011, por lo que es probable que este entorno
tenga también una creciente importancia en los próximos años.
Escritorio KDE SC 4.10
Escritorio GNOME 3.0
Escritorio XFCE 4.4
Escritorio LXDE 0.5
Como sistema de programación[editar]
La colección de utilidades para la programación de GNU es con diferencia la
familia de compiladoresmás utilizada en este sistema operativo. Tiene capacidad
para compilar C, C++, Java, Ada, Pascal, entre otros muchos lenguajes. Además
soporta diversas arquitecturas mediante la compilación cruzada, lo que hace que
sea un entorno adecuado para desarrollos heterogéneos.
Hay varios entornos de desarrollo integrados disponibles para GNU/Linux
incluyendo, Anjuta, KDevelop,Lazarus, Ultimate++, Code::Blocks, NetBeans
IDE y Eclipse. También existen editores extensibles comoEmacs o Vim.
GNU/Linux también dispone de capacidades para lenguajes de guion (script),
aparte de los clásicos lenguajes de programación de shell, o el de procesado de
textos por patrones y expresiones regulares llamado awk, la mayoría de las
distribuciones tienen instalado Python, Perl, PHP y Ruby.
Aplicaciones de usuario[editar]
Las aplicaciones para GNU/Linux se distribuyen principalmente en los
formatos .deb y .rpm, los cuales fueron creados por los desarrolladores
de Debian y Red Hat respectivamente. También existe la posibilidad de instalar
aplicaciones a partir de código fuente en todas las distribuciones.
Software de código cerrado para GNU/Linux[editar]
Durante la etapa temprana había pocas aplicaciones de código cerrado para
GNU/Linux. Con el tiempo se fueron portando programas no libres al sistema
GNU/Linux, entre ellos Adobe Reader, Adobe Flash,Opera, entre otros.
Empresas que patrocinan su uso[editar]
Con la adopción por numerosas empresas fabricantes, un buen número
de computadoras se venden condistribuciones pre-instaladas, y GNU/Linux ha
comenzado a tomar su lugar en el vasto mercado de las computadoras de
escritorio.
Algunas de las empresas que colaboran en la difusión de este sistema operativo
ya sea trabajando en el núcleo Linux, proporcionando soluciones de software o
preinstalando el sistema operativo,
son: Intel ,1112 13 Google,14 15 IBM,16 AMD,17 18 19 20 Sun
Microsystems,21 Dell,22 23 Lenovo,24 25 Asus,26Hewlett-
Packard (HP),27 28 29 Silicon Graphics International (SGI),30 Renesas
Technology,31 Fujitsu,32Analog Devices,33 Freescale,34 VIA
Technologies,35 Oracle,36 Novell37 y RedHat,38 entre otras.39
El respaldo de compañías de software también está presente, ya que, entre otras
aplicaciones, Nero,Java, Google Earth, Google Desktop, Adobe Reader, Adobe
Flash, RealPlayer y Yahoo! Messengerestán disponibles para GNU/Linux. Al
haber software equivalente, es innecesario instalar los precisamente
mencionados con anterioridad.
Cuota de mercado[editar]
Artículo principal: Adopción de Linux
Numerosos estudios cuantitativos sobre software de código abierto están
orientados a temas como la cuota de mercado y la fiabilidad, y ciertamente
muchos de estos estudios examinan específicamente a GNU/Linux.40
La medición "cuota de mercado" puede resultar inservible ya que es un concepto
basado en ventas comerciales (unidades materiales vendidas). Por otro lado
Linux es utilizado frecuentemente en servidores con acceso público desde
Internet por lo que la cuota de mercado es extremadamente inferior a la cuota de
uso. Baste notar, p.ej, que Facebook, Gmail, LinkedIn o Yahoo funcionan sobre
servidores GNU/Linux, de forma que aún cuando estemos accediendo desde un
navegador ejecutándose en Windows/Mac, la aplicación real se está ejecutando
en servidores Linux y los datos están almacenándose igualmente en dichos
servidores.
IBM Roadrunner, lasupercomputadora más potente de 2008, funciona bajo una
distribución GNU/LinuxRed Hat Enterprise Linux.
Hay varias empresas que comercializan soluciones basadas en
GNU/Linux: IBM, Novell (SuSE), Red Hat (RHEL), Mandriva(Mandriva
Linux), Rxart, Canonical Ltd. (Ubuntu), así como miles de PYMES que ofrecen
productos o servicios basados en esta tecnología.
Aplicaciones[editar]
Supercomputadoras[editar]
Dentro del segmento de supercomputadoras, a noviembre de 2012, el uso de
este sistema ascendió al 93,8% de las computadoras más potentes del mundo
por su confiabilidad, seguridad y libertad para modificar el código.41 De acuerdo
con TOP500.org, que lleva estadísticas sobre las 500 principales
supercomputadoras del mundo, a noviembre de 2012: 469 usaban una
distribución basada en GNU/Linux, 20 Unix, 7 mezclas, 1 BSD y 3 Windows.
Las primeras 37 supercomputadoras, incluidas la número 1, la Titan - Cray XK7
con 560.640 procesadores, utilizan distribuciones basadas en GNU/Linux.42
GNU/Linux, además de liderar el mercado de servidores de Internet debido, entre
otras cosas, a la gran cantidad de soluciones que tiene para este segmento, tiene
un crecimiento progresivo en computadoras de escritorio y portátiles. Además,
es el sistema base que se ha elegido para el proyecto OLPC: One Laptop Per
Child.43
Para saber más sobre las arquitecturas soportadas, lea el artículo "Portabilidad
del núcleo Linux y arquitecturas soportadas".
Teléfonos inteligentes[editar]
Linux tiene un papel imprescindible en el territorio de los teléfonos inteligentes
debido a que Android ymeego lo utilizan. Actualmente Android es el sistema
operativo predominante en los nuevos teléfonos inteligentes y su cuota de
mercado mundial supera a iOS de Apple.[cita requerida]
Administración Pública[editar]
Véase también: Software libre en la Administración Pública
Hay una serie de administraciones públicas que han mostrado su apoyo al
software libre, sea migrando total o parcialmente sus servidores y sistemas de
escritorio, sea subvencionándolo. Como ejemplos se tiene
a Alemania, Argentina, Australia, Brasil, España, Chile, China, Cuba, México, P
erú, República Dominicana, Ecuador, El
Salvador, Uruguay y Venezuela.[cita requerida]
Fuerzas Armadas[editar]
El sistema operativo del General Atomics MQ-1 Predator está basado en
GNU/Linux,44 así como el delBoeing P-8 Poseidon.45
Denominación GNU/Linux[editar]
Artículo principal: Controversia por la denominación GNU/Linux
Evolución de los sistemas UNIX
Parte de la comunidad y numerosos medios prefieren denominar a esta
combinación como Linux, aunque GNU/Linux (con las variantes GNU con
Linux y GNU+Linux) es la denominación defendida por el Proyecto GNU y
la FSFjunto con otros desarrolladores y usuarios para el conjunto que utiliza
el sistema operativo Linux en conjunto con las aplicaciones de sistema creadas
por el proyecto GNU y por muchos otros proyectos de software.46 47
Desde 1984, Richard Stallman y muchos voluntarios están intentando crear un
sistema operativo libre con un funcionamiento similar al UNIX, recreando todos
los componentes necesarios para tener un sistema operativo funcional. A
comienzos de los años 90, unos seis años desde el inicio del
proyecto, GNU tenía muchas herramientas importantes listas, como editores de
texto, compiladores, depuradores, intérpretesde comandos de órdenes etc.,
excepto por el componente central: el núcleo.
GNU tiene su propio proyecto de núcleo, llamado Hurd. Sin embargo, su
desarrollo no continuó como se esperaba al aparecer el núcleo Linux. De esta
forma se completaron los requisitos mínimos y surgió elsistema
operativo GNU que utilizaba el núcleo Linux.
El principal argumento de los defensores de la denominación GNU/Linux es
resolver la posible confusión que se puede dar entre el núcleo (Linux) y gran
parte de las herramientas básicas del resto del sistema operativo (GNU), y del
sistema completo que usualmente se usa como combinación de GNU, Linux, y
otros proyectos de software. Además, también se espera que con el uso del
nombre GNU, se dé alproyecto GNU el reconocimiento por haber creado las
herramientas de sistema imprescindibles para ser un sistema
operativo compatible con UNIX, y se destaque la cualidad de estar compuesto
sólo por software libre. La primera distribución que incluyó el GNU en su nombre
fue Yggdrasyl en 1992, donde aparecía como Linux/GNU/X. La FSF denominó a
este sistema "Linux" hasta al menos junio de 199448 y recién a partir de enero de
1995 empezó a llamarlo "GNU/Linux" (también GNU+Linux y lignux, términos
que han caído en desuso a instancias del propio Stallman).49
Algunas distribuciones apoyan esta denominación, e
incluyenGNU/Linux en sus nombres, como Debian
GNU/Linux o GNU/LinEx, mientras que otras,
como Slackware, Gentoo o Ubuntu, eligen
denominarse basadas en Linux.50 51 52
GNU / Linux
+
En ocasiones, el proyecto KDE ha utilizado una tercera
denominación:GNU/Linux/X para enfatizar los tres proyectos sobre los que se
apoya su entorno de escritorio.
Distribuciones 100% Libres de GNU/Linux[editar]
BLAG
Dragora GNU/Linux
Dyne:bolic
gNewSense
Musix GNU+Linux
Parabola GNU/Linux
Trisquel GNU/Linux
UTUTO XS GNU/Linux
Véase la lista completa, y la descripción de ellas,
en: www.gnu.org/distros/free-distros.html
Algunas distribuciones[editar]
Debian 7.2 Actualmente
Fedora 15
Gentoo Linux 12.1 Actualmente
openSUSE 13.1 Actualmente
Ubuntu 11.04
Android 4.4
Véase también[editar]
Portal:Linux. Contenido relacionado con Linux.
Android
GNU Hurd
Núcleo Linux
Historia de Linux
Distribución Linux
Ubuntu.
Ubuntu
Para otros usos de este término, véase Ubuntu (desambiguación).
Ubuntu
Parte de la familia GNU/Linux
Ubuntu 14.04 (Trusty Tahr en català)
Desarrollador
Canonical Ltd. / Fundación Ubuntu
ubuntu.com
Información general
Modelo de
desarrollo
Software libre y de código
abierto
Lanzamiento inicial 20 de octubre de 2004
Última versión
estable
14.04 LTS (nombre clave
Trusty Tahr) (info)
17 de abril de 2014; hace 2
meses
Última versión en
pruebas
14.10 (Utopic Unicorn)
17 de marzo de 2014; hace 3
meses
Núcleo Linux
Tipo de núcleo Monolítico
Interfaz gráfica por
defecto
Unity (11.04 +),
GNOME (4.10 - 10.10, 13.04
edición GNOME)
Plataformas
soportadas
x86, x86-64, ARM1
(PowerPC, SPARC y IA-64en
versiones antiguas)
Sistema de gestión
de paquetes
dpkg, destacando front-
endscomo Centro de software
de Ubuntu
Método de
actualización
APT, destacando el front-
endGestor de actualizaciones
Licencia GPL, y otras licencias libres
Estado actual En desarrollo
Idiomas Multilingüe (más de 130)2
En español
Soporte técnico
Recibe soporte técnico y actualizaciones de seguridad
en períodos variables de tiempo, dependiendo de la
versión.
↓Véase: Lanzamientos y soporte
Ubuntu es un sistema operativo basado en Linuxy que se distribuye como
software libre, el cual incluye su propio entorno de escritorio denominado Unity.
Su nombre proviene de laética homónima, en la que se habla de la existencia de
uno mismo como cooperación de los demás.
Está orientado al usuario novel y promedio, con un fuerte enfoque en la facilidad
de uso y en mejorar la experiencia de usuario. Está compuesto de
múltiple software normalmente distribuido bajo una licencia libre o de código
abierto. Estadísticas web sugieren que la cuota de mercado de Ubuntu dentro de
las distribuciones Linux es, aproximadamente, del 49%,3 4 y con una tendencia
a aumentar como servidor web.5 Y un importante incremento activo de 20
millones de usuarios para fines del 2011.6
Su patrocinador, Canonical, es una compañía británica propiedad del
empresario sudafricanoMark Shuttleworth. Ofrece el sistema de manera gratuita,
y se financia por medio de servicios vinculados al sistema operativo7 8 y
vendiendosoporte técnico.9 Además, al mantenerlo libre y gratuito, la empresa
es capaz de aprovechar los desarrolladores de la comunidad para mejorar los
componentes de su sistema operativo. Extraoficialmente, la comunidad de
desarrolladores proporciona soporte para otras derivaciones de Ubuntu, con
otros entornos gráficos, como Kubuntu, Xubuntu, Edubuntu,Ubuntu
Studio, Mythbuntu, Ubuntu Gnome yLubuntu.10
Canonical, además de mantener Ubuntu, también provee de una versión
orientada a servidores,Ubuntu Server, una versión para empresas,Ubuntu
Business Desktop Remix, una para televisores, Ubuntu TV, y una para usar el
escritorio desde teléfonos inteligentes, Ubuntu for Android.11 12 13
Cada seis meses se publica una nueva versión de Ubuntu. Esta recibe soporte
por parte de Canonical durante nueve meses por medio de actualizaciones de
seguridad, parches para bugscríticos y actualizaciones menores de programas.
Las versiones LTS (Long Term Support), que se liberan cada dos años,14reciben
soporte durante cinco años en lossistemas de escritorio y de servidor.15
Índice
[ocultar]
1 Historia y proceso de desarrollo
o 1.1 Inicio de Ubuntu
o 1.2 Enfoque en el software
o 1.3 Expansión de Ubuntu a otros dispositivos
2 Interfaz de usuario
o 2.1 Diseño
3 Características
o 3.1 Ubuntu y la comunidad
o 3.2 Software incluido
o 3.3 Organización del software
4 Lanzamientos y soporte
o 4.1 LTS: Soporte técnico extendido
o 4.2 Ubuntu 13.10
o 4.3 Ubuntu 13.04 (anterior)
5 Escritorio, teléfono, tableta, televisión
6 Fabricantes de hardware asociados
7 Recepción y uso
8 Ubuntu Carrier Advisory Group
9 Ubuntu Developer Summit
10 Instalación
o 10.1 Requisitos
o 10.2 Imágenes ISO oficiales
o 10.3 Otras instalaciones
11 Ubuntu Certified Professional
12 Variantes
13 Anécdotas
o 13.1 «Ubuntu es software libre»
o 13.2 Tras la senda de Apple y Microsoft
o 13.3 Corrección del primer bug
14 Véase también
15 Referencias
16 Bibliografía
17 Enlaces externos
Historia y proceso de desarrollo[editar]
Inicio de Ubuntu[editar]
Ubuntu es una bifurcación del código base del proyecto Debian.16 El objetivo
inicial era hacer de Debian una distribución más fácil de usar y entender para los
usuarios finales, corrigiendo varios errores de éste y haciendo más sencillas
algunas tareas como la gestión de programas. Su primer lanzamiento fue el 20
de octubre de 2004.17
Ubuntu usa primariamente software libre, haciendo excepciones en el caso de
varios controladoresprivativos (además de firmware y software). Antes de cada
lanzamiento, se lleva a cabo una importación de paquetes, desde Debian,
aplicando las modificaciones específicas de Ubuntu. Un mes antes del
lanzamiento, comienza un proceso de congelación de importaciones, ayudando
a que los desarrolladores puedan asegurar que el software sea suficientemente
estable.
Desde el inicio del proyecto, Shuttleworth proporcionó el soporte económico
gracias a los beneficios obtenidos después de vender su
empresa Thawte a VeriSign, por unos 575 millones de dólares
estadounidenses.18
El 8 de julio de 2005, Shuttleworth anunció la creación de la Fundación Ubuntu y
aportaron 10 millones de dólares como presupuesto inicial. El propósito de la
fundación es el de asegurar soporte y desarrollo para todas las futuras versiones
de Ubuntu.19
El 12 de marzo de 2009, Ubuntu anunció soporte para plataformas externas de
administración decomputación en nube, como Amazon EC2.20
Enfoque en el software[editar]
A principios de 2009 los ingenieros y diseñadores de Canonical se dan cuenta
de que la gestión de paquetes e instalación de aplicaciones es demasiado
fragmentada y hasta compleja, por ende se planifica la creación de una
aplicación central para el manejo e instalación de aplicaciones. En octubre de
2009 Canonical lanza oficialmente el Centro de software de Ubuntu (Ubuntu
Software Center), permite buscar, instalar, desinstalar aplicaciones, y además
permite agregar repositorios de terceros.21En octubre de 2010 se introduce la
venta de aplicaciones por medio de pagos en línea en el Centro de software de
Ubuntu.22
El 3 de junio de 2010, Mark Shuttleworth anuncia el trabajo en conjunto con el
proyecto Linaro y su desarrollo de código abierto para Linux en procesadores
con tecnología ARM.23 A fines de septiembre se da a conocer antes del
lanzamiento de Ubuntu 10.10, que esta versión incluiría un mejor y más estable
soporte para procesadores ARM.24
En octubre y noviembre de 2010, se anuncian drásticos e importantes cambios
en el escritorio de Ubuntu, la inclusión de la interfaz de usuario Unity (creada por
Canonical), la cual será utilizada en la versión de escritorio de Ubuntu.25 También
Mark Shuttleworth anuncia que en futuras versiones de Ubuntu, Unity se
implementará en el servidor gráfico Wayland, y no en el servidor gráfico X (como
se hacía habitualmente).26 Sin embargo, en 2013 se decide que no será Wayland
el servidor gráfico elegido, sino que uno nuevo creado por Canonical,
llamado Mir.
El 18 de enero de 2011, Mark Shuttleworth anuncia la inclusión de aplicaciones
creadas en Qt para ser lanzadas a partir de «Natty+1» (después del lanzamiento
de Ubuntu 11.04) y en futuras versiones de Ubuntu. Una de las metas de esta
decisión es facilitar la integración al sistema de aplicaciones Qt, en comparación
con las típicas aplicaciones desarrolladas en GTK que lucen nativas en la interfaz
de usuario de Ubuntu. Para terminar con las dificultades técnicas de
configuración y preferencias del sistema entre Qt y GTK, se crearán
enlaces dconf para las aplicaciones Qt, con lo que se pretende centralizar la
configuración del sistema, ya sea GTK o Qt, en un solo lugar.27
El 9 de marzo de 2011, Canonical anuncia la discontinuidad de 'Ubuntu Netbook
Edition', debido a la integración de la interfaz Unity en su versión de escritorio a
partir de Ubuntu 11.04, y así eliminar la redundancia de sus versiones con un
mismo escritorio. Canonical también anuncia que los nombres 'Ubuntu Desktop
Edition' y 'Ubuntu Server Edition' se eliminan, dejando solamente el nombre
'Ubuntu' para uso en todo tipo de computadoras, y 'Ubuntu Server' para su uso
en servidores.28
Expansión de Ubuntu a otros dispositivos[editar]
Ubuntu para Android.
El 31 de octubre de 2011, durante la presentación del Ubuntu Developer Summit,
Mark Shuttleworth anuncia la integración de Ubuntu en varios otros dispositivos,
tales como tabletas, televisores, teléfonos y computadores tradicionales. Todo
esta integración concluirá en la versión 14.04, en abril de 2014.29
En enero de 2012, durante la feria tecnológica CES2012, Canonical
revela Ubuntu TV, la cual ofrece una interfaz simple e intuitiva para organizar
contenidos y servicios para TV.30
En febrero de 2012, Canonical anuncia 'Ubuntu para Android', el cual permite
ejecutar el escritorio de Ubuntu directo desde un teléfono inteligente Android al
conectarse en un monitor por medio de una base. Características como la
sincronización de contactos, sincronización de redes sociales, y vista de
aplicaciones Android son posibles. Ubuntu para Android tiene compatibilidad con
teléfonos inteligentes con múltiples núcleos ARM, y la ventaja de compartir el
mismo kernel con Android.31
El 2 de enero de 2013, Canonical anuncia 'Ubuntu para teléfonos', para ser
lanzado en dispositivos durante el año 2014. Ubuntu para teléfonos utiliza una
interfaz basada en Unity pero construida bajoQML al igual que sus aplicaciones.
Su interfaz solo utiliza gestos táctiles a través de la pantalla, al no usar botones
físicos de acceso en el frente. Además los teléfonos inteligentes más avanzados
con Ubuntu podrán conectar el dispositivo a un dock con monitor externo para
poder utilizar la interfaz de escritorio de Ubuntu.32
El 19 de febrero de 2013, Canonical anuncia 'Ubuntu para tabletas'. Sus
principales características son la interfaz multitarea para usar dos aplicaciones
al mismo tiempo, multiusuario seguro, con la posibilidad de usar diferentes
cuentas de usuario, controles usados por voz, al igual que gestos para
interactuar con la interfaz. Ubuntu para tabletas también puede cargar la interfaz
de escritorio si este se conecta a un dock con teclado y mouse externo.33
El 4 de marzo de 2013, Canonical anuncia Mir, un nuevo servidor gráfico que se
utilizará a través de todos los dispositivos con Ubuntu, esto incluye escritorio,
teléfonos, tabletas y televisores, con fecha de lanzamiento para su uso público
en abril de 2014, para Ubuntu 14.04.34 Además de Mir, también anuncia Unity
Next, la siguiente versión de la interfaz Unity construida en QML/Qt, la cual
también se usará en todos los dispositivos con Ubuntu y disponible para el
público en abril de 2014.35 Con esto, Mir pasa a reemplazar al servidor
gráfico X que era usado en el escritorio, y Unity Next con QML pasa a reemplazar
la versión de Unity basada en Nux. Más adelante se anuncia que se adelantará
el lanzamiento del nuevo servidor gráfico Mir, y se lanzará junto con Ubuntu
13.10. También incluirá XMir, una nueva implementación montada en Mir para
dar compatibilidad a aplicaciones y ambientes basados en el antiguo servidor
X.36
El 19 de marzo de 2013, la junta técnica de Ubuntu decide acortar el soporte
técnico de las versiones no-LTS de Ubuntu a solo 9 meses de soporte,
anteriormente con soporte de 18 meses.37
En julio de 2013, se anuncia la campaña para Ubuntu Edge, el propósito de la
campaña es recaudar 32 millones de dólares durante 31 días en el
sitio Indiegogo, para crear y distribuir un teléfono móvil que servirá como base
para desarrollar y usar Ubuntu para teléfonos, además de utilizar la interfaz de
escritorio al conectar el dispositivo a un monitor y de proporcionar doble arranque
para usar Android. Entre las características de hardware que más destacan se
indica que usará una estructura de metal unificada, procesador con múltiples
núcleos aún sin definir, 128GB de almacenamiento, 4GB de RAM, pantalla
de cristal zafiro de 4,5 pulgadas con una resolución de 1280x720 píxeles, batería
de silicio-ánodo Li-ion, dos antenas de conexión LTE, Wi-Fi de doble banda,
comunicación inalámbrica NFC, cámara trasera de 8MP con respuesta rápida a
baja luz y cámara delantera de 2MP, y otros sensores de hardware utilizados
actualmente en dispositivos móviles
como GPS, giroscopio, barómetro, acelerómetro, proximidad, y brújula.38
Interfaz de usuario[editar]
Tablero con aplicaciones de Ubuntu 13.04
Ubuntu desde su primer lanzamiento utilizó la interfaz de usuario predeterminada
del escritorio GNOME, con un panel inferior para listar ventanas y un panel
superior para menús e indicadores de sistema, pero desde la versión 11.04 el
equipo de Canonical decidió lanzar su propia interfaz de usuario, de esa
manera Unity fue diseñado para optimizar el espacio e interacción de la interfaz
de Ubuntu.39
Diseño[editar]
La actual interfaz de usuario de Ubuntu está compuesta por tres elementos: la
barra superior para indicadores de sistema y menús, el lanzador de aplicaciones
al costado izquierdo, y el tablero que despliega accesos a aplicaciones y medios.
Además de la interfaz Unity, Canonical ha diseñado varios elementos de la
interfaz: set de iconos Ubuntu Mono y Humanity, temas visuales Light-
themes, tipografía Ubuntu y sus variantes, barras de desplazamiento Overlay
scrollbars, notificaciones OSD, pantalla de inicio de sesión Unity Greeter,
gestosmultitáctil uTouch, temas de sonido de inicio de sesión, y los menús
globales de aplicaciones.40 41
Características[editar]
En su última versión, Ubuntu soporta oficialmente dos arquitecturas
de hardware en computadoras personales y servidores: 32-bit (x86) y 64-
bit (x86_64)42 Sin embargo, extraoficialmente, Ubuntu ha sidoportado a más
arquitecturas: ARM, PowerPC, SPARC e IA-64.
A partir de la versión 9.04, se empezó a ofrecer soporte extraoficial para
procesadores ARM,43comúnmente usados en dispositivos móviles. Al igual que
la mayoría de los sistemas de escritorio basados en Linux, Ubuntu es capaz de
actualizar a la vez todas las aplicaciones instaladas en la máquinaa través
de repositorios. Ubuntu está siendo traducido a más de 130 idiomas,2 y cada
usuario es capaz de colaborar voluntariamente a esta causa, a través de Internet.
Ubuntu y la comunidad[editar]
Los usuarios pueden participar en el desarrollo de Ubuntu, escribiendo código,
solucionando bugs, probando versiones inestables del sistema, etc.44 Además,
en febrero de 2008 se puso en marcha el sitio Brainstorm45 que permite a los
usuarios proponer sus ideas y votar las del resto. También se informa de las
ideas propuestas que se están desarrollando o están previstas.
Software incluido[editar]
Centro de software de Ubuntu de Ubuntu 13.04
Ubuntu posee una gran gama de aplicaciones para llevar a cabo tareas
cotidianas, entretenimiento, desarrollo y aplicaciones para la configuración de
todo el sistema. La interfaz predeterminada de Ubuntu es Unity y utiliza en
conjunto las aplicaciones de GNOME. Existen otras versiones extraoficiales
mantenidas por la comunidad, con diferentes escritorios, y pueden ser instalados
independientemente del instalado por defecto en Ubuntu.
Aplicaciones de Ubuntu
Ubuntu es conocido por su facilidad de uso y las aplicaciones orientadas al
usuario final. Las principales aplicaciones que trae Ubuntu por defecto son:
navegador web Mozilla Firefox, cliente de mensajería instantánea Empathy,
cliente de correo Thunderbird, reproductor multimedia Totem, reproductor de
música Rhythmbox, gestor y editor de fotos Shotwell, administrador de
archivos Nautilus, cliente deBitTorrent Transmission, cliente de escritorio remoto
Remmina, grabador de discos Brasero, suite ofimática LibreOffice, lector de
documentos PDF Evince, editor de texto Gedit, cliente para sincronizar y
respaldar archivos en línea Ubuntu One (desarrollada por Canonical), y la tienda
de aplicaciones para instalar/eliminar/comprar aplicaciones Centro de software
de Ubuntu (también desarrollada por Canonical).
Configuración del sistema de Ubuntu 13.04
Seguridad y accesibilidad
El sistema incluye funciones avanzadas de seguridad y entre sus políticas se
encuentra el no activar, de forma predeterminada, procesos latentes al momento
de instalarse. Por eso mismo, no hay un cortafuegospredeterminado, ya que
supuestamente no existen servicios que puedan atentar a la seguridad del
sistema. Para labores o tareas administrativas en la línea de comandos incluye
una herramienta llamada sudo (de las siglas en inglés de SwitchUser do), con la
que se evita el uso del usuario administrador. Posee accesibilidad e
internacionalización, de modo que el sistema esté disponible para tanta gente
como sea posible. Desde la versión 5.04, se utiliza UTF-8 como codificación de
caracteres predeterminado.
No sólo se relaciona con Debian por el uso del mismo formato de paquetes .deb.
También tiene uniones con esa comunidad, aunque raramente contribuyendo
con cualquier cambio directa e inmediatamente, o sólo anunciándolos. Esto
sucede en los tiempos de lanzamiento. La maryoría de los empaquetadores de
Debian son los que realizan también la mayoría de los paquetes importantes de
Ubuntu.
Organización del software[editar]
Ubuntu internamente divide todo el software en cuatro secciones, llamadas
«componentes», para mostrar diferencias en licencias y la prioridad con la que
se atienden los problemas que informen los usuarios.46Estos componentes
son: main, restricted, universe y multiverse.
Por defecto se instalan paquetes de los componentes main y restricted46 Los
paquetes del componenteuniverse de Ubuntu generalmente se basan en los
paquetes de la rama inestable (Sid) y en el repositorio experimental
de Debian.[cita requerida]
main: contiene solamente los paquetes que cumplen los requisitos de la
licencia de Ubuntu, y para los que hay soporte disponible por parte de su
equipo. Éste está pensado para que incluya todo lo necesario para la mayoría
de los sistemas Linux de uso general. Los paquetes de este componente
poseen ayuda técnica garantizada y mejoras de seguridad oportunas.46
restricted: contiene paquetes soportados por los desarrolladores de Ubuntu
debido a su importancia, pero que no está disponible bajo ningún tipo de
licencia libre para incluir en main. En este lugar se incluyen los paquetes tales
como los controladores propietarios de algunas tarjetas gráficas, como por
ejemplo, los de ATI y NVIDIA. El nivel de la ayuda es más limitado que
para main, puesto que los desarrolladores pueden no tener acceso al código
fuente.46
universe: contiene una amplia gama de programas, que pueden o no tener
una licencia restringida, pero que no recibe apoyo por parte del equipo de
Ubuntu sino por parte de la comunidad. Esto permite que los usuarios
instalen toda clase de programas en el sistema guardándolos en un lugar
aparte de los paquetes soportados: main y restricted.46
multiverse: contiene los paquetes sin soporte debido a que no cumplen los
requisitos de software libre.46
Lanzamientos y soporte[editar]
Versión Nombre en
clave Lanzamiento Fin de soporte
4.10
Warty
Warthog 20/octubre/200447 30/abril/2006
5.04
Hoary
Hedgehog 8/abril/200548 31/octubre/2006
5.10
Breezy
Badger 13/octubre/200549 13/abril/2006
6.06
LTS
Dapper
Drake 1/junio/200650
14/julio/2009
(escritorio)
1/junio/2011
(servidor)
6.10 Edgy Eft 26/octubre/200651 25/abril/2008
7.04
Feisty
Fawn 19/abril/200752 19/octubre/2008
7.10
Gutsy
Gibbon 18/octubre/200753 18/abril/2009
8.04
LTS
Hardy
Heron 24/abril/200854
12/mayo/2011
(escritorio)
9/mayo/2013
(servidor)
8.10
Intrepid
Ibex 30/octubre/200855 30/abril/2010
9.04
Jaunty
Jackalope 23/abril/200956 23/octubre/2010
9.10
Karmic
Koala 29/octubre/200957 30/abril/2011
10.04
LTS
Lucid Lynx 29/abril/201058
9/mayo/2013
(escritorio)
15/abril/2015
(servidor)
10.10
Maverick
Meerkat 10/octubre/201059 10/abril/2012
11.04
Natty
Narwhal 28/abril/201160 28/octubre/2012
11.10
Oneiric
Ocelot 13/octubre/201161 9/mayo/2013
12.04
LTS
Precise
Pangolin 26/abril/201262 abril/2017
12.10
Quantal
Quetzal 18/octubre/201263 abril/2014
13.04
Raring
Ringtail 25/abril/201364 enero/2014
13.10
Saucy
Salamander 17/octubre/201365 julio/2014
14.04
LTS
Trusty Tahr 17/abril/201466 abril/2019
14.10
Utopic
Unicorn 17/octubre/201467 abril/2015
Color Significado
Rojo Versión ya sin soporte
Amarillo Solo versión de servidor con soporte
Verde Versión con soporte (escritorio y servidor)
Azul Versión en desarrollo
Las versiones no-LTS se liberan cada 6 meses, y Canonical proporciona soporte
técnico y actualizaciones de seguridad durante 9 meses a partir de la versión
13.04 hacia adelante, anteriormente eran 18 meses de soporte para las
versiones no-LTS.68 Las versiones LTS (Long Term Support) ofrecen un soporte
técnico de 5 años para la versión de escritorio y servidor, a partir de la fecha del
lanzamiento.69
Los nombres
Desde sus inicios, cada uno de los ciclos de desarrollo de Ubuntu ha tenido
un nombre en clave compuesto por un animal y un adjetivo relativo al mismo que
empiece por su misma letra (Precise Pangolin). Además, desde la versión 6.06
(Dapper Drake), estos nombres han seguido una progresión por orden alfabético.
LTS: Soporte técnico extendido[editar]
Cada 2 años se libera una versión consoporte técnico extendido a la que se
añade la terminación LTS.
Esto significa que los lanzamientos LTS contarán con actualizaciones de
seguridad de paquetes de software por un periodo de tiempo extendido. En
versiones anteriores, era de 3 años en el entorno de escritorio y 5 años en
el servidor por parte de Canonical LTD, a diferencia de los lanzamientos de cada
6 meses de Ubuntu que sólo cuentan con 9 meses de soporte (anteriormente 18
meses). Desde la versión 12.04 LTS (Precise Pangolin), el soporte es de 5 años
en las dos versiones (Escritorio y Servidor).70
La primera LTS fue la versión 6.06 de la cual se liberó una remasterización (la
6.06.1) para la edición de escritorio y dos remasterizaciones (6.06.1 y 6.06.2)
para la edición servidor, ambas incluían actualizaciones de seguridad y
corrección de errores. La segunda LTS fue la versión 8.04, de la cual ya va por
la cuarta y última revisión de mantenimiento (la 8.04.4).71 La tercera LTS fue la
versión 10.04, fue liberada en abril de 2010, y cuya última versión de
mantenimiento fue la 10.04.4.72La cuarta versión LTS que ha sido lanzada es la
12.04, que fue liberada en abril de 2012.
Ubuntu 13.10[editar]
Véase también: Anexo:Versiones de Ubuntu
Introduce el lanzamiento de Ubuntu para teléfonos y el núcleo Ubuntu para
los nuevos sistemas ARM 64-bits (arquitectura "arm64", también conocida
como AArch64 or ARMv8). Adicionalmente hay 3 actualizaciones
importantes: OpenStack 2013.2 Havana, Apache 2.4, LXC 1.0, Puppet 3,
mejoras en AppArmor, entre otras.73
Ubuntu 13.04 (anterior)[editar]
Esta versión renueva algunos iconos de aplicaciones, además de cambios
en el diseño de las ventanas de apagado de sistema. También cambios en
el diseño de Nautilus, el cual ahora se llama Archivos. Actualizaciones de
nuevas características para Firefox, Shotwell, Rhythmbox y Actualización de
software.
El selector de áreas de trabajo fue removido del lanzador, pero gracias a
nuevas preferencias en Apariencia se puede volver a adjuntar al igual que
adjuntar otro icono para mostrar el escritorio. Un nuevo indicador de
sincronización llegó para mantener datos almacenados en Ubuntu One.
Gwibber fue eliminado, pero la vista de contactos en plataformas sociales se
puede realizar a través del acceso Social en el tablero de aplicaciones.
Importantes mejoras en desempeño de gráficos, especialmente en juegos
que requieran mayor velocidad. El instalador Wubi perdió compatibilidad con
esta versión. Esta versión no-LTS es la primera en tener 9 meses de soporte.
Escritorio, teléfono, tableta, televisión[editar]
A partir del núcleo de Ubuntu y su interfaz Unity, Canonical decidió desarrollar
versiones enfocadas a diferentes dispositivos, tales como televisores,
teléfonos inteligentes y futuras versiones móviles para tabletas.74 Estas son
las actuales y en desarrollo de versiones de Ubuntu mantenidas por
Canonical, las cuales van dirigidas a diferentes ambientes y dispositivos.
Ubuntu Phone.
Ubuntu Desktop: Orientado para usuarios concomputador de escritorio.
Cuenta con miles de aplicaciones para entretenimiento y desarrollo.75
Ubuntu Phone: Orientado para usuarios conteléfonos inteligentes.
Cuenta con una interfaz por gestos para teléfonos y con la posibilidad de
iniciar el escritorio de Ubuntu desde un dock con monitor externo.
Actualmente en fase inicial de desarrollo con lanzamiento para finales de
2013 -en estado beta- o principios de 2014.76
Ubuntu Tablet: Orientado para usuarios con tabletas portátiles. Al igual
que la versión para teléfonos, cuenta con una interfaz por gestos, aunque
también puede utilizar una interfaz multitarea para utilizar dos
aplicaciones al mismo tiempo, la posibilidad de usar cuentas multiusuario
para proteger el contenido de cada usuario y por último cargar el escritorio
de Ubuntu al conectar el dispositivo a un dock con teclado y mouse
externo.77 Está en el mismo estado de desarrollo que Ubuntu Phone
Ubuntu TV: Orientado para usuarios con televisor inteligente. Provee de
una interfaz simple e intuitiva para organizar contenidos y servicios para
TV. Actualmente en desarrollo.78
Ubuntu for Android: Orientada para usuarios con teléfono
inteligente Android. Permite ejecutar el escritorio de Ubuntu al conectar
el teléfono a un dock con monitor externo. También permite la
sincronización de contactos y redes sociales con Android, y ejecución de
aplicaciones Android desde el escritorio.79
Ubuntu Server: Orientado a servidores. Permite instalar Ubuntu en un
computador usado comoservidor. No instala una interfaz gráfica de
usuario por defecto.80
Ubuntu Business Desktop Remix: Orientada al sector empresarial con
varias herramientas instaladas por defecto, tales como: Adobe Flash
Plugin, VMware View, OpenJDK 6 Java, Canonical Landscape, se han
eliminado aplicaciones sociales y juegos. Ofrece soporte para Windows
RDP 7.1 y el diagrama Microsoft Visio en LibreOffice Draw.81
Fabricantes de hardware asociados[editar]
Ubuntu en el Mobile World Congress 2012.
En junio de 2010, después del lanzamiento de Ubuntu 10.04, Dell destaca el
uso de Ubuntu como «social desde el principio, rápido inicio del
sistema, simple y elegante, diseñado para internet y Ubuntu es seguro» entre
otros puntos. Dell algunas veces ofrece netbooks ynotebooks con Ubuntu
desde el año 2007 hasta la actualidad.82
Durante el 2010, los fabricantes System76 y ZaReasoncomienzan a
vender computadores de escritorio,servidores, y netbooks/notebooks con
Ubuntu 10.10.8384 85 86 87 88 89
A partir del 2011, el fabricante Kogan Technologies comenzó a
vender laptops con Ubuntu instalado.90
En febrero de 2011, Canonical publica una lista de las computadoras
certificadas y probadas con Ubuntu, en aquella lista se encuentran
fabricantes
como Dell, Acer, HP, Lenovo, IBM, Toshiba, Asus,System76, Intel, Samsung,
etc.91
En mayo de 2011, Canonical anuncia un plan de colaboración con el
fabricante Lenovo en China que desde sus orígenes como división de
portátiles IBM hasta ahora siempre ha ofrecido equipos con SuSE
preinstalado. Con ello se certifican oficialmente 30 diferentes modelos
de Thinkpad de Lenovo con Ubuntu, y más por venir en el resto del año. La
lista también incluye el ThinkPad Edge 14.92
En junio de 2011, el fabricante Asus comienza a vender netbooks Eee
PC con Ubuntu 10.10, siendo tres modelos los que se
lanzan 1001PXD, 1011PX y 1015PX, y más modelos en lo que resta del
año.93Además Canonical se asocia con los
desarrolladores Mobica y Pelagicore para implementar la tecnología
de Ubuntu Core en dispositivos fijos de siguiente generación con conexión a
Internet, comotelevisores inteligentes, set-top box, dispositivos digitales para
el hogar, y en vehículos con dispositivos de entretenimiento.94 95 96
En octubre de 2011, el fabricante Dell en conjunto con Canonical, anuncian
la llegada de computadoras con Ubuntu a China en 220 tiendas.97 Y el
fabricante System76 anuncia que pasará todas sus computadoras a Ubuntu
11.10.98 Además Vodacom y Canonical se asocian para lanzar el Vodafone
Webbook con Ubuntu en 1.200 tiendas de Sudáfrica.99
En noviembre de 2011, Canonical LTD y Asus se asocian para comenzar a
vender portátiles Eee PC1215P en 100 tiendas de Portugal. Remarcando la
delgadez, ligereza y batería de 9 horas de duración.100
En diciembre de 2011, el fabricante CTL anuncia el lanzamiento del
notebook MB40U con Ubuntu 11.10.101
En mayo de 2012, Dell anuncia el lanzamiento del ultrabook XPS13 con
Ubuntu 12.04, pero orientado exclusivamente a desarrolladores.102 Además
el fabricante System76 lanza tres notebooks con Ubuntu 12.04, los modelos
son Lemur Ultra, Pangolin Performance y Gazelle Professional.103
En junio de 2012, Canonical y Dell anuncian la venta de laptops con Ubuntu
en 850 tiendas en India, los laptops son Inspiron 14R y Inspiron 15R, con
más modelos dentro del año.104 Y la disponibilidad de laptops Dell con Ubuntu
en China aumentará a 350 tiendas.105 Además Asus lanza dos modelos Eee
PCcon Ubuntu instalado, los modelos son 1225C y 1015CX.106
En agosto de 2012, el fabricante ZaReason lanza el ultrabook UltraLap
430 con Ubuntu 12.04.107
En octubre de 2012, Asus lanza a la venta en Alemania el netbook F201E con
Ubuntu.108 Además System76 lanza a la venta el computador de escritorio
todo-en-uno Sable Complete con Ubuntu 12.10.109
En noviembre de 2012, Mark Shuttleworth anunció durante el Ubuntu
Developer Summit la asociación con HP para lanzar computadores con
Ubuntu en China. También informó que Ubuntu está siendo distribuido a
través de los cuatro más grandes
fabricantes; Dell, Lenovo, Asus y HP.110 111 Además System76 lanza el
notebook Bonobo Extreme, enfocado en usuarios que exijan grandes
requerimientos de hardware.112
En febrero de 2013, Dell actualiza su ultrabook XPS13 que viene con Ubuntu
12.04 LTS, con nueva alta resolución 1080p.113
En marzo de 2013, HP lanza el computador todo en uno HP Pavilion 20 con
Ubuntu.114
En abril de 2013, Dell lanza el computador de escritorio Alienware X51 con
Ubuntu, orientado para jugadores destacando a Steam y aplicaciones de
Ubuntu. Dividiéndose entre 4 modelos desde los $599 hasta los $1049
dólares.115 También ese mes, HP en colaboración con Canonical, anuncia
sus nuevos servidores HP Moonshot con procesador ARM y x86 con
Ubuntu.116 Además, el fabricante alemán Cirrus7, anuncia el equipo de
escritorio Nimbus con Ubuntu 12.04 LTS y Ubuntu 13.04 a elección para
instalar.117
En junio de 2013, el fabricante System76 anuncia el ultrabook Galago
UltraPro con la nueva tecnologíaHaswell de Intel, el cual será puesto a la
venta desde julio con Ubuntu instalado.118
En julio de 2013, el fabricante israelí CompuLab anuncia el mini computador
con procesador ARM Utilitecon Ubuntu instalado, su pre-venta iniciaría en
agosto de ese año a un precio de $99 dólares.119
Recepción y uso[editar]
En la LinuxWorld Conference and Expo celebrada en Londres, Ubuntu fue
premiada con el «Reader Award» por la mejor distribución Linux del 2005.120
Una de las múltiples distribuciones Linux que usa Google en escritorio es una
derivada de Ubuntu a la que denominaron Goobuntu121 (no confundir
con Gobuntu).
En agosto de 2006 una encuesta de 14.535 lectores de DesktopLinux.com le
adjudicó a Ubuntu el 29,2% de las instalaciones de Linux en computadoras
de escritorio. Dicha encuesta se repitió en 2007 con 38 500 participantes y
con Ubuntu como la distribución más popular con una cuota de uso del
30,3%.122 123
Jamie Hyneman, co-presentador de la serie de
televisión Mythbusters (Cazadores de mitos), ha optado por Linux,
específicamente con el ejemplo de Ubuntu, como alternativa al software
propietario, citando elsoftware inflado como un obstáculo importante en los
sistemas operativos propietarios.124 125
También ha recibido buenas críticas en publicaciones online y
escritas,126 127 128 y ha ganado el premio Bossie de InfoWorld, en 2007,
por «Best Open Source Client OS».129
En 2007, el Ministerio de Educación y Ciencia de la República de
Macedonia desplegó más de 180 000 equipos de escritorio con Ubuntu
preinstalado para su uso en las aulas, y animó a cada estudiante del país a
usar computadoras con Ubuntu.130
Ubuntu también recibió evaluaciones negativas como por ejemplo, a
principios de 2008, cuando la revistaPCWorld criticó la falta de un gestor de
efectos de escritorio integrado, aunque esto no les impidió nombrar a Ubuntu
como la «mejor distribución Linux disponible a día de hoy».131
En octubre de 2008, Wikipedia migró sus servidores a Ubuntu Server.132
En enero de 2009, el periódico New York Times informó que Ubuntu tenía
unos 10 millones de usuarios y en junio del mismo año se podía leer
en ZDNet: «A nivel mundial, hay 13 millones de usuarios activos de Ubuntu,
distribución la cual su uso crece a un ritmo mayor que cualquiera otra.»133 134
La policía francesa, desde 2009, está en proceso de instalar Ubuntu en
90.000 estaciones de trabajo, demostrando un 70% de ahorro en el
presupuesto de TI sin tener que reducir su capacidad.135
En abril de 2010, Chris Kenyon, vicepresidente de Canonical Ltd. estimó que
había 12 millones de usuarios de Ubuntu.136
En octubre de 2011, Canonical anuncia que Ubuntu tiene un incremento
activo de 20 millones de usuarios.137
Desde noviembre del 2011 hasta el primer trimestre del 2012, el Estado
Plurinacional de Bolivia entregó 120 000 computadoras a maestros de
estado, que fueron distribuidas en todo el país, en las que se instalararon
Ubuntu en una instalación compartida con Windows.138
En mayo de 2012, estudiantes universitarios en Pakistán recibieron 125 000
laptops con Ubuntu, gracias a la iniciativa One Laptop Per Child.139
Entre mayo y junio de 2012, importantes desarrolladores de videojuegos se
interesan en publicar sus juegos a través del Centro de software de
Ubuntu. Electronic Arts publica dos juegos inicialmente yHumble Indie Bundle
V publica al menos ocho juegos, además Unity Technologies anuncia que la
siguiente versión de su motor de juegos Unity 4 tendrá soporte para
Ubuntu.140 141 142
A fines de junio de 2012, Jane Silber, CEO de Canonical, anuncia que la
adopción de Ubuntu en Indiacreció a un 160% el año pasado.143
En junio de 2012, Valve anuncia el desarrollo de Steam para Ubuntu. Al
portar el motor de videojuegoSource y el cliente Steam a Linux, pero sin fecha
de lanzamiento aún. Anunciando que el desempeño de los juegos será igual
de bueno que en Windows.144
En septiembre de 2012, 220.000 computadoras con una derivada de Ubuntu
llamada Guadalinex se repartieron entre 2.000 escuelas
de Andalucía, España, y la empresa Isotrol junto Canonical preveían el
soporte técnico.145
En febrero de 2013, Valve anuncia la primera versión estable de Steam para
Ubuntu, con la posibilidad de descargarlo desde el Centro de software de
Ubuntu.146
En marzo de 2013, Canonical en colaboración con el gobierno de China y el
Ministerio de Tecnología de Información anuncian Ubuntu Kylin.
Cloud computing.
La computación en la nube,1 concepto conocido también bajo los
términos servicios en la nube, informática en la nube, nube de
cómputo o nube de conceptos, del ingléscloud computing, es
un paradigma que permite ofrecer servicios de computación a través
deInternet.
Introducción[editar]
En este tipo de computación todo lo que puede ofrecer un sistema informático
se ofrece como servicio,2de modo que los usuarios puedan acceder a los
servicios disponibles "en la nube de Internet" sin conocimientos (o, al menos sin
ser expertos) en la gestión de los recursos que usan. Según el IEEE Computer
Society, es un paradigma en el que la información se almacena de manera
permanente en servidores de Internet y se envía a cachés temporales de cliente,
lo que incluye equipos de escritorio, centros de ocio, portátiles, etc.
La computación en la nube son servidores desde Internet encargados de atender
las peticiones en cualquier momento. Se puede tener acceso a su información o
servicio, mediante una conexión a internet desde cualquier dispositivo móvil o
fijo ubicado en cualquier lugar. Sirven a sus usuarios desde varios proveedores
de alojamiento repartidos frecuentemente por todo el mundo. Esta medida
reduce los costes, garantiza un mejor tiempo de actividad y que los sitios web
sean invulnerables a los hackers, a los gobiernos locales y a sus redadas
policiales.
"Cloud computing" es un nuevo modelo de prestación de servicios de negocio y
tecnología, que permite incluso al usuario acceder a un catálogo de servicios
estandarizados y responder con ellos a las necesidades de su negocio, de forma
flexible y adaptativa, en caso de demandas no previsibles o de picos de trabajo,
pagando únicamente por el consumo efectuado, o incluso gratuitamente en caso
de proveedores que se financian mediante publicidad o de organizaciones sin
ánimo de lucro.
El cambio que ofrece la computación desde la nube es que permite aumentar el
número de servicios basados en la red. Esto genera beneficios tanto para los
proveedores, que pueden ofrecer, de forma más rápida y eficiente, un mayor
número de servicios, como para los usuarios que tienen la posibilidad de acceder
a ellos, disfrutando de la ‘transparencia’ e inmediatez del sistema y de un modelo
de pago por consumo. Así mismo, el consumidor ahorra los costes salariales o
los costes en inversión económica (locales, material especializado, etc.).
Computación en nube consigue aportar estas ventajas, apoyándose sobre una
infraestructura tecnológica dinámica que se caracteriza, entre otros factores, por
un alto grado de automatización, una rápida movilización de los recursos, una
elevada capacidad de adaptación para atender a una demanda variable, así
como virtualización avanzada y un precio flexible en función del consumo
realizado, evitando además el uso fraudulento del software y la piratería.
La computación en nube es un concepto que incorpora el software como servicio,
como en la Web 2.0 y otros conceptos recientes, también conocidos como
tendencias tecnológicas, que tienen en común el que confían en Internet para
satisfacer las necesidades de cómputo de los usuarios.
Comienzos[editar]
El concepto de la computación en la nube empezó en proveedores de servicio
de Internet a gran escala, como Google, Amazon AWS, Microsoft y otros que
construyeron su propia infraestructura. De entre todos ellos emergió una
arquitectura: un sistema de recursos distribuidos horizontalmente, introducidos
como servicios virtuales de TI escalados masivamente y manejados como
recursos configurados y mancomunados de manera continua. Este modelo de
arquitectura fue inmortalizado por George Gilder en su artículo de octubre 2006
en la revista Wired titulado «Las fábricas de información». Las granjas de
servidores, sobre las que escribió Gilder, eran similares en su arquitectura al
procesamiento “grid” (red, parrilla), pero mientras que las redes se utilizan para
aplicaciones de procesamiento técnico débilmente acoplados (loosely coupled),
un sistema compuesto de subsistemas con cierta autonomía de acción, que
mantienen una interrelación continua entre ellos, este nuevo modelo de nube se
estaba aplicando a los servicios de Internet.3
Historia[editar]
El concepto fundamental de la entrega de los recursos informáticos a través de
una red global tiene sus raíces en los años sesenta. La idea de una "red de
computadoras intergaláctico" fue introducido en los años sesenta por JCR
Licklider, quien era responsable de permitir el desarrollo de ARPANET
(Advanced Research Projects Agency Network) en 1969.4 Su visión era que todo
el mundo pudiese estar interconectado y poder acceder a los programas y datos
desde cualquier lugar, explicó Margaret Lewis, directora de marketing de
producto de AMD. "Es una visión que se parece mucho a lo que llamamos cloud
computing".
Otros expertos atribuyen el concepto científico de la computación en nube a John
McCarthy, quien propuso la idea de la computación como un servicio público, de
forma similar a las empresas de servicios que se remontan a los años sesenta.
John McCarthy, 1960: "Algún día la computación podrá ser organizada como un
servicio público".5
Desde los años sesenta, la computación en nube se ha desarrollado a lo largo
de una serie de líneas. La Web 2.0 es la evolución más reciente. Sin embargo,
como Internet no empezó a ofrecer ancho de banda significativo hasta los años
noventa, la computación en la nube ha sufrido algo así como un desarrollo tardío.
Uno de los primeros hitos de la computación en nube es la llegada de
Salesforce.com en 1999, que fue pionero en el concepto de la entrega de
aplicaciones empresariales a través de una página web simple. La firma de
servicios allanó el camino para que tanto especialistas como empresas
tradicionales de software pudiesen publicar sus aplicaciones a través de Internet.
El siguiente desarrollo fue Amazon Web Services en 2002, que prevé un conjunto
de servicios basados en la nube, incluyendo almacenamiento, computación e
incluso la inteligencia humana a través del Amazon Mechanical Turk.
Posteriormente en 2006, Amazon lanzó su Elastic Compute Cloud (EC2) como
un servicio comercial que permite a las pequeñas empresas y los particulares
alquilar equipos en los que se ejecuten sus propias aplicaciones informáticas. 8
"Amazon EC2/S3 fue el que ofreció primero servicios de infraestructura en la
nube totalmente accesibles”, dijo Jeremy Allaire, CEO de Brightcove, que
proporciona su plataforma SaaS de vídeo en línea a las estaciones de televisión
de Reino Unido y periódicos. George Gilder, 2006: "El PC de escritorio está
muerto. Bienvenido a la nube de Internet, donde un número enorme de
instalaciones a lo largo de todo el planeta almacenarán todos los datos que usted
podrá usar alguna vez en su vida".
Otro hito importante se produjo en 2009, cuando Google entre otros, empezaron
a ofrecer aplicaciones basadas en navegador. Servicios, como Google Apps. "La
contribución más importante a la computación en nube ha sido la aparición de
"aplicaciones asesinas" de los gigantes de tecnología como Microsoft y Google.
Cuando dichas compañías llevan a cabo sus servicios de una manera que resulta
segura y sencilla para el consumidor, el efecto 'pasar la pelota' en sí, crea un
sentimiento de mayor aceptación de los servicios online”, dijo Dan Germain, jefe
de la oficina de tecnología en IT proveedor de servicios Cobweb Solutions.
Otro de los factores clave que han permitido evolucionar a la computación en la
nube según el británico y pionero en computación en la nube Jamie Turner, han
sido la tecnologías de virtualización, el desarrollo del universal de alta velocidad
de ancho de banda, y normas universales de interoperabilidad de software.
Turner añadió: "A medida que la computación en nube se extiende, su alcance
va más allá de un puñado de usuarios de Google Docs. Sólo podemos empezar
a imaginar su ámbito de aplicación y alcance. Casi cualquier cosa puede ser
utilizado en la nube".
Características[editar]
La computación en nube presenta las siguientes características clave:
Agilidad Capacidad de mejora para ofrecer recursos tecnológicos al usuario
por parte del proveedor.
Coste: los proveedores de computación en la nube afirman que los costes
se reducen. Un modelo de prestación pública en la nube convierte los gastos
de capital en gastos de funcionamiento. Ello reduce barreras de entrada, ya
que la infraestructura se proporciona típicamente por una tercera parte y no
tiene que ser adquirida por un única sola vez o tareas informáticas intensivas
infrecuentes.
Escalabilidad y elasticidad aprovisionamiento de recursos sobre una base
de autoservicio en casi en tiempo real, sin que los usuarios necesiten cargas
de alta duración.
Dispositivo e independencia de la ubicación permite a los usuarios acceder
a los sistemas utilizando un navegador web, independientemente de su
ubicación o del dispositivo que utilice (por ejemplo, PC, teléfono móvil).
La tecnología de virtualización permite compartir servidores y dispositivos de
almacenamiento y una mayor utilización. Las aplicaciones pueden ser
fácilmente migradas de un servidor físico a otro.
Rendimiento. Los sistemas en la nube controlan y optimizan el uso de los
recursos de manera automática, dicha característica permite un seguimiento,
control y notificación del mismo. Esta capacidad aporta transparencia tanto
para el consumidor o el proveedor de servicio.
La seguridad puede mejorar debido a la centralización de los datos. La
seguridad es a menudo tan buena o mejor que otros sistemas tradicionales,
en parte porque los proveedores son capaces de dedicar recursos a la
solución de los problemas de seguridad que muchos clientes no pueden
permitirse el lujo de abordar.
Mantenimiento de las aplicaciones de computación en la nube es más
sencillo, ya que no necesitan ser instalados en el ordenador de cada usuario
y se puede acceder desde diferentes lugares.
Beneficios[editar]
Integración probada de servicios Red. Por su naturaleza, la tecnología
de cloud computing se puede integrar con mucha mayor facilidad y rapidez
con el resto de las aplicaciones empresariales (tanto software tradicional
como Cloud Computing basado en infraestructuras), ya sean desarrolladas
de manera interna o externa.6
Prestación de servicios a nivel mundial. Las infraestructuras de cloud
computing proporcionan mayor capacidad de adaptación, recuperación
completa de pérdida de datos (con copias de seguridad) y reducción al
mínimo de los tiempos de inactividad.
Una infraestructura 100% de cloud computing permite al proveedor de
contenidos o servicios en la nube prescindir de instalar cualquier tipo de
software, ya que éste es provisto por el proveedor de la infraestructura o la
plataforma en la nube. Un gran beneficio del cloud computing es la
simplicidad y el hecho de que requiera mucha menor inversión para empezar
a trabajar.
Implementación más rápida y con menos riesgos, ya que se comienza a
trabajar más rápido y no es necesaria una gran inversión. Las aplicaciones
del cloud computing suelen estar disponibles en cuestión de días u horas en
lugar de semanas o meses, incluso con un nivel considerable de
personalización o integración.
Actualizaciones automáticas que no afectan negativamente a los recursos de
TI. Al actualizar a la última versión de las aplicaciones, el usuario se ve
obligado a dedicar tiempo y recursos para volver a personalizar e integrar la
aplicación. Con el cloud computing no hay que decidir entre actualizar y
conservar el trabajo, dado que esas personalizaciones e integraciones se
conservan automáticamente durante la actualización.
Contribuye al uso eficiente de la energía. En este caso, a la energía requerida
para el funcionamiento de la infraestructura. En los datacenters tradicionales,
los servidores consumen mucha más energía de la requerida realmente. En
cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo
notablemente el desperdicio.
Desventajas[editar]
La centralización de las aplicaciones y el almacenamiento de los datos
origina una interdependencia de los proveedores de servicios.
La disponibilidad de las aplicaciones está sujeta a la disponibilidad de acceso
a Internet.
Los datos "sensibles" del negocio no residen en las instalaciones de las
empresas, lo que podría generar un contexto de alta vulnerabilidad para la
sustracción o robo de información.
La confiabilidad de los servicios depende de la "salud" tecnológica y
financiera de los proveedores de servicios en nube. Empresas emergentes o
alianzas entre empresas podrían crear un ambiente propicio para el
monopolio y el crecimiento exagerado en los servicios.7
La disponibilidad de servicios altamente especializados podría tardar meses
o incluso años para que sean factibles de ser desplegados en la red.
La madurez funcional de las aplicaciones hace que continuamente estén
modificando sus interfaces, por lo cual la curva de aprendizaje en empresas
de orientación no tecnológica tenga unas pendientes significativas, así como
su consumo automático por aplicaciones.
Seguridad. La información de la empresa debe recorrer diferentes nodos para
llegar a su destino, cada uno de ellos (y sus canales) son un foco de
inseguridad. Si se utilizan protocolos seguros,HTTPS por ejemplo, la
velocidad total disminuye debido a la sobrecarga que éstos requieren.
Escalabilidad a largo plazo. A medida que más usuarios empiecen a
compartir la infraestructura de la nube, la sobrecarga en los servidores de los
proveedores aumentará, si la empresa no posee un esquema de crecimiento
óptimo puede llevar a degradaciones en el servicio o altos niveles de jitter.
Privacidad. La información queda expuesta a terceros que pueden copiarla o
acceder a ella.
Capas[editar]
Software como servicio[editar]
El software como servicio (en inglés software as a service, SaaS) se encuentra
en la capa más alta y caracteriza una aplicación completa ofrecida como un
servicio, por-demanda, vía multitenencia —que significa una sola instancia del
software que corre en la infraestructura del proveedor y sirve a múltiples
organizaciones de clientes. Las aplicaciones que suministran este modelo de
servicio son accesibles a través de un navegador web -o de cualquier aplicación
diseñada para tal efecto- y el usuario no tiene control sobre ellas, aunque en
algunos casos se le permite realizar algunas configuraciones. Esto le elimina la
necesidad al cliente de instalar la aplicación en sus propios computadores,
evitando asumir los costos de soporte y el mantenimiento de hardware y
software.
Plataforma como servicio[editar]
La capa del medio, que es la plataforma como servicio (en inglés platform as a
service, PaaS), es laencapsulación de una abstracción de un ambiente de
desarrollo y el empaquetamiento de una serie de módulos o complementos que
proporcionan, normalmente, una funcionalidad horizontal (persistencia de datos,
autenticación, mensajería, etc.). De esta forma, un arquetipo de plataforma como
servicio podría consistir en un entorno conteniendo una pila básica de sistemas,
componentes o APIs preconfiguradas y listas para integrarse sobre una
tecnología concreta de desarrollo (por ejemplo, un sistema Linux, un servidor
web, y un ambiente de programación como Perl o Ruby). Las ofertas de PaaS
pueden dar servicio a todas las fases del ciclo de desarrollo y pruebas del
software, o pueden estar especializadas en cualquier área en particular, tal como
la administración del contenido.
Los ejemplos comerciales incluyen Google App Engine, que sirve aplicaciones
de la infraestructura Google, y también Windows Azure [1], de Microsoft, una
plataforma en la nube que permite el desarrollo y ejecución de aplicaciones
codificadas en varios lenguajes y tecnologías como .NET, Java y PHP. Servicios
PaaS tales como éstos permiten gran flexibilidad, pero puede ser restringida por
las capacidades que están disponibles a través del proveedor.
En este modelo de servicio al usuario se le ofrece la plataforma de desarrollo y
las herramientas de programación por lo que puede desarrollar aplicaciones
propias y controlar la aplicación, pero no controla la infraestructura.
Infraestructura como servicio[editar]
La infraestructura como servicio (infrastructure as a service, IaaS) -también
llamado en algunos casos hardware as a service, HaaS)8 se encuentra en la
capa inferior y es un medio de entregar almacenamiento básico y capacidades
de cómputo como servicios estandarizados en la red. Servidores, sistemas de
almacenamiento, conexiones, enrutadores, y otros sistemas se concentran (por
ejemplo a través de la tecnología de virtualización) para manejar tipos
específicos de cargas de trabajo —desde procesamiento en lotes (“batch”) hasta
aumento de servidor/almacenamiento durante las cargas pico. El ejemplo
comercial mejor conocido es Amazon Web Services, cuyos servicios EC2 y S3
ofrecen cómputo y servicios de almacenamiento esenciales (respectivamente).
Otro ejemplo es Joyent cuyo producto principal es una línea de servidores
virtualizados, que proveen una infraestructura en-demanda altamente escalable
para manejar sitios Web, incluyendo aplicaciones Web complejas escritas en
Python, Ruby, PHP, y Java.
Tipos de nubes[editar]
Tipos de computación en la nube
Una nube pública es una nube computacional mantenida y gestionada por
terceras personas no vinculadas con la organización. En este tipo de nubes
tanto los datos como los procesos de varios clientes se mezclan en los
servidores, sistemas de almacenamiento y otras infraestructuras de la nube.
Los usuarios finales de la nube no conocen que trabajos de otros clientes
pueden estar corriendo en el mismo servidor, red, sistemas de
almacenamiento, etc.9 Aplicaciones, almacenamiento y otros recursos están
disponibles al público a través el proveedor de servicios que es propietario
de toda la infraestructura en sus centros de datos; el acceso a los servicios
solo se ofrece de manera remota, normalmente a través de Internet.
Las nubes privadas son una buena opción para las compañías que necesitan
alta protección de datos y ediciones a nivel de servicio. Las nubes privadas
están en una infraestructura bajo demanda gestionada para un solo cliente
que controla qué aplicaciones debe ejecutarse y dónde. Son propietarios del
servidor, red, y disco y pueden decidir qué usuarios están autorizados a
utilizar la infraestructura. Al administrar internamente estos servicios, las
empresas tienen la ventaja de mantener la privacidad de su información y
permitir unificar el acceso a las aplicaciones corporativas de sus usuarios.
Las nubes híbridas combinan los modelos de nubes públicas y privadas.
Usted es propietario de unas partes y comparte otras, aunque de una manera
controlada. Las nubes híbridas ofrecen la promesa del escalado
aprovisionada externamente, en-demanda, pero añaden la complejidad de
determinar cómo distribuir las aplicaciones a través de estos ambientes
diferentes. Las empresas pueden sentir cierta atracción por la promesa de
una nube híbrida, pero esta opción, al menos inicialmente, estará
probablemente reservada a aplicaciones simples sin condicionantes, que no
requieran de ninguna sincronización o necesiten bases de datos complejas.
Se unen mediante la tecnología pues permiten enviar datos o aplicaciones
entre ellas. Un ejemplo son los sistemas de correo electrónico empresarial.10
Nube comunitaria. De acuerdo con Joyanes Aguilar, 201211 el Instituto
Nacional de Estándares y tecnología (NITS por sus siglas en inglés) define
este modelo como aquel que se organiza con la finalidad de servir a una
función o propósito común (seguridad, política…), y son administradas por
las organizaciones constituyentes o terceras partes.
Comparaciones[editar]
La computación en nube usualmente es confundida con la computación
en grid (red) (una forma decomputación distribuida por la que "un súper
computador virtual" está compuesto de un conjunto oclúster enlazado de
ordenadores débilmente acoplados, actuando en concierto para realizar tareas
muy grandes).12
Controversia[editar]
Dado que la computación en nube no permite a los usuarios poseer físicamente
los dispositivos de almacenamiento de sus datos (con la excepción de la
posibilidad de copiar los datos a un dispositivo de almacenamiento externo, como
una unidad flash USB o un disco duro), deja la responsabilidad del
almacenamiento de datos y su control en manos del proveedor.
La computación en nube ha sido criticada por limitar la libertad de los usuarios y
hacerlos dependientes del proveedor de servicios.13 Algunos críticos afirman que
sólo es posible usar las aplicaciones y servicios que el proveedor esté dispuesto
a ofrecer. Así, The Times compara la computación en nube con los sistemas
centralizados de los años 50 y 60, en los que los usuarios se conectaban a través
determinales "gregarios" con ordenadores centrales. Generalmente, los usuarios
no tenían libertad para instalar nuevas aplicaciones, y necesitaban la aprobación
de administradores para desempeñar determinadas tareas. En suma, se limitaba
tanto la libertad como la creatividad. El Times argumenta que la computación en
nube es un retorno a esa época y numerosos expertos respaldan la teoría.14
De forma similar, Richard Stallman, fundador de la Free Software Foundation,
cree que la computación en nube pone en peligro las libertades de los usuarios,
porque éstos dejan su privacidad y datos personales en manos de terceros. Ha
afirmado que la computación en nube es "simplemente una trampa destinada a
obligar a más gente a adquirir sistemas propietarios, bloqueados, que les
costarán cada vez más conforme pase el tiempo".15
Aspectos de seguridad[editar]
La seguridad en la computación en la nube, puede ser tan buena o mejor que la
que disponíamos en los sistemas tradicionales, porque los proveedores son
capaces de proporcionar recursos, que resuelvan problemas de seguridad que
muchos clientes no pueden afrontar. Sin embargo, la seguridad todavía sigue
siendo un asunto importante, cuando los datos tienen un matiz confidencial. Esto
atrasa la adopción de la computación en la nube hasta cierto punto.
Seguridad como servicio.[editar]
En el entorno de la nube, la seguridad es provista por los proveedores. Se
pueden distinguir dos métodos: El primer método, es que cualquiera puede
cambiar sus métodos de entrega incluidos en los servicios de la nube. El
segundo método es que los proveedores de servicio de la nube proveen
seguridad solo como servicio en la nube, con información de seguridad de las
compañías.
Seguridad del explorador.[editar]
En el entorno de la nube, los servidores remotos son usados para la
computación. Los nodos del cliente se usan solo para entrada/salida de
operaciones, y para la autorización y autenticación de la información en la nube.
Un navegador web estándar es una plataforma normalmente utilizada para todos
los usuarios del mundo. Esto puede ser catalogado en dos tipos diferentes:
Software como servicio (SaaS), Aplicaciones Web, o Web 2.0. Transport Layer
Security (TLS), se suele emplear para la encriptación de datos y la autentificación
del host.
Autenticación.[editar]
En el entorno de la nube, la base para el control de acceso es la autenticación,
el control de acceso es más importante que nunca desde que la nube y todos
sus datos son accesibles para todo el mundo a través de internet. Trusted
Platform Module (TPM) es extensamente utilizado y un sistema de autenticación
más fuerte que el nombre de usuario y la contraseña. Trusted Computing Groups
(TCG’s) es un estándar sobre la autorización de usuarios y otras herramientas
de seguridad de comunicación en tiempo real entre el proveedor y el cliente.
Pérdida de gobernanza.[editar]
En las infraestructuras de la nube, el cliente necesariamente cede el control al
proveedor (Cloud Provider) en un número de asuntos, los cuáles afectan a la
seguridad. Al mismo tiempo, el acuerdo de nivel de servicio no suele tener el
cometido de surtir este tipo de servicios en la parte del proveedor de la nube,
dejando una brecha en las defensas de seguridad.
Lock-In.[editar]
Esta es una pequeña oferta en este tipo de herramientas, los procedimientos o
estándares de formatos de datos o interfaces de servicios que podrían garantizar
los datos, las aplicaciones y el servicio de portabilidad. Esto puede hacer difícil
para el cliente migrar de un proveedor a otro, o migrar los datos y servicios de
nuevo a otro entorno informático. Esto introduce una particular dependencia en
el proveedor de la nube para la provisión del servicio, especialmente a la
portabilidad de los datos, el aspecto más fundamental.
Protección de los datos.[editar]
La computación en la nube pone en riesgo la protección de datos para los
usuarios de la nube y sus proveedores. En muchos casos, ocasiona dificultades
para el proveedor (en el rol del controlador de la información) para asegurar la
efectividad práctica del manejo de los datos del proveedor de la nube y para
cerciorar que los datos van por el camino correcto. Este problema se suele
agravar en casos de múltiples transferencias de datos, por ejemplo entre
sistemas federados. Por otra parte, algunos proveedores de la nube,
proporcionan información de sus prácticas de cercenamiento de datos. También
hay algunas ofertas de certificaciones en el procesamiento de datos, las
actividades de seguridad, y los controles de datos que tienen lugar; ejemplo, la
certificación SAS70. Las corrientes de datos de internet, están unidas al malware
y de paquetes señuelo para meter al usuario en una desconocida participación
en actividades delictivas.
Limitaciones[editar]
Algunas limitaciones que están retrasando un poco a la computación en la nube
son algunas de las siguientes:
Pérdidas de datos /Fuga[editar]
Los esfuerzos para controlar la seguridad de los datos de la computación en la
nube no son muy buenos; acordadamente con el acceso de control API y la
generación de las claves, almacenamiento y configuración de deficiencias,
permiten resultados en pérdidas de datos, y también permiten una escasa
política de destrucción de datos. La fuga, es la causa de la escasa vital política
de destrucción de datos.
Dificultad de valorar la fiabilidad de los proveedores[editar]
El proveedor de servicio de computación en la nube, controla la fuerza con la
que se pueden realizar los esfuerzos, que actualmente se solían usar para
controlar los accesos a los datos, los cuáles son diferentes en muchos
proveedores y en estas circunstancias; pero no todo es suficiente, las compañías
necesitan una evaluación de los proveedores y proponer qué y cómo filtran el
programa personal.
Los mecanismos de autentificación no son muy fuertes.[editar]
En la nube, hay muchísimos datos, aplicaciones y recursos almacenados. La
computación en la nube es muy débil en los mecanismos de autentificación, por
lo tanto el atacante puede fácilmente obtener la cuenta de usuario cliente y
acceder a la máquina virtual.16
Investigación[editar]
Multitud de universidades, institutos, proveedores e instituciones
gubernamentales están invirtiendo en computación en la nube:17 18
En octubre de 2007, la Inicitativa Academica de Computación en la Nube
(ACCI) se anunció como un proyecto multi-universitario dedicado a orientar
técnicamente a estudiantes en sus desafios con la computación en la nube19
En abril de 2009, UC Santa Barbara lanzó la primera plataforma de código
abierto, AppScale, capaz de ejecutar aplicaciones de Google App Engine a
escala en multitud de infraestructuras.
En abril de 2009, surgió el laborotario de computación en la nube de St
Andrews, enfocado en la investigación de esta nueva área. Unico en el Reino
Unido, StaCC pretende convertirse en un centro internacional de excelencia
para la investigación y docencia en computación en la nube, además,
proporciona consejo e información a empresas interesadas en servicios en
la nube.20
En octubre de 2010, se inició el proyecto TClouds (Nubes de confianza),
financiado por la Comisión Europea. El objetivo del proyecto es investigar e
inspeccionar las bases legales y el diseño arquitectónico para construir una
infraestructura flexible y de confianza en la nube. El proyecto también se
desarrolla un prototipo para demostrar sus resultados.21
En diciembre de 2010, el proyecto de investigación TrustCloud22 23 fué
iniciado por los laboratorios HP Singapur para abordar la transparencia y la
rendición de cuentas de la computación en nube a través de detectives, los
enfoques centrados en los datos24 encapsulados en un TrustCloud marco de
cinco capas. El equipo identificó la necesidad de monitorizar los ciclos de vida
y las transferencias en la nube,22 que conduce al abordaje de cuestiones
esenciales de seguridad, como las fugas de datos, la rendición de cuentas y
las transferencias de datos entre países mediante transacciones en la nube.
En enero de 2011, IRMOS EU financió el desarrollo de una plataforma en la
nube en tiempo real, permitiendo aplicaciones interactivas en infraestructuras
de la nube.25
En junio de 2011, dos universidades de la India University of Petroleum and
Energy Studies y University of Technology and Management introdujeron una
asignatura de computación en la nube en colaboración con IBM.26
En julio 2011, se dió inicio al proyecto de alto rendimiendo de computación
en la nube (HPCCLoud) con el objetivo de investigar mejoras en el
rendimiento en entornos de aplicaciones científicas en la nube.
En julio de 2011, la asociación de la industria en telecomunicaciones elaboró
un documento para analizar los desafios de integración y oportunidades entre
los servicios en la nube y los servicios de comunicación tradicionales en los
Estados Unidos.
Diseño grafico.
El diseño gráfico es una profesión cuya actividad consiste en concebir,
programar, proyectar y realizarcomunicaciones visuales, producidas en general
por medios industriales y destinadas a transmitir mensajesespecíficos a grupos
sociales y con objetivos claros y determinados. Esta actividad posibilita
comunicar gráficamente ideas, hechos y valores procesados y sintetizados en
términos de forma y comunicación,
factores sociales, culturales, económicos, estéticos ytecnológicos. También se
conoce con el nombre dediseño en comunicación visual, debido a que algunos
asocian la palabra gráfico únicamente a la industria gráfica, y entienden que los
mensajes visuales se canalizan a través de muchos medios de comunicación, y
no solo los impresos.
Dado el crecimiento veloz y masivo en el intercambio de información, la demanda
de diseñadores gráficos es mayor que nunca, particularmente a causa del
desarrollo de nuevas tecnologías y de la necesidad de prestar atención a los
factores humanos que escapan a la competencia de los ingenieros que las
desarrollan.1
Algunas clasificaciones difundidas del diseño gráfico son: el diseño
gráfico publicitario, el diseño editorial, el diseño de identidad corporativa,
el diseño web, el diseño de envase, el diseño tipográfico, lacartelería,
la señalética y el llamado diseño multimedia, entre otros.
Historia del diseño[editar]
La definición de la profesión del diseñador gráfico es más bien reciente, en lo
que se refiere a su preparación, su actividad y sus objetivos. Aunque no existe
consenso acerca de la fecha exacta en la que nació el diseño gráfico, algunos lo
datan durante el período de entre guerras. Otros entienden que comienza a
identificarse como tal para finales del siglo XIX.
Puede argumentarse que comunicaciones gráficas con propósitos específicos
tienen su origen en laspinturas rupestres del Paleolítico y en el nacimiento del
lenguaje escrito en el tercer milenio a. de C. Pero las diferencias de métodos de
trabajo, ciencias auxiliares y formación requerida son tales que no es posible
identificar con claridad al diseñador gráfico actual con el hombre de la prehistoria,
con elxilógrafo del siglo XV o con el litógrafo de 1890.
La diversidad de opiniones responde a que algunos consideran como producto
del diseño gráfico a toda manifestación gráfica y otros solamente a aquellas que
surgen como resultado de la aplicación de un modelo de producción industrial;
es decir, aquellas manifestaciones visuales que han sido "proyectadas"
contemplando necesidades de diversos tipos: productivas, simbólicas,
ergonómicas, contextuales, etc.
Antecedentes[editar]
El libro Die hystorie vanden grooten Coninck Alexander impreso mediante
xilografía en 1491 por Christiaen Snellaert. El trabajo de los xilógrafos se
asemejaba más al del artesano que al del diseñador gráfico.
Una página del Libro de Kells: Folio 114, con texto decorado contiene el Tunc
dicit illis. Un ejemplo del arte y diagramación de página de la edad media.
El libro de Kells — Una Biblia manuscrita profusamente ilustrada, realizada por
monjes irlandeses del siglo IX E.C.— es para algunos un muy hermoso y
temprano ejemplo del concepto de diseño gráfico. Se trata de una manifestación
gráfica, de gran valor artístico, de altísima calidad, y que incluso sirve de modelo
para aprender a diseñar —pues incluso supera en calidad a muchas de las
producciones editoriales actuales—, y además desde un punto de vista funcional
contemporáneo esta pieza gráfica responde al conjunto de necesidades
planteadas al equipo de personas que lo realizó, no obstante otros opinan que
no sería producto del diseño gráfico, pues entienden que su concepción no se
ajusta a la idea del proyecto de diseño gráfico actual.
La historia de la tipografía —y por carácter transitivo, también la historia del
libro— está estrechamente vinculada a la del diseño gráfico; esto puede ser así
porque prácticamente no existen diseños gráficos en los que no se incluyan
elementos gráficos de este tipo. De ahí que cuando se habla de la historia del
diseño gráfico, también se cita la tipografía de lacolumna trajana, las miniaturas
medievales, la imprenta deJohannes Gutenberg, la evolución de la industria del
libro, los afiches parisinos, el Movimiento de Artes y Oficios (Arts and
Crafts), William Morris, la Bauhaus, etc."
La introducción de los tipos móviles por Johannes Gutenberg hizo a los libros
más baratos de producir, además de facilitar su difusión. Los primeros libros
impresos (incunables) marcaron el modelo a seguir hasta el siglo XX. El diseño
gráfico de esta época se ha llegado a conocer como Estilo Antiguo
(especialmente la tipografía que estos primeros tipógrafos usaron) o Humanista,
debido a la escuela filosófica predominante de la época.
Tras Gutenberg, no se vieron cambios significativos hasta que a finales del siglo
XIX, específicamente en Gran Bretaña, se hizo un esfuerzo por crear una clara
división entre las Bellas Artes y las Artes Aplicadas.
Siglo XIX[editar]
Primera página del libro The Nature of Gothic de John Ruskin, editado por la
imprenta Kelmscott. El Arts and Craftsproponía revivir el arte medieval, la
inspiración en la naturaleza y el trabajo manual.
Durante el siglo XIX el diseño de mensajes visuales fue confiado
alternativamente a dos profesionales: el dibujante o el impresor. El primero
estaba formado como artista y el segundo como artesano, ambos
frecuentemente en las mismas escuelas de artes y oficios. Para el impresor tenía
como arte el uso de ornamentos y la selección de fuentes tipográficas en sus
composiciones impresas. El dibujante veía a la tipografía como un elemento
secundario y prestaba más atención a elementos ornamentales e ilustrativos.
Entre 1891 y 1896, la imprenta Kelmscott de William Morrispublicó algunos de
los productos gráficos más significativos del Movimiento de Artes y Oficios (Arts
and Crafts), y fundó un lucrativo negocio basado en el diseño de libros de gran
refinamiento estilístico, vendiéndolos a las clases pudientes como objetos de
lujo. Morris demostró que existía un mercado para los trabajos de diseño gráfico,
estableciendo la separación del diseño con respecto a la producción y las bellas
artes. El trabajo de la imprenta Kelmscott está caracterizado por su recreación
de estilos históricos, especialmente medievales.
Primeras vanguardias[editar]
Cartel para el Moulin Rouge de París. Realizado por Henri de Toulouse-
Lautreccon litografía en color en 1891. Gracias alArt Nouveau, el diseño gráfico
cobró orden y claridad visual en la composición.
Isotipo de la Escuela de la Bauhaus. Fundada en 1919 por Walter Gropius, es
considerada la cuna de la profesión del diseño.
Póster para el Dada Matinée. Realizado por Theo van Doesburg en enero de
1923. La organización tipográfica libre, expresa el espíritu del movimiento Dada,
su irracionalidad, busca de la libertad y oposición al estado de las cosas y
expresiones visuales de la época.
Diseño de la identidad corporativa para Lufthansa, por parte del Grupo de
Desarrollo 5 de la HfG de Ulm. La escuela de Ulm fue un punto inflexión en la
historia del diseño, ya que allí se perfiló la profesión del diseño mediante
unametodología científica.
Diseño de pictogramas actuales, para el servicio de Parques Nacionales de
losEstados Unidos. La idea de simplificar al máximo las formas en los símbolos
se desarrolló durante la década de 1950.
El diseño de principios del siglo XX, al igual que las bellas artes del mismo
periodo, fue una reacción contra la decadencia de la tipografía y el diseño de
finales del siglo XIX.
El interés por la ornamentación y la proliferación de cambios de medida y estilo
tipográfico en una misma pieza de diseño, como sinónimo de buen diseño, fue
una idea que se mantuvo hasta fines del siglo XIX. El Art Nouveau, con su clara
voluntad estilística fue un movimiento que aportó a un mayor orden visual en la
composición. Si bien mantuvo un alto nivel de complejidad formal, lo hizo dentro
de una fuerte coherencia visual, descartando la variación de estilos tipográficos
en una misma pieza gráfica.
Los movimientos artísticos de la segunda década del siglo XX y la agitación
política que los acompañaba, generaron dramáticos cambios en el diseño
gráfico. El Dada, De Stijl,Suprematismo, Cubismo, Constructivismo, Futurismo,
y el Bauhaus crearon una nueva visión que influyó en todas las ramas de las
artes visuales y el diseño. Todos estos movimientos se oponían a las artes
decorativas y populares, así como también el Art Nouveau, que bajo la influencia
del nuevo interés por la geometría evolucionó hacia el art déco. Todos estos
movimientos aparecieron con un espíritu revisionista y transgresor en todas las
actividades artísticas de la época. En este período también proliferaron las
publicaciones y manifiestos, mediante los cuales los artistas y educadores
mostraron sus opiniones.
Durante la década de 1930 se desarrollaron aspectos interesantes para la
composición del diseño gráfico. El cambio de estilo gráfico fue trascendental
porque muestra una reacción contra el organicismo y eclecticismo
ornamentalista de la época y propone un estilo más despojado y geométrico.
Este estilo, conectado con el constructivismo, el suprematismo,
el neoplasticismo, el De Stijl y el Bauhaus, ejerció una influencia duradera e
ineludible en el desarrollo del diseño gráfico del siglo XX. Otro elemento
importante en relación a la práctica profesional, fue el creciente uso de la forma
visual como elemento comunicacional. Este elemento apareció sobre todo en los
diseños producidos por el Dada y el De Stijl.
El símbolo de la tipografía moderna es la tipografía sin serifao de palo seco,
inspirada por los tipos industriales de finales del siglo XIX. Destacan Edward
Johnston, autor de la tipografía para el Metro de Londres, y Eric Gill.
Las escuelas de diseño[editar]
Jan Tschichold plasmó los principios de la tipografía moderna en su libro de
1928, New Typography. Más tarde repudió la filosofía que expone en esta obra,
calificándola de fascista, pero continuó siendo muy influyente. Herbert Bayer,
que dirigió desde 1925 hasta 1928 el taller de tipografía y publicidad en
la Bauhaus, creó las condiciones de una nueva profesión: el diseñador gráfico.
Él puso la asignatura de “Publicidad” en el programa de enseñanza incluyendo,
entre otras cosas, el Análisis de los medios de publicidad y laPsicología de la
publicidad. Cabe destacar que el primero en definir el término Diseño Gráfico fue
el diseñador y tipógrafoWilliam Addison Dwiggins en 1922.
Es así como Tschichold, Herbert Bayer, László Moholy-Nagy, y El Lisitski se
convirtieron en los padres del diseño gráfico como lo conocemos hoy día. Fueron
pioneros en las técnicas de producción y en los estilos que se han ido usando
posteriormente. Hoy, los ordenadores han alterado drásticamente los sistemas
de producción, pero el enfoque experimental que aportaron al diseño es más
relevante que nunca el dinamismo, la experimentación e incluso cosas muy
específicas como la elección de tipografías (la Helvética es un revival;
originalmente era un diseño basado en la tipografía industrial del siglo XIX) y las
composiciones ortogonales.
En los años siguientes el estilo moderno ganó aceptación, al tiempo que se
estancaba. Nombres notables en el diseño moderno de mediados de siglo son
Adrián Frutiger, diseñador de las tipografías Univers y Frutiger; y Josef Müller-
Brockmann, importante cartelista de los años cincuenta y sesenta.
La Hochschule für Gestaltung (HfG) de Ulm fue otra institución clave en el
desarrollo de la profesión del diseñador gráfico. Desde su fundación, la HfG se
distanció de una posible afiliación con la publicidad. Al comienzo, el
departamento en cuestión se denominó Diseño Visual, pero rápidamente quedó
claro que su objetivo actual era resolver problemas de diseño en el área de
la comunicación de masas, en el año académico 1956/57 el nombre se cambió
por el de Departamento de Comunicación Visual, según el modelo del
Departamento de Comunicación Visual de la New Bauhaus en Chicago.2 3 En la
HfG de Ulm, se decidió trabajar primordialmente en el área de la comunicación
no persuasiva, en campos como el de los sistemas de signos de tráfico, planos
para aparatos técnicos, o la traducción visual de un contenido científico. Hasta
ese momento no se habían enseñado sistemáticamente esas áreas en ninguna
otra escuela europea. A comienzos de los años1970, miembros de la Bund
Deutscher Grafik-Designer(Asociación de diseñadores gráficos alemanes),
dieron a conocer varios rasgos de su identidadprofesional, como en el caso
de Anton Stankowski entre otros. Mientras que en 1962 la definición oficial de la
profesión se orientaba casi exclusivamente a las actividades publicitarias, ahora
se extendía hasta incluir áreas ubicadas bajo la rúbrica de la comunicación
visual.4 Las imágenes corporativas elaboradas por el Grupo de Desarrollo 5 de
la HfG de Ulm, como aquellas creadas para la firma Braun o para la compañía
aérea Lufthansa fueron asimismo decisivas para esta nueva identidad
profesional.
Gui Bonsiepe y Tomás Maldonado fueron dos de las primeras personas que
intentaron aplicar al diseño ideas extraídas de la semántica. En un seminario
realizado en la HfG de Ulm en 1956, Maldonado propuso modernizar la retórica,
el arte clásico de la persuasión. Bonsiepe y Maldonado escribieron luego
diversos artículos sobre semiótica y retórica para publicación
inglesa Uppercase y la revista Ulmque resultarían un importante recurso para los
diseñadores a esa área. Bonsiepe sugirió que era necesario contar con un
sistema moderno de retórica, actualizado por la semiótica, como herramienta
para describir y analizar los fenómenos de la publicidad. Por medio de esta
terminología, podía exponerse la llamada "estructura omnipresente" de un
mensaje publicitario.5
La idea de simplicidad como característica de buen diseño continuó presente por
muchos años, no sólo en el diseño de alfabetos sino también en otras áreas. La
tendencia de simplificar influyó todos los medios en la vanguardia del diseño en
la década de 1950. En ese momento, se desarrolló el consenso de que simple,
no sólo era equivalente de bueno, sino que también era equivalente de más
legible. Una de las áreas más afectadas fue el diseño de símbolos. Los
diseñadores se plantearon el problema de hasta qué punto se los podía
simplificar sin destruir su función informativa. Sin embargo, recientes
investigaciones, han demostrado que sólo la simplificación de formas de un
símbolo no incrementa necesariamente su legibilidad.
Segundas vanguardias[editar]
La reacción a la cada vez mayor sobriedad del diseño gráfico fue lenta pero
inexorable. Los orígenes de las tipografías postmodernas se remontan al
movimiento humanista de los años cincuenta. En este grupo destaca Hermann
Zapf, que diseñó dos tipografías hoy omnipresentes Palatino (1948) y Óptima
(1952). Difuminando la línea entre las tipografías con serifa y las de palo seco y
reintroduciendo las líneas orgánicas en las letras, estos diseños sirvieron más
para ratificar el movimiento moderno que para rebelarse contra él.
Un hito importante fue la publicación del Manifiesto lo primero es lo
primero (1964), que era una llamada a una forma más radical de diseño gráfico,
criticando la idea del diseño en serie, carente de valor. Tuvo una influencia
masiva en toda una nueva generación de diseñadores gráficos, contribuyendo a
la aparición de publicaciones como la revista Emigre.
Otro notable diseñador de finales del siglo XX es Milton Glaser, que diseñó la
inconfundible campaña I Love NY (1973), y un famoso cartel de Bob Dylan
(1968). Glaser tomó elementos de la cultura popular de los sesenta y setenta.
Los avances de principios del siglo veinte fueron fuertemente inspirados por
avances tecnológicos en impresión y en fotografía. En la última década del
mismo siglo, la tecnología tuvo un papel similar, aunque esta vez se trataba de
ordenadores. Al principio fue un paso atrás. Zuzana Licko comenzó a usar
ordenadores para composiciones muy pronto, cuando la memoria de los
ordenadores se medía en kilobytes y las tipografías se creaban mediante puntos.
Ella y su marido, Rudy VanderLans, fundaron la pionera revista Emigre y la
fundición de tipos del mismo nombre. Jugaron con las extraordinarias
limitaciones de los ordenadores, liberando un gran poder creativo. La revista
Emigre se convirtió en la biblia del diseño digital.
David Carson es la culminación del movimiento contra la sobriedad y la
constricción del diseño moderno. Algunos de sus diseños para la
revista Raygun son intencionadamente ilegibles, diseñados para ser más
experiencias visuales que literarias.
Actualidad[editar]
Hoy en día, gran parte del trabajo de los diseñadores gráficos es asistido por
herramientas digitales. El diseño gráfico se ha transformado enormemente por
causa de los ordenadores. A partir de 1984, con la aparición de los primeros
sistemas de autoedición, los ordenadores personales sustituyeron de forma
paulatina todos los procedimientos técnicos de naturaleza analógica por
sistemas digitales. Por lo tanto los ordenadores se han transformado en
herramientas imprescindibles y, con la aparición del hipertextoy la web, sus
funciones se han extendido como medio de comunicación. Además, la
tecnología también se ha hecho notar con el auge del teletrabajo y en especial
del crowdsourcing o tercerización masiva, ha comenzado a intervenir en las
modalidades de trabajo. Este cambio ha incrementado la necesidad de
reflexionar sobre tiempo, movimiento e interactividad. Aun así, la práctica
profesional de diseño no ha tenido cambios esenciales. Mientras que las formas
de producción han cambiado y los canales de comunicación se han extendido,
los conceptos fundamentales que nos permiten entender la comunicación
humana continúan siendo los mismos.6
Herramientas digitales para el diseño gráfico[editar]
Durante la última década ha cambiado por completo el proceso de producción
editorial, y como se preparan los textos y gráficos que constituyen las
publicaciones impresas o digitales. Los sistemas digitales se han impuesto por
completo.
Los programas que son la esencia de la auto edición —o composición digital de
documentos— son:
1- Los programas de composición de página, como Indesign, QuarkXpress o
Scribus. Pretenden hacer lo mismo algunas alternativas más domésticas como
el Publisher de Microsoft o Serif PagePlus. 2- Aplicaciones de ilustración (o
dibujo vectorial) como Illustrator, CorelDraw, Inkscape o Freehand. 3- Utilidades
de tratamiento de imágenes y fotografías, como Photoshop o Gimp.
Adobe Photoshop[editar]
Adobe Photoshop es el programa de diseño gráfico más vendido de todo el
mundo, en más de 100 idiomas. En su plataforma ofrece diversas herramientas
muy específicas para poder editar cada elemento de una imagen digital. Este
programa forma parte del paquete de Adobe denominado Adobe Creative Suite,
que a su vez contiene también el Illustrator, InDesign, Flash, Acrobat Pro,
Dreamweaver, entre otras herramientas útiles.
Este software se utiliza principalmente para realizar retoques fotográficos, pero
también es muy usado para la realización de diseños web, y para la creación de
cualquier tipo de diseño gráfico que puede incluir una tarjeta de presentación o
un panfleto.
Adobe Illustrator[editar]
Es un programa que crea imágenes digitales usando parámetros matemáticos.
No es para dibujo técnico aunque podría realizar alguna que otra cosa con sus
herramientas. Más bien está pensado para hacer logos, ilustraciones, letras,
documentos sencillos como tarjetas de presentación y esas cosas.
Crea dibujos trazando líneas rectas, y curvas, cerrando contornos y llenándolos
de color. Permite agregar fotos y textos aunque esta función no es su fuerte. Se
complementa con Photoshop, que es un programa para editar fotos, ajustarlas y
generar efectos especiales.
A diferencia de las fotografías digitales las imágenes de ilustrador no pierden su
calidad al agrandarse porque se crean a través de parámetros matemáticos y no
en mapas de puntos. Son muy livianas y de muy buena calidad.
El software Adobe Illustrator CS3 permite crear sofisticadas ilustraciones
vectoriales prácticamente para cualquier medio. Las herramientas de dibujo
estándar en el sector, los controles flexibles de color y los controles de tipo
profesional le ayudarán a capturar sus ideas y experimentar libremente con ellas,
mientras que las funciones de ahorro de tiempo, como las opciones de acceso
fácil, le permiten trabajar de forma rápida e intuitiva. El rendimiento mejorado y
la estrecha integración con otras aplicaciones de Adobe también facilitan la
creación de extraordinarios gráficos para diseños de impresión, imágenes web e
interactivas, y gráficos animados y para móviles.
Basecamp[editar]
Este es un proyecto muy interesante, en el que se puede participar en trabajos
grupales, debido a que este es uno de los organizadores de tareas más eficaces
que hay actualmente en Internet. Basecamp es muy utilizado por empresas que
se dedican al diseño gráfico, ya que un conjunto de personas puede descargar,
editar y subir al mismo sitio archivos de un proyecto que se esté realizando.
URL2PNG[editar]
Esta herramienta es útil para ordenadores con pantallas muy pequeñas, y esto
permite apreciar como se ve un sitio web al completo. Gracias a esta herramienta
únicamente tendremos que brindar la dirección del sitio web que necesitemos
hacer una captura de pantalla, y obtendremos una imagen total del sitio en
formato PNG. Es una aplicación web muy útil para los diseñadores gráficos que
se dediquen a elaborar diseños de páginas web, ya que obtendrán una imagen
preliminar sin importar el sistema operativo o el navegador que estén utilizando.
Pixie[editar]
Este es un programa que sirve como selector de color para todos los
ordenadores que tengan instalado alguna versión del sistema operativo de
Microsoft Windows, entre otros.
De hecho, estos últimos años se ha dado una tendencia a engordar estos
programas, añadiendo prestaciones, de modo que pueden llevar a cabo tareas
de casi las tres bases de la auto edición comentadas. La consecuencia principal
ha sido la aparición de programas, innecesariamente complicados, devoradores
de recursos y lentos, que a veces hacen añorar las primeras versiones, más
rápidas simples y fiables, y con un mejor enfoque en trabajos específicos.
Las reglas básicas del diseño son aplicables también al diseño digital. La
simplicidad, consistencia, una buena composición, son una garantía de buenos
resultados, como lo eran antes de la invención de los ordenadores. Dentro de la
nueva era digital, tanto en el campo de la fotografía cómo en el diseño gráfico,
cada vez se utilizan más las nuevas tecnologías, la informática, los ordenadores
y los equipos digitales en general.
Otros programas de diseño gráfico[editar]
En los últimos años han surgido numerosos programas de diseño gráfico dada
la popularización de la informática con la llegada de nuevos dispositivos como
los teléfonos inteligentes y las tabletas digitales. Programas como Gimp o Pixlr
se han convertido también en opciones interesantes. Se trata de programas de
software libre cuyo uso se ha extendido debido a que son gratuitos.
Representación gráfica de problemas[editar]
Una gráfica es donde se puede hacer la comparación de dos o más variables en
una tabla. Las gráficas describen relaciones entre dos o más variables.La
variable que se representa en el eje horizontal se llama variable independiente o
variable x. La que se representa en el eje vertical se llama variable dependiente
o variable y.La variable y está en función de la variable x. Una vez realizada la
gráfica se puede analizar y extraer conclusiones.
Las representaciones son configuraciones que pertenecen a sistemas altamente
estructurados, denominados; “Sistemas Semióticos” (Duval, 1993), los cuales
están constituidos de caracteres o signos primitivos, para ser combinados a
través de reglas particulares en cada sistema.
Photoshop. Adobe Photoshop es un editor de gráficos rasterizados desarrollado por Adobe
Systems principalmente usado para elretoque de fotografías y gráficos. Su
nombre en español significa literalmente "taller de fotos". Es líder mundial del
mercado de las aplicaciones de edición de imágenes y domina este sector de tal
manera que su nombre es ampliamente empleado como sinónimo para la edición
de imágenes en general.4
Actualmente forma parte de la familia Adobe Creative Suite y es desarrollado y
comercializado por Adobe Systems Incorporated inicialmente para
computadores Apple pero posteriormente también para plataformas PC con
sistema operativo Windows. Su distribución viene en diferentes presentaciones,
que van desde su forma individual hasta como parte de un paquete siendo éstos:
Adobe Creative Suite Design Premium y Versión Standard, Adobe Creative Suite
Web Premium, Adobe Creative Suite Production Studio Premium y Adobe
Creative Suite Master Collection.
Índice
[ocultar]
1 Historia
2 Características
3 Historia de lanzamientos
4 Idiomas disponibles
5 Véase también
6 Referencias
7 Enlaces externos
Historia[editar]
En 1987, Thomas Knoll, un estudiante de doctorado en la Universidad de
Michigan escribió un programa en su Macintosh Plus para mostrar imágenes a
escala de grises en pantallas monocromáticas. Este programa, llamado Display,
llamó la atención de su hermano, John Knoll, un trabajador de Industrial Light &
Magic, que recomendó a Thomas convertir su programa en un programa
completo editor de imágenes. En 1988, Thomas se tomó un receso de 6 meses
de sus estudios para trabajar en el programa, junto con su hermano. Thomas
renombró el programa a ImagePro, pero el nombre ya se encontraba
registrado.5Más tarde ese mismo año, Thomas renombró el programa como
Photoshop y negoció un trato con el creador de escáneres Barneyscan para
distribuir copias del programa con un escáner, "un total de 200 copias de
Photoshop fueron distribuidas" de esta manera.6
Durante este tiempo, John viajó a Silicon Valley y realizó una demostración del
programa a ingenieros de Apple y Russell Brown, director de arte en Adobe.
Ambas demostraciones fueron exitosas, y Adobe decidió comprar la licencia para
distribuir el programa en septiembre de 1988.7 Mientras John trabajaba en plug-
ins en California, Thomas se quedó en Ann Arbor trabajando en el código.
Photoshop 1.0 fue lanzado en 1990 exclusivamente para Macintosh.8
Características[editar]
Adobe Photoshop en sus versiones iniciales trabajaba en un espacio (bitmap)
formado por una sola capa, donde se podían aplicar toda una serie de efectos,
textos, marcas y tratamientos. En cierto modo tenía mucho parecido con las
tradicionales ampliadoras. En la actualidad lo hace con múltiples capas.
A medida que ha ido evolucionando, el software ha ido incluyendo diversas
mejoras fundamentales, como la incorporación de un espacio de
trabajo multicapa, inclusión de elementos vectoriales, gestión avanzada de color
(ICM / ICC), tratamiento extensivo de tipografías, control y retoque de color,
efectos creativos, posibilidad de incorporar plugins de terceras compañías,
exportación para sitios web entre otros.
Photoshop se ha convertido, casi desde sus comienzos, en el estándar de
facto en retoque fotográfico, pero también se usa extensivamente en multitud de
disciplinas del campo del diseño y fotografía, comodiseño web, composición de
imágenes en mapa de bits, estilismo digital, fotocomposición, edición y grafismos
de vídeo y básicamente en cualquier actividad que requiera el tratamiento de
imágenes digitales.
Photoshop ha dejado de ser una herramienta únicamente usada por
diseñadores, para convertirse en una herramienta usada profusamente por
fotógrafos profesionales de todo el mundo, que lo usan para realizar el proceso
de retoque y edición digital, no teniendo que pasar ya por un laboratorio más que
para la impresión del material.
Cambio de brillo en una imagen con Photoshop.
Con el auge de la fotografía digital en los últimos años, Photoshop se ha ido
popularizando cada vez más fuera de los ámbitos profesionales y es quizá, junto
a Windows y Flash (de Adobe Systems También) uno de los programas que
resulta más familiar (al menos de nombre) a la gente que comienza a
usarlo[cita requerida], sobre todo en su versión Photoshop Elements, para el retoque
casero fotográfico.
Aunque el propósito principal de Photoshop es la edición fotográfica, éste
también puede ser usado para crear imágenes, efectos, gráficos y más en muy
buena calidad. Aunque para determinados trabajos que requieren el uso de
gráficos vectoriales es más aconsejable utilizar Adobe Illustrator.
Entre las alternativas a este programa, existen algunos programas de software
libre como GIMP, orientado a la edición fotográfica en general,
o privativos como PhotoPaint de Corel, capaz de trabajar con cualquier
característica de los archivos de Photoshop, y también con sus filtros plugin.
Photoshop fue creado en el año 1990, soporta muchos tipos de archivos de
imágenes, como BMP, JPG,PNG, GIF, entre otros, además tiene formatos de
imagen propios. Los formatos soportados por Photoshop son:
PSD, PDD: formato estándar de Photoshop con soporte de capas.
PostScript: no es exactamente un formato, sino un lenguaje de descripción
de páginas. Se suele encontrar documentos en PostScript. Utiliza primitivas
de dibujo para poder editarlo.
EPS: es una versión de PostScript, se utiliza para situar imágenes en un
documento. Es compatible con programas vectoriales y de autoedición.
DCS: fue creado por Quark (empresa de software para autoedición) y permite
almacenar tipografía, tramas, etc. Se utiliza para filmación en autoedición.
Prev. EPS TIFF: permite visualizar archivos EPS que no se abren en
Photoshop, por ejemplo los de QuarkXPress.
BMP: formato estándar de Windows.
GIF: muy utilizado para las web. Permite almacenar un canal alfa para dotarlo
de transparencia, y salvarlo como entrelazado para que al cargarlo en la web
lo haga en varios pasos. Admite hasta 256 colores.
JPEG: también muy utilizado en la web, factor de compresión muy alto y
buena calidad de imagen.
TIFF: una solución creada para pasar de PC a MAC y viceversa.
PICT: desde plataformas MAC se exporta a programas de autoedición como
QuarkXPress.
PNG: la misma utilización que los GIF, pero con mayor calidad. Soporta
transparencia y colores a 24 bits. Solo las versiones recientes de
navegadores pueden soportarlos.
PDF: formato original de Acrobat. Permite almacenar imágenes vectoriales y
mapa de bits.
ICO: es utilizado para representar archivos, carpetas, programas, unidades
de almacenamiento, etc.
IFF: se utiliza para intercambio de datos con Amiga.
PCX: formato solo para PC. Permite colores a 1, 4, 8 y 24 bits.
RAW: formato estándar para cualquier plataforma o programa gráfico.
TGA: compatible con equipos con tarjeta gráfica de Truevision.
Scitex CT: formato utilizado para documentos de calidad profesional.
Filmstrip: se utiliza para hacer animaciones. También se puede importar o
exportar a Premiere.
FlashPix: formato originario de Kodak para abrir de forma rápida imágenes
de calidad superior.
JPEG2000: al igual que el JPEG, es nuevo formato de compresión que
permite aumentar la calidad de la imagen.
Historia de lanzamientos[editar]
Versión Plataforma Nombre
del código
Fecha de
lanzamiento Cambios significativos
1.0 Mac OS febrero de
1990
2.0 Mac OS Fast Eddy junio de 1991
Implementación de
los Pathspermitiendo
diseño vectorial
2.0.1 Mac OS enero de
1992
2.5 Mac OS Merlin noviembre de
1992
Windows Brimstone
2.5.1 Mac OS 1993
3.0
Mac OS Tiger
Mountain
septiembre
de 1994 Paletas tabladas(Tabbed
Palettes)
Capas (layers) Windows,
IRIX
noviembre de
1994
4.0 Mac OS,
Windows
Big Electric
Cat
noviembre de
1996
Capas de ajuste
(Adjustment Layers)
Tipos de letra que pueden
ser editadas (en las
versiones anteriores, el
texto era convertido para
el formatoimagen
ráster después de
introducido)
4.0.1 Mac OS,
Windows
agosto de
1997
5.0 Mac OS,
Windows
Strange
Cargo
mayo de
1998
Deshacer múltiple
(Multiple Undo) a través
de la paleta "histórico"
(History Palette),
anteriormente sólo
permitía 1 deshacer.
Gestión del color
5.0.1 Mac OS,
Windows 1999
5.5 Mac OS,
Windows
febrero de
1999
El paquete del programa
incluye elAdobe
ImageReady
Filtro Extraer (Extract)
Figuras geométricas
vectoriales
6.0 Mac OS,
Windows
Venus in
Furs
septiembre
de 2000
Herramienta Healing
Brush
Filtro Liquify
6.1 Mac OS,
Windows
marzo de
2001
7.0 Mac OS,
Windows Liquid Sky
marzo de
2001
Texto totalmente vectorial
Herramienta Healing
Brush
Nuevo "motor" de pintura
(painting engine)
7.0.1 Mac OS,
Windows
agosto de
2002
Plugin opcional "Camera
RAW 1.x"
CS (8.0) Mac OS,
Windows Dark Matter
octubre de
2003
Plugin "Camera RAW 2.x"
incluido de raíz
Comando
"Sombras/Iluminaciones"
(Shadow/Highlight)
Comando
corresponder/igualar a la
color (Match Colour)
Filtro Lens flare
Histograma en tiempo-
real (Real-Time
Histogram)
Sistema para detectar
automáticamente la
impresión de imágenes
digitalizadas de algunos
tipos de papel-moneda.
CS2
(9.0)
Mac OS,
Windows
Space
Monkey abril de 2005
Plugin "Camera RAW 3.x"
Herramienta Smart
Object
Image Warp
Spot healing brush
Herramienta de reducción
del efecto de los "ojos
rojos" (Red-Eye tool)
Filtro Lens Correction
Smart Sharpen
Punto de fuga (Vanishing
Point)
Gestión mejorada de la
memoria RAM en
Macintosh de 64-bits a
correr Mac OS X 10.4
Soporte a High dynamic
range imaging
Filtro Shape Blur
CS3
(10.0)
Mac OS,
Windows Red Pill
abril de 2007
(versión
definitiva.
Hubo un Beta
público
desde enero
de 2007)
Dos versiones: una básica y
una extendida
Filtros no destructivos
Soporte para Zoomify
Soporte para 3D y Video
(sólo la versión Extended)
Mejoras en la herramienta
'Vanishing Point'
Express Internet 27 de marzo
de 2008
CS4
(11.0)
Mac OS,
Windows Stonehenge
23 de
septiembre
de 2008
(versión
definitiva.
Hubo una
Beta pública
desde mayo
de 2008)9
Dos versiones: una básica y
una extendida
Aceleración
por GPU mediante API
OpenGL
Escalar según contenido
Herramienta de rotar
lienzo en tiempo real
Mejora en las
herramientas de 3d (sólo
para la versión Extended)
Panel de ajustes
Panel de máscaras
Soporte para
procesadores de 64 bits
sólo para Windows. Mac
OS deberá esperar al
CS5
CS5
(12.0)
Mac OS,
Windows
White
Rabbit
12 de abril de
2010
Dos versiones: una básica y
una extendida
Básica:
Granulado añadido en
Adobe Camera Raw
Corrección de objetivo
automática
Herramienta de
enderezamiento de
imagen
Viñeta posterior al recorte
Tecnología de márgenes
de selección más real
Descontaminación de
color para las selecciones
Herramientas de
selección y
perfeccionamiento de
máscaras
Relleno según el
contenido
Pincel mezclador
Puntas de cerdas
Deformación de posición
libre
Adobe Mini Bridge
Adobe CS Review, parte
de los servicios en línea
de Adobe CS Live
Pegar en contexto
Extendida:
Tecnología de márgenes
de selección más real
CS6
(13.0)
Mac OS,
Windows Superstition
7 de mayo de
2012
Básica:
Nuevo diseño de la
interfaz de usuario
(iconos renovados y la
opción de interfaz de
fondo oscuro)
Guardado automático en
segundo plano
Conscientes del
contenido de parches y
herramientas Move
Galería de Blur
Rango de color: el tono de
piel y detección de rostros
Adobe Camera RAW 7
Herramienta de recorte
mejorada
Nuevo panel de
propiedades, todas las
propiedades integradas.
Soporte de vídeo
mejorado.
El filtro de "pintura al óleo"
ahora se distribuye con el
programa.
Filtro de gran angular
adaptativo.
Estilos de carácter y de
párrafo.
Mejor soporte a los
idiomas de Oriente
Medio.
Impresión de la interfaz
de usuario actualizada
3DLUT de ajuste
Trazos en objetos
vectoriales, con
posibilidad de elección
del tipo de trazo, como
guiones y puntos.
Revisadas herramientas
vectoriales
Ajustar a píxeles de
herramientas vectoriales
y transformaciones
Interfaz de usuario 3D
completamente
renovada, más fácil ahora
de utilizar.
Idiomas disponibles[editar]
Adobe Photoshop está disponible en los siguientes idiomas:
Portugués, chino simplificado, chino tradicional, checo, danés, español,
neerlandés, inglés, finlandés, francés, alemán, húngaro, italiano, japonés,
coreano, noruego, polaco, rumano, ruso, sueco, turco y ucraniano.
Minimalismo. El término minimalista, en su ámbito más general, se refiere a cualquier cosa
que haya sido reducida a lo esencial, despojada de elementos sobrantes. Es una
traducción transliteral del inglés minimalist, que significa minimista, o sea, que
utiliza lo mínimo (minimal en inglés). Es la tendencia a reducir a lo esencial. Se
aplica también a los grupos o individuos que practican el ascetismo y que
reducen sus pertenencias físicas y necesidades al mínimo, es también el
significado a simplificar todo a lo mínimo. Este significado queda más claro si se
explica que minimalismo en realidad quiere decir minimismo. El término
«minimal» fue utilizado por primera vez por el filósofo británico Richard
Wollheim en 1965, para referirse a las pinturas de Ad Reinhardt y a otros objetos
de muy alto contenido intelectual pero de bajo contenido formal o de
manufactura, como los «ready-made» de Marcel Duchamp.
Cultura[editar]
La reconstrucción del Pabellón Alemánde Ludwig Mies van der
Rohe enBarcelona
Bastidores de bicicletas en Hamburgo, 2008
Como movimiento artístico, se identifica con un desarrollo del arte occidental
posterior a la Segunda Guerra Mundial, iniciado en el año 1960.
Según la última versión del diccionario de la Real Academia Española (RAE), el
minimalismo es una corriente artística que utiliza elementos mínimos y básicos,
como colores puros, formas geométricas simples, tejidos naturales,etc.
Características:
Abstracción
Economía de lenguaje y medios
Producción y estandarización industrial
Uso literal de los materiales
Austeridad con ausencia de ornamentos
Purismo estructural y funcional
Orden
Geometría elemental rectilínea
Precisión en los acabados
Reducción y síntesis
Sencillez
Concentración
Protagonismo de las fachadas
Desmaterialización
Escultura y Pintura minimalista[editar]
El minimalismo se desarrolló en el campo de la escultura cuyos representantes
principales son: Donald Judd, Sol LeWitt, Carl Andre, Dan Flavin y Robert Morris.
La pintura minimalista tiene influencias delconstructivismo y sobre todo del
planteamiento reduccionista de Ad Reinhardt. Algunos pintores son:Robert
Ryman, Robert Mangold, Agnes Martin.
Diseño minimalista[editar]
El término minimalismo también se utiliza para describir una tendencia en
el diseño y la arquitectura, donde la estructura se reduce a sus elementos
necesarios. El diseño minimalista ha sido muy influenciado por el diseño
tradicional japonés y la arquitectura. Además, los trabajos de los artistas de De
Stijl es una importante fuente de referencia para este tipo de trabajo. De Stijl ha
ampliado las ideas que se podría expresar mediante el uso de elementos básicos
tales como líneas y planos organizada de manera muy particular.
Se puede igualmente hablar de una arquitectura minimalista visible en la obra
de, por ejemplo: John Pawson, Souto de Moura, Tadao Ando, Hiroshi
Naito o Rudi Riccioti.
Música minimalista[editar]
Artículo principal: Minimal
En el mundo de la música, en los 35 últimos años, el término minimalismo se
aplica a veces a la música que muestra alguna de las características siguientes
(o todas):
Repetición de frases musicales cortas, con variaciones mínimas en un
período largo de tiempo;
Éctasis (movimiento lento), a menudo bajo la forma de zumbidos y
tonos largos;
Énfasis en una armonía tonal;
Un pulso constante.
La primera composición que se considera minimalista fue la obra de 1964 In
C, de Terry Riley, a la que siguieron, en la década de 1970 las obras de Steve
Reich y Philip Glass entre otros. Sin embargo se atribuye el empleo, por
primera vez, del término música minimalista a Michael Nyman,quien en un
artículo en The Spectator en 1968, se lo aplicaba al compositor
inglés Cornelius Cardew. La música minimalista puede sonar a veces similar
a diferentes formas de música electrónica (e.g. Basic Channel), así como a
algunas composiciones basadas en la textura, como alguna de las obras
de Gyorgy Ligeti. A veces el resultado final es similar, pero el procedimiento
de acercamiento no lo es. También se habla detechno minimal, un género
secundario de la música de techno, se caracteriza por un bajo desnudo,
sonido entrecortado, un compás rítmico de 4/4 simple (generalmente,
alrededor de 120-135 BPM), una repetición de bucles cortos, y cambios
sutiles.
Algunos de los compositores que frecuentemente se asocian con este
movimiento son:
Jeff Mills
Ricardo Villalobos
Richie Hawtin
Arvo Pärt
Brian Eno
Henryk Górecki
Cornelius Cardew
Philip Glass
Steve Reich
La Monte Young
Ludovico Einaudi
Yann Tiersen
Michael Nyman
Stefano Ianne
Tony Conrad
Pauline Oliveros
John Coolidge Adams
Wim Mertens
Mike Oldfield
Sigur Ros
James Blake
Véase también[editar]
Formalismo (arte)
Abstracción geométrica.
Top Related