Proyecto informativo

83
qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm qwertyuiopasdfghjklzxcvbnm rtyuiopasdfghjklzxcvbnmqwe rtyuiopasdfghjklzxcvbnmqwe rtyuiopasdfghjklzxcvbnmqwe rtyuiopasdfghjklzxcvbnmqwe rtyuiopasdfghjklzxcvbnmqwe rtyuiopasdfghjklzxcvbnmqwe rtyuiopasdfghjklzxcvbnmqwe rtyuiopasdfghjklzxcvbnmqwe rtyuiopasdfgklzxcvbnmqwert yuiopasdfghjklzxcvbnmqwert yuiopasdfghjklzxcvbnmqwert yuiopasdfghjklzxcvbnmqwert yuiopasdfghjklzxcvbnmrtyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmqwertyui opasdfghjklzxcvbnmrtyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmqwertyuiopa sdfghjklzxcvbnmrtyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmqwertyuiopasdf ghjklzxcvbnmrtyuiopasdfghj FACULTAD DE CIENCIAS POLÍTICAS Y ADMINISTRATIVAS ESCUELA DE INGENIERÍA COMERCIAL / PRIMER AÑO CÁTEDRA DE: INFORMÁTICA I – TEMAS APLICADOS AUTORES: JIMMY EICLER NOLE CEDEÑO DIEGO JAVIER MERINO DOCENTE: INGENIERO RAMIRO RUALES P. RIOBAMBA - CHIMBORAZO - ERCUADOR

Transcript of Proyecto informativo

Page 1: Proyecto informativo

qwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfgklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmrtyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvbnmqwertyuiopasdfghjklzxcvb

FACULTAD DE CIENCIAS POLÍTICAS Y ADMINISTRATIVASESCUELA DE INGENIERÍA COMERCIAL / PRIMER AÑO

CÁTEDRA DE:

INFORMÁTICA I – TEMAS APLICADOS

AUTORES:

JIMMY EICLER NOLE CEDEÑO

DIEGO JAVIER MERINO

DOCENTE:

INGENIERO RAMIRO RUALES P.

RIOBAMBA - CHIMBORAZO - ERCUADOR

Page 2: Proyecto informativo

INTRODUCCIÓN

La tecnología por su vital importancia, tiene cada vez una mayor aceptación e interés por el conocimiento integral de esta ciencia, con el objetivo de aplicar correctamente a los requerimientos de las personas.

Los temas aquí tratados, son los que en la práctica se aplica diariamente, todos ellos acordes a las actitudes de cada persona, con el propósito de facilitar y orientar, al termino de cada capitulo se ha desarrollado ejemplos prácticos y resueltos que servirán de una valiosa orientación para la comprensión y aplicación.

Página 2INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 3: Proyecto informativo

INDICE DE CONTENIDO

Tabla de contenido

1. EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS 1

2. MANUAL DE OFIMÁTICA 2

3. MANUAL DE SOFTWARE LIBRE 3

4. MANUAL DE BIBLIOTECAS VIRTUALES 4

5. REALIDAD VIRTUAL 5

6. SOFTWARE FINANCIERO 6

7. COMPILADORES 7

Página 3INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 4: Proyecto informativo

1. EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS INTRODUCCIÓNEn la actualidad no se puede pensar en casi ninguna actividad en la cual no intervengan de alguna manera los procesos de cómputo. Las computadoras han invadido la mayoría de las labores del ser humano El mundo está cambiando y usted deberá aprender todas esas, antes complicadas, hoy comunes tecnologías modernas que le permitirán conseguir un empleo mejor retribuido y quizás, en poco tiempo, realizar trabajos desde la comodidad de su hogar (teletrabajo), reduciendo el tráfico en las calles y por ende la contaminación de las grandes ciudades. La mayoría de los gobiernos de los países en desarrollo han tomado muy en serio los programas de educación para crear en sus poblaciones una "cultura informática".Definitivamente, las computadoras están cambiando nuestras vidas. Ahora hemos de aprenderla para no quedar inmersos en una nueva forma de analfabetismo. Lo anterior contribuye a la creación de nuevos esquemas sociales que incluyen: novedosas maneras de comercialización aprovechando las facilidades para comunicarse con todo el mundo a través de Internet; la necesidad de crear leyes adecuadas a la realidad cibernética actual y, sobre todo; la concepción de una nueva manera de relacionarse con nuestros semejantes, que contemple una serie de normas éticas que regulen la convivencia pacifica y cordial entre los millones de personas que tienen que utilizar estas avanzadas tecnologías para realizar su trabajo, estudio, descanso y esparcimiento diarios.PRÓLOGOHoy día todos los habitantes del mundo somos dependientes directos o indirectos del uso de las computadoras, como en oficinas bancarias, grandes y medianos comercios, centros de enseñanza, oficinas de ventas y reservaciones para viajes, clínicas médicas u hospitales, fabricas y almacenes industriales, organismos de gobierno y oficinas administrativas, laboratorios, y centros de investigación. Estas máquinas maravillosas inventadas por el hombre, tal como ahora las concebimos, son el resultado de una secuencia de eventos que el transcurso de esta investigación conoceremos.Para saber mas acerca de estos eventos en esta investigación mostraremos las diferentes generaciones por las que ha pasado el mundo de la computación, esta larga historia es necesario mencionar las épocas y los personajes gracias a cuyos valiosos aportes a través del tiempo, hicieron posible la gestación de la hoy llamada Era de la Computación, la cual sin lugar a dudas es el resultado de un largo proceso evolutivo que jamás cesará.

MARCO TEÓRICOLas computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de

Página 4INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 5: Proyecto informativo

tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.

Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fue introducido el modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañias privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras. Transistor Compatibilidad LimitadaEl invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.

Los programas de computadoras también mejoraron. El COBOL (COmmon Busines Oriented Languaje) desarrollado durante la 1era generación estaba ya disponible comercialmente, este representa uno de os mas grandes avances en cuanto a portabilidad de programas entre diferentes computadoras; es decir, es uno de los primeros programas que se pueden ejecutar en

Página 5INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 6: Proyecto informativo

diversos equipos de computo después de un sencillo procesamiento de compilación. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. Grace Murria Hooper (1906-1992), quien en 1952 habia inventado el primer compilador fue una de las principales figuras de CODASYL (Comité on Data SYstems Languages), que se encago de desarrollar el proyecto COBOL El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran sustancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general. Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad.

La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo. (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH.Algunas de las computadoras que se construyeron ya con transistores fueron la IBM 1401, las Honeywell 800 y su serie 5000, UNIVAC M460, las IBM 7090 y 7094, NCR 315, las RCA 501 y 601, Control Data Corporation con su conocido modelo CDC16O4, y muchas otras, que constituían un mercado de gran competencia, en rápido crecimiento. En esta generación se construyen las supercomputadoras Remington Rand UNIVAC LARC, e IBM Stretch (1961).Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora.Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. El descubrimiento en 1958 del primer Circuito Integrado (Chip) por el ingeniero Jack S. Kilby (nacido en 1928) de Texas Instruments, así como los trabajos que realizaba, por su parte, el Dr. Robert Noyce de Fairchild Semicon ductors, acerca de los circuitos integrados, dieron origen a la tercera generación de computadoras.Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.

Página 6INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 7: Proyecto informativo

La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. IBM marca el inicio de esta generación, cuando el 7 de abril de 1964 presenta la impresionante IBM 360, con su tecnología SLT (Solid Logic Technology). Esta máquina causó tal impacto en el mundo de la computación que se fabricaron más de30000, al grado que IBM llegó a conocerse como sinónimo de computación.También en ese año, Control Data Corporation presenta la supercomputadora CDC 6600, que se consideró como la más poderosa de las computadoras de la época, ya que tenía la capacidad de ejecutar unos 3 000 000 de instrucciones por segundo (mips).Se empiezan a utilizar los medios magnéticos de almacenamiento, como cintas magnéticas de 9 canales, enormes discos rígidos, etc. Algunos sistemas todavía usan las tarjetas perforadas para la entrada de datos, pero las lectoras de tarjetas ya alcanzan velocidades respetables.Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación). Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de comprar y de operar que las computadoras grandes, las minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron sumador auge entre 1960 y 70.Microprocesador , Chips de memoria, MicrominiaturizaciónDos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)

En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.

Página 7INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 8: Proyecto informativo

Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras o arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).Las principales tecnologías que dominan este mercado son:IBM y sus compatibles llamadas clones, fabricadas por infinidad de compañías con base en los procesadores 8088, 8086, 80286, 80386, 80486, 80586 o Pentium, Pentium II, Pentium III y Celeron de Intel y en segundo término Apple Computer, con sus Macintosh y las Power Macintosh, que tienen gran capacidad de generación de gráficos y sonidos gracias a sus poderosos procesadores Motorola serie 68000 y PowerPC, respectivamente. Este último microprocesador ha sido fabricado utilizando la tecnología RISC (Reduced Instruc tion Set Computing), por Apple Computer Inc., Motorola Inc. e IBM Corporation, conjuntamente.Los sistemas operativos han alcanzado un notable desarrollo, sobre todo por la posibilidad de generar gráficos a gran des velocidades, lo cual permite utilizar las interfaces gráficas de usuario (Graphic User Interface, GUI), que son pantallas con ventanas, iconos (figuras) y menús desplegables que facilitan las tareas de comunicación entre el usuario y la computadora, tales como la selección de comandos del sistema operativo para realizar operaciones de copiado o formato con una simple pulsación de cualquier botón del ratón (mouse) sobre uno de los iconos o menús.Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras. Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de

Página 8INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 9: Proyecto informativo

proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.

El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital Video Disk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan

tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.

El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.

Página 9INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 10: Proyecto informativo

El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones. Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera. BYTE: Grupo de bits adyacentes operados como una unidad,COMPILADOR: Programa de computadora que produce un programa en lenguaje de maquina, de un programa fuente que generalmente esta escrito por el programador en un lenguaje de alto nivel.CÓDIGO MAQUINA: para que se pueda ejecutar un programa, debe estar en lenguaje de maquina de la computadora que lo esta ejecutando.CHIP: 1. Pastilla. 2. Plaqueta. 3. Pequeña pieza de silicio o algún otro material semiconductor, que contiene en su interior un circuito integrado. Por su propia naturaleza, chip es sinónimo de circuito integrado.CIRCUITO INTEGRADO: 1. Chip 2. Sistema de circuitos interrelacionados, almacenados en una pequeña tableta o pastilla de silicio. COMPUTADORA: Máquina o dispositivo capaz de recibir información, procesarla y entregar resultados en la forma deseada. 2. Equipo electrónico (Hardware) que recibe instrucciones en forma de pro gramas (Software) para resolver diferentes tareas utilizando algoritmos. COMPUTADORA DIGITAL: Computadora que opera sobre datos discretos o discontinuos; en otras palabras, sobre dígitos binarios (ceros y unos) representados por impulsos eléctricos. Esto contrasta con las computadoras analógicas, las cuales operan sobre variables continuas como la temperatura o la presión estableciendo analogías entre las variaciones y los datos. La mayoría de las computadoras actuales son de tipo digital.COMPUTADORA PERSONAL (PC): Microcomputadora destinada a trabajo individual o de escritorio. 2. Sistema individual de escritorio, portátil o de portafolio que consta de monitor, unidad central de procesamiento y teclado. El nombre de Personal Computer (PC) lo dio IBM a sus microcomputadoras de escritorio, y es como se conoce a las computadoras con tecnología IBM y a sus clones o compatibles. Actualmente tienen una gran capacidad de procesamiento, comparable con las minis o macro computadoras utilizadas por bancos, centros de investigación e industria en general.

Página 10INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 11: Proyecto informativo

DATOS: Símbolos, letras, números o hechos aislados que pueden ser leídos y procesados por una computadora para producir información.EQUIPO HARDWARE: Componentes mecánicos, eléctricos, magnéticos y electrónicos de una computadora o sistema de cómputo. 2. Los componentes físicos de un sistema de cómputo, en contrapartida con el software, que es intangible.FIBRA ÓPTICA: Delgadísimo filamento transparente hecho de material dieléctrico como vidrio o plástico, que tiene una enorme capacidad de transmisión de la luz mediante impulsos luminosos; esto es, en comunicaciones se está en posibilidad de transmitir millones de bits por segundo utilizando estos útiles medios.HARDWARE: Es la parte tangible del computador.INFORMACION: Es lo que se obtiene del procesamiento de datos, es el resultado final.INFORMÁTICA: El término es acrónimo de INFORmación au toMATICA, que significa: todo aquello que tiene relación con el procesamiento de datos, utilizando las computadoras o los equipos de procesamiento automático de información. En Estados Unidos no es muy conocido el término, que se toma como sinónimo de lnformation Technology (IT).INTELIGENCIA ARTIFICIAL (Al): 1. Rama de la ciencia de la computación que intenta entender la naturaleza de la inteligencia para producir nuevos tipos de máquinas o programas inteligentes. 2. Emulación mediante sistemas de cómputo, de situaciones asociadas con la inteligencia y el comportamiento humanos como el razonamiento, el aprendizaje y la auto-superación.LENGUAJE BINARIO: Código o len guaje utilizado en computación, en el cual la codificación de datos se realiza únicamente mediante bits; es decir unos y ceros.MICROCOMPUTADORA: Pequeña computadora que utiliza uno o más microprocesadores para realizarlos procesos de cálculo. Generalmente consta de unidades de entrada y salida como teclado y monitor respectivamente, y unidades de almacenamiento secundario de información. MICROPROCESADOR: Unidad Central de Procesamiento (CPU) de una computadora, ubicada en el interior de uno o varios chips. 2. Pequeño y complejo procesador central de una computadora compuesto de una gran cantidad de microcircuitos encapsulados en una sola unidad.MULTIPROGRAMACION: En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario.PROGRAMA: Es una colección de instrucciones que indican a la computadora que debe hacer. Un programa se denomina software, por lo tanto, programa, software e instrucción son sinónimos.PROGRAMA FUENTE: Instrucción escrita por el programador en un lenguaje de programación para plantear al computador el proceso que debe ejecutar.PROGRAMACIÓN: Proceso de escribir una secuencia de pasos o instrucciones que permiten resolver un problema o tarea específica, auxiliado por el planteamiento de un algoritmo. 2. Pasos que si siguen para crear un programa: diseño, codificaciòn escritura, modificación, depuración, compilación o inducción del código al lenguaje de la máquina, y del programa.

2. MANUAL DE OFIMÁTICA

INTRODUCCIONOfimática, equipamiento que se utiliza para generar, almacenar, procesar o comunicar información en un entorno de oficina. Esta información se puede generar, copiar y transmitir de forma manual, eléctrica o electrónica.

Página 11INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 12: Proyecto informativo

El rápido crecimiento del sector servicios dentro de la economía, iniciado a mediados de la década de 1970, ha creado un nuevo mercado de equipos de oficina de tecnología avanzada. La creciente incorporación de microchips y microcircuitos a los equipos ha difuminado la frontera entre el ordenador o computadora y el resto de la maquinaria. Todas las máquinas de oficina modernas (máquinas de escribir, dictáfonos, fotocopiadoras, equipos telefónicos y calculadoras, entre otras) contienen un microprocesador. En la actualidad, los ordenadores (independientes o conectados a una red) equipados con programas especializados realizan tareas de telecopia, fax, correo de voz o telecomunicaciones, que anteriormente eran realizadas por otros equipos. Las computadoras, además de haber sustituido prácticamente a las máquinas de escribir, a las calculadoras y a los equipos de contabilidad manual, realizan también tareas de diseño gráfico, de planificación, de producción y de diseño de ingeniería. La Ofimática tiene como objetivo proporcionar elementos que posibiliten la simplificación, mejora y automatización de la organización de las actividades de una compañía o grupo de personas.Teniendo en cuenta que hoy en día las organizaciones de compañías requieren un mayor grado de comunicación, la ofimática ya no se limita solamente a capturar documentos manuscritos. En especial, también incluye las siguientes actividades:

Intercambio de información; Gestión de documentos administrativos; Tratamiento de datos numéricos; Planificación de reuniones y administración de cronogramas de trabajo

DEFINICIONLa ofimática es el conjunto de técnicas, aplicaciones y herramientas informáticas que se utilizan en funciones de oficina para optimizar, automatizar y mejorar los procedimientos o tareas relacionados.

Las herramientas ofimáticas permiten idear, crear, manipular, transmitir y almacenar información necesaria en una oficina. Actualmente es fundamental que estas estén conectadas a una red local y/o a internet.

Cualquier actividad que pueda hacerse manualmente en una oficina puede ser automatizada o ayudada por herramientas ofimáticas: dictado, mecanografía, archivado, fax, microfilmado, gestión de archivos y documentos, etc.

Herramientas del paquete para oficinaEl término "paquete para oficina" hace referencia a todos los programas de software que permiten realizar las tareas que normalmente se llevan a cabo en una oficina. En especial, un paquete para oficina incluye, por lo tanto, los siguientes programas de software:

procesamiento de textos; una hoja de cálculo; una herramienta de presentación una base de datos; un programador.

A continuación se enumeran los principales paquetes: AppleWorks

Página 12INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 13: Proyecto informativo

Corel WordPerfect IBM/Lotus SmartSuite Microsoft Office Sun StarOffice OpenOffice (gratuito, sin licencia) AppleWorks Apple acaba de anunciar la desaparición de AppleWorks, la primera suite ofimática que

integró procesador de textos, hoja de cálculo y base de datos en un solo paquete. Apple le ha otorgado el estatus de “End of Life”, lo que implica que ya no volverá a comercializarse. Como alternativa, Apple está redirigiendo a sus usuarios a la sección iWork de su página corporativa, que se erige como alternativa a la suite a punto de desaparecer.

AppleWorks fue lanzado por primera vez en 1984, fruto del trabajo de Robert Lissner. La familia de ordenadores Apple II fue la primera en beneficiarse de este paquete de programas, que fue sucedido por ClarisWorks, desarrollado por Scott Holdaway y Bob Hearn y que además era capaz de dar soporte a Windows. Posteriormente, volvió a recibir el nombre de AppleWorks hasta la que ha sido su última versión, AppleWorks 6.0.

iWork es la suite ofimática de aplicaciones creada por Apple para el sistema operativo Mac OS X. Contiene un procesador de texto llamado Pages, un paquete de presentaciones llamado Keynote y una hoja de cálculo llamada Numbers. Aunque iWork fue en un principio un rumor de ser la actualización o reemplazo de la aplicación de Apple llamada AppleWorks, Apple actualmente la comercializa como "construyendo un sucesor de AppleWorks", pero no extiende las funcionalidades base de datos y herramientas de dibujo de AppleWorks. No pretende competir en forma directa con la versión para Mac de Microsoft Office que se considera más profesional; en cambio, ofrece herramientas con un punto de vista diferente, enfocado al usuario doméstico (presentación en vez de análisis) a un precio más bajo.

Está diseñado para integrarse con las aplicaciones de la suite iLife. Tanto iLife como iWork viene gratis con algunos modelos de Mac, aunque con los de

gama más alta tendría que ser comprada aparte, ya que, presumiblemente, estos últimos son máquinas profesionales destinadas a un software más potente.

Historia [editar]iWork '05 iWork '05 fue lanzado el día 11 de enero de 2005 e incluía una nueva versión de Keynote

(v2) y la primera versión de Pages (v1.0) iWork '06 En enero de 2006, Apple presentó iWork '06 en la Macworld de San Francisco, el cual

incluía nueva versión de Pages (v2.0) y de Keynote (v3.0). Las nuevas características para ambas aplicaciones incluían gráficos en 3D, tablas con soporte para fórmulas, comentarios de corrección y máscaras de imágenes.

iWork '08 Lanzado el 7 de agosto de 2007. Lo más destacable es la la inclusión de la hoja de cálculo

Numbers '08, compatible con Microsoft Excel hasta su versión 2007. Los programas Pages y Keynote incluyen nuevos temas y plantillas, además la posibilidad de compartir presentaciones con YouTube, el iPod y el iPhone

iWork '09

Página 13INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 14: Proyecto informativo

Lanzado en la MacWorld de Enero del 2009. Una función destacada es la posibilidad a subir el trabajo hecho en iWork.com (beta publica), una página web en la que se puede exhibir tu trabajo y ver los trabajos realizados por otras personas.

Corel WordPerfect Corel WordPerfect Office X3 es una suite ofimática muy potente y que intenta hacer la

competencia a la omnipresente Office de Microsoft, aunque eso sí, es totalmente compatible con los productos de ésta.

Corel WordPerfect Office incluye los siguientes programas: WordPerfect X3: Un procesador de texto muy completo. Durante años este editor fue

referencia en este tipo de programas, y ahora quiere volver a pelear por serlo. Para ello estamos ante un programa que nos permitirá crear documentos de forma sencilla y con cientos de opciones, desde cambiar las fuentes y el formato de las letras a revisiones gramaticales y ortográficas. Es interesante resaltar que permite el acceso y modificación de documentos creados con versiones anteriores de WordPerfect y Quattro Pro. En cuanto a la interfaz, podemos elegir entre un entorno familiarizado por el producto de Microsoft, o bien la propia de Corel. Otra de las bazas de esta versión es la posibilidad de abrir directamente documentos en PDF y en caso de que esté en formato texto y disponer de fuentes compatibles con el sistema, existe la posibilidad de editarlos directamente.

Quattro Pro X3: Una gran hoja de cálculo, potente y fácil de usar. Presentations X3: Crea y visualiza tus propias presentaciones de la forma más rápida

que te imagines. En estas dos aplicaciones se puede exportar directamente a PDF y se incluye la barra de

herramientas de Yahoo! Con la que podremos realizar búsquedas en la red directamente. Nota: El programa requiere que nos registremos como usuario para poder probarlo. Este

registro es totalmente gratuito. Advertencia sobre la descarga directa: Todas las descargas directas disponibles desde los servidores de Malavida están libres de

virus y han sido comprobadas por nuestro equipo de contenidos a diferencia de sitios como Rapidshare, Megaupload o como los archivos disponibles en las redes P2P como Torrent o eMule.

IBM/Lotus SmartSuite IBM® Lotus® SmartSuite®, the award-winning office suite, features these applications:

Lotus 1-2-3®, the spreadsheet that started it all; Word Pro® , the word processor for today's Internet centered-world; Lotus Organizer Release 5.04, the world's leading personal information manager; Freelance Graphics® , the presentation graphics package for everyday communication; and Approach® , the relational database your whole team can use. IBM Lotus 1-2-3 and IBM Lotus Organizer are also available as stand-alone products. IBM ® Lotus ® SmartSuite ®, la galardonada suite de oficina, cuenta con las siguientes aplicaciones: Lotus 1-2-3 ®, la hoja de cálculo que lo empezó todo; Word Pro ®, el procesador de textos para Internet hoy en día se centró mundo; Lotus Organizer Release 5.04, líder mundial en administración de información personal, Freelance Graphics ®, la presentación paquete de gráficos para la comunicación diaria y enfoque ®, la base de datos relacional todo su equipo puede utilizar. IBM Lotus 1-2-3 y IBM Lotus Organizer también están disponibles como productos solo.

Página 14INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 15: Proyecto informativo

Powerful desktop tools for the home and office user Herramientas de escritorio de gran alcance para el usuario doméstico y de oficina IBM Lotus SmartSuite 9.8: IBM Lotus SmartSuite 9.8:

Lets you easily convert files from earlier versions of Lotus SmartSuite and other business applications including Microsoft Office Filters that exchange documents seamlessly to and from Lotus 1-2-3 and Microsoft Excel, Word Pro and Microsoft Word, or Freelance Graphics and PowerPoint. Le permite convertir fácilmente los archivos de versiones anteriores de Lotus SmartSuite y otras aplicaciones comerciales como Microsoft Office filtros que el intercambio de documentos a la perfección y de Lotus 1-2-3 y Microsoft Excel, Word Pro y Microsoft Word o Freelance Graphics y PowerPoint. Combined with Lotus Notes and the Internet, makes Lotus SmartSuite the industry's most complete suite for addressing the needs of both enterprise and individual users. Combinada con Lotus Notes y la Internet, hace Lotus SmartSuite suite más completa de la industria para hacer frente a las necesidades tanto de las empresas y usuarios individuales. Provides cost-effective desktop productivity applications that help increase employee productivity Proporciona costo-efectiva aplicaciones de productividad de escritorio que ayudan a aumentar la productividad de los empleados

SmartSuite Millennium Edition 9.8 es la edición más reciente de la galardonada suite de oficina e incluye: Lotus 1-2-3, Lotus Word Pro, Lotus Freelance Graphics, Lotus Approach, Lotus Organizer, Lotus FastSite y Lotus SmartCenter.Con la ayuda de SmartSuite 9.8 es sencillo convertir archivos procedentes de versiones anteriores de SmartSuite y de otras aplicaciones comerciales, incluyendo Microsoft Office. Los filtros de archivos de SmartSuite 9.8 permiten el intercambio fluido de documentos entre 1-2-3 y Excel, Word Pro y Microsoft Word o Freelance Graphics y PowerPoint. La potencia de SmartSuite 9.8 combinada con Lotus Notes e Internet, convierten a SmartSuite en la suite más completa del sector destinada a satisfacer las necesidades de los usuarios empresariales y particulares. Sistemas Operativos y Plataformas de Hardware Apropiadas Windows 2000 Windows 95/98 Windows NT Windows XP Microsoft Office Microsoft Office es el lugar al que acuden particulares y empresas para realizar sus tareas. Los inmejorables programas de ordenador Microsoft Word, Microsoft Excel y Microsoft PowerPoint ahora ya forman parte de una red global online, proporcionando soporte, actualizaciones y capacidades para compartir archivos de forma instantánea. Para los usuarios, esto se traduce en que los programas en los que más confían y a los que están acostumbrados le sacan el máximo partido a todo el potencial que Internet ofrece. Se trata del entorno online más productivo que existe.Para los anunciantes, Microsoft Office representa una excelente oportunidad para alcanzar a las audiencias no sólo en su lugar de trabajo, sino también cuando están trabajando. A través de los programas de los que depende la productividad de empresas de todo el mundo, Microsoft Office cuenta con una audiencia profesional única y alcanza legitimamente a los trabajadores en la franja horaria en la que no puede hacerlo ningún otro canal publicitario.Microsoft Office (MSO) es una suite ofimática, compuesta básicamente por aplicaciones de procesamiento de textos, plantilla de cálculo y programa para presentaciones (algunas más,

Página 15INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 16: Proyecto informativo

dependiendo de la versión). Fue desarrollada por la empresa Microsoft. Funciona bajo plataformas operativas Microsoft Windows y Apple Mac OS, aunque también lo hace en Linux si se utiliza un emulador como Wine o CrossOver Office. Las versiones más recientes de Office son llamadas Office system ('Sistema de oficina') en vez de Office suite ('Suite de Office').Office hizo su primera aparición en 1989 en un Mac, y más adelante en Windows en 1990. El término fue inicialmente usado en marketing para vender un set de aplicaciones, que previamente se vendían separadamente. El principal argumento de venta era que comprar el paquete completo resultaba más barato que comprar cada aplicación por separado. La primera versión de Office contenía las aplicaciones Microsoft Word, Microsoft Excel y Microsoft PowerPoint. Adicionalmente, una llamada "versión profesional" de Office incluía también Microsoft Access y Schedule Plus.Con el transcurso de los años las aplicaciones de Office han crecido sustancialmente desde un punto de vista técnico, incluso comparten funcionalidades, tales como: corrector ortográfico común, un integrador de datos OLE y el lenguaje de scripts de Visual Basic para Aplicaciones. Microsoft también posiciona a Office como una plataforma de desarrollo para la línea de software para negocios.Las versiones actuales son Office 2007 para Windows, lanzada el 30 de enero de 2007 y Office 2008 para Mac. Office 2007, anunciado el 15 de febrero de 2006 fue liberado el 30 de noviembre de 2006 para negocios a través de los canales de MSDN. Una nueva interfaz de usuario y un nuevo formato de archivo primario basado en XML (llamado OpenXML) caracterizan esta versión.Este paquete como tal es, probablemente, el más antiguo y de mayores prestaciones.[cita requerida] Hay quienes creen que es uno de los mejores productos conjuntos (set) de microsoft, y desde hace más de 10 años es el más popular.[cita requerida] El iWork de Mac es un rival para ese paquete propietario.Microsoft siguió con Office la estela del paquete Lisa Office System de Apple que ya en 1983 ofrecía procesador de texto y hoja de cálculo entre sus siete aplicaciones, bajo un sistema operativo con ventanas, escritorio y papelera, 12 años antes del Windows 95.Sun StarOffice Está basado en el código fuente de OpenOffice y se integrará en el sistema operativo que trabaje, ya sea Solaris, Linux o Windows.La suite ofimática creada por Sun Microsystems, que hasta ahora era paga, se ofrecerá sin cargo a estudiantes e investigadores, así como a cualquier usuario de informática actual. Se podrá descargar desde la Web de Sun la suite completa en español, en la parte de Download Center, el usuario deberá crear una cuenta gratuita para bajar el software. El StarOffice8 incluye una nueva serie de componentes como tipografías Arial o Garamond, la base de datos Adabas D, una galería de cliparts y un convertidor de macros VBA, así como una base de datos compatible con Access y cambios destinados a captar a los usuarios de Microsoft Office. Se han mejorado los filtros de importación de documentos de Office, ofreciendo soporte para documentos de Word protegidos por contraseña, como el AutoShapes de Powerpoint. También se incluye soporte para otras bases de datos utilizadas en el mercado, como mySQL, Oracle, JDBC o ADOOpenOffice (gratuito, sin licencia) OpenOffice.org es una suite ofimática de software libre y código abierto de distribución gratuita que incluye herramientas como procesador de textos, hoja de cálculo,

Página 16INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 17: Proyecto informativo

presentaciones, herramientas para el dibujo vectorial y base de datos. Está disponible para muchas plataformas como Microsoft Windows y sistemas de tipo Unix como GNU/Linux, BSD, Solaris y Mac OS X. OpenOffice está pensado para ser altamente compatible con Microsoft Office, con quien compite. Soporta el estándar ISO OpenDocument con lo que es fácil el intercambio de documentos con muchos otros programas, y puede ser utilizado sin costo alguno. En marzo de 2009, OpenOffice soporta más de 80 idiomas.[1]

OpenOffice.org posee como base inicial a StarOffice, una suite ofimática desarrollada por StarDivision y adquirida por Sun Microsystems en agosto de 1999. El código fuente de la suite fue liberado en julio de 2000. Actualmente proporciona una alternativa abierta, gratuita y alta calidad comparable con la suite de Microsoft Office. El código fuente de la aplicación está disponible bajo la licencia LGPL.El proyecto y el programa son denominados "OpenOffice" de forma informal, aunque "OpenOffice.org" es el nombre oficial completo ya que la denominación openoffice es una marca registrada en posesión de otra empresa. El nombre oficial completo se abrevia como OOo.

OpenOffice posee las características normales de todo procesador de texto, hoja de cálculo, programa de presentaciones y base de datos similares al Microsoft Office 2003, la suite ofimática de Microsoft y algunas características adicionales. OpenOffice lee y escribe los documentos en su formato nativo, que es ademas una norma internacional ISO. Este formato de archivo, denominado OpenDocument, es la norma ISO, con el número 26300. Openoffice es capaz también de leer y grabar los formatos de fichero de Microsoft Office. Actualmente hay además disponible un programa visor gratuito llamado Visioo-Writer para el formato OpenDocument de forma que ni siquiera es necesaria la instalación de una suite ofimática particular para la visualización de documentos escritos en este estándar ISO. Cualquier programa puede ser desarrollado para leer y escribir en este formato, puesto que sus especificaciones son públicas y no están sujetas a licencias. Por ejemplo, el procesador simple incluido en MAC OS X, TextEdit, posee también la capacidad de leer y escribir documentos en ese formato, asi como muchos otros programas.

Preparación de los documentosLos documentos de oficina son, generalmente, registros producidos mecánica o electrónicamente (por ejemplo, cartas, hojas de cálculo, informes y facturas). Se realizan en equipos tales como máquinas de escribir, procesadores de texto y computadoras, y se pueden guardar en papel o en soporte electrónico. La máquina de escribir manual, que se empezó a utilizar en 1870, ha desaparecido prácticamente de la oficina moderna, siendo sustituida por la máquina eléctrica o electrónica, el procesador de textos específico y los programas de tratamiento de textos para computadoras. La máquina de escribir eléctrica utiliza caracteres metálicos moldeados individualmente o una bola giratoria con caracteres en relieve que golpean sobre una hoja de papel a través de una cinta tintada, produciendo la estampación del carácter sobre el papel. Muchas máquinas de escribir tienen un segmento de cinta independiente que elimina la impresión del papel y permite así al usuario borrar texto. Las máquinas de escribir eléctricas han sido sustituidas, a su vez, por máquinas electrónicas equipadas con una memoria interna capaz de almacenar desde un par de líneas de texto hasta más de 40.000 caracteres. Esta capacidad de memoria permite al usuario, por ejemplo, hacer copias de una misma carta con diferentes direcciones. Las máquinas electrónicas son un híbrido entre las máquinas de escribir eléctricas y los ordenadores. Al disponer de un

Página 17INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 18: Proyecto informativo

microprocesador, permiten al usuario centrar cabeceras, alinear números decimales en tablas numéricas y detectar palabras que no se encuentran en el diccionario de ortografía. La mayoría de las máquinas electrónicas también permiten visualizar el texto en una pequeña pantalla de cristal líquido antes de su impresión. Procesadores de textosA principios de la década de 1980 aparecieron los procesadores de textos, es decir, computadoras diseñadas exclusivamente para el tratamiento de textos. Los procesadores de textos específicos, al igual que el software de tratamiento de textos de los ordenadores personales, presentan muchas funciones de edición que facilitan el manejo del texto, como la capacidad de insertar texto en cualquier punto de un documento, de borrar, de cortar y pegar texto (mover bloques de texto a otro punto) y de buscar y sustituir partes del mismo. Estas funciones permiten al usuario realizar múltiples cambios en un documento sin necesidad de tener que reescribirlo. Además, el software de tratamiento de textos incorpora una función de composición de tipos de letra y otra de diseño de página que permite al usuario trazar electrónicamente la página que va a imprimir, dando paso a la actividad de oficina conocida como autoedición. El texto editado por el procesador de textos se almacena en un disco magnético o similar para su uso posterior, o se envía a una impresora para producir un documento en papel (copia impresa). Computadoras u ordenadoresDurante la primera mitad del siglo XX, las tareas financieras y de contabilidad se realizaban manualmente o con máquinas contables, de facturación, de tabulación o similares. Hacia 1950, estas máquinas fueron sustituidas por mainframes, costosas máquinas de gran tamaño y alta velocidad que requerían operadores especiales y una instalación de aire acondicionado para evitar recalentamientos. Estas máquinas, que ya sólo se utilizan en grandes empresas que necesitan procesar gran volumen de datos, trabajaban en tiempo compartido, es decir, varias empresas utilizaban un mismo mainframe y se repartían el coste del equipo. Esto garantizaba la máxima rentabilidad de éste. Los mainframes con terminales remotos y monitor propio, que permitían el acceso simultáneo de muchos usuarios, aparecieron a mediados de la década de 1960. Sin embargo, con la aparición del miniordenador (más pequeño y menos complejo) se pudo disponer de una alternativa mucho más económica. Su fabricación fue posible gracias al transistor y a la microelectrónica. Estas máquinas, que se empezaron a utilizar en las empresas en la década de 1960, se introdujeron ampliamente en el comercio y en la administración. Las computadoras de sobremesa son cada vez más asequibles como resultado de la adopción de la arquitectura PC, introducida en 1981. Aunque ya prácticamente todos los empleados disponen de su PC, resulta más rentable compartir ficheros y periféricos, como impresora y escáner. A finales de la década de 1980 y principios de la de 1990, muchas empresas decidieron conectar sus PCs a una red para formar un sistema uniforme. Actualmente esto es una práctica común. La red de área local (LAN) surgió como respuesta a la necesidad de disponer de un sistema estandarizado para conectar las computadoras de una empresa. El método de conexión más habitual es la unión por cable de cada computadora a la red, aunque también se pueden conectar vía rayos infrarrojos, ondas de radiofrecuencia y por medio del sistema de cableado eléctrico de los edificios. Cuando las computadoras no se encuentran próximas físicamente, la conexión a una red de área amplia (WAN) se puede realizar por vía telefónica, por microondas o a través de un satélite de comunicaciones.

Página 18INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 19: Proyecto informativo

La necesidad de conectar las computadoras entre sí ha impuesto la utilización del dispositivo periférico denominado módem. El módem permite a dos o más computadoras comunicarse por teléfono para, entre otros servicios, acceder a una base de datos, transferir ficheros y enviar o recibir correo electrónico. Las velocidades de transmisión con este tipo de equipo eran al principio relativamente bajas (300 baudios o bits por segundo). En la actualidad, un módem puede operar a velocidades de 56.000 baudios, utilizando la red de telefonía básica, de 256.000 en redes RDSI y hasta de 2 millones de baudios si la red es de tipo ADSL; además, pueden disponer de funciones de detección de errores y compresión de datos. El escáner permite introducir directamente en una computadora texto impreso o gráficos. Para leer el texto, primero hay que utilizar un software de reconocimiento óptico de caracteres (OCR), que convierte electrónicamente los documentos impresos en ficheros legibles por la computadora. El escáner evita tener que escribir el texto impreso para introducirlo en la computadora. DictáfonosLos dictáfonos utilizan un micrófono y un dispositivo de grabación/reproducción para introducir voz electrónicamente, con el fin de almacenarla en una cinta u otro medio magnético para que después un mecanógrafo transcriba el mensaje. El equipo suele incluir un dispositivo que se acciona con el pie y que permite al mecanógrafo parar, retroceder, avanzar o escuchar una cinta, quedando así sus manos libres para escribir en el teclado.

Reproducción y almacenamiento de documentosLas máquinas de oficina para reproducir documentos en toda su integridad se denominan multicopistas y están diseñadas para hacer copias. Las empresas siguen almacenando sus documentos en papel en archivos, aunque gran parte de éstos se almacenan ya electrónicamente o en película. Las multicopistas modernas suelen ser dispositivos electrostáticos que crean imágenes por medio de cargas eléctricas y partículas de tinta en polvo o tóner. En el proceso electrofotográfico, el método más habitual de fotocopiado, se induce electrostáticamente la imagen especular de una página impresa sobre un cilindro de metal, desde donde se transfiere a una hoja de papel en blanco. Las velocidades de copiado oscilan entre un par de páginas por minuto y más de 1,5 páginas por segundo. Los equipos modernos cuentan con alimentadores, clasificadoras y grapadoras automáticas. Hay máquinas que permiten copiar automáticamente ambas caras de un documento, reducir o aumentar la imagen y reproducir documentos en color. Algunas multicopistas, en lugar de basarse en tecnología electrostática, lo hacen en la litografía por offset y utilizan un cliché especial para producir copias. La impresión offset con prensas pequeñas es el proceso de impresión dominante en las oficinas modernas, sobre todo en las grandes organizaciones que disponen de un departamento central de publicaciones con personal especializado. Otros procesos utilizados antiguamente para hacer copias incluían la duplicación alcohólica, la duplicación mediante matriz o el proceso diazoico. En la primera, un cliché con el texto entintado se humedecía con una solución alcohólica para que fuese soltando la tinta grasa y la cediese a las hojas de papel en blanco; este proceso se repetía rápidamente para imprimir muchas copias. En la multicopista mediante matriz se creaba un cliché de papel perforado, similar a una plantilla, al teclear o eliminar de otra forma una capa tintada impermeable sobre un tejido fibroso; el cliché se sujetaba al rodillo entintador, que soltaba tinta a través de las perforaciones hasta el papel. El proceso diazoico, que utiliza papel sensible al

Página 19INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 20: Proyecto informativo

amoníaco, todavía se emplea en algunas empresas de ingeniería y estudios de arquitectura para reproducir gráficos en formatos de papel grandes. Impresoras conectadas a computadorasEn las oficinas se reproduce un gran volumen de papel por medio de las impresoras conectadas a las computadoras. Entre las primeras impresoras utilizadas con PCs en el entorno de oficina se encontraban las impresoras de margarita y las de dedal, así denominadas por la forma de sus cabezas de impresión. A pesar de que su calidad de impresión era comparable a la de las máquinas de escribir, resultaban lentas y permitían reproducir texto, pero no gráficos. Más tarde fueron sustituidas por impresoras matriciales de puntos, de chorro de tinta y láser. La impresora matricial de puntos presenta un cabezal de 9 o 24 agujas que, al golpear el papel a través de una cinta, crea dibujos de puntos que forman letras y números en múltiples fuentes y tamaños. La impresora de chorro de tinta, que supone un avance frente a la matricial de puntos, proporciona una resolución alta (cuanto más alta es la resolución, mejor es la calidad de impresión) y un funcionamiento silencioso. La impresora láser, que es el último gran avance, utiliza una tecnología similar a la de una fotocopiadora, ofrece velocidad, una alta resolución de más de 1.000 puntos por pulgada y un funcionamiento silencioso, que la hacen prácticamente imprescindible en los procesos de autoedición. Microfilm y microfichasA pesar de que los documentos que se generan por computadora se suelen almacenar como ficheros en cinta magnética o disco, tanto estos documentos como los de papel se pueden almacenar también en microfilm o en microfichas. El espacio que para ello se necesita es muy reducido y el manejo y la recuperación se simplifican cuando se utiliza el microfilmado, pues reduce fotográficamente las imágenes y crea transparencias en miniatura que se pueden ampliar para su lectura o impresión. Comunicaciones

Con el fax, precursor del correo electrónico, las áreas claras y oscuras de un texto o de un gráfico se digitalizan, es decir, se convierten en una serie de impulsos eléctricos según un código digital. Al llegar al destinatario, la señal se reconstruye y crea una copia de la información enviada. Ciertos tipos de fax permiten enviar imágenes de microfilm que, a su llegada al destinatario, se reconstruyen para dar un microfilm o una copia en papel. El télex, sistema de intercambio de teleimpresión de marcación directa, y el TWX (Teletypewriter Exchange) son dos ejemplos de aplicación de la tecnología del correo electrónico. En Estados Unidos el TWX se utiliza normalmente para la transmisión interna de mensajes y el télex para la transmisión internacional. En ambos casos se introduce un mensaje en un terminal tipo máquina de escribir para su envío a través de una red de líneas telegráficas a un receptor compatible. El receptor imprime en papel el mensaje recibido sin necesidad de operador. Algunos procesadores de textos también pueden preparar mensajes para enviarlos a terminales TWX o télex o a otros procesadores de texto. Los sistemas de correo electrónico basados en computadoras son una alternativa a las comunicaciones telefónicas o al correo interno convencional de oficina. Correo electrónico (E-mail)El correo electrónico se ha convertido en un elemento imprescindible en las redes de comunicación de la mayoría de las oficinas modernas. Permite transmitir datos y mensajes de una computadora a otra a través de la línea telefónica, de conexión por microondas, de satélites de comunicación o de otro equipo de telecomunicaciones, y mandar un mismo

Página 20INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 21: Proyecto informativo

mensaje a varias direcciones. El correo electrónico se puede enviar a través de la red de área local (LAN) de la empresa o a través de una red de comunicación nacional o internacional. Los servicios de correo electrónico utilizan una computadora central para almacenar los mensajes y datos y enviarlos a su destino. El usuario de un PC que desee enviar y recibir mensajes escritos o hablados sólo necesita suscribirse a una red de correo electrónico pública, actualmente conectarse a Internet, y disponer de un módem y un teléfono. Dado el enorme volumen de correo electrónico potencial que se puede generar, se han desarrollado sistemas capaces de particularizar el correo para cada usuario. El correo de voz, que es un tipo especial de sistema de correo electrónico, utiliza una tecnología relativamente simple en una computadora para registrar, almacenar, recuperar y enviar mensajes telefónicos. Se denomina correo de voz porque los mensajes se graban y se almacenan en un buzón de voz. El teléfono actúa como una computadora, pero la información, en lugar de visualizarse en una pantalla, es leída utilizando un vocabulario de voz pregrabada. Los sistemas están basados en chips y en software informático específico para convertir la voz humana en bits de código digital. Estas voces digitalizadas se almacenan en discos magnéticos y pueden recuperarse instantáneamente. El usuario puede escuchar cualquier mensaje, dejar mensajes en un buzón de voz o acceder a enormes bases de datos. TeleconmutaciónLas conexiones electrónicas entre el personal de una oficina moderna pueden ser ampliadas más allá de los límites de la oficina, hasta llegar a personas que trabajan en casa o en otras sucursales de la empresa. Este hecho ha supuesto un gran incremento de la teleconmutación.

3. MANUAL DE SOFTWARE LIBRE

El software libre (en inglés free software, aunque en realidad esta denominación también puede significar gratis, y no necesariamente libre, por lo que se utiliza el hispanismo libre software también en inglés) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software; de modo más preciso, se refiere a cuatro libertades de los usuarios del software: la libertad de usar el programa, con cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las necesidades; de distribuir copias, con lo cual se puede ayudar a otros, y de mejorar el programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie (para la segunda y última libertad mencionadas, el acceso al código fuente es un requisito previo).[1]

El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmente freeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa.

Página 21INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 22: Proyecto informativo

Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autor han expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público.HistoriaEntre los años 60 y 70 del Siglo XX, el software no era considerado un producto sino un añadido que los vendedores de las grandes computadoras de la época (las mainframes) aportaban a sus clientes para que éstos pudieran usarlos. En dicha cultura, era común que los programadores y desarrolladores de software compartieran libremente sus programas unos con otros. Este comportamiento era particularmente habitual en algunos de los mayores grupos de usuarios de la época, como DECUS (grupo de usuarios de computadoras DEC). A finales de los 70, las compañías iniciaron el hábito de imponer restricciones a los usuarios, con el uso de acuerdos de licencia.Allá por el 1971, cuando la informática todavía no había sufrido su gran boom, las personas que hacían uso de ella, en ámbitos universitarios y empresariales, creaban y compartían el software sin ningún tipo de restricciones.Con la llegada de los años 80 la situación empezó a cambiar. Las computadoras más modernas comenzaban a utilizar sistemas operativos privativos, forzando a los usuarios a aceptar condiciones restrictivas que impedían realizar modificaciones a dicho software.En caso de que algún usuario o programador encontrase algún error en la aplicación, lo único que podía hacer era darlo a conocer a la empresa desarrolladora para que esta lo solucionara. Aunque el programador estuviese capacitado para solucionar el problema y lo desease hacer sin pedir nada a cambio, el contrato le impedía que mejorase el software.El mismo Richard Stallman cuenta que por aquellos años, en el laboratorio donde trabajaba, habían recibido una impresora donada por una empresa externa. El dispositivo, que era utilizado en red por todos los trabajadores, parecía no funcionar a la perfección, dado que cada cierto tiempo el papel se atascaba. Como agravante, no se generaba ningún aviso que se enviase por red e informase a los usuarios de la situación.La pérdida de tiempo era constante, ya que en ocasiones, los trabajadores enviaban por red sus trabajos a imprimir y al ir a buscarlos se encontraban la impresora atascada y una cola enorme de trabajos pendientes. Richard Stallman decidió arreglar el problema, e implementar el envío de un aviso por red cuando la impresora se bloqueara. Para ello necesitaba tener acceso al código fuente de los controladores de la impresora. Pidió a la empresa propietaria de la impresora lo que necesitaba, comentando, sin pedir nada a cambio, qué era lo que pretendía realizar. La empresa se negó a entregarle el código fuente.En ese preciso instante, Richard Stallman se vio en una encrucijada: debía elegir entre aceptar el nuevo software privativo firmando acuerdos de no revelación y acabar desarrollando más software privativo con licencias restrictivas, que a su vez deberían ser más adelante aceptadas por sus propios colegas.Con este antecedente, en 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un año más tarde fundó la Free Software Foundation (FSF). Stallman introdujo la definición de free software y el concepto de "copyleft", que desarrolló para otorgar libertad a los usuarios y para restringir las posibilidades de apropiación del software.[2]

Página 22INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 23: Proyecto informativo

Libertades del software libreArtículo principal: Definición del Software LibreDe acuerdo con tal definición, el software es "libre" si garantiza las siguientes libertades:[1]

Libertad Descripción

0 la libertad de usar el programa, con cualquier propósito.

1 la libertad de estudiar cómo funciona el programa y modificarlo, adaptándolo a tus necesidades.

2la libertad de distribuir copias del programa, con lo cual puedes ayudar a tu prójimo.

3la libertad de mejorar el programa y hacer públicas esas mejoras a los demás, de modo que toda la comunidad se beneficie.

Las libertades 1 y 3 requieren acceso al código fuente porque estudiar y modificar software sin su código fuente es muy poco viable.

Ciertos teóricos usan este cuarto punto (libertad 3) para justificar parcialmente las limitaciones impuestas por la licencia GNU GPL frente a otras licencias de software libre (ver Licencias GPL). Sin embargo el sentido original es más libre, abierto y menos restrictivo que el que le otorga la propia situación de incompatibilidad, que podría ser resuelta en la próxima versión 3.0 de la licencia GNU GPL, causa en estos momentos graves perjuicios a la comunidad de programadores de software libre, que muchas veces no pueden reutilizar o mezclar códigos de dos licencias distintas, pese a que las libertades teóricamente lo deberían permitir.En el sitio web oficial de Open Source Initiative está la lista completa de las licencias de software libre actualmente aprobadas y tenidas como tales.[3]

El término software no libre se emplea para referirse al software distribuido bajo una licencia de software más restrictiva que no garantiza estas cuatro libertades. Las leyes de la propiedad intelectual reservan la mayoría de los derechos de modificación, duplicación y redistribución para el dueño del copyright; el software dispuesto bajo una licencia de software libre rescinde específicamente la mayoría de estos derechos reservados.La definición de software libre no contempla el asunto del precio; un eslogan frecuentemente usado es "libre como en libertad, no como en cerveza gratis" o en inglés "Free as in freedom, not as in free beer" (aludiendo a la ambigüedad del término inglés "free"), y es habitual ver a la venta CDs de software libre como distribuciones Linux. Sin embargo, en esta situación, el comprador del CD tiene el derecho de copiarlo y redistribuirlo. El software gratis puede incluir restricciones que no se adaptan a la definición de software libre —por ejemplo, puede no incluir el código fuente, puede prohibir explícitamente a los distribuidores recibir una compensación a cambio, etc.Para evitar la confusión, algunas personas utilizan los términos "libre" (software libre) y "gratis" (software gratis) para evitar la ambigüedad de la palabra inglesa "free". Sin embargo, estos términos alternativos son usados únicamente dentro del movimiento del software libre, aunque

Página 23INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 24: Proyecto informativo

están extendiéndose lentamente hacia el resto del mundo. Otros defienden el uso del término open source software (software de código abierto). La principal diferencia entre los términos "open source" y "free software" es que éste último tiene en cuenta los aspectos éticos y filosóficos de la libertad, mientras que el "open source" se basa únicamente en los aspectos técnicos.En un intento por unir los mencionados términos que se refieren a conceptos semejantes, se está extendiendo el uso de la palabra "FLOSS" con el significado de free/libre and open source software e, indirectamente, también a la comunidad que lo produce y apoya.[editar] Tipos de licenciasUna licencia es aquella autorización formal con carácter contractual que un autor de un software da a un interesado para ejercer "actos de explotación legales". Pueden existir tantas licencias como acuerdos concretos se den entre el autor y el licenciatario. Desde el punto de vista del software libre, existen distintas variantes del concepto o grupos de licencias:Una de las más utilizadas es la Licencia Pública General de GNU (GNU GPL). El autor conserva los derechos de autor (copyright), y permite la redistribución y modificación bajo términos diseñados para asegurarse de que todas las versiones modificadas del software permanecen bajo los términos más restrictivos de la propia GNU GPL. Esto hace que sea imposible crear un producto con partes no licenciadas GPL: el conjunto tiene que ser GPL.Es decir, la licencia GNU GPL posibilita la modificación y redistribución del software, pero únicamente bajo esa misma licencia. Y añade que si se reutiliza en un mismo programa código "A" licenciado bajo licencia GNU GPL y código "B" licenciado bajo otro tipo de licencia libre, el código final "C", independientemente de la cantidad y calidad de cada uno de los códigos "A" y "B", debe estar bajo la licencia GNU GPL.En la práctica esto hace que las licencias de software libre se dividan en dos grandes grupos, aquellas que pueden ser mezcladas con código licenciado bajo GNU GPL (y que inevitablemente desaparecerán en el proceso, al ser el código resultante licenciado bajo GNU GPL) y las que no lo permiten al incluir mayores u otros requisitos que no contemplan ni admiten la GNU GPL y que por lo tanto no pueden ser enlazadas ni mezcladas con código gobernado por la licencia GNU GPL.En el sitio web oficial de GNU hay una lista de licencias que cumplen las condiciones impuestas por la GNU GPL y otras que no.[4]

Aproximadamente el 60% del software licenciado como software libre emplea una licencia GPL.Llamadas así porque se utilizan en gran cantidad de software distribuido junto a los sistemas operativos BSD. El autor, bajo tales licencias, mantiene la protección de copyright únicamente para la renuncia de garantía y para requerir la adecuada atribución de la autoría en trabajos derivados, pero permite la libre redistribución y modificación, incluso si dichos trabajos tienen propietario. Son muy permisivas, tanto que son fácilmente absorbidas al ser mezcladas con la licencia GNU GPL con quienes son compatibles. Puede argumentarse que esta licencia asegura “verdadero” software libre, en el sentido que el usuario tiene libertad ilimitada con respecto al software, y que puede decidir incluso redistribuirlo como no libre. Otras opiniones están orientadas a destacar que este tipo de licencia no contribuye al desarrollo de más software libre (normalmente utilizando la siguiente analogía: "una licencia BSD es más libre que una GPL si y sólo si se opina también que un país que permita la esclavitud es más libre que otro que no la permite").Esta licencia es de Software Libre y tiene un gran valor porque fue el instrumento que empleó Netscape Communications Corp. para liberar su Netscape Communicator 4.0 y empezar ese proyecto tan importante para el mundo del Software Libre: Mozilla. Se utilizan en gran cantidad

Página 24INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 25: Proyecto informativo

de productos de software libre de uso cotidiano en todo tipo de sistemas operativos. La MPL es Software Libre y promueve eficazmente la colaboración evitando el efecto "viral" de la GPL (si usas código licenciado GPL, tu desarrollo final tiene que estar licenciado GPL). Desde un punto de vista del desarrollador la GPL presenta un inconveniente en este punto, y lamentablemente mucha gente se cierra en banda ante el uso de dicho código. No obstante la MPL no es tan excesivamente permisiva como las licencias tipo BSD. Estas licencias son denominadas de copyleft débil. La NPL (luego la MPL) fue la primera licencia nueva después de muchos años, que se encargaba de algunos puntos que no fueron tenidos en cuenta por las licencias BSD y GNU. En el espectro de las licencias de software libre se la puede considerar adyacente a la licencia estilo BSD, pero perfeccionada.Hay que hacer constar que el titular de los derechos de autor (copyright) de un software bajo licencia copyleft puede también realizar una versión modificada bajo su copyright original, y venderla bajo cualquier licencia que desee, además de distribuir la versión original como software libre. Esta técnica ha sido usada como un modelo de negocio por una serie de empresas que realizan software libre (por ejemplo MySQL); esta práctica no restringe ninguno de los derechos otorgados a los usuarios de la versión copyleft. También podría retirar todas las licencias de software libre anteriormente otorgadas, pero esto obligaría a una indemnización a los titulares de las licencias en uso. En España, toda obra derivada está tan protegida como una original, siempre que la obra derivada parta de una autorización contractual con el autor. En el caso genérico de que el autor retire las licencias "copyleft", no afectaría de ningún modo a los productos derivados anteriores a esa retirada, ya que no tiene efecto retroactivo. En términos legales, el autor no tiene derecho a retirar el permiso de una licencia en vigencia. Si así sucediera, el conflicto entre las partes se resolvería en un pleito convencional.

4. MANUAL DE BIBLIOTECAS VIRTUALES

BIBLIOTECA VIRTUAL 1. INTRODUCCIÓN

Hablar hoy de telecomunicaciones no es ninguna novedad. Actualmente se están publicando numerosos libros y artículos sobre las redes que nos explican qué es una red, cuales son sus herramientas básicas (correo electrónico, listas de discusión, listas de distribución, buscadores y recuperadores de información, aplicaciones para la transferencia de datos) sus utilidades, y de los cambios sociales que estos nuevos canales están generando desde el punto de vista educativo, encontramos también trabajos de reflexión sobre las aplicaciones educativas de este nuevo canal para la localización, acceso y recuperación de variados tipos de información: gráficos, imágenes, textos, documentos multimedia, desde lugares remotos y para la interacción entre personas o grupos de personas. Aplicaciones que en general posibilitan ampliar el horizonte informativo y comunicativo de profesores y alumnos. Por ello, es importante resaltar en este trabajo la utilización de centros de almacenamiento de información. Estos centros de banco de datos, almacenamiento o de acopio informativo lo llamaremos Biblioteca Virtual se constituirán una de las principales aplicaciones educativas, a todos los niveles, tal vez sea la posibilidad de comunicación e interacción mediante el uso del ciberespacio (WWW), correo electrónico (e-mail) entre personas (profesores, alumnos, expertos en un tema) e instituciones que no se encuentran físicamente en el mismo lugar, ni en las mismas coordenadas temporales. Unir personas e instituciones geográficamente separadas no es ninguna novedad, esta función se ha venido realizando con el correo postal o con el teléfono. En cambio si lo es la comunicación asincrónica, cuando los interlocutores intercambian ideas sin

Página 25INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 26: Proyecto informativo

coincidir en un tiempo establecido. Por otra parte las distancias físicas no siempre son distancias geográficas importantes sino que muchas veces estas barreras físicas están en diferentes plantas de un mismo edificio. Algunas de las ventajas del ciberespacio sobre otros medios de interacción humana residen en: Las redes de ordenadores, INTERNET, ofrece un canal de comunicación e interacción entre las personas distantes, suponen un espacio compartido para el intercambio de experiencias, ideas, proyectos, documentación… Desde la generalización de INTERNET se han configurado grupos de discusión en torno a News o Servicios de distribución de temáticas diversas. El objetivo de estos servicios es unir a los estudiantes y docentes en torno a un tema de interés común. Un paso más en la creación de espacios de comunicación y intercambio dentro de la red son las Bibliotecas Virtuales (BV). Estas son entornos basados en Web que agrupan personas relacionadas con una temática específica que además de las listas de distribución (primer nodo de la Biblioteca Virtual) comparten documentos y recursos de corte informativo… El concepto de Biblioteca virtual está íntimamente ligado a la existencia de INTERNET, para la que INTERNET no es una autopista sino una comunidad, no es un camino que va hacia cualquier sitio, sino que es un lugar (cuando alguien logra conectarse por primera vez dice ‘Ya estoy aquí’). Se trata de un universo paralelo creado y sustentado las telecomunicaciones al que se accede mediante cualquier ordenador conectado. La Biblioteca Virtual es un subgrupo dentro del ciberespacio en general que no pertenecen a ninguna organización específica y por lo tanto no pueden ser atendidos por los servicios de las organizaciones de cada uno de los miembros de dicho grupo más enfocados a servicios locales e internos. Cubrir este hueco constituye uno de los objetivos al ofrecer servicios a la comunidad académica e investigadora BIBLIOTECA VIRTUAL ES... Un Sistema innovador de educación, orientado a mejorar la comunicación, incentivar el aprendizaje interactivo y personalizado, el análisis crítico y enfatizar el trabajo individual y en equipo, a través de Internet. Un medio para que el estudiante pueda cursar asignaturas desde la Red, enviar preguntas concretas o participar en grupos de discusión, navegar a través de las páginas electrónicas y obtener bibliografía, material didáctico, simulaciones y videos. Todo esto le proporciona, al estudiante, mayor riqueza de conocimientos y reduce la distancia geográfica. Por ello consideramos la factibilidad del Proyecto por tener criterios de prioridad nacional para la educación. Además de ser una novedad para las instituciones ofrece una oportunidad de incalculable valor para el proceso de enseñanza-aprendizaje. FUNDAMENTACIÓN LEGALUna de las inquietudes para hacer el presente proyecto, fue sin duda la declaración del Gobierno Nacional de INTERNET como servicio público: El cual establece que todos los venezolanos tienen derecho a usar sin distingo de clase la autopista de la información. Este servicio representará la herramienta fundamental del proceso enseñanza aprendiza de este país. Por ello hacemos énfasis al decreto 825, mediante el cual todo venezolano podrá: · Acceder a nuevos conocimientos e ideas a través de INTERNET· Interrelacionarse con el resto de los países· Obtener beneficios en la prestación de servicios más exigentes· Participar en la consolidación del nuevo modelo de equilibrio territorial

BIBLIOTECA VIRTUAL Aprovechando las posibilidades comunicativas, sincrónicas y asincrónicas que nos ofrece INTERNET, y en el marco que de las Redes ofrece para la existencia de la Bibliotecas Virtuales

Página 26INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 27: Proyecto informativo

para el mundo científico, se ha creado un sitio dentro de la Comunidad Virtual de INTERNET con la intención de ser un espacio para que todos los estudiantes y profesionales de la educación puedan compartir e intercambiar información a la vez que trabajar en proyectos comunes. La Biblioteca convencional es un lugar donde existe una cantidad de textos desactualizados y colocados en estantes donde el que investiga encontrará un mundo inerte y su universo intelectual queda rezagado a una parte mínima de lo que pretende alimentarlo. Por ello la Biblioteca Virtual supone la evolución de una comunidad ya existente, la lista de distribución, ampliando sus canales y posibilidades comunicativas, añadiendo posibilidad de compartir documentación y recursos, de teleinvestigación, de trabajo colaborativo….es decir tiene vida..La Biblioteca Virtual pretende servir de plataforma para potenciar el conocimiento y el uso de las nuevas tecnologías en el ámbito educativo mediante la distribución de materiales periódicos relacionados con la temática, proporcionar un canal de difusión de actividades, experiencias relacionadas y la puesta a disposición del colectivo de recursos educativos.Concretamente pretende ser un espacio donde los alumnos y docentes de este ámbito compartamos, intercambiemos y promovamos proyectos relacionados con la explotación de las posibilidades educativas de las tecnologías de la comunicación, mediante: - EL debate académico en el ámbito internacional respecto a las tecnologías de la comunicación aplicadas a la educación.- El intercambio de experiencias referidas al diseño, producción, uso y evaluación de nuevos medios didácticos.- La organización de debates telemáticos, y otras actividades apoyadas en las posibilidades comunicativas de las redes.- La experimentación de herramientas de aprendizaje colaborativo- Experimentación y evaluación de Web tools, etc...- Promover proyectos de innovación por parte de grupos de profesores del colectivo, etc...La Biblioteca Virtual debe ser promovida por los entes educativos o instituciones. Crear una asociación para el desarrollo de la Tecnología Educativa y las Nuevas Tecnologías aplicadas a la Educación, que encarga su gestión, organización y mantenimiento al trabajo de la tecnología educativa del Ministerio de Educación.

OBJETIVOS · Crear espacio para la reflexión, en torno a los procesos de enseñanza-aprendizaje con uso de tecnología. · Crear un espacio de trabajo colaborativo y en grupo, para que colectivos con un mismo perfil académico o científico que no pertenezcan a una organización específica pueda llevar a cabo trabajos en común. · Ofrecer un punto de encuentro, información y coordinación para todos los profesionales de la educación interesados en la Tecnología Educativa. · Intercambiar experiencias y conocimientos relacionadas con el diseño, explotación y evaluación de nuevos medios para la enseñanza. · Promover y facilitar la colaboración en proyectos comunes de investigación, desarrollo y de innovación relacionadas con la aplicación de las Nuevas Tecnologías a la enseñanza. · Difusión de información de interés relacionada con INTERNET (congresos, jornadas, seminarios, convocatorias, etc.) DESTINATARIOS

Página 27INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 28: Proyecto informativo

La Biblioteca Virtual va dirigida a estudiantes, docentes y profesionales interesados en investigar, promover, fomentar y estudiar el campo de las Nuevas Tecnologías aplicadas a la educación. JUSTIFICACIÓN La Biblioteca Virtual pretende ser un espacio vivo y dinámico para el trabajo, la búsqueda de información, el dialogo y el intercambio. Donde la información se renueva y enriquezca constantemente. Para poder conseguir los objetivos planteados hemos diferenciado varias partes en la Biblioteca Virtual de Tecnología Educativa. Como también existe una serie de elementos que nos puedan ayudar a desarrollar y entender aun más el uso de INTERNET en el Proyecto Biblioteca Virtual, estos son: · Web de INTERNETEste espacio está dedicado a proporcionar enlaces a diferentes URLs donde encontrar recursos y materiales: recursos educativos que promueven la integración curricular de la tecnología de la información; secciones destinadas a explicar los recursos de INTERNET; información, materiales y herramientas relacionadas con aspectos técnicos de la informática; contenidos sobre el diseño, elaboración y evaluación de materiales didácticos hipertextuales y multimedia, etc. En el se incluyen: · Grupos de investigación sobre Tecnología Educativa cuyos trabajos se centran en las Nuevas Tecnologías de la Información aplicadas a la educación y a la formación en el diseño, desarrollo y elaboración de materiales didácticos y medios interactivos para la formación basados en la aplicación de las Nuevas Tecnologías. * Espacios gestionados para las instituciones y para la BV. Son espacios que tienen como finalidad dinamizar el uso de INTERNET en el mundo educativo, en los campos más diversos desde la administración, la investigación, la escuela o la educación familiar. Pone a disposición del sistema educativo materiales y recursos para facilitar y mejorar las actividades de enseñanza y aprendizaje. * Páginas de estudiantes y docentes que centran sus líneas de trabajo en la aplicación de INTERNET a la Educación y donde, entre otras cosas, aportan recursos y materiales didácticos para la docencia. · Relación del resto de Bibliotecas Virtuales que también participan de esta iniciativa de Red y en las que podemos encontrar materiales que pueden ser utilizados en la enseñanza. · HemerografíaSe selecciona aquellas revistas publicadas solo en formato electrónico o que aunque se editen impresas lo hacen a la vez electrónicamente. Son revistas que pretende mantener informados a estudiantes, profesores, directores, y coordinadores que estén interesados en esta área de tecnología.· DocumentosSe recogen trabajos, documentos, artículos, … que reflexionen, investiguen, informen, sobre temas relacionados con la aplicación de las Nuevas Tecnologías en la educación. Previamente son analizados y seleccionados por un grupo de trabajo dedicado a ello. Normalmente son realizados por miembros pertenecientes a los grupos de investigación de Tecnología Educativa. · BuscarLa documentación residente en todas las Bibliotecas virtuales residentes en la Red es indexada con metacaracteres a una carpeta o centro de acopio, a fin de facilitar los procesos de búsqueda de información. Así se ofrece la posibilidad de búsqueda de documentación a otras Bibliotecas Virtuales, así como en la nuestra propia, a través de los metacaracteres introducidos. Esta

Página 28INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 29: Proyecto informativo

posibilidad se extiende a otros muchos servidores. Para ellos se facilitarán los descriptores utilizados. Comunicación e Intercambio · ForosEl hecho de que la Comunidad Virtual de Tecnología Educativa surja a partir de una lista de distribución dedicada a promover el intercambio de información y fomentar el debate y la reflexión sobre la aplicación de las Nuevas Tecnologías a la educación, cabría esperar que se le diera un espacio para que desde ella se pudiera acceder a todos aquellos foros o listas de distribución relacionados con las Nuevas Tecnologías y la educación · Cartelera de anunciosLa cartelera de anuncios pretende, con la colaboración de todos, que estemos al día de cualquier tema sobre las Nuevas Tecnologías aplicadas a la Educación. Para ello está dividido en tres espacios. Un primer espacio, libro de visitas, donde visitantes y/o colaboradores puedan registrarse y pasar a formar parte de una base de datos de sus usuarios del ámbito que nos ocupa, etc. Un segundo espacio donde encontrar anunciados los congresos y demás eventos que se vayan realizando. Y un tercer espacio que pretende ser un tablón público en el cual se pueda anunciar cualquier tipo de información, así como aquellos links interesantes o enlazar con páginas personales. · ChatEspacio de comunicación sincrónica que permitirá realizar reuniones virtuales en tiempo real. Para especificar la hora y el día de la reunión se anunciará en el tablón público en un espacio dedicado a ello.Si habilitará un canal especialmente dedicado a estas reuniones y un interfase Web que explicará su funcionamiento así como la accesibilidad a la herramienta. MailLugar donde se facilitan direcciones de correo electrónico a las cuales dirigir sugerencias, opiniones, ideas, consejos, etc. sobre la Biblioteca Virtual. Trabajo colaborativo · Zona de trabajoEste pretende ofrecer a través de la red espacios de trabajo en grupo. Esta herramienta permite compartir documentos, que los miembros del equipo puedan hacer revisiones al mismo documento, hacer sugerencias,... y llevar a cabo proyectos de investigación comunes.· Base de datosEs un servicio que permite, en primer lugar, que todos aquellos interesados puedan registrarse en la Biblioteca Virtual y así crear entre todos una base de datos sobre los visitantes y colaboradores para así, y en segundo lugar, poder contactar con ellos de manera rápida y eficaz a la vez que acceder a sus páginas personales. LIMITACIONES Podemos decir que la introducción de cualquier tecnología de la información y comunicación en el contexto educativo pasa necesariamente tanto por que el estudiante y profesor tenga actitudes favorables hacia las mismas, como por una capacitación adecuada para su incorporación al mundo del ciberespacio. En la actualidad nos encontramos con una fuerte paradoja, y es que por una parte, existe una amplitud de tecnologías, algunas veces incluso presente en los centros educativos, como no había ocurrido en momentos históricos anteriores, y por otra nos encontramos que la práctica de la enseñanza se sigue apoyando en dos medios básicos: el libro de texto y otras variaciones impresas, y el profesor como transmisor y

Página 29INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 30: Proyecto informativo

estructurador de la información. Desde nuestro punto de vista los motivos de esta situación son diversos, y sin ánimo de acotarlos los podemos sintetizar en los siguientes:

· Falta de presencia de los medios en los centros, tanto en lo referido al hardware como al software e INTERNET.

· Limitada formación del profesorado para su utilización. · Actitudes de desconfianzas y recelo hacia ellos por parte de los profesores. · El conocimiento limitado teórico y práctico que tenemos respecto a cómo los medios

funcionan en el contexto educativo. · El inmovilismo en el que tiende a desenvolverse la escuela. · Tendencia en las actividades de formación del profesorado hacia una capacitación

meramente instrumental. · Costo de adquisición y mantenimiento de los equipos. · El trabajo adicional que conlleva para el profesor, el diseño y la producción de

materiales de enseñanza. · Falta de tiempo del profesorado para dedicarlo a las tareas de diseño y producción de

materiales. · Tendencia en nuestra cultura a que los materiales de enseñanza sean producidos por

profesionales. · Estructura organizativa de los centros educativos. · Limitadas investigaciones realizadas al respecto.

De todos ellos posiblemente uno de los más significativos sea la formación y el perfeccionamiento que el profesorado tiene para su integración en los contextos de enseñanza-aprendizaje.

5. REALIDAD VIRTUAL

Realidad virtualRealidad virtual es un sistema tecnológico, basado en el empleo de ordenadores y otros dispositivos, cuyo fin es producir una apariencia de realidad que permita al usuario tener la sensación de estar presente en ella. Se consigue mediante la generación por ordenador de un conjunto de imágenes que son contempladas por el usuario a través de un casco provisto de un visor especial. Algunos equipos se completan con trajes y guantes equipados con sensores diseñados para simular la percepción de diferentes estímulos, que intensifican la sensación de realidad. Su aplicación, aunque centrada inicialmente en el terreno de los videojuegos, se ha extendido a otros muchos campos, como la medicina, simulaciones de vuelo, etc.

Página 30INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 31: Proyecto informativo

Personal de la armada de los Estados Unidos usando un sistema de realidad virtual para entrenar el paracaidismoVirtualidad La virtualidad establece una nueva forma de relación entre el uso de las coordenadas de espacio y de tiempo, supera las barreras espaciotemporales y configura un entorno en el que la información y la comunicación se nos muestran accesibles desde perspectivas hasta ahora desconocidas al menos en cuanto a su volumen y posibilidades. La realidad virtual permite la generación de entornos de interacción que separen la necesidad de compartir el espacio-tiempo, facilitando en este caso nuevos contextos de intercambio y comunicación.Autores como Lévy, han señalado la existencia de diferentes niveles de virtualidad en su relación con la dimensión bidimensional/tridimensional y su relación con la realidad. Yendo desde un continuo que comienza con una menor virtualidad de aquellos aspectos que nos alejan de la realidad o que categorizamos a priori como claramente imaginarios o ilusorios, aumentando con lo bidimensional, hasta las posibilidades que ofrece la tridimensionalidad en su relación de semejanza o analogía con lo real.Relación real/irrealLa realidad virtual ha eliminado la frontera existente entre realidad e irrealidad. No se trata en este caso de la imposibilidad de separación entre lo real y aquello que no lo es, sino la difusión de los límites que los separan. La amplia variedad de posibilidades que ésta ofrece, ha facilitado el establecimiento de un estatus de realidad, sustentado fundamentalmente en tres aspectos:

La realidad virtual es compartida con otras personas. Se centra generalmente en la interacción interpersonal, que a pesar de no producirse en el mismo espacio-tiempo, si es percibida como un acto colectivo.

Tiene una estrecha relación con el mundo físico dada su interrelación e influencia mutua. La experiencia en la realidad virtual viene mediada por la experiencia en el mundo real y ésta es influida por lo que allí es experimentado.

Está interconectada con la producción artística, ya que se convierte en un espacio más de creación con motivaciones estéticas.

La generación de nuevas oportunidades en entornos diversos ha facilitado la existencia de posibilidades emergentes para la reconstrucción de la propia identidad. Los entornos virtuales, y más concretamente la realidad virtual, han generado un espacio de moratoria para la construcción de la identidad sustentada en la creación de más de un yo. La existencia de estas identidades múltiples favorece la experimentación, pudiendo adoptar, potenciar o desestimar aspectos puestos en práctica en estos entornos, en la propia cotidianidad. Se trataría pues de un espacio de interrelación entre los espacios cotidianos y la realidad virtual, en que las propias experiencias en estos entornos producen una mutua influencia, generando una ruptura de las fronteras entre ambos.Inmersión y navegación La realidad virtual puede ser de dos tipos: inmersiva y no inmersiva. Los métodos inmersivos de realidad virtual con frecuencia se ligan a un ambiente tridimensional creado por un ordenador, el cual se manipula a través de cascos, guantes u otros dispositivos que capturan la posición y rotación de diferentes partes del cuerpo humano. La realidad virtual no inmersiva también utiliza el ordenador y se vale de medios como el que actualmente nos ofrece Internet, en el cual podemos interactuar en tiempo real con diferentes personas en espacios y ambientes que en realidad no existen sin la necesidad de dispositivos adicionales al ordenador. Nos acercamos en

Página 31INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 32: Proyecto informativo

este caso a la navegación, a través de la cual ofrecemos al sujeto la posibilidad de experimentar (moverse, desplazarse, sentir) determinados espacios, mundos, lugares, como si se encontrase en ellos.La realidad virtual no inmersiva ofrece un nuevo mundo a través de una ventana de escritorio. Este enfoque no inmersivo tiene varias ventajas sobre el enfoque inmersivo como son el bajo coste y fácil y rápida aceptación de los usuarios. Los dispositivos inmersivos son de alto coste y generalmente el usuario prefiere manipular el ambiente virtual por medio de dispositivos familiares como son el teclado y el ratón que por medio de cascos pesados o guantes.El alto precio de los dispositivos inmersivos ha generalizado el uso de ambientes virtuales fáciles de manipular por medio de dispositivos más sencillos, como es el ejemplo del importante negocio de las videoconsolas o los juegos en los que numerosos usuarios interactúan a través de Internet. Es a través de Internet como nace VRML, que es un estándar para la creación de estos mundos virtuales no inmersivos, que provee un conjunto de primitivas para el modelaje tridimensional y permite dar comportamiento a los objetos y asignar diferentes animaciones que pueden ser activadas por los usuarios.Por último hay que destacar algunas mejoras que facilitan los sistemas de realidad virtual, en lo que se refiere al tratamiento de enfermedades relativas a problemas de movilidad. Un ejemplo de ello lo realizan con simuladores de snowboard, obteniendo progresos en el tratamiento de los enfermos.

Concepto de realidad virtual.-

1. Historia de la realidad virtual:2. Equipos utilizados para la realidad virtual.-3. Niveles de Tecnología de Realidad Virtual4. Elementos básicos de la realidad virtual:5. Mecanismos básicos de la realidad virtual:6. El futuro en la Realidad Virtual

Un fenómeno que percibimos a través de los sentidos que se desarrolla en un espacio ficticio, en un paréntesis de la realidad. La Realidad Virtual es un sistema interactivo que permite sintetizar un mundo tridimensional ficticio, creándote una ilusión de realidad. La realidad Virtual es una técnica de fotográfica de 360 grados, el cuál te permite moverte hacia arriba o hacia abajo, realizar acercamientos o alejamientos; la diferencia es que en la realidad virtual tú tienes el control absoluto de los movimientos; y este te ofrece un realismo de estar en el sitio.

Virtual, en informática, significa 'algo simulado', creado por el ordenador para llevar a cabo determinado fin. La Realidad Virtual es considerada en muchos aspectos como el interface definitivo entre los seres humanos y el ordenador.

Básicamente consiste en simular todas las posibles percepciones de una persona, como los gráficos para la vista, sonido, tacto e incluso sensaciones de aceleración o movimiento. Todas estas sensaciones diferentes deben ser presentadas al usuario de forma que se siente inmerso en el universo generado por el ordenador, hasta el punto de dejar de percibir la realidad y ser engañado, sentirse transportado (al otro lado de la pantalla) como si de un universo nuevo se tratase.

Historia de la realidad virtual:

Página 32INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 33: Proyecto informativo

Todo esto de la realidad virtual comenzó a finales de los 70´s como material para una clase de aviación en el departamento de defensa de los Estados Unidos, para hacer simulaciones de vuelo, practicando y no arriesgando vidas.

Después de esto en 1982 Scott Fisher considerado uno de los "Padres Fundadores" de la realidad virtual y en 1985él creo el VISIOCASO más avanzado en la Nasa Ames Center, Por todas partes empiezan a surgir equipos de desarrollo trabajando en lo que era la tecnología de la realidad virtual, y se empiezan a ver los primeros resultados comerciales

1980: La Compañía StereoGraphics hace las gafas de visión estéreo.1982: Thomas Zimmerman patenta un Electroguante que invento mientras investigaba sobre como controlar con la mano un instrumento musical virtual.1987: La compañía Inglesa Dimensión Internacional desarrolla un Software de

construcción de mundos tridimensionales sobre P.C.1988: Scott Foster inventa un dispositivo para la generación de sonido tridimensional.1989: ATARI saca al mercado la primera maquina de galería de vídeo juegos con

tecnología 3D. En ese mismo año Autodesk presenta su primer sistema de realidad virtual para P.C.

A partir de aquí entramos de lleno a la carrera comercial los sistemas de realidad virtual comienzan a popularizarse y muchos productos empiezan a invadir el mercado, en forma paralela se crea un cierto movimiento cultural conocido como el Cyberpunk. La estética y la temática del cyberpunk han llegado en los últimos años a la televisión y al cine, quizás los mejores ejemplos son "El hombre del jardín" y "Blade Runer"

Los primeros albores de la Realidad Virtual pueden remontarse, según algunos autores, a distintas épocas, pero uno de los precedentes más claros es la industria del cine. Desde siempre la cinematografía ha intentado crear formatos de imagen y sonido que hiciesen creer al espectador que se encontraba formando parte de la escena. De este intento han surgido tecnologías como el Cinemascope o el más moderno Omnimax, así como sistemas de sonido del tipo del Dolby Surround.

A comienzos de los 70 se empezó a investigar como hacer más fácil el entendimiento hombre - computadora, para mejorar el rendimiento y obtener toda la potencia de estas máquinas, ya que mientras la capacidad y velocidad de los ordenadores aumentaba vertiginosamente, nuestra habilidad para comunicarnos con ellos, permanecía limitada por interfaces inadecuados.

También por esta época se comenzaron a apreciar las grandes ventajas de entrenar a pilotos de aviación en simuladores, en lugar de emplear auténticos aviones: menores costes, reducción de tiempo y mejora del aprendizaje, además del consiguiente y obvio nivel de seguridad que impone la práctica virtual.

Equipos utilizados para la realidad virtual.-Para visión

La realidad virtual en el área de la visión trabaja básicamente con dos tipos de implementos: cascos y boom, este último es un equipo que consiste en un brazo mecánico que sostiene un display a través del cual al girarlo se puede observar el entorno del mundo virtual en el cual se está; debido a que su peso es soportado por el brazo mecánico y no por el usuario, como ocurre con el casco, este puede ser un equipo de mayor complejidad y contenido electrónico, lo cual se traduce en ventajas tales como la obtención de una mejor solución. A continuación presentamos algunas características de estos equipos

Página 33INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 34: Proyecto informativo

Visión estereoscópica: Es la sensación de ver una determinada imagen en 3 dimensiones, esto se logra haciendo una representación igual para cada ojo de la imagen que se va a observar, estas representaciones son posteriormente proyectadas desde un mismo plano y separadas una distancia que está determinada por la distancia a la cual se encuentra el observador del plano de las imágenes. Desde este punto de vista, también existen equipos de visión monocular a través de los cuales se visualizan los objetos en la forma habitual.

Binoculares: Son equipos que constan de una pantalla individual para cada ojo, para el funcionamiento de la visión estereoscópica, es necesario tener un equipo que tenga esta característica; para equipos de visión monoscópica esta característica es opcional. Así mismo, también existen equipos monoculares, los cuales constan de una sola pantalla para ambos ojos.Para interactuar

En la actualidad la realidad virtual esta haciendo uso de guantes y vestidos como medio para interactuar en un ambiente virtual, para lograr esto, estos dispositivos se comportan inicialmente como dispositivos de entrada que le permiten al computador conocer la ubicación del usuario dentro del ambiente virtual, así mismo, le permiten al usuario ubicarse en el medio e interactuar con el y en algunos casos recibir ciertos estímulos donde estos dispositivos se convierten en dispositivos de salida. Algunas sensaciones o estímulos que se pueden recibir son:

Sensación de estar sosteniendo un objeto que se ha cogido dentro del ambiente virtual, esto se logra gracias a unas almohadillas que se inflan en el guante y dan la sensación de percibir un peso. También se puede llegar a percibir la rugosidad y forma propias de objetos situados en el interior del ambiente virtual, lo cual se logra gracias a que algunos dispositivos tienen partes de aleaciones con memoria que tras variaciones en la temperatura toman formas que se les han practicado con anterioridad.Para audición

Los audífonos son el equipo básico empleado para escuchar los sonidos propios de un ambiente virtual. A continuación se presentan algunas variantes de estos equipos:

Audífonos convencionales: Son los audífonos de uso más corriente, a través de estos se escucha el sonido simulado de los objetos sin identificar auditivamente el punto de ubicación del mismo.

Convolvotrón: Estos audífonos además de simular el sonido propio de los objetos, simulan la ubicación de los mismos dentro del ambiente virtual.Cabinas de Simulación

Como su nombre lo indica, son grandes aparatos en los que se sumerge al usuario como si maniobrara un vehículo cabinado (simuladores de vuelo, submarinos,...).

Niveles de Tecnología de Realidad VirtualEn la práctica de Realidad Virtual, muchos dispositivos de hardware son utilizados. La

tecnología utilizada en Realidad Virtual puede ser clasificada en cuatro categorías o niveles:Nivel de Entrada

Es el que utiliza un computador personal o estación de trabajo, e implementa un sistema "Window on a World", es decir, la representación del mundo a través de la pantalla, como si se tuviera una "ventana al mundo"Nivel Básico

Cuando se agrega unas ampliaciones básicas de interacción (guante o Mouse 3D) y visión (Gafas estereoscópicas) Nivel Avanzado El siguiente paso en la tecnología de Realidad Virtual es un mejor despliegue de las gráficas y mejor manejo de información de entrada. Esto

Página 34INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 35: Proyecto informativo

generalmente se logra con aceleradores de gráficas, e incorporación de procesadores en paralelo.Nivel Inmersivo

En este nivel, se han agregado al sistema de Realidad Virtual dispositivos más inmersivos, que le añaden realismo: HMD, Boom, feedback táctil...

Elementos básicos de la realidad virtual:El Visiocasco: (El usuario se lo coloca en la cabeza)

Este Visiocasco te impide lo que te rodea. Poniéndote una pantalla en cada ojo. Las imágenes que aparecen en las dos pantallas son ligeramente diferentes, de forma que el efecto es que el usuario puede ver un relieve.Un mando con botones:

Apretando el botón se desplazara en la dirección en la que en ese momento este mirando. *Un sensor de posición (esta en el visiocasco) para identificar donde esta viendo, él cual esta conectado a la unidad de control, mide tu posición.

Tanto el visiocasco como el mando de control están conectados a una computadora.

Mecanismos básicos de la realidad virtual:Existen cinco mecanismos habitualmente empleados en las aplicaciones de la realidad

virtual. Estos son:-Gráficos tridimensionales (3D).-Técnicas de estereoscopia: Esta técnica permite al usuario no solo percibir las claves de la profundidad, sino además ver la imagen en relieve. Esto se debe a que la imagen que percibe cada ojo es algo distinta lo que le permite al cerebro comparar las dos imágenes y deducir, a partir de las diferencias relativas-Simulación de comportamiento: La simulación en el mundo virtual no esta pre calculada la evolución, esta se va calculando en tiempo real. -Facilidades de navegación: Es el dispositivo de control, que te permite indicar lo que quieres navegación, esto o realiza a través de un joystick o de las teclas de control del computador o también se puede cuando mueves la cabeza, en ese momento el sistema detecta el hecho y desplaza la imagen de la pantalla.-Técnicas de inmersión: Consisten en aislarte de los estímulos del mundo real, al quedar privado de sensaciones procedentes del mundo real, pierdes la referencia con la cual puedes comparar las sensaciones que el mundo virtual produce.

Qué equipo se utiliza para crear Realidad VirtualEl equipo se divide en tres: factores de entrada, factores de salida y motor de realidad.

Los factores de entrada toman la información del usuario y la mandan a la computadora, el guante y sensores de posición/orientación son un ejemplo. Los factores de salida sacan información de la computadora y la presentan al usuario, los displays del casco, bocinas son los ejemplos más usados. El motor de realidad es la computadora encargada de ejecutar el universo virtual.

El futuro en la Realidad VirtualEl futuro de un entorno de Realidad Virtual será algo parecido al Holodeck, un dispositivo

en forma de habitación, que permite una visión de 360 grados, con imágenes estereoscópicas

Página 35INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 36: Proyecto informativo

para todos los usuarios desde cualquier punto de vista, proporcionando una representación de cualquier circunstancia imaginable, que no se distinga del mundo real.

EVOLUCIÓN DE LA REALIDAD VIRTUAL.

El auge de la realidad virtual ha estado precedido de un largo tiempo de intensa investigación. En la actualidad, la realidad virtual se plasma en una multiplicidad de sistemas que permiten que el usuario experimente “artificialmente”, sin embargo ha tenido diversos aportes entre los que destacan:

En 1958 la Philco Corporation desarrolla un sistema basado en un dispositivo visual de casco controlado por los movimientos de la cabeza del usuario.

En el inicio de los 60, Ivan Sutherland y otros crean el casco visor HMD mediante el cual un usuario podía examinar, moviendo la cabeza, un ambiente gráfico. Simultáneamente Morton Heilig inventa y opera el Sensorama.

Para 1969, Myron Krueger creó ambientes interactivos que permitían la participación del cuerpo completo, en eventos apoyados por computadoras.

En 1969 la NASA puso en marcha un programa de investigación con el fin de desarrollar herramientas adecuadas para la formación, con el máximo realismo posible, de posteriores tripulaciones espaciales.

En el inicio de los 70, Frederick Brooks logra que los usuarios muevan objetos gráficos mediante un manipulador mecánico.

A fines de los 70, en el Media Lab. del instituto tecnológico de Massachusetts MIT, se obtiene el mapa filmado de Aspen, una simulación de vídeo de un paseo a través de la ciudad de Aspen, Colorado. Un participante puede manejar por una calle, bajarse y hasta explorar edificios.

También en los 70, Marvin Minsky acuña el término “TELEPRESENCIA”, para definir la participación física del usuario a distancia.

William Gibson, al inicio de los 80, publica la novela “ Neuromancer” donde la trama se desarrolla en base a aventuras en un mundo generado por computadora al que denomina CIBERESPACIO.

Las empresas Disney producen la película “TRON”.

Tom Zimmerman inventa el Dataglove.

Jaron Lanier acuña el término de Realidad Virtual, concretando la variedad de conceptos que se manejaban en esa época.

Página 36INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 37: Proyecto informativo

En 1984, Michael McGreevy y sus colegas de la NASA desarrollan lentes de datos con los que el usuario puede ahora mirar el interior de un mundo gráfico mostrado en computadora.

Después de 1980 aparece el HOLODECK en la serie de TV Start Trek; este es un ambiente generado por computadora, con figuras holográficas para entretenimiento de la tripulación.

Para el inicio de los 90 los sistemas de realidad virtual emergen de los ambientes de laboratorio en búsqueda de aplicaciones comerciales.

Para el año 1995 los simuladores de vuelo, desde los más perfectos, como los que utilizaban Thomson-Militaire o Dassault, hasta los videojuegos para microordenadores son en sí aplicaciones de la realidad virtual, cuyo fin es situar a la persona en situaciones comparables a la experiencia real.

Un grupo de investigadores de IBM desarrolla un prototipo informático para la creación de realidad virtual. Este sistema generaba modelos del mundo real basados en representaciones tridimensionales y estereoscópicas de objetos físicos con los que pueden interactuar varias personas simultáneamente.

ORIENTACIÓN ACTUAL DE LA REALIDAD VIRTUAL.

En la actualidad, la realidad virtual se plasma en una multiplicidad de sistemas, el más conocido de los cuales es el que ha desarrollado la empresa norteamericana VPL Research (Visual Programming Language), con la que la NASA trabaja en estrecha colaboración en el desarrollo de sus propias aplicaciones.

Se desarrolló una arquitectura básica para el desarrollo de una variedad casi ilimitada de laboratorios virtuales. En ellos, los científicos de disciplinas muy diversas son capaces de penetrar en horizontes antes inalcanzables gracias a la posibilidad de estar ahí: dentro de una molécula, en medio de una violenta tormenta o en una galaxia distante.

Profesionales de otros campos, como la medicina, economía y exploración espacial, utilizan los laboratorios virtuales para una gran variedad de funciones. Los cirujanos pueden realizar operaciones simuladas para ensayar las técnicas más complicadas, antes de una operación real. Los economistas exploran un modelo de acción de un sistema económico para poder entender mejor las complejas relaciones existentes entre sus distintos componentes.

Los astronautas tienen la posibilidad de volar sobre la superficie simulada de un planeta desconocido y experimentar la sensación que tendrían si estuvieran allí.

Los arquitectos pueden hacer que sus clientes, enfundados en cascos y guantes, visiten los pisos-piloto en un mundo de Realidad Virtual, dándoles la oportunidad de que abran las puertas o las ventanas y enciendan o apaguen las luces del apartamento. Por otra parte, permite la anticipación de errores de diseño y experiencias físicas con ambientes no construidos.

Página 37INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 38: Proyecto informativo

Con el fin de simplificar las comunicaciones con los inversores de otros países, se ha modelizado por completo en sistema VPL, el proyecto de acondicionamiento del puerto de Seattle. Ambas partes juegan así sus cartas virtuales en el proyecto, sobrevolando los canales y obras portuarias y acercándose a ellas para apreciar los detalles con sólo flexionar los dedos.

El ámbito científico no se queda al margen, investigadores de la Universidad de Carolina del Sur estudian moléculas complejas, desplazando grupos de átomos mediante un instrumento, una simbiosis entre los punteros (del tipo del ratón) y el Dataglove.

En el área de defensa y de la investigación espacial o nuclear, donde se han producido los avances más espectaculares. Thomson-Militaire dispone de un sistema utilizado para simulaciones calificadas de alto secreto. El CNRS y la Comexe poseen, asimismo equipos que les permiten realizar simulaciones en medios hostiles: reparaciones en el interior de un reactor nuclear, por ejemplo, la NASA realiza prácticas de montaje de satélites a distancia utilizando técnicas de Realidad Virtual.

En Francia Videosystem utiliza el sistema Jaron Lanier para aplicaciones de apoyo a

largometraje en cuanto a las cámaras, vestuario de actores, escenarios y otros.

La empresa británica W-Industries dispone de un sistema propio de realidad virtual, bautizado con el nombre de Virtuality, el cual es utilizado para videojuegos, en el área de defensa y medicina, así como en la Arquitectura y diseño utilizando una versión para UNIX del software CAD.

En educación y adiestramiento se da la exploración de lugares y cosas inaccesibles por otros medios. Creación de lugares y cosas con diferentes cualidades respecto a los que existen en el mundo real. Interacción con otras personas, ubicadas en áreas remotas, de intereses afines. Colaboración en la realización de proyectos con estudiantes alrededor del mundo.

En ingeniería se desarrollan aplicaciones para aereo-industria, industria automovilística (en modelos electrónicos de vehículos para probar confort, opciones, etc.).

QUE ES REALIDAD VIRTUAL.

Dado que se trata de una tecnología en plena evolución, cualquier definición actual de Realidad Virtual debe ser considerada solo con carácter transitorio, sin embargo podemos decir que:

La realidad virtual es simulación por computadora, dinámica y tridimensional, con alto contenido gráfico, acústico y táctil, orientada a la visualización de situaciones y variables complejas, durante la cual el usuario ingresa, a través del uso de sofisticados dispositivos de entrada, a “mundos” que aparentan ser reales, resultando inmerso en ambientes altamente participativos, de origen artificial. CARACTERÍSTICAS DE LA REALIDAD VIRTUAL.

Responde a la metáfora de “mundo” que contiene “objetos” y opera en base a reglas de juego que varían en flexibilidad dependiendo de su compromiso con la Inteligencia Artificial.

Página 38INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 39: Proyecto informativo

Se expresa en lenguaje gráfico tridimensional.

Su comportamiento es dinámico y opera en tiempo real.

Su operación está basada en la incorporación del usuario en el “interior” del medio computarizado.

Requiere que, en principio haya una “suspensión de la incredulidad” como recurso para lograr la integración del usuario al mundo virtual al que ingresa.

Posee la capacidad de reaccionar ante el usuario, ofreciéndole, en su modalidad más avanzada, una experiencia inmersiva, interactiva y multisensorial.

OBJETIVOS.

Crear un mundo posible, crearlo con objetos, definir las relaciones entre ellos y la naturaleza de las interacciones entre los mismos.

Poder presenciar un objeto o estar dentro de él, es decir penetrar en ese mundo que solo existirá en la memoria del observador un corto plazo (mientras lo observe) y en la memoria de la computadora.

Que varias personas interactuen en entornos que no existen en la realidad sino que han sido creados para distintos fines. Hoy en día existen muchas aplicaciones de entornos de realidad virtual con éxito en muchos de los casos. En estos entornos el individuo solo debe preocuparse por actuar, ya que el espacio que antes se debía imaginar, es facilitado por medios tecnológicos.

La meta básica de la RV es producir un ambiente que sea indiferenciado a la realidad física (Lee, 1992). Un simulador comercial de vuelo es un ejemplo, donde se encuentran grupos de personas en un avión y el piloto entra al simulador de la cabina, y se enfrenta a una proyección computadorizada que muestra escenarios virtuales en pleno vuelo, aterrizando, etc. Para la persona en la cabina, la ilusión es muy completa, y totalmente real, y piensan que realmente están volando un avión. En este sentido, es posible trabajar con procedimientos de emergencia, y con situaciones extraordinarias, sin poner en peligro al piloto y a la nave.

La R.V. toma el mundo físico y lo sustituye por entrada y salida de información, tal como la visión, sonido, tacto, etc. computadorizada

DISPOSITIVOS DE ENTRADA Y/O SALIDA.

ENTRADA SALIDA Ratones 3D (“3D mice”, flying mice”) Varillas (“Wands”) Esferas de seguimiento (“Trackballs”) “Bicicletas” Scanners Mano virtual (“Virtual Hand”)

HMD – Cascos- (“Head-Mounted Display”)

Lentes estereoscópicos (“Stereoscopic lenses”)

Audífonos ·D (“3D Audio”) Monitor de vídeo

Página 39INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 40: Proyecto informativo

ENTRADA/SALIDA Guantes de datos Trajes de datos Partes de vestuario

Rampas Plataformas Vehículos

CLASIFICACIÓN DE LA REALIDAD VIRTUAL.

Existen diversas formas de clasificar los actuales sistemas de realidad virtual. A continuación presentaremos una basada en el tipo de interfaz con el usuario1. En ese caso pueden mencionarse:

SISTEMAS VENTANAS (Window on World Systems).

Se han definido como sistemas de Realidad Virtual sin Inmersión.

Algunos sistemas utilizan un monitor convencional para mostrar el mundo virtual. Estos sistemas son conocidos como WOW (Window on a World) y también como Realidad Virtual de escritorio.

Estos sistemas tratan de hacer que la imagen que aparece en la pantalla luzca real y que los objetos, en ella representada actúen con realismo.

SISTEMAS DE MAPEO POR VIDEO.

Este enfoque se basa en la filmación, mediante cámaras de vídeo, de una o más personas y la incorporación de dichas imágenes a la pantalla del computador, donde podrán interactuar - en tiempo real – con otros usuarios o con imágenes gráficas generadas por el computador.

De esta forma, las acciones que el usuario realiza en el exterior de la pantalla (ejercicios, bailes, etc.) se reproducen en la pantalla del computador permitiéndole desde fuera interactuar con lo de dentro. El usuario puede, a través de este enfoque, simular su participación en aventuras, deportes y otras formas de interacción física. El sistema comercial Mandala, de origen canadiense, se apoya en este tipo de enfoque. Otra interesante posibilidad del mapeo mediante vídeo consiste en el encuentro interactivo de dos o más usuarios a distancia, pudiendo estar separados por centenares de kilómetros.

SISTEMAS INMERSIVOS.

Los más perfeccionados sistemas de Realidad Virtual permiten que el usuario pueda sentirse “sumergido” en el interior del mundo virtual. El fenómeno de inmersión puede experimentarse mediante 4 modalidades diferentes, dependiendo de la estrategia adoptada para generar esta ilusión. Ellas son:

1

Página 40INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 41: Proyecto informativo

a) El operador aisladob) La cabina personalc) La cabina colectiva (pods, group cab)d) La caverna o cueva (cave)

Una variante de este enfoque lo constituye el hecho de que no exista casco como tal, sino un visor incorporado en una armadura que libera al usuario del casco, suministrándole una barra (como la de los periscópios submarinos) que permite subir, bajar o controlar la orientación de la imagen obtenida mediante el visor.Otra forma interesante de sistemas inmersivos se basa en el uso de múltiples pantallas de proyección de gran tamaño dispuestas ortogonalmente entre sí para crear un ambiente tridimensional o caverna (cave) en la cual se ubica a un grupo de usuarios. De estos usuarios, hay uno que asume la tarea de navegación, mientras los demás pueden dedicarse a visualizar los ambientes de Realidad Virtual dinamizados en tiempo real.

SISTEMAS DE TELEPRESENCIA (Telepresence).

Esta tecnología vincula sensores remotos en el mundo real con los sentidos de un operador humano. Los sensores utilizados pueden hallarse instalados en un robot o en los extremos de herramientas tipo Waldo. De esta forma el usuario puede operar el equipo como si fuera parte de él.Esta tecnología posee un futuro extremadamente prometedor. La NASA se propone utilizarla como recurso para la exploración planetaria a distancia.La telepresencia contempla, obligatoriamente, un grado de inmersión que involucra el uso de control remoto, pero tiene características propias lo suficientemente discernibles como para asignarle una clasificación particular.

SISTEMAS DE REALIDAD MIXTA O AUMENTADA.

Al fusionar los sistemas de telepresencia y realidad virtual obtenemos los denominados sistemas de Realidad Mixta. Aquí las entradas generadas por el computador se mezclan con entradas de telepresencia y/o la visión de los usuarios del mundo real.

Este tipo de sistema se orienta a la estrategia de realzar las percepciones del operador o usuario con respecto al mundo real. Para lograr esto utiliza un tipo esencial de HMD de visión transparente (see trouhg), que se apoya en el uso de una combinadora que es una pantalla especial, la cual es transparente a la luz que ingresa proveniente del mundo real, pero que a la vez refleja la luz apuntada a ella mediante los dispositivos ópticos ubicados en el interior del HMD.

En este sentido se percibe un prometedor mercado para los sistemas de Realidad Mixta en industrias y fábricas donde el trabajador debe llevar a cabo operaciones complejas de construcción o mantenimiento de equipos e instrumentos.

SISTEMAS DE REALIDAD VIRTUAL EN PECERA.

Este sistema combina un monitor de despliegue estereoscópico utilizando lentes LCD con obturador acoplados a un rastreador de cabeza mecánico. El sistema resultante es superior a

Página 41INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 42: Proyecto informativo

la simple combinación del sistema estéreo WOW debido a los efectos de movimientos introducidos por el rastreador.

COMO TRABAJA LA REALIDAD VIRTUAL.

El computador y el software especial que el mismo utiliza para crear la ilusión de Realidad Virtual constituye lo que se ha denominado “máquina de realidad” (“reality engine”). Un modelo tridimensional detallado de un mundo virtual es almacenado en la memoria del computador y codificado en microscópicas rejillas de “bits”. Cuando un cibernauta levanta su vista o mueve su mano, la “máquina de realidad” entreteje la corriente de datos que fluye de los sensores del cibernauta con descripciones actualizadas del mundo virtual almacenado para producir la urdimbre de una simulación tridimensional.

Una “máquina de realidad” es el corazón de cualquier sistema de realidad virtual porque procesa y genera Mundos Virtuales, incorporando a ese proceso uno o más computadoras. Una “máquina de realidad” obedece a instrucciones de Software destinadas al ensamblaje, procesamiento y despliegue de los datos requeridos para la creación de un mundo virtual, debiendo ser lo suficientemente poderosa para cumplir tal tarea en “tiempo real” con el objeto de evitar demoras (“lags”) entre los movimientos del participante y las reacciones de la máquina a dichos movimientos. El concepto de “máquina de realidad” puede operar a nivel de computadoras personales, estaciones de trabajo y supercomputadoras. El computador de un sistema de Realidad Virtual maneja tres tipos de tareas:

a) Entrada de Datosb) Salida de datosc) Generación, operación y administración de mundos virtuales.

Lo descrito constituye solo una parte del sistema de Realidad Virtual. El Ciberespacio constituye una producción cooperativa de la “máquina de realidad” basada en microchips y la “máquina de realidad neutral” alojada en nuestro cráneo. El computador convierte su modelo digital de un mundo en el patrón apropiado de puntos de luz, visualizados desde la perspectiva apropiada e incluyendo ondas audibles, mezclados en la forma apropiada para más o menos convencernos que nos encontramos experimentando un mundo virtual.

Sobre los ojos, dos pantallas de cristal líquido montadas en un casco de visualización permiten que las imágenes de síntesis varíen en perfecta sincronización con nuestros movimientos. Si giramos la cabeza hacia la derecha, la imagen se desplaza –en tiempo real- hacia la izquierda. Si avanzamos, la imagen aumenta de tamaño, igual que si nos acercásemos a ella. Nos colocamos un guante y una mano artificial obedece a los más mínimos movimientos de nuestra mano.

DIFERENCIA ENTRE LO REAL Y LO VIRTUAL.

El desarrollo de computadoras más veloces, el crecimiento de las memorias RAM y la miniaturización siempre creciente de los componentes junto a los avances en el diseño de sofisticados programas de gráfica han hecho aparecer en las pantallas "mundos" completamente artificiales. El film "El hombre del jardín" ha sido especialmente ilustrativo acerca de este nuevo campo llamado "realidad virtual". Esta nueva expresión ya está entrando en el lenguaje diario,

Página 42INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 43: Proyecto informativo

aunque algunas veces en forma no muy apropiada. ¿Qué es, en verdad, una realidad "virtual?" ¿Qué es lo que, en computación o en teleinformática, podemos llamar con propiedad "realidad virtual?" ¿Puede tener importancia fuera del mero ámbito de la recreación (juegos de computadoras)? ¿Afecta la enseñanza, especialmente en la universidad?

Vivimos en una época de Realidad Virtual. Creemos que todo es real a nuestro alrededor, sin embargo en gran parte es gran medida ficción. Por tanto, ficción, mulación, que asimilamos a través de los canales que tenemos a disposición: desde la TV hasta las revistas.La Realidad es la cualidad o estado de ser real o verdadero.Lo virtual es lo que resulta en esencia o efecto, pero no como forma, nombre o hecho real.

El scrolling de toda computadora ejemplifica la RV, al hacer scrolling de un mapa el usuario tiene la facilidad de que con el Mouse puede ir viendo la parte del mapa que prefiera, esto da la sensación de ir navegando por el mapa, pero este no está en ningún lado, ya que no es cierto que la computadora este viendo ese pedazo del mapa y lo demás esté oculto en el espacio, ya que lo que se está viendo no se encuentra en ningún lado, porque la información está en el disco y al darle la instrucción a la máquina de que busque la información esta la busca en el rígido y la procesa a tal velocidad que la impresión que le da al usuario es que el mapa está ahí pero en realidad, no existe.UNA NUEVA SOCIEDAD EN DESPLIEGUE.

Con la expansión de las comunicaciones en red una nueva sociedad está emergiendo al lado de la sociedad real. Se trata de la sociedad virtual. Su territorio es el ciberespacio y su tiempo, como no, es el tiempo virtual. Se trata de un fenómeno novedoso, cuyas características son escasamente conocidas, puesto que esta sociedad está en pleno despliegue. Es una sociedad que no podría existir al margen de la sociedad real, que es su soporte material. Pero, aunque comparte con ella un conjunto de rasgos comunes, tiene sus propias especifidades, que la han convertido en un tema de gran interés para los académicos interesados en indagar las características que tendrá la nueva sociedad que se está gestando en medio de la crisis de la sociedad industrial. LA SOCIEDAD VIRTUAL Y LA ACADEMIA.

Dos indicadores de este creciente interés son la aparición de disciplinas académicas dedicadas a su estudio, como la flamante ciberantropología, reconocida como disciplina académica en 1992, y la multiplicación de eventos académicos dedicados a discutir su naturaleza, de los cuales los más importantes son los Congresos Mundiales sobre el Ciberespacio, el quinto de los cuales se realizó en Madrid en junio de 1996, y las implicaciones que tendrá su expansión sobre los distintos órdenes de lo social.

Se vienen multiplicando, también, los ensayos y las tesis académicas dedicadas al análisis de la sociedad virtual. Sus temas son tan variados como el estudio etnográfico de las comunidades virtuales los hackers, los cultores de los juegos de rol en línea (muds), los cyberpunks, etc., las nuevas identidades sociales que vienen emergiendo en el mundo virtual, y la forma cómo se plantean viejos temas de la dinámica social real en la sociedad virtual, como, por ejemplo, las percepciones y las interacciones entre raza, etnía y género, o la relaciones entre la economía, las comunicaciones y el poder.

Existe una rica y compleja dialéctica entre la sociedad real y la sociedad virtual, cuyas características recién empiezan a explorarse. Una influye sobre la otra y viceversa. A medida que

Página 43INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 44: Proyecto informativo

un mayor número de personas se van incorporando a las redes, y a través de ellas en diverso grado a la sociedad virtual, el peso relativo de ambas se va modificando y con él se altera también la lógica de sus interacciones.

La sociedad real y la virtual comparten un conjunto de características comunes, pero también tienen grandes diferencias. Por una parte, prácticamente todas las contradicciones sociales de la sociedad real se encuentran también en la sociedad virtual, pero la forma en que éstas se despliegan adquiere en algunos casos matices propios y en ciertas oportunidades adopta una lógica abiertamente contradictoria con la del mundo social real. Tal cosa sucede, por ejemplo, en las relaciones entre las colectividades sociales y las naciones. Mientras que en la sociedad real moderna las naciones son un referente decisivo, en la sociedad virtual éstas no tienen una significativa importancia. El ciberespacio no tiene fronteras y es planetario por su naturaleza. Sin embargo, las posibilidades del pleno despliegue de las potencialidades de la sociedad virtual pueden ser apoyadas o bloqueadas de acuerdo, por ejemplo, a la política adoptada por los gobiernos de la sociedad real. A su vez, la trama de las relaciones sociales establecidas en el ciberespacio puede jugar un papel muy importante en la aceleración de la crisis del Estado-nación de base territorial, como hoy lo conocemos.

La propia existencia de las redes electrónicas ha permitido que el debate de estos temas alcance una dimensión planetaria. De hecho, una buena parte de los estudios dedicados a la sociedad virtual se encuentran disponibles en Internet, al alcance de quienes quieran revisarlos. Esto favorece, al mismo tiempo, la fácil emergencia de una conciencia de pertenencia entre sus integrantes. Sin embargo la configuración final de la sociedad virtual no puede ser descrita entre otras cosas porque aún no está totalmente definida. Esto abre por un corto período la posibilidad de intervenir en su configuración. Si no lo hacemos, igualmente terminaremos incorporados, pero nuevamente de una forma subordinada: no como sujetos sino como objetos del proceso; como consumidores pasivos y no como productores activos; como víctimas, en lugar de protagonistas del mismo. Soy un convencido de que junto con muchos peligros el despliegue de la sociedad virtual abre un conjunto de posibilidades. Depende de nosotros aprovechar éstas y prevenirnos de aquellos. Pero el tiempo apremia. Según una aguda observación, los cambios en Internet son de tal magnitud que un año de su historia equivale a siete de los de cualquier otro medio. Medida así su evolución, ha transcurrido casi un siglo desde el nacimiento de la red de redes, la World Wide Web tiene dos décadas de antigüedad y hasta el final del siglo (es decir en los próximos tres años) habrá experimentado una evolución equivalente a dos décadas adicionales de crecimiento y desarrollo. De allí el sentimiento de urgencia que el tema suscita.

6. SOFTWARE FINANCIERO

Este es un breve recorrido por el módulo de contabilidad, del software contable administrativo creado en Ecuador Latinium, que soporta y reduce sus pesadas actividades diarias; haciendo su trabajo más agradable rápido y eficiente. Los sistemas contables facilitan las labores como se muestra a continuacion en un recorrido por los diversos programas.Plan de CuentasSe muestra en forma de árbol o en la forma tradicional de una grilla. La visualización en forma de árbol mejora la búsqueda y agrupación de cuentas permitiendo desplazarse rápidamente entre diferentes grupos de cuentas, mientras mantiene visible la estructura global de su plan de

Página 44INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 45: Proyecto informativo

cuentas. La codificación que se usa, el número de niveles depende del usuario; ajustándose el sistema a sus gustos o necesidades; los planes de cuenta se pueden pasar desde otros programas contables financieros o desde Excel; evitando la carga adicional de trabajo de repetir información que ya digitó anteriormente.

El Software Contable Latinium permite el ingreso de diferentes tipos de comprobantes de diario como son: Asientos, Ingresos, Egresos, Notas de Debito, Notas de Credito, Notas de Transferencia, adicionalmente el usuario puede crear otros tipos de comprobantes a su gusto. Todos estos formatos tienen su numeración y formatos de impresión independiente los cuales se pueden adaptar a formatos existentes. Parte del soporte técnico inicial es la configuración de reportes como son entre otros egresos y cheques, cuadrados a la impresión de formatos presimpresos existentes y listos para usar.La mayoría de los asientos son creados automáticamente a través de los módulos integrados como son las compras, ventas, cuentas por cobrar y pagar, retenciones, roles de pago, activos fijos, etc. estos procesos estan explicados detalladamente en losAsientos Autormáticos del Software Contable Latinium

Existe una variedad amplia de reportes, que mediante un rápido vistazo, le permiten visualizar como las diferentes actividades han afectado el estado de su empresa y realizar el análisis requerido.Reportes

Página 45INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 46: Proyecto informativo

Los principales informes que se pueden obtener son: Diarios, Mayores, Balance General, Balance de Resultados y el Balance de Comprobación; a estos reportes se los puede aplicar los filtros indicados en la parte central del siguiente gráfico como por ejemplo Centro de Costo o proyecto. Todos los reportes se los puede mostrar entre fechas, no se está limitado a meses.

El resultado del ejemplo anterior se muestra en la siguiente pantalla en el que se muestra en la columna número la referencia de factura o pago del cual se originó el asiento contable. Esta presentación puede variar dependiendo del tipo de reporte escogido, por ejemplo en puede escoger un reporte de mayor que incluya el número de cheque utilizado.

El proceso generado también va a alimentar el Balance de Comprobación de sumas y saldos, Balance General o Estado de Situación Financiera, y al Balance de Resultados, en la siguiente figura se muestra el Balance de comprobacion en un periodo de 2 días; existen varios formatos en los cuales se pueden imprimir cualquiera de los balances. Otras posibilidades del Software Contable Latinum es imprimir los balance en 2, 4, 6 u 8 columnas.

Página 46INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 47: Proyecto informativo

Todos los reportes tienen la posibilidad de exportación a varios formatos como son Microsoft Word, Microsoft Excel, PDF Acrobat Reader, RTF. También se puede imprimir en cualquier impresora local o en red, y en caso de requerirlo se puede imprimir solo ciertas páginas o la totalidad. Por otro lado el usuario puede modificar o crear nuevos reportes de acuerdo a sus gustos.Los procesos de mayorización y desamayorización son usados en sistemas anteriores, ahora en el Latinium al momento de realizar un cambio el efecto se verá reflejado en todos los reportes como por ejemplo balance de comprobación, balance de resultados, y balance general .Conciliación BancariaEn base a la información registrada en los asientos sean estos manuales o automáticos se genera la siguiente pantalla en la que se pone los vistos en las filas que se encuentren en el estado de cuenta del banco. Esto es todo el proceso que se necesita para la generación del estado de cuenta del banco. Este proceso puede ser más eficiente si se cuenta con un archivo de Excel proporcionado por el banco con el cual, el software contable Latinium puede realizar este proceso automáticamente.

Una vez que ha realizado la conciliacion bancaria y los ajustes requeridos, no desea que se modifique la informacion anterior, a una fecha especifica, para realizar esta actividad existe la pantalla de Bloqueo de Asientos.Bloqueo de Asientos Los asientos pueden ser bloqueados para que no exista ninguna modificación, en caso de desear este proceso puede ser revertido desde la misma pantalla.

Índices Financieros.- UD. puede crear las formulas deseadas para la generación de los índices financieros como se muestra en la siguiente figura.

Página 47INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 48: Proyecto informativo

Centros de Costo y Proyectos Con el uso de centros de costos y proyectos en el software contable Latinium, se permite obtener información filtrado por estos conceptos, por ejemplo si se ha ingresado los centros de costo Quito y Guayaquil, cada asiento puede estar definido a que centro de costo pertenece con lo cual se logra que el programa pueda filtrar cualquier tipo de reporte contable por centros de costo, asi se puede obtener por ejemplo el balance de resultados de Quito, de Guayaquil o el Balance consolidado. Al igual que el Mayor de una cuenta o los asientos de un centro de costo.El sistema permite mediante perfiles de usuario la asignación de los diferentes accesos que tienen los usuarios de acuerdo a sus requerimientos por ejemplo un perfil puede tener acceso a la edición de asientos, a ingresar todas las pantallas y todos los reportes, y otro perfil de usuario solo puede crear asientos nuevos y no ver balances. En todo caso el sistema de auditoria de Latinium permite saber quién y desde que maquina realizó alguna acción y que camino recorrió.La base de datos utilizada Microsoft SQL Server, y la herramienta de programación utilizada Visual Studio .NET son las herramientas de programación más sólidas, estables y las de mayor aceptacion y crecimiento en el Mundo, que garantizan la exactitud y confiabilidad de la información.Este fue un breve recorrido por el módulo de contabilidad, del Software Contable Latinium, le mostramos la flexibilidad del programa para adaptarse a diferentes empresas, y vió como esta desarrollada para le realidad del Ecuador; la forma de asegurar la información y el enlace entre los diferentes partes del programa. La facilidad del sistema contable es uno de los componentes más importantes ahora.

7. COMPILADORES

Página 48INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 49: Proyecto informativo

Compilador

Diagrama a bloques de la operación de un buen compilador.Un compilador es un programa informático que traduce un programa escrito en un lenguaje de programación a otro lenguaje de programación, generando un programa equivalente que la máquina será capaz de interpretar. Usualmente el segundo lenguaje es lenguaje de máquina, pero también puede ser simplemente texto. Este proceso de traducción se conoce como compilación.[1]

Un compilador es un programa que permite traducir el código fuente de un programa en lenguaje de alto nivel, a otro lenguaje de nivel inferior (típicamente lenguaje de máquina). De esta manera un programador puede diseñar un programa en un lenguaje mucho más cercano a como piensa un ser humano, para luego compilarlo a un programa más manejable por una computadora.Partes de un compilador La construcción de un compilador involucra la división del proceso en una serie de fases que variará con su complejidad. Generalmente estas fases se agrupan en dos tareas: el análisis del programa fuente y la síntesis del programa objeto.

Análisis: Se trata de la comprobación de la corrección del programa fuente, e incluye las fases correspondientes al Análisis Léxico (que consiste en la descomposición del programa fuente en componentes léxicos), Análisis Sintáctico (agrupación de los componentes léxicos en frases gramaticales ) y Análisis Semántico (comprobación de la validez semántica de las sentencias aceptadas en la fase de Análisis Sintáctico).

Síntesis: Su objetivo es la generación de la salida expresada en el lenguaje objeto y suele estar formado por una o varias combinaciones de fases de Generación de Código (normalmente se trata de código intermedio o de código objeto) y de Optimización de Código (en las que se busca obtener un código lo más eficiente posible).

Alternativamente, las fases descritas para las tareas de análisis y síntesis se pueden agrupar en Front-end y Back-end:

Front-end: es la parte que analiza el código fuente, comprueba su validez, genera el árbol de derivación y rellena los valores de la tabla de símbolos. Esta parte suele ser independiente de la plataforma o sistema para el cual se vaya a compilar, y está

Página 49INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 50: Proyecto informativo

compuesta por las fases comprendidas entre el Análisis Léxico y la Generación de Código Intermedio.

Back-end: es la parte que genera el código máquina, específico de una plataforma, a partir de los resultados de la fase de análisis, realizada por el Front End.

Esta división permite que el mismo Back End se utilice para generar el código máquina de varios lenguajes de programación distintos y que el mismo Front End que sirve para analizar el código fuente de un lenguaje de programación concreto sirva para generar código máquina en varias plataformas distintas. Suele incluir la generación y optimización del código dependiente de la máquina.El código que genera el Back End normalmente no se puede ejecutar directamente, sino que necesita ser enlazado por un programa enlazador (linker)HistoriaEn 1946 se desarrolló la primera computadora digital. En un principio, estas máquinas ejecutaban instrucciones consistentes en códigos numéricos que señalaban a los circuitos de la máquina los estados correspondientes a cada operación, lo que se denominó lenguaje máquina.Pronto los primeros usuarios de estos ordenadores descubrieron la ventaja de escribir sus programas mediante claves más fáciles de recordar que esos códigos; al final, todas esas claves juntas se traducían manualmente a lenguaje máquina. Estas claves constituyen los llamados lenguajes ensambladores.Pese a todo, el lenguaje ensamblador seguía siendo el de una máquina, pero más fácil de manejar. Los trabajos de investigación se orientaron hacia la creación de un lenguaje que expresara las distintas acciones a realizar de una manera lo más sencilla posible para una persona. El primer compilador fue escrito por Grace Hopper, en 1952 para el lenguaje de programación A-0, En 1950 John Backus dirigió una investigación en IBM sobre un lenguaje algebraico. En 1954 se empezó a desarrollar un lenguaje que permitía escribir fórmulas matemáticas de manera traducible por un ordenador; le llamaron FORTRAN (FORmulae TRANslator). Fue el primer lenguaje de alto nivel y se introdujo en 1957 para el uso de la computadora IBM modelo 704.Surgió así por primera vez el concepto de un traductor como un programa que traducía un lenguaje a otro lenguaje. En el caso particular de que el lenguaje a traducir es un lenguaje de alto nivel y el lenguaje traducido de bajo nivel, se emplea el término compilador.La tarea de realizar un compilador no fue fácil. El primer compilador de FORTRAN tardó 18 años-persona en realizarse y era muy sencillo. Este desarrollo de FORTRAN estaba muy influenciado por la máquina objeto en la que iba a ser implementado. Como un ejemplo de ello tenemos el hecho de que los espacios en blanco fuesen ignorados, debido a que el periférico que se utilizaba como entrada de programas (una lectora de tarjetas perforadas) no contaba correctamente los espacios en blanco.El primer compilador autocontenido, es decir, capaz de compilar su propio código fuente fue el creado para Lisp por Hart y Levin en el MIT en 1962. Desde 1970 se ha convertido en una práctica común escribir el compilador en el mismo lenguaje que este compila, aunque Pascal y C han sido alternativas muy usadas.Crear un compilador autocontenido genera un problema llamado bootstrapping, es decir el primer compilador creado para un lenguaje tiene que o bien ser compilado por un compilador escrito en otro lenguaje o bien compilado al ejecutar el compilador en un intérprete.Tipos de compiladores Esta taxonomía de los tipos de compiladores no es excluyente, por lo que puede haber compiladores que se adscriban a varias categorías:

Página 50INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 51: Proyecto informativo

Compiladores cruzados: generan código para un sistema distinto del que están funcionando.

Compiladores optimizadores: realizan cambios en el código para mejorar su eficiencia, pero manteniendo la funcionalidad del programa original.

Compiladores de una sola pasada: generan el código máquina a partir de una única lectura del código fuente.

Compiladores de varias pasadas: necesitan leer el código fuente varias veces antes de poder producir el código máquina.

Compiladores JIT (Just In Time): forman parte de un intérprete y compilan partes del código según se necesitan.

Pauta de creación de un compilador: En las primeras épocas de la informática, el software de los compiladores era considerado como uno de los más complejos existentes.Los primeros compiladores se realizaron programándolos directamente en lenguaje máquina o en ensamblador. Una vez que se dispone de un compilador, se pueden escribir nuevas versiones del compilador (u otros compiladores distintos) en el lenguaje que compila ese compilador.Actualmente existen herramientas que facilitan la tarea de escribir compiladores ó intérpretes informáticos. Estas herramientas permiten generar el esqueleto del analizador sintáctico a partir de una definición formal del lenguaje de partida, especificada normalmente mediante una gramática formal y barata, dejando únicamente al programador del compilador la tarea de programar las acciones semánticas asociadas.Proceso de compilación Es el proceso por el cual se traducen las instrucciones escritas en un determinado lenguaje de programación a lenguaje máquina. Además de un traductor, se pueden necesitar otros programas para crear un programa objeto ejecutable. Un programa fuente se puede dividir en módulos almacenados en archivos distintos. La tarea de reunir el programa fuente a menudo se confía a un programa distinto, llamado preprocesador. El preprocesador también puede expandir abreviaturas, llamadas a macros, a proposiciones del lenguaje fuente.Normalmente la creación de un programa ejecutable (un típico.exe para Microsoft Windows o DOS) conlleva dos pasos. El primer paso se llama compilación (propiamente dicho) y traduce el código fuente escrito en un lenguaje de programación almacenado en un archivo a código en bajo nivel (normalmente en código objeto, no directamente a lenguaje máquina). El segundo paso se llama enlazado en el cual se enlaza el código de bajo nivel generado de todos los ficheros y subprogramas que se han mandado compilar y se añade el código de las funciones que hay en las bibliotecas del compilador para que el ejecutable pueda comunicarse directamente con el sistema operativo, traduciendo así finalmente el código objeto a código máquina, y generando un módulo ejecutable.Estos dos pasos se pueden hacer por separado, almacenando el resultado de la fase de compilación en archivos objetos (un típico.obj para Microsoft Windows, DOS o para Unix); para enlazarlos en fases posteriores, o crear directamente el ejecutable; con lo que la fase de compilación se almaena sólo temporalmente. Un programa podría tener partes escritas en varios lenguajes (por ejemplo C, C++ y Asm), que se podrían compilar de forma independiente y luego enlazar juntas para formar un único módulo ejecutable.Etapas del proceso El proceso de traducción se compone internamente de varias etapas o fases, que realizan distintas operaciones lógicas. Es útil pensar en estas fases como en piezas separadas dentro del traductor, y pueden en realidad escribirse como operaciones codificadas separadamente aunque en la práctica a menudo se integren juntas.

Página 51INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 52: Proyecto informativo

Fase de análisis Análisis léxico El análisis léxico constituye la primera fase, aquí se lee el programa fuente de izquierda a derecha y se agrupa en componentes léxicos (tokens), que son secuencias de caracteres que tienen un significado. Además, todos los espacios en blanco, líneas en blanco, comentarios y demás información innecesaria se elimina del programa fuente. También se comprueba que los símbolos del lenguaje (palabras clave, operadores,...) se han escrito correctamente.Como la tarea que realiza el analizador léxico es un caso especial de coincidencia de patrones, se necesitan los métodos de especificación y reconocimiento de patrones, y éstos métodos son principalmente las expresiones regulares y los autómatas finitos. Sin embargo, un analizador léxico también es la parte del traductor que maneja la entrada del código fuente, y puesto que esta entrada a menudo involucra un importante gasto de tiempo, el analizador léxico debe funcionar de manera tan eficiente como sea posible.Análisis sintáctico En esta fase los caracteres o componentes léxicos se agrupan jerárquicamente en frases gramaticales que el compilador utiliza para sintetizar la salida. Se comprueba si lo obtenido de la fase anterior es sintácticamente correcto (obedece a la gramática del lenguaje). Por lo general, las frases gramaticales del programa fuente se representan mediante un árbol de análisis sintáctico.La estructura jerárquica de un programa normalmente se expresa utilizando reglas recursivas. Por ejemplo, se pueden dar las siguientes reglas como parte de la definición de expresiones:

1. Cualquier identificador es una expresión.2. Cualquier número es una expresión.3. Si expresión1 y expresión2 son expresiones, entonces también lo son:

o expresión1 + expresión2

o expresión1 * expresión2

o ( expresión1 )Las reglas 1 y 2 son reglas básicas (no recursivas), en tanto que la regla 3 define expresiones en función de operadores aplicados a otras expresiones.La división entre análisis léxico y análisis sintáctico es algo arbitraria. Un factor para determinar la división es si una construcción del lenguaje fuente es inherentemente recursiva o no. Las construcciones léxicas no requieren recursión, mientras que las construcciones sintácticas suelen requerirla. No se requiere recursión para reconocer los identificadores, que suelen ser cadenas de letras y dígitos que comienzan con una letra. Normalmente, se reconocen los identificadores por el simple examen del flujo de entrada, esperando hasta encontrar un carácter que no sea ni letra ni dígito, y agrupando después todas las letras y dígitos encontrados hasta ese punto en un componente léxico llamado identificador. Por otra parte, esta clase de análisis no es suficientemente poderoso para analizar expresiones o proposiciones. Por ejemplo, no podemos emparejar de manera apropiada los paréntesis de las expresiones, o las palabras begin y end en proposiciones sin imponer alguna clase de estructura jerárquica o de anidamiento a la entrada.Análisis semántico La fase de análisis semántico revisa el programa fuente para tratar de encontrar errores semánticos y reúne la información sobre los tipos para la fase posterior de generación de código. En ella se utiliza la estructura jerárquica determinada por la fase de análisis sintáctico para identificar los operadores y operandos de expresiones y proposiciones.

Página 52INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 53: Proyecto informativo

Un componente importante del análisis semántico es la verificación de tipos. Aquí, el compilador verifica si cada operador tiene operandos permitidos por la especificación del lenguaje fuente. Por ejemplo, las definiciones de muchos lenguajes de programación requieren que el compilador indique un error cada vez que se use un número real como índice de una matriz. Sin embargo, la especificación del lenguaje puede imponer restricciones a los operandos, por ejemplo, cuando un operador aritmético binario se aplica a un número entero y a un número real. Revisa que los arreglos tengan definido el tamaño correcto.Fase de síntesis Consiste en generar el código objeto equivalente al programa fuente. Sólo se genera código objeto cuando el programa fuente está libre de errores de análisis, lo cual no quiere decir que el programa se ejecute correctamente, ya que un programa puede tener errores de concepto o expresiones mal calculadas. Por lo general el código objeto es código de máquina relocalizable o código ensamblador. Las posiciones de memoria se seleccionan para cada una de las variables usadas por el programa. Después, cada una de las instrucciones intermedias se traduce a una secuencia de instrucciones de máquina que ejecuta la misma tarea. Un aspecto decisivo es la asignación de variables a registros.Generación de código intermedio Después de los análisis sintáctico y semántico, algunos compiladores generan una representación intermedia explícita del programa fuente. Se puede considerar esta representación intermedia como un programa para una máquina abstracta. Esta representación intermedia debe tener dos propiedades importantes; debe ser fácil de producir y fácil de traducir al programa objeto.La representación intermedia puede tener diversas formas. Existe una forma intermedia llamada "código de tres direcciones" que es como el lenguaje ensamblador de una máquina en la que cada posición de memoria puede actuar como un registro. El código de tres direcciones consiste en una secuencia de instrucciones, cada una de las cuales tiene como máximo tres operandos. Esta representación intermedia tiene varias propiedades:

Primera.- Cada instrucción de tres direcciones tiene a lo sumo un operador, además de la asignación, por tanto, cuando se generan estas instrucciones, el traductor tiene que decidir el orden en que deben efectuarse las operaciones.

Segunda.- El traductor debe generar un nombre temporal para guardar los valores calculados por cada instrucción.

Tercera.- Algunas instrucciones de "tres direcciones" tienen menos de tres operandos, por ejemplo, la asignación.

Optimización de código La fase de optimización de código consiste en mejorar el código intermedio, de modo que resulte un código máquina más rápido de ejecutar. Esta fase de la etapa de síntesis es posible sobre todo si el traductor es un compilador (difícilmente un interprete puede optimizar el código objeto). Hay mucha variación en la cantidad de optimización de código que ejecutan los distintos compiladores. En los que hacen mucha optimización, llamados "compiladores optimizadores", una parte significativa del tiempo del compilador se ocupa en esta fase. Sin embargo, hay optimizaciones sencillas que mejoran sensiblemente el tiempo de ejecución del programa objeto sin retardar demasiado la compilación.Estructura de datos principales La interacción entre los algoritmos utilizados por las fases del compilador y las estructuras de datos que soportan estas fases es, naturalmente, muy fuerte. El escritor del compilador se esfuerza por implementar estos algoritmos de una manera tan eficaz como sea posible, sin

Página 53INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 54: Proyecto informativo

aumentar demasiado la complejidad. De manera ideal, un compilador debería poder compilar un programa en un tiempo proporcional al tamaño del mismo.Componentes léxicos o tokens0 Cuando un analizador léxico reúne los caracteres en un token, generalmente representa el token de manera simbólica, es decir, como un valor de un tipo de datos enumerado que representa el conjunto de tokens del lenguaje fuente. En ocasiones también es necesario mantener la cadena de caracteres misma u otra información derivada de ella, tal como el nombre asociado con un token identificador o el valor de un token de número.En la mayoría de los lenguajes el analizador léxico sólo necesita generar un token a la vez. En este caso se puede utilizar una variable global simple para mantener la información del token. En otros casos (cuyo ejemplo más notable es FORTRAN), puede ser necesario un arreglo (o vector) de tokens.Árbol sintáctico Si el analizador sintáctico genera un árbol sintáctico, por lo regular se construye como una estructura estándar basada en un puntero que se asigna de manera dinámica a medida que se efectúa el análisis sintáctico. El árbol entero puede entonces conservarse como una variable simple que apunta al nodo raíz. Cada nodo en la estructura es un registro cuyos campos representan la información recolectada tanto por el analizador sintáctico como, posteriormente, por el analizador semántico. Por ejemplo, el tipo de datos de una expresión puede conservarse como un campo en el nodo del árbol sintáctico para la expresión.En ocasiones, para ahorrar espacio, estos campos se asignan de manera dinámica, o se almacenan en otras estructuras de datos, tales como la tabla de símbolos, que permiten una asignación y desasignación selectivas. En realidad, cada nodo del árbol sintáctico por sí mismo puede requerir de atributos diferentes para ser almacenado, de acuerdo con la clase de estructura del lenguaje que represente. En este caso, cada nodo en el árbol sintáctico puede estar representado por un registro variable, con cada clase de nodo conteniendo solamente la información necesaria para ese caso.Tabla de símbolos Esta estructura de datos mantiene la información asociada con los identificadores: funciones, variables, constantes y tipos de datos. La tabla de símbolos interactúa con casi todas las fases del compilador: el analizador léxico, el analizador sintáctico o el analizador semántico pueden introducir identificadores dentro de la tabla; el analizador semántico agregará tipos de datos y otra información; y las fases de optimización y generación de código utilizarán la información proporcionada por la tabla de símbolos para efectuar selecciones apropiadas de código objeto.Puesto que la tabla de símbolos tendrá solicitudes de acceso con tanta frecuencia, las operaciones de inserción, eliminación y acceso necesitan ser eficientes, preferiblemente operaciones de tiempo constante. Una estructura de datos estándar para este propósito es la tabla de dispersión o de cálculo de dirección, aunque también se pueden utilizar diversas estructuras de árbol. En ocasiones se utilizan varias tablas y se mantienen en una lista o pila.Tabla de literales La búsqueda y la inserción rápida son esenciales también para la tabla de literales, la cual almacena constantes y cadenas utilizadas en el programa. Sin embargo, una tabla de literales necesita impedir las eliminaciones porque sus datos se aplican globalmente al programa y una constante o cadena aparecerá sólo una vez en esta tabla. La tabla de literales es importante en la reducción del tamaño de un programa en la memoria al permitir la reutilización de constantes y cadenas. También es necesaria para que el generador de código construya direcciones simbólicas para las literales y para introducir definiciones de datos en el archivo de código

Página 54INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 55: Proyecto informativo

De acuerdo con la clase de código intermedio (por ejemplo, código de tres direcciones o código P) y de las clases de optimizaciones realizadas, este código puede conservarse como un arreglo de cadenas de texto, un archivo de texto temporal o bien una lista de estructuras ligadas. En los compiladores que realizan optimizaciones complejas debe ponerse particular atención a la selección de representaciones que permitan una fácil reorganización.Generación de código intermedioDespués de los análisis sintáctico y semántico, algunos compiladores generan una representación intermedia explícita del programa fuente. Se puede considerar esta representación intermedia como un programa para una máquina abstracta. Esta representación intermedia debe tener dos propiedades importantes; debe ser fácil de producir y fácil de traducir al programa objeto. La representación intermedia puede tener diversas formas. Existe una forma intermedia llamada "código de tres direcciones", que es como el lenguaje ensamblador para una máquina en la que cada posición de memoria puede actuar como un registro. El código de tres direcciones consiste en una secuencia de instrucciones, cada una de las cuales tiene como máximo tres operandos. El programa fuente de (1) puede aparecer en código de tres direcciones comotemp1 := entarea1(60) temp2 := id3 * temp1 (2) temp3 := id2 + temp2 id1 := temp3 Esta representación intermedia tiene varias propiedades. Primera, cada instrucción de tres direcciones tiene a lo sumo un operador, además de la asignación. Por tanto, cuando se generan esas instrucciones el compilador tiene que decidir el orden en que deben efectuarse, las operaciones; la multiplicación precede a la adición al programa fuente de. Segunda, el compilador debe generar un nombre temporal para guardar los valores calculados por cada instrucción. Tercera, algunas instrucciones de "tres direcciones" tienen menos de tres operadores, por ejemplo la primera y la última instrucciones de.Optimación de CódigoLa fase de optimación de código trata de mejorar el código intermedio de modo que resulte un código de máquina más rápido de ejecutar. Algunas optimaciones son triviales. Por ejemplo, un algoritmo natural genera el código intermedio (2) utilizando una instrucción para cada operador de la representación del árbol después del análisis semántico, aunque hay una forma mejor de realizar los mismos cálculos usando las dos instruccionesTemp1 := id3 * 60.0 (3) Id1 := id2 + temp1Este sencillo algoritmo no tiene nada de malo, puesto que el problema se puede solucionar en la fase de optimación de código. Esto es, el compilador puede deducir que la conversión de 60 de entero a real se puede hacer de una vez por todas en el momento de la compilación, de modo que la operación entreal se puede eliminar. Además, temp3 se usa sólo una vez, para transmitir su valor a id1. Entonces resulta seguro sustituir a id1 por temp3, a partir de lo cual la última proposición de (2) no se necesita y se obtiene el código de (3).Hay muchas variaciones en la cantidad de optimación de código que ejecutan los distintos compiladores. En lo que hacen mucha optimación llamados "compiladores optimadores", una parte significativa del tiempo del compilador se ocupa en esta fase. Sin embargo hay optimaciones sencillas que mejoran significativamente del tiempo del compilador se ocupa en esta fase. Sin embargo, hay optimaciones sencillas que mejoran sensiblemente el tiempo de ejecución del programa objeto sin retardar demasiado la compilación.Archivos temporales Al principio las computadoras no tenían la suficiente memoria para guardar un programa completo durante la compilación. Este problema se resolvió mediante el uso de archivos temporales para mantener los productos de los pasos intermedios durante la traducción o bien

Página 55INFORMÁTICA / JIMMY NOLE – DIEGO MERINO

Page 56: Proyecto informativo

al compilar "al vuelo", es decir, manteniendo sólo la información suficiente de las partes anteriores del programa fuente que permita proceder a la traducción.Las limitaciones de memoria son ahora un problema mucho menor, y es posible requerir que una unidad de compilación entera se mantenga en memoria, en especial si se dispone de la compilación por separado en el lenguaje. Con todo, los compiladores ocasionalmente encuentran útil generar archivos intermedios durante alguna de las etapas del procesamiento. Algo típico de éstos es la necesidad de direcciones de corrección hacia atrás durante la generación de código.

Página 56INFORMÁTICA / JIMMY NOLE – DIEGO MERINO