Trabajo de Sistemas Galvis 9-4

41
TRABAJO DE SISTEMAS SEBASTIAN GALVIS VILLEGAS GRADO: 9-4 AL DOCENTE DAVID PARRA I.E.T.I RAFAEL NAVIA VARON SANTIAGO DE CALI

description

Trabajo sistemas Galvis 9-4

Transcript of Trabajo de Sistemas Galvis 9-4

TRABAJO DE SISTEMAS

SEBASTIAN GALVIS VILLEGAS

GRADO: 9-4

AL DOCENTE

DAVID PARRA

I.E.T.I RAFAEL NAVIA VARON

SANTIAGO DE CALI

ENERO 29 DEL AÑO 2015

Historia de los computadores

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las

investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico (en inglés ENIAC, Electronic Numerical Integrator and Computer) en 1946. El ENIAC, que según se demostró se basaba en gran medida en el ordenador Atanasoff-Berry (en inglés ABC, Atanasoff-Berry Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

Ejemplos de sistemas operativos:

Windows

Mac

Linux

Dos

Gnu

Andorid

Symbian

iOs

Java

Generación de los computadores

Las computadoras han ido evolucionando desde su creación, pasando por diversas generaciones, desde 1940 hasta la actualidad, la historia de las computadoras ha pasado por muchas generaciones y la sexta, la más reciente, que se viene integrada con microprocesadores Pentium.

El Electronic Numerical Integrator and Computer, más conocido como ENIAC, se ha considerado a menudo la primera computadora de propósito general, aunque este título pertenece en realidad a la computadora alemana Z1. Era totalmente digital, es decir, ejecutaba sus procesos y operaciones mediante instrucciones en lenguaje máquina, a diferencia de otras máquinas contemporáneas de procesos analógicos. Presentada al público el 15 de febrero de 1946, John W. Mauchly y John P. Eckert de la Universidad de Pensilvania (EEUU) iniciaron su desarrollo en 1943. Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17 468 válvulas. El calor de las válvulas elevaba la temperatura de la sala donde se hallaba instalada hasta los 50º C. y para que llevase a cabo las operaciones para las que se había diseñado. Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark II. En 1951, el que está considerado como la primera computadora que se llamó Saly fue ampliamente comercializada, la UNIVAC I, comenzó a funcionar con éxito. En 1952 la computadora UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El resultado victoria (Eisenhower sobre Adlai Stevenson) se conoció 45 minutos después de que se cerraran los colegios electorales.

Dispositivos de entrada

En informática, un periférico de entrada es un dispositivo utilizado para proporcionar datos y señales de control a la unidad central de procesamiento de una computadora.

A pesar de que el término “periférico” implica a menudo el concepto de “adicional pero no esencial”, muchos perféricos son elementos fundamentales para un sistema informático. Sin embargo, al ser las fuentes primordiales de entrada, se pueden considerar como extensiones del sistema.

Un dispositivo de entrada es cualquier periférico (dispositivo del equipamiento del hardware de computadora) utilizado para proporcionar datos y señales de control a un sistema de procesamiento de información. Los periféricos de entrada y salida componen la interfaz del hardware, por ejemplo entre un escáner o controlador seis grados de libertad (6DOF).

Ejemplos: teclado, ratón óptico, escáner, micrófono, palanca de mando, gamepad o controlador de videojuego, que están conectados a la computadora y son

controlados por el microprocesador

.

Dispositivos de salida

Los periféricos de salida muestran al usuario el resultado de las operaciones realizadas o procesadas por el computador. Un periférico de salida recibe información la cual es procesada por el CPU para luego reproducirla (convertir sus patrones de bits internos) de manera que sea comprensible para el usuario.

Por periférico de salida se entiende un complemento electrónico que es capaz de mostrar y representar la información procesada por el ordenador, en forma de texto, gráficos, dibujos, fotografías, espacios tridimensionales virtuales, esquemas y un largo etc. más.

Por su tecnología, los periféricos de salida se pueden dividir en visuales o soft copy (como las pantallas de computadora) y de impresión o hard copy (como los diversos tipos de impresoras, plotters, etc.).

Son ejemplos de periféricos de salida:

Monitor o pantalla

Impresora

Altavoces

Auriculares

Fax

Tarjeta gráfica

Tarjeta de sonido

Sintetizador de voz

Microfilm

Dispositivos de almacenamiento

Es todo aparato que se utiliza para grabar los datos de la computadora de forma permanente o temporal. Una unidad de disco junto con los discos que graba, son dispositivos de almacenamiento. A veces se dice que una computadora tiene dispositivos de almacenamiento primario o principales y secundarios o auxiliares. Cuando se hace esta distinción, el dispositivo de almacenamiento primario es la memoria de acceso aleatorio "RAM" de la computadora, un dispositivo de almacenamiento permanente pero cuyo contenido es temporal. El almacenamiento secundario incluye los dispositivos de almacenamiento permanentes, como unidades de disco duro, CD o DVD.

Estos dispositivos realizan las operaciones de lectura o escritura de los soportes donde se almacenan o guardan, lógica y físicamente, los archivos de un sistema informático.

Ejemplos:

Unidad de cinta magnética

Unidad de disco flexible (disquete)

Unidad de disco rígido

Componentes del computador

La unidad central de procesamiento (CPU, por sus siglas del inglés: Central Processing Unit) consta de manera básica de los siguientes tres elementos:

La unidad aritmético lógica (ALU, por sus siglas del inglés: Arithmetic-Logic Unit) es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.

La unidad de control (UC) sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento;

recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).

Los registros: de datos, de memoria, registros constantes, de coma flotante, de propósito general, de propósito específico.

Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de coma flotante.

La memoria principal (MP), conocida como memoria de acceso aleatorio (RAM, por sus siglas del inglés: Random-Access Memory), es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip se subdividen en memoria estática (SRAM) con seis transistores por bit y la mucho más utilizada memoria dinámica (DRAM) un transistor y un condensador por bit. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.

Periféricos de Entrada, de Salida o de Entrada/Salida

Los dispositivos de Entrada/Salida (E/S) sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.

Buses

Las tres unidades básicas en una computadora: la CPU, la MP y el subsistema de E/S, están comunicadas entre sí por buses o canales de comunicación:

Bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,

Bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y

Bus de datos, por donde circulan los datos.

Placa principal, placa madre o placa base

La placa base, también conocida como placa madre o principal o con los anglicismos motherboard o mainboard,13 es un gran circuito impreso sobre el que se suelda el chipset, las ranuras de expansión (slots), los zócalos, conectores, diversos integrados, etc. Es el soporte fundamental que aloja y comunica a todos los demás componentes: Procesador, módulos de memoria RAM, tarjetas gráficas, tarjetas de expansión, periféricos de entrada y salida. Para comunicar esos componentes, la placa base posee una serie de buses mediante los cuales se trasmiten los datos dentro y hacia afuera del sistema.

La tendencia de integración ha hecho que la placa base se convierta en un elemento que incluye a la mayoría de las funciones básicas (vídeo, audio, red, puertos de varios tipos), funciones que antes se realizaban con tarjetas de expansión. Aunque ello no excluye la capacidad de instalar otras tarjetas adicionales específicas, tales como capturadoras de vídeo, tarjetas de adquisición de datos, etc.

También, la tendencia en los últimos años es eliminar elementos separados en la placa base e integrarlos al microprocesador. En ese sentido actualmente se encuentran sistemas denominados System on a Chip que consiste en un único circuito integrado que integra varios módulos electrónicos en su interior, tales como un procesador, un controlador de memoria, una GPU, Wi-Fi, Bluetooth, etc. La mejora más notable en esto está en la reducción de tamaño frente a igual funcionalidad con módulos electrónicos separados. La figura muestra una aplicación típica, en la placa principal de un teléfono móvil.

Las principales funciones que presenta un placa base son:

Conexión física

Administración, control y distribución de energía eléctrica

Comunicación de datos

Temporización

Sincronismo

Control y monitoreo

Memoria RAM

La sigla RAM, del inglés Random Access Memory, literalmente significa memoria de acceso aleatorio. El término tiene relación con la característica de presentar iguales tiempos de acceso a cualquiera de sus posiciones (ya sea para lectura o para escritura). Esta particularidad también se conoce como "acceso directo", en contraposición al Acceso secuencial.

La RAM es la memoria utilizada en una computadora para el almacenamiento transitorio y de trabajo (no masivo). En la RAM se almacena temporalmente la

información, datos y programas que la Unidad de Procesamiento (CPU) lee, procesa y ejecuta. La memoria RAM es conocida como Memoria principal de la computadora, también como "Central o de Trabajo";14 a diferencia de las llamadas memorias auxiliares, secundarias o de almacenamiento masivo (como discos duros, unidades de estado sólido, cintas magnéticas u otras memorias).

Las memorias RAM son, comúnmente, volátiles; lo cual significa que pierden rápidamente su contenido al interrumpir su alimentación eléctrica.

Las más comunes y utilizadas como memoria central son "dinámicas" (DRAM), lo cual significa que tienden a perder sus datos almacenados en breve tiempo (por descarga, aún estando con alimentación eléctrica), por ello necesitan un circuito electrónico específico que se encarga de proveerle el llamado "refresco" (de energía) para mantener su información.

La memoria RAM de un computador se provee de fábrica e instala en lo que se conoce como “módulos”. Ellos albergan varios circuitos integrados de memoria DRAM que, conjuntamente, conforman toda la memoria principal.

Hardware grafico

El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos componentes disponen de su propia memoria y unidad de procesamiento, esta última llamada unidad de procesamiento gráfico (o GPU, siglas en inglés de Graphics Processing Unit). El objetivo básico de la GPU es realizar los cálculos asociados a operaciones gráficas, fundamentalmente en coma flotante,16 liberando así al procesador principal (CPU) de esa costosa tarea (en tiempo) para que éste pueda efectuar otras funciones en forma más eficiente. Antes de esas tarjetas de vídeo con aceleradores por hardware, era el procesador principal el encargado de construir la imagen mientras la sección de vídeo (sea tarjeta o de la placa base) era simplemente un traductor de las señales binarias a las señales requeridas por el monitor; y buena parte de la memoria principal (RAM) de la computadora también era utilizada para estos fines.

Dentro de ésta categoría no se deben omitir los sistemas gráficos integrados (IGP), presentes mayoritariamente en equipos portátiles o en equipos prefabricados (OEM), los cuales generalmente, a diferencia de las tarjetas gráficas, no disponen de una memoria dedicada, utilizando para su función la memoria principal del sistema. La tendencia en los últimos años es integrar los sistemas gráficos dentro del propio procesador central. Los procesadores gráficos integrados (IGP) generalmente son de un rendimiento y consumo notablemente más bajo que las GPU de las tarjetas gráficas dedicadas, no obstante, son más que suficiente para cubrir las necesidades de la mayoría de los usuarios de un PC.

Actualmente se están empezando a utilizar las tarjetas gráficas con propósitos no exclusivamente gráficos, ya que en potencia de cálculo la GPU es superior, más rápida y eficiente que el procesador para operaciones en coma flotante, por ello se está tratando de aprovecharla para propósitos generales, al concepto, relativamente reciente, se le denomina GPGPU (General-Purpose Computing on Graphics Processing Units).

La Ley de Moore establece que cada 18 a 24 meses la cantidad de transistores que puede contener un circuito integrado se logra duplicar; en el caso de los GPU esta tendencia es bastante más notable, duplicando, o aún más, lo indicado en la ley de Moore.17

Desde la década de 1990, la evolución en el procesamiento gráfico ha tenido un crecimiento vertiginoso; las actuales animaciones por computadoras y videojuegos eran impensables veinte años atrás.

Clasificación del software

Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines prácticos se puede clasificar al software en tres grandes tipos:

Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del sistema informático en particular que se use, aislándolo especialmente del procesamiento referido a las características internas de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto nivel, controladores, herramientas y utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye entre otros:

Sistemas operativos

Controladores de dispositivos

Herramientas de diagnóstico

Herramientas de Corrección y Optimización

Servidores

Utilidades

Software de programación: Es el conjunto de herramientas que permiten al programador desarrollar programas informáticos, usando diferentes alternativas y lenguajes de programación, de una manera práctica. Incluyen básicamente:

Editores de texto

Compiladores

Intérpretes

Enlazadores

Depuradores

Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).

Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre muchos otros:

Aplicaciones para Control de sistemas y automatización industrial

Aplicaciones ofimáticas

Software educativo

Software empresarial

Bases de datos

Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)

Videojuegos

Software médico

Software de cálculo numérico y simbólico.

Software de diseño asistido (CAD)

Software de control numérico (CAM)

Historia de los microprocesadores

La evolución del microprocesador[editar]

El microprocesador surgió de la evolución de distintas tecnologías predecesoras, básicamente de la computación y de la tecnología de semiconductores. El inicio de esta última data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años 1970, produciendo el primer microprocesador. Dichas tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras específicas para aplicaciones militares. En la posguerra, a mediados de la década de 1940, la computación digital emprendió un fuerte crecimiento también para propósitos científicos y civiles. La tecnología electrónica avanzó y los científicos hicieron grandes progresos en el diseño de componentes de estado sólido (semiconductores). En 1948 en los laboratorios Bell crearon el transistor.

En los años 1950, aparecieron las primeras computadoras digitales de propósito general. Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos activos. Módulos de tubos al vacío componían circuitos lógicos básicos, tales como compuertas y flip-flops. Ensamblándolos en módulos se construyó la computadora electrónica (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras.

Para la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción de una computadora digital precisa

numerosos circuitos o dispositivos electrónicos. Un paso trascendental en el diseño de la computadora fue hacer que el dato fuera almacenado en memoria. Y la idea de almacenar programas en memoria para luego ejecutarlo fue también de fundamental importancia (Arquitectura de von Neumann).

La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio (Si), de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital se reemplazo del tubo al vacío por el transistor, a finales de la década de 1950.

A principios de la década de 1960, el estado de arte en la construcción de computadoras de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).

A mediados de los años 1960 se producen las familias de circuitos de lógica digital, dispositivos integrados en escala SSI y MSI que corresponden a baja y mediana escala de integración de componentes. A finales de los años 1960 y principios de los 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible incrementar la cantidad de componentes en los circuitos integrados. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria eran un buen ejemplo.

Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando uno que fue llamado microprocesador, unión de las palabras «Micro» del griego μικρο-, «pequeño», y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micro métrica a nanométrica; y además, es, sin duda, un procesador.

El primer microprocesador fue el Intel 4004,1 producido en 1971. Se desarrolló originalmente para una calculadora y resultó revolucionario para su época. Contenía 2.300 transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo trabajando a una frecuencia de reloj de alrededor de 700 KHz.

El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados de 1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300 transistores y podía procesar a frecuencias máximas de 800Khz.

El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200.000 instrucciones por segundo trabajando a alrededor de 2MHz.

El primer microprocesador de 16 bits fue el 8086. Fue el inicio y el primer miembro de la popular arquitectura x86, actualmente usada en la mayoría de los computadores. El chip 8086 fue introducido al mercado en el verano de 1978, pero debido a que no había aplicaciones en el mercado que funcionaran con 16 bits, Intel sacó al mercado el 8088, que fue lanzado en 1979. Llegaron a operar a frecuencias mayores de 4Mhz.

El microprocesador elegido para equipar al IBM Personal Computer/AT, que causó que fuera el más empleado en los PC-AT compatibles entre mediados y finales de los años 1980 fue el Intel 80286 (también conocido simplemente como 286); es un microprocesador de 16 bits, de la familia x86, que fue lanzado al mercado en 1982. Contaba con 134.000 transistores. Las versiones finales alcanzaron velocidades de hasta 25 MHz.

Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de Intel, fabricado a mediados y fines de la década de 1980; en sus diferentes versiones llegó a trabajar a frecuencias del orden de los 40Mhz.

El microprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium surgió en 1993 con una frecuencia de trabajo de 66Mhz. El procesador Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito, declarándose como el más rápido del mundo, en su época. Llegó a 1Ghz de frecuencia hacia el año 2001. Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de circulación, el Alpha aún encabezaba la lista de los microprocesadores más rápidos de Estados Unidos.2

Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de

transistores, como es en el caso de las serie Core i7, y pueden operar a frecuencias normales algo superiores a los 3GHz (3000MHz).

Historia de unidades de almacenamiento

CINTA MAGNÉTICA.

Años más tarde debido a la necesidad de llevar un orden en estas tarjetas y de no tener que perder tanto tiempo introduciendo una por una, se crea la cinta de tarjeta perforada, mejor conocida como cinta perforada, y de esta manera se hace muchísimo mas fácil la portabilidad de este sistema. No paso mucho tiempo cuando se descubre las nuevas tecnologías de las cintas magnéticas y se comienza a aplicar en el almacenamiento de datos para computadoras ya que las misas consistían básicamente en espacios de cinta cubierta de oxido ferroso, donde se colocaba positivo y negativo, dependiendo del caso, el principio era tener una serie de imanes entrelazados en una cinta a los cuales les pedía cambiar la polaridad y esto hacia que se trabajara bajo el mismo principio de las perforados pero sin necesidad de tener orificios , solo trabajándola por ondas magnéticas, esto se lograba con el componente ferroso que se colocaba sobre la cinta; para asegurarse esos datos se crearon distintas formas que a la larga comenzaron a ser obsoletas, ya que el tamaño que tenían antes cintas era demasiado grande.

Discos duros

Pese a que la evolución de los discos duros está inmersa con la creación de los dispositivos magnéticos de almacenamiento, es preferible considerarlo en un punto aparte ya que su estructura compleja amerita utilizar un espacio reservado para él.

Siempre han tenido el mismo principio de desarrollo, que consiste en que los discos duros se presentan recubiertos de una capa magnética delgada, habitualmente de óxido de hierro, y se dividen en unos círculos concéntricos cilindros (coincidentes con las pistas de los disquetes), que empiezan en la parte exterior del disco (primer cilindro) y terminan en la parte interior (último).

DISCOS COMPACTOS

Pasado un tiempo cuando ocurre la aparición del modelo 80586 de Intel cuando se logran ver los primeros resultados de un estudio de años, y eran los Discos compactos, conocidos como Cd´s, en estas unidades se podía almacenar hasta 650 Megabytes, lo que era un gran avance ya que todavía estaban disco duros con menor capacidad vigentes en el mercado, así como también habían de mayor capacidad de los mismos.

Esta tecnología trabajó por lectura/escritura óptica, es decir, la unidad lectora sencilla de computador personal conocida como CD-ROM, la medida de rapidez de esta unidad es mediante la letra "X" lo que significa cada X es 150Kb/s, inicialmente existieron unidades de 2X, luego de 4X, luego de 8X, y así sucesivamente fue evolucionando, hasta que sacaron un modelo experimental de 100X que no era mas que una farsa, ya que la unidad no alcanzaba mas de 50X pero tenía un doble buffer, cosa que facilitaba el trabajo para el CPU, debido a esta situación, hubo que quedarse con las unidades de máximo 52X para lectura (Es decir, 7.8 megabytes por segundo) para lectura. Las unidades personales que grababan en los cd´s, conocidas como "Quemadoras", salen casi a la par de las unidades lectoras, la diferencia fue de casi 2 años, cosa que evitó por un tiempo la piratería que no fue del todo prevista.

El funcionamiento de las unidades de cd no era muy complejo, la lectura de información ocurre cuando se hace pasar un fino haz de láser por la superficie del disco. Que a su vez refleja este haz, y de acuerdo con lo que tiene grabado, un detector lo lee. Diferentemente que los discos duros, los CD están grabados en una pista tipo espiral, que comienza en la parte interior, y termina en la orilla.

Los cd´s mantienen su calidad y su vigencia hasta nuestros días, lo único que ha variado en ellos es la capacidad que ahora llega hasta 900 Mb. Y existen discos compactos rescribidles que tampoco fueron soltados al mercado inicialmente.

LASER AZUL

Las razones son claras, y es que los diseñadores de la misma, (referencias en la página Web de la empresa Osta) pensaron bajo el siguiente paradigma, "si todos los dispositivos de almacenamiento óptico (CD, DVD, MO...) usan un rayo láser, el cual es dirigido a un pequeñísimo lugar del disco mediante una lente especial; en los dispositivos CD y DVD actuales, se usa un tipo de láser especial basado en Arseniuro de Galio (GaAs), que produce un haz de luz casi infrarrojo, y además la forma ovalada que consigue el láser antes de llegar a dicha lente especial (lente de objetivo) debe ser convertida a un punto de aproximadamente 1micra de diámetro para leer correctamente las marcas del disco.

Para producir este pequeño punto es necesario comprimir el haz de láser en un cono convergente de luz. La convergencia es medida por la Apertura Numérica (NA), la cual, para sistemas que funcionan al aire libre, tiene un valor máximo de 1.0. Entonces, La capacidad total de lectura se puede aumentar utilizando un rayo láser para detectar las marcas del disco, lo que implicaría, un tamaño mínimo para estas marcas, en contraste con la longitud del espectro de luz empleado.

Historia de los dispositivos de impresión

Una impresora es un dispositivo periférico del ordenador que permite producir una gama permanente de textos o gráficos de documentos almacenados en un formato electrónico, imprimiéndolos en medios físicos, normalmente en papel, utilizando cartuchos de tinta o tecnología láser (con tóner).

Muchas de las impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.

Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetas CompactFlash, Secure Digital o Memory Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora.

Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y los gastos por página es relativamente alto.

Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más.

Dispositivos biométricos

La biometría (del griego bios vida y metron medida) es el estudio de métodos automáticos para el reconocimiento único de humanos basados en uno o más rasgos conductuales o rasgos físicos intrínsecos.

En las tecnologías de la información (TI), la «autentificación biométrica» o «biometría informática» es la aplicación de técnicas matemáticas y estadísticas sobre los rasgos físicos o de conducta de un individuo, para su autentificación, es decir, “verificar” su identidad.

Las huellas dactilares, la retina, el iris, los patrones faciales, de venas de la mano o la geometría de la palma de la mano, representan ejemplos de características físicas (estáticas), mientras que entre los ejemplos de características del comportamiento se incluye la firma, el paso y el tecleo (dinámicas). La voz se considera una mezcla de características físicas y del comportamiento, pero todos los rasgos biométricos comparten aspectos físicos y del comportamiento.

La biometría no se puso en práctica en las culturas occidentales hasta finales del siglo XIX, pero era utilizada en China desde al menos el siglo XIV. Un explorador y escritor que respondía al nombre de Joao de Barros escribió que los comerciantes chinos estampaban las impresiones y las huellas de la palma de las manos de los niños en papel con tinta. Los comerciantes hacían esto como método para distinguir entre los niños jóvenes.

En Occidente, la identificación confiaba simplemente en la memoria de Eidetic (memoria fotográfica) hasta que Alphonse Bertillon, jefe del departamento fotográfico de la Policía de París, desarrolló el sistema antropométrico (también conocido más tarde como Bertillonage) en 1883. Este era el primer sistema preciso, ampliamente utilizado científicamente para identificar a criminales y convirtió a la biométrica en un campo de estudio. Funcionaba midiendo de forma precisa ciertas longitudes y anchuras de la cabeza y del cuerpo, así como registrando marcas individuales como tatuajes y cicatrices. El sistema de Bertillon fue adoptado extensamente en occidente hasta que aparecieron defectos en el sistema –principalmente problemas con métodos distintos de medidas y cambios

de medida. Después de esto, las fuerzas policiales occidentales comenzaron a usar la huella dactilar– esencialmente el mismo sistema visto en China cientos de años antes.

En estos últimos años la biométrica ha crecido desde usar simplemente la huella dactilar, a emplear muchos métodos distintos teniendo en cuenta varias medidas físicas y de comportamiento. Las aplicaciones de la biometría también han aumentado –desde sólo identificación hasta sistemas de seguridad y más.

La idea para usar patrones de iris como método de identificación fue propuesto en 1936 por el oftalmólogo Frank Burch. Para la década de 1980 la idea ya había aparecido en películas de James Bond, pero permanecía siendo ciencia ficción.

En 1985 los doctores Leonard Flom y Aran Safir retomaron la idea. Su investigación y documentación les concedió una patente en 1987. En 1989 Flom y Safir recurrieron a John Daugman para crear algoritmos para el reconocimiento de iris. Estos algoritmos, patentados por Daugman en 1994 y que son propiedad de Iridian Technologies, son la base para todos los productos de reconocimiento de iris.

En 1993 la Agencia Nuclear de Defensa empezó a trabajar con IriScan, Inc. para desarrollar y probar un prototipo. 18 meses después el primer prototipo se completó y está disponible comercialmente.

Reconocimiento de iris

El iris es una membrana pigmentada suspendida en el interior del ojo, entre la córnea y el cristalino. Regula el tamaño de la pupila para controlar la cantidad de luz que ingresa al ojo. Adquiere su pigmentación de la melanina.

Antes de que ocurra el reconocimiento de iris, se localiza el iris usando características del punto de referencia. Estas características del punto de referencia y la forma distinta del iris permiten digitalización de la imagen, el aislamiento de la característica, y la extracción. La localización del iris es un paso importante en el reconocimiento del iris porque, si está hecho incorrectamente, el

ruido resultante (e.g., pestañas, reflexiones, pupilas, y párpados) en la imagen puede conducir al bajo rendimiento.

Debido a que el infrarrojo tiene energía insuficiente para causar efectos fotoquímicos, la modalidad potencial principal de daños es termal. Cuando se produce NIR usando los diodos electroluminosos, la luz que resulta es incoherente. Cualquier riesgo para la seguridad del ojo es remoto con una sola fuente de LED usando tecnología de LED de hoy. Los iluminadores múltiples de LED pueden, sin embargo, producir daño en el ojo si no es diseñado y usado cuidadosamente.

Reconocimiento de Facial 2D y 3D

El rostro de la persona es una característica física que permite la identificación de la persona de manera única y estable. Existen equipos que capturan el patrón 2D (proyección en el plano) y equipos que capturan el patrón 3D (descripción volumétrica del rostro).

La desventaja de los equipos 2D es que el sistema no distinge si lo que está capturando es realmente un rostro o una fotografía de un rostro, por lo que no ofrecen un nivel de seguridad suficiente en la mayoría de aplicaciones de control de acceso.

Los equipos con tecnología biométrica facial 3D incluyen la tecnología infrarroja combinada con la 3D, con lo que inhabilitan el uso de caretas o fotografías para falsificar el rostro. Gracias a esto, la biometría facial 3D permite la identificación sin contacto de forma muy rápida y segura, debido a que se consigue contruir un patrón 3D del rostro de la persona identificada.

Por lo tanto, los equipos 3D ofrecen una seguridad mucho más elevada ya que necesitan un rostro real (no una fotografía) para identificar el usuario. Por esta razón en aplicaciones de control de acceso y control de presencia es aconsejable usar equipos de reconocimiento facial 3D.

Otra característica importante de los sistemas de reconocimiento facial es la capacidad de identificar a la persona sin contacto (normalmente del orden de decenas de centímetros), por lo que estos sistemas son mucho menos intrusivos que los basados en biometría dactilar, de iris o vascular. A parte de ser menos intrusivos, esta capacidad de identificación a distancia, hace que tengan muy buena aceptación para aplicaciones de control de acceso o control de presencia en entornos en que el contacto directo del usuario con el terminal pueda representar problemas (ya sea por cuestiones de higiene o bien por qué los usuarios llevan guantes).

Reconocimiento vascular

En la biometría vascular se extrae el patrón biométrico a partir de la geometría del árbol de venas del dedo. A diferencia de la huella dactilar el patrón biométrico es interno, por esta razón no deja rastro y solo se puede conseguir en presencia de la persona. Es por tanto muy difícil el robo de identidad.

Debido a estas características es especialmente indicado para entornos de alta seguridad, así como en entornos duros, en que la superficie del dedo (y por consiguiente la huella superficial) pueden estar en mal estado, erosionados o poco limpios.

Pulsaciones cardíacas

Criptógrafos de la Universidad de Toronto desarrollaron una pulsera llamada Nymi, que mediante el uso de un voltímetro detecta las pulsaciones cardíacas y utiliza el electrocardiograma como un método de identificación biométrico. La pulsera se puede utilizar para activar a distancia distintos dispositivos que requieran verificar identidad, aunque aún se encuentra en fase de desarrollo. Para el científico Karl Martin es un método eficaz, porque, a diferencia de las contraseñas, la frecuencia cardíaca «no se puede romper».

Nanotecnología

La nanotecnología es la manipulación de la materia a escala atómica, molecular y supramolecular. La más temprana y difundida descripción de la nanotecnología se refiere a la meta tecnológica particular de manipular en forma precisa los átomos y moléculas para la fabricación de productos a macroescala, ahora también referida como nanotecnología molecular. Subsecuentemente una descripción más generalizada de la nanotecnología fue establecida por la Iniciativa Nanotecnológica Nacional, la que define la nanotecnología como la manipulación de la materia con al menos una dimensión del tamaño de entre 1 a 100 nanómetros. Esta definición refleja el hecho de que los efectos mecánica cuántica son importantes a esta escala del dominio cuántico y, así, la definición cambió desde una meta tecnológica particular a una categoría de investigación incluyendo todos los tipos de investigación y tecnologías que tienen que ver con las propiedades especiales de la materia que ocurren bajo cierto umbral de tamaño. Es común el uso de la forma plural de "nanotecnologías" así como "tecnologías de nanoescala" para referirse al amplio rango de investigaciones y aplicaciones cuyo tema en común es su tamaño. Debido a la variedad de potenciales aplicaciones (incluyendo aplicaciones industriales y militares), los gobiernos han inveritdo miles de millones de dólares en investigación de la nanotecnología. A través de su Iniciativa Nanotecnológica Nacional, Estados Unidos ha invertido 3,7 mil millones de dólares. La Unión Europea ha invertido 1,2 mil millones y Japón 750 millones de dólares.

Nano es un prefijo griego que indica una medida (10-9 = 0,000 000 001), no un objeto; de manera que la nanotecnología se caracteriza por ser un campo

esencialmente multidisciplinar, y cohesionado exclusivamente por la escala de la materia con la que trabaja.

La nanotecnología definida por el tamaño es naturalmente un campo muy amplio, que incluye diferentes disciplinas de la ciencia tan diversas como la ciencia de superficies, química orgánica, biología molecular, física de los semiconductores, micro fabricación, etc. Las investigaciones y aplicaciones asociadas son igualmente diversas, yendo desde extensiones de la física de los dispositivos a nuevas aproximaciones completamente nuevas basadas en el auto ensamblaje molecular, desde el desarrollo de nuevos materiales con dimensiones en la nano escalas a el control directo de la materia a escala atómica.

Actualmente los científicos están debatiendo el futuro de las implicaciones de la nanotecnología. Ka nanotecnología puede ser capaz de crear nuevos materiales y dispositivos con un vasto alcance de aplicaciones, tales como en la medicina, electrónica, biomateriales y la producción de energía. Por otra parte, la nanotecnología hace surgir las mismas preocupaciones que cualquier nueva tecnología, incluyendo preocupaciones acerca de la toxicidad y el impacto ambiental de los nanomateriales,y sus potenciales efectos en la economía global, así como especulaciones acerca de varios escenarios apocalípticos. Estas preocupaciones han llevado al debate entre varios grupos de defensa y gobiernos sobre si se requieren regulaciones especiales para la nanotecnología.

Bibliografía

http://www.monografias.com/trabajos93/historia-y-evolucion-dispositivos-almacenamiento/historia-y-evolucion-dispositivos-almacenamiento.shtml

http://es.wikipedia.org/wiki/Biometr%C3%ADa

http://es.wikipedia.org/wiki/Software

http://es.wikipedia.org/wiki/Computadora#Componentes

http://es.wikipedia.org/wiki/Dispositivo_de_almacenamiento_de_datos

http://es.wikipedia.org/wiki/Generaciones_de_computadoras

http://www.monografias.com/trabajos15/historia-computador/historia-computador.shtml

http://es.wikipedia.org/wiki/Nanotecnolog%C3%ADa

https://www.google.com.co/?gfe_rd=cr&ei=T9jSVMe2L-uNswLa1oHwCw#safe=off&q=dispositivos+de+entrada

https://www.google.com.co/?gfe_rd=cr&ei=T9jSVMe2L-uNswLa1oHwCw#safe=off&q=dispositivos+de+salida

https://www.google.com.co/?gfe_rd=cr&ei=T9jSVMe2L-uNswLa1oHwCw#safe=off&q=amd+radeon

https://www.google.com.co/?gfe_rd=cr&ei=T9jSVMe2L-uNswLa1oHwCw#safe=off&q=amd+jaguar&spell=1