UNIVERSIDAD PRIVADA ANTENOR ORREGOFACULTAD DE INGENIERÍA
ESCUELA PROFESIONAL DE COMPUTACIÓN Y SISTEMAS
“Un breve análisis a la evolución del ordenador y sus propuestas de mejoras en un futuro cercano e inmediato”
MONOGRAFIA
Presentada en cumplimiento al requisito del curso de Lenguaje II.
AUTORES:
Armas Escudero, Bruno Daniel
Corre Aponte, Diego Armando
Ruiz Ato, Carlos Armando
Sánchez Ponce, Yeltsin Anthony
DOCENTE:
Ramos Paz, Liliana
TRUJILLO – 2015
PRESENTACIÓN
La presente investigación tiene como objetivo fundamental, el estudio de los
siguientes temas en el área de la computación: generación, evolución, historia e
inventores destacados. Teniendo en cuenta el ideal, que es que pueda ser asequible al
público en general, sin importar su especialidad o grado de instrucción. Para poder
completar esta monografía se ha optado por el método de recopilación de información, la
cual ha sido extraída de diversas fuentes escritas y digitales publicadas por autores de
elite en el área de esta especialidad; todo esto con el fin de poder obtener un material
que pueda servir de apoyo para quienes luego quieran disponer de él.
Los autores
DEDICATORIA
Este trabajo va dedicado al público en general ya que investigar e informar a los demás es una satisfacción muy
grande y nos permite seguir nuestra investigación y así lograr nuestro propósito en un futuro.
A Dios, por brindarnos la dicha de la salud y bienestar físico y espiritual.
AGRADECIMIENTO
A nuestros padres, como agradecimiento a su esfuerzo, amor y apoyo incondicional, durante
nuestra formación tanto personal como profesional.
A nuestros docentes y a nuestra alma mater Universidad Privada Antenor Orrego, por
brindarnos su guía y sabiduría en el desarrollo de este trabajo.
ÍNDICE
DEDICATORIA…………………………………………………………………………… I
AGRADECIMIENTO…………………………………………………………………….. II
ÍNDICE…………………………………………………………………………………… III
I. INTRODUCCIÓN………………………………………………………………………….
II. ANTECEDENTES…………………………………………………………………………
III. HISTORIA DEL ORDENADOR………………………………………………………….
1. ANTES DE 1967………………………………………………………………….
2. DE 1967 A 1977………………………………………………………………….
3. DE 1978 A 1988………………………………………………………………….
4. DE 1989 A LA ACTUALIDAD…………………………………………………
IV. EVOLUCIÓN DEL ORDENADOR……………………………………………………
1. PRIMERA GENERACIÓN……………………………………………………
2. SEGUNDA GENERACIÓN……………………………………………………
3. TERCERA GENERACIÓN……………………………………………………
4. CUARTA GENERACIÓN…………………………………………………….
5. QUINTA GENERACIÓN……………………………………………………..
V. PRÓXIMO ORDENADOR…………………………………………………………….
1. COMPUTADORAS DE GRAFENO…………………………………………
2. COMPUTADORA CUÁNTICA…………………………………………………
3. COMPUTADORA CUÁNTICA CON GRAFENO……………………………
VI. PARTES DEL ORDENADOR………………………………………………………
1. SOFTWARE……………………………………………………………………..
2. HARDWARE…………………………………………………………………….
i. UNIDAD CENTRAL DE PROCESAMIENTO………………………..
ii. PLACA PRINCIPAL, PLACA MADRE O PLACA BASE……………
1. MEMORIA RAM…………………………………………………
2. MEMORIA RAM DINÁMICA………………………………
3. MEMORIAS RAM ESPECIALES……………………………
iii. PERIFÉRICOS…………………………………………………
1. DISPOSITIVOS DE ENTRADA DE INFORMACIÓN (E)
2. DISPOSITIVOS DE SALIDA DE INFORMACIÓN (S)
3. DISPOSITIVOS MIXTOS (E/S DE INFORMACIÓN)
iv. HARDWARE GRÁFICO…………………………………………………
VII. CONCLUSIONES GENERALES…………………………………………………
VIII. REFERENCIAS BIBLIOGRÁFICA…………………………………………………
IX. ANEXOS…………………………………………………
1. INFOGRAFIA PERSONAJES DETACADOS EN LA EVOLUCION DEL
ORDENADOR………………………………………………………
2. INFOGRAFIA ACERCA DE LA EVOLUCION DEL ORDENADOR…………
3. INFOGRAFIA ESTRUCTURA DEL ORDENADOR………………………
4. INFOGRAFIA DE PROTOTIPOS DE ORDENADORES…………………..
5. GLOSARIO…………………………………………………
INTRODUCCIÓN
Con la progresiva digitalización de los contenidos y la informatización de los
servicios, a menudo el usuario de un servicio de información no trata directamente con el
personal del centro (al menos en una primera aproximación) sino con una aplicación
informática, y no consulta o lee documentos en papel sino en formato digital. El
profesional de la información, para ofrecer un buen servicio en este entorno debe dominar
nuevos campos de especialización como el tratado en este artículo, la interacción
persona - ordenador.
Este trabajo ofrece una panorámica de la evolución de las interfaces persona -
ordenador centrándose en las tendencias actuales y en las alternativas al aún
predominante modelo WIMP (Windows, Icons, Menus and Pointing devices).
II. ANTECEDENTES
III. HISTORIA DEL ORDENADOR
1. ANTES DE 1967
La tecnología está en sus comienzos: los ordenadores son grandes máquinas que
procesan comandos en lenguaje máquina en modo batch (la operación se organiza en
grupos o lotes de trabajo), con largos tiempos de espera; la entrada se realiza por tarjetas
perforadas y la salida por impresoras línea a línea; los usuarios son básicamente los
propios programadores (Shackel: 1997).
Para la historia de la IPO (Interacción Persona-Ordenador) lo más importante de este
período son las visiones de diversos científicos, que hicieron proyecciones futuras para
los ordenadores. Entre ellos destacan las ideas de Bush, Nelson y Licklider, así como
los resultados experimentales de Engelbart y Sutherland.
Bush (Bush: 1945) ve a los ordenadores como asistentes documentales que
facilitan el almacenamiento y la interrelación de los documentos. Imagina un dispositivo
que extiende la capacidad de la memoria humana para guardar información de todo tipo,
relacionarla y consultarla con rapidez, al que bautiza como Memex. Su principal
aportación es establecer las bases conceptuales de lo que posteriormente se llamará
“hipertexto”. El artífice de la denominación “hipertexto” y posteriormente también de
“hipermedia”, entre otras, es Ted Nelson (Nelson: 1965), que recupera y expande las
ideas de Bush, trabajando de por vida en su implementación en el proyecto Xanadú.
Xanadú pretende crear el docuverso, un universo de documentos conectados entre sí en
el que se guarda la memoria de la Humanidad y permite la creación de nuevas obras en
las que se incorporan las fuentes originales.
Licklider en 1960 (Licklider: 1990) visiona una compenetración entre hombres y
ordenadores para realizar investigación científica, en la que las máquinas (sólo las más
rápidas y exactas) realizan el trabajo rutinario mientras que los hombres llevan a cabo la
parte creativa. También prevé todos los ordenadores del continente (EUA) conectados
entre sí (Licklider; Wilson, 1990). Crea dos de las grandes ideas que han dirigido la IPO
desde entonces: el ordenador como asociado y como medio. No sólo contribuye a la
disciplina con sus hipótesis, sino que durante muchos años trabaja como director de un
colectivo de investigadores para llevarlas a la práctica. Entre las realizaciones de este
grupo está la interacción a tiempo real entre el usuario y la máquina durante la ejecución
de un proceso en contraposición al funcionamiento por lotes, y la posibilidad de tener
sistemas informáticos multiusuario.
Uno de los talentos contratado por los programas de ARPA (Advanced Research
Project Agency) dirigido por Licklider que merece especial atención es Doug Engelbart
que experimenta con nuevos dispositivos para que el ordenador sirva realmente de
complemento a la mente humana (Engelbart: 1962). Sus aportaciones a la disciplina son
múltiples y de tipo práctico: una pantalla en la que se pueden ver texto y gráficos
simultáneamente, un dispositivo de apuntamiento (él es el inventor del ratón) y una
primera implementación del hipertexto; también presenta algunas ingeniosas ideas para
la gestión de ventanas. Engelbart crea el primer procesador de textos con las
características básicas de los actuales. En el año 1968 demuestra todas estas
posibilidades con el sistema NLS (online System) en una conferencia sobre IPO,
provocando una gran ovación de los asistentes.
A pesar de estos primeros logros, hasta el momento los ordenadores operan
básicamente con números y texto; la manipulación de gráficos, que posteriormente se
desarrollará en los sistemas CAD (Computer Aided Design), viene de la mano de Ivan
Sutherland, estudiante del MIT (Massachusetts Institute of Technology) que en su tesis
de 1963 crea el programa SketchPad para hacer dibujos en la pantalla del ordenador
mediante un lápiz apuntador, guardando en la memoria del ordenador pequeñas
instrucciones para posteriormente manejar los dibujos, reutilizarlos y combinarlos.
2. DE 1967 A 1977
Los ordenadores han experimentado un cambio importante como resultado de
toda la investigación citada; externamente ya cuentan con los dispositivos de entrada y
salida que son comunes actualmente: teclado, componente gráfico de apuntamiento,
pantalla, impresora de documentos. Internamente las limitaciones de memoria son
todavía importantes y los tiempos de espera también. El coste de los aparatos dificulta su
difusión y los usuarios son principalmente investigadores e ingenieros. A nivel de
comunicación aparecen las primeras redes privadas a través de las líneas telefónicas que
al principio se usan para transferir datos en modo batch. El tiempo real aparece
tímidamente alrededor de 1971.
Aunque el estado de la tecnología aún no lo permite, algunos diseñadores ven ya
las posibilidades de la informática para el público en general. En concreto el psicólogo
Seymour Papert crea el lenguaje Logo, para escolares, con el que una tortuga responde
a simples instrucciones de avance y giros creando formas dibujadas con su recorrido.
Este lenguaje demuestra que los niños pueden familiarizarse sin dificultad con los
lenguajes de programación sin ninguna formación especial. Un estudiante de informática,
Alan Kay, impresionado por los logros de Papert y Engelbart visiona un ordenador para
todas y cada una de las personas, con la potencia de NLS y la simplicidad de Logo. Kay
proyecta pues el ordenador personal en su tesis doctoral de 1969 (Kay: 1969) y trabaja
en el equipo fundador de investigadores del Xerox Palo Alto Research Center (PARC)
para hacer realidad su sueño. Sus dos grandes aportaciones son el entorno SmallTalk,
que permite una programación incremental y la reutilización de procedimientos
sembrando la simiente para la futura orientación a objetos del software; y la idea de
conceptualizar las diferentes tareas del ordenador mediante ventanas solapadas. Otra
aproximación al usuario lego en esta etapa es VisiCalc, la primera hoja de cálculo, que ya
permite crear pequeñas rutinas de programación (macros). Finalmente, el uso de las
redes informáticas se popularizará con la aparición, al final de esta etapa, del correo
electrónico, que a la vez será la primera de las herramientas de trabajo cooperativo.
En cuanto a la teoría informática, el mayor conocimiento y experimentación de la
interacción persona–ordenador fructifica en unas primeras pautas de diseño de
interfaces.
3. DE 1978 A 1988
Esta etapa se podría denominar como la del ordenador personal. En ella es
crucial el papel de PARC, que consigue reunir a los principales talentos en el área, pues
en él se fraguan los principales avances tecnológicos e hipótesis de futuro. Por fin el
estado del arte de la tecnología, con la reducción de coste y tamaño de los ordenadores,
permite hacer realidad la idea del ordenador para el público en general. El nuevo
ordenador es una caja con el sistema central y con dispositivos de entrada y salida
estándares: pantalla (ahora ya con bastante resolución), impresora (en esta época
aparecen las láser), teclado y ratón que se dirige al personal de oficina.
Es una época muy rica en avances teóricos en el campo de la IPO, hay un
ambiente entusiasta en la disciplina y Palo Alto es el nido de creación de futuras grandes
empresas informáticas. La riqueza de ideas existente provoca que en el año 1982 se cree
un grupo de interés especial sobre IPO en la ACM (Association for Computing
Machinery), el ACM Sigchi (Special Interest Group on Computer–Human Interaction).
Una de las grandes aportaciones de esta etapa es la incorporación de las teorías de la
psicología cognitiva a la disciplina, especialmente a partir del tratado de Card, Moran y
Newell de 1983 (escrito a partir de investigaciones realizadas por los autores en Xerox
PARC). En esta obra se aplican los conocimientos teóricos de psicología al campo de la
interacción y se crea el modelo GOMS (Goals, Operators, Methods y Selection rules) un
modelo analítico con el que estimar la bondad de un sistema interactivo. En segundo
lugar se definen las bases teóricas de la usabilidad, como metodología para crear
interfaces más fáciles de usar (Bewley: 1983; Butler: 1985; Good, Spine, Whiteside,
George: 1986) como claro exponente de la nueva orientación de la informática centrada
en el usuario en contraposición a la orientación anterior, centrada en la máquina. En
tercer lugar, Ben Shneiderman establece las bases teóricas de la manipulación directa
(que recibe este nombre por reemplazar los lenguajes de comandos por acciones
directas sobre objetos visibles), en un manual de IPO con gran impacto (Shneiderman:
1989) en el que también recopila diversas directrices heurísticas.
Los principios de la manipulación directa descritos por Shneiderman se llevarán a
la práctica de modo experimental en Xerox. El hito más importante de esta etapa es, sin
duda, su implementación en WIMP definido por Xerox, comercializado por Apple y
posteriormente imitado por Microsoft.
Es tan revolucionario el cambio que representan los nuevos ordenadores de
Apple que la empresa difunde públicamente una guía de estilo, unos recursos y unas
herramientas para desarrollar interfaces para su ordenador. La consistencia, que
defiende la importancia de mantener unas convenciones en todos los programas para
facilitar su aprendizaje y memorización, cobra así una gran importancia como principio
heurístico de diseño. Su éxito es enorme: WIMP ha prevalecido sobre otras posibles
interfaces gráficas hasta la era actual. Paradójicamente su penetración ha frenado la
investigación en interfaces de usuario y se han olvidado ideas previas potencialmente
más ricas.
No influido aún por la predominancia del modelo de interfaz creado por Apple con
su ordenador Macintosh, Negroponte realiza aportaciones experimentales a la disciplina
con Dataland y “put–that–there” (1980). Estas aplicaciones usan reconocimiento del habla
y de los gestos poniendo en práctica varios conocimientos sobre el funcionamiento de la
memoria humana. En el ámbito del hipertexto aparece el primer sistema hipermedia (que
incluye texto y gráficos) creado en la Brown University, y después otros a los que se les
añaden diversos formatos como voz, hojas de cálculo y vídeo.
El entusiasmo inicial y las grandes expectativas creadas por los ordenadores
producen finalmente un desencanto en el público, que encuentra los aparatos difíciles de
usar, frustrantes, y poco flexibles. Ante el fracaso de muchos diseños se incorporan
nuevos métodos de usabilidad en el desarrollo del software desde sus fases iniciales y se
adopta el modelo de desarrollo en espiral: la especificación se realiza en múltiples
iteraciones a partir de diseños previos o prototipos que se evalúan con la participación del
usuario. El desencanto afecta también a la aplicabilidad de las teorías cognitivas; éstas
se cuestionan fuertemente y se buscan nuevos fundamentos teóricos en la antropología
con el influyente libro de Suchman (1987) como ejemplo. En su obra, defiende la
necesidad de que los sistemas informáticos sean como mapas, que propongan pero no
prescriban rutas, que se adapten a diversos cursos de acción y que sean altamente
reactivos, es decir informen inmediatamente de los resultados de una acción para
parecerse más a las interacciones persona–persona de la vida real. Su influencia provoca
la redefinición de la usabilidad, que ahora tendrá en cuenta el entorno y las situaciones
concretas de la interacción (Löwgren, 1995) e incorporará algunas técnicas de
antropología.
4. DE 1989 A LA ACTUALIDAD
Es una etapa difícil de sintetizar por la falta de perspectiva existente que no
permite aún hacer divisiones claras en el tiempo. Aun así, la importancia de los cambios
habidos justifica una exposición en, al menos, tres sub-apartados.
La worldwide web.
Es el cambio más importante de este período, entendido como la aplicación
estrella de internet. Aporta dos novedades: es una interfaz centrada en el documento y no
en la aplicación, que rompe los límites entre la información local y la remota.
La web no sólo es un avance tecnológico sino que se convierte en un elemento clave en
el desarrollo de la sociedad de la información, que ha cambiado radicalmente el uso de
los ordenadores. Se inmiscuye en todos los aspectos de la vida en la sociedad: desde la
investigación científica y la educación, pasando por la e–administración, hasta el
comercio electrónico.
Continuismo y crisis en la disciplina.
Como línea continuista a las aportaciones teóricas de la anterior etapa, Nielsen
simplifica y divulga los métodos de la usabilidad para acercarlos a los profesionales de la
IPO, con los “Discount Usability Methods” que tendrán una gran repercusión. Los
procedimientos que propone son mucho más baratos que los de la ingeniería de
usabilidad clásica y se basan principalmente en evaluaciones cualitativas.
Otro cambio tecnológico de la época, también proveniente de las
telecomunicaciones, es la aparición y consolidación de las redes inalámbricas, siendo los
estándares Bluetooth para redes de área personal y Wi–Fi (Wireless Fidelity) para redes
de área local los ejemplos más conocidos. Este cambio se suma a la miniaturización de
los componentes informáticos y posibilita la aparición de múltiples dispositivos móviles y
de pequeño tamaño con prestaciones similares a los ordenadores: portátiles, asistentes
digitales personales, teléfonos móviles; incluso se produce la integración de capacidad de
procesamiento a dispositivos como electrodomésticos, relojes, etc. El cambio tecnológico
provoca a su vez otro en el uso de los ordenadores: se utilizan en escenarios muy
diferentes a los tradicionales (despacho o estudio con buena iluminación, silencio y
concentración), y ahora se usan en el coche, en medio de multitudes, etc.
En las otras áreas de la IPO, aunque se sigue investigando en el reconocimiento
del habla, en general hay pocas aportaciones experimentales o teóricas de relevancia. En
esta etapa diversos autores hablan de la crisis de la disciplina. Observan que el modelo
WIMP ya no tiene utilidad para los nuevos dispositivos (Myers; Hudson; Pausch: 2000;
Beaudoin–Lafon: 2004), ni para los nuevos tipos de usuarios, los cuales tienen diferentes
expectativas respecto a los ordenadores (Beaudoin–Lafon: 2004). Aunque los avances
tecnológicos permitirían mejoras cualitativas importantes (Myers; Hudson; Pausch: 2000)
y se intuye que hay que redefinir teorías y metodologías para crear nuevas pautas, la
predominancia de la www y de WIMP impide cambios importantes en el campo. Don
Norman había resumido ya las críticas a los modelos existentes en su libro The
psychology of everyday things (Norman: 1988), donde sugiere nuevos principios de
diseño basándose en el concepto de affordances (las propiedades percibidas y reales de
los objetos que determinan sus posibles usos).
La computación ubicua, un nuevo paradigma.
Es en este entorno cuando se publica el artículo más influyente de la disciplina en
esta etapa, “Computers for the twentyfirst century” de Mark Weiser, de nuevo un
investigador del laboratorio PARC, sobre computación ubicua. La computación ubicua
defiende que los ordenadores actuales ya no están vinculados al escritorio sino que están
integrados en todos los aparatos y aspectos de nuestras vidas, y las personas se
relacionan con ellos de forma transparente. El ordenador ubicuo rompe las presunciones
en que se basaba gran parte del conocimiento y directrices del diseño en IPO: el foco de
atención del usuario no es el ordenador, seguramente el usuario no tiene las dos manos
libres, no está sentado, etc. Los nuevos ordenadores pueden ser desde grandes paneles
en una pared para trabajo colaborativo, a pequeños dispositivos para tomar notas,
pasando por sensores de presencia que activen sistemas de iluminación o de seguridad.
Algunos autores hablan de la “tercera ola” de la informática en la que la cantidad de
ordenadores por persona cambia radicalmente: al principio de la era informática la
relación era de un ordenador por varias personas; con los ordenadores personales la
relación es de un ordenador por persona; y con la computación ubicua la relación es de
varios ordenadores por persona.
IV. EVOLUCIÓN DEL ORDENADOR
4.1. PRIMERA GENERACIÓN
La primera generación de computadoras comenzó en los años 1940 y se
extendió hasta los 1950. Durante este periodo, las computadoras empleaban tubos al
vacío para conducir la electricidad. El uso de los tubos al vacío hacía que las
computadoras fueran grandes, voluminosas y costosas porque los tubos tenían que ser
continuamente reemplazados debido a que se quemaban con frecuencia. Hasta este
tiempo, las computadoras fueron clasificadas por su dispositivo principal para el
almacenaje en memoria. La UNIVAC I empleaba un ingenioso dispositivo llamado línea
de demora de mercurio (mercury delay line), la cual dependía de pulsos de
ultrasonido.
4.1.1. 1951 – Remington Rand
Desarrolló la primera computadora eléctrica digital, la UNIVAC I (UNIVersal
Automatic Computer).
4.1.2.1953 – IBM 650
Para esta época, por primera vez se emplea ampliamente como sistemas de
computadora el modelo de IBM 650. Originalmente se planificaron producir 50 máquinas,
pero el sistema fue tan exitoso que eventualmente IBM manufactura más de 1,000. Con
las series de máquinas IBM 700, la compañía dominaría el mercado de las
supercomputadoras para la próxima década.
4.1.3.1957 – IBM 305 RAMAC
En el 1957, el sistema de IBM 305 RAMAC es el primero en su clase en utilizar
disco magnético para almacenaje externo. El sistema provee capacidad de
almacenamiento similar a la cinta magnética que fue usada previamente, pero ofrece la
ventaja de capacidad de acceso semi-aleatorio.
4.2. SEGUNDA GENERACIÓN
4.2.1. 1958 – Transistor
Las computadoras construidas con transistores marcan el comienzo de la
segunda generación de los equipos de computadora.
4.2.2. 1959 – IBM 1602
IBM introduce dos pequeñas computadoras de escritorio, a saber: la IBM 1401
para negocios y la IBM 1602 para científicos.
4.3. TERCERA GENERACIÓN
4.3.1. 1964 – IBM 360
La tercera generación de computadoras comenzó en el 1964 con la introducción
de la IBM 360, la computadora que fue la pionera para el uso de circuitos integrados en
un chip. En ese mismo año, los científicos de computadora desarrollaron circuitos
integrados diminutos e instalaron cientos de estos transistores en un solo chip de silicón,
el cual era tan pequeño como la punta de un dedo
4.3.2. 1965 – PDP-8
La “Digital Equipment Corporation” (DEC) introduce la primera minicomputadora,
conocida como la PDP-8.
4.3.3. 1968 – Alan Shugart
Alan Shugard en IBM demuestra el primer uso regular del Disco flexible de 8-
pulgadas (disco de almacenaje magnético).
4.4. CUARTA GENERACIÓN
4.4.1. 1968 – Gilbert Hyatt
El desarrollo de la tecnología de microprocesadores resultó en la cuarta
generación. En 1968, Gilbert Hyatt diseño una computadora que tenía la capacidad de
instalar un microchip de silicón del tamaño de una uña de dedo. Hayatt quería que el
mundo lo reconociera como el inventor que revolucionó la computadora. Después de
veinte años de batallas legales, la oficina de patentes y marcas en Estados Unidos
Continentales le otorgó a Hyatt la patente No. 4,942.516 por un “Single Chip integrated
Circuit Computer Architecture”.
4.4.2. 1971 –Dr. Ted Hoff
En el 1971, el Dr, Ted Hoff, conjuntamente con un grupo de individuos trabajando
en Intel Corporation, desarrollaron un microprocesador o un chip de computadora
microprogramable, conocido con el nombre de Intel 4004. Tal chip solo estaba destinado
para calculadoras, puesto carecía de la potencia necesaria para que pudiera trabajar en
una computadora.
4.4.3. 1975 –la Altair
Tres años más tarde, ellos presentaron en el mercado la versión 8080, la cual era
capaz de correr la unidad de procesamiento de una computadora. En el 1974, Radio
Electronics publicó un artículo sobre la construcción de una computadora casera que
usaba esta tecnología. Subsecuentemente, la revista Popular Electronics escribió una
sección sobre Altair, una computadora que tenía el chip 8080. La Altair, nombrada así
por un episodio de Star Trek, fue introducida por MITS, Inc. Fue vendida en combo por
menos de $400.00. Aunque inicialmente no contaba con teclado, monitor, sin una
memoria permanente y sin programas, fueron tomadas 4,000 órdenes dentro de los
primeros tres meses.
4.4.4. 1976 – Steve Wozniak and Steve Jobs
Las computadoras Apple hicieron su aparición durante la década de los 1970. En
el 1976, Steve Wozniak y Steve Jobs construyeron la primera computadora de Apple.
Este dúo suministraba gratuitamente programas para sus máquinas, adquiriendo un éxito
módico. Con la ayuda de profesionales en este campo, en el 1977 presentaron una nueva
versión mejorada de su máquina de Apple, llamada la Apple II. Este sistema de
computadora fue el primero en su clase en ser aceptado por usuarios comerciantes,
puesto contaba con la simulación de una hoja de cálculo llamada VisiCalc. Era una
computadora de escritorio compacta con 4K de memoria, con precios de $1,298 y una
velocidad del reloj de 1.0.
4.4.5. 1980 – IBM PC
La corporación de IBM entró en el mercado de las computadoras personales,
lanzando la IBM PC. Esta computadora fue un éxito rotundo y se convirtió en un “best
seller”. Debido al éxito de la entrada de la IBM en el mercado de microcomputadoras tipo
PC, otras corporaciones de computadoras decidieron capitalizar tal popularidad al
desarrollar sus propios clones. Estas computadoras personales contaban con muchas de
los mismos rasgos de las máquinas IBM y eran capaces de correr los mismos programas.
Se hizo realidad el uso diseminado de computadoras personales.
4.5. QUINTA GENERACIÓN
En la quinta generación, surgieron computadoras con chips de alta velocidad.
4.5.1. 1991 – Toushstone Delta Supercomputer
En el 1991, Cal Tech hizo público su “Touchstone Delta Supercomputer”, la cual
ejecutaba 8.6 billones de cálculos por segundo. Al presente, existen computadoras que
pueden llevar a cabo miles de operaciones simultáneamente y la frecuencia de la
ejecución de estas máquinas se mide en teraflops. Un teraflop es equivalente a la
ejecución de 1 trillón de operaciones de puntos flotantes por segundo.
V. PRÓXIMO ORDENADOR
5.1. COMPUTADORAS DE GRAFENO:
El grafeno es uno de los materiales más ligeros, más conductivos y más
resistentes de la tierra.
Se puede utilizar el agua en conjunción con el grafeno para crear un transistor.
El grafeno tiene el potencial de hacer los ordenadores más resistentes, mucho más
pequeños y mucho más rápidos que los que tenemos hoy en día. Un dispositivo del
tamaño de un Tablet podría tener la capacidad de procesamiento y memoria que toda
una red de ordenadores.
5.2. COMPUTADORA CUÁNTICA:
Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas
que hacen posibles nuevos algoritmos.
La superposición cuántica permite mantener simultáneamente dos estados en un bit
cuántico, es decir 0 y 1 a la vez, la superposición cuántica logra el paralelismo cuántico.
Una de las ventajas de la computadora cuántica es que es capaz de realizar cálculos en
todas sus superposiciones al mismo tiempo. Un qubit no es muy diferente del bit de un
ordenador digital, pero si se usan varios la potencia de los qubits supera por mucho a los
bits tradicionales.
5.3. COMPUTADORA CUÁNTICA CON GRAFENO:
El grafeno permite lo que llaman “efecto Hall cuántico fraccionario” (FQHE, por
fractional quantum Hall effect).
HARALD BRUNE y su equipo de la Universidad de Lausana (Suiza), han
descubierto la posibilidad real de usar dispositivos basados en GRAFENO para abrir el
campo de la espintrónica.
Uno de los requisitos para la computación cuántica, es un dispositivo que permita
a la vez la transmisión de un par de señales por un único canal usando electrones.
Los científicos suizos cultivaron películas de GRAFENO sobre rutenio e iridio utilizando la
deposición química en fase vapor (CVD). Los resultados en el material fueron
abrumadores, el equipo de HARALD dice que están centrados en el estudio de las
moléculas, que han de ser suficientemente duraderas en su estado magnético para tener
control y hacer realidad dispositivos cuánticos.
Hablan de la posibilidad de almacenar un bit de información en el estado
magnético en un solo átomo de metal de transición, cuando en la actualidad se usan 107
átomos para cada bit en discos duros magnéticos.
Las posibilidades reales del GRAFENO en la electrónica traerán un replanteamiento
industrial de la misma.
VI. PARTES DEL ORDENADOR
6.1. SOFTWARE:
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a los fines
prácticos se puede clasificar al software en tres grandes tipos:
6.1.1. SOFTWARE DE SISTEMA: Su objetivo es desvincular adecuadamente al usuario
y al programador de los detalles del sistema informático en particular que se use,
aislándolo especialmente del procesamiento referido a las características internas
de: memoria, discos, puertos y dispositivos de comunicaciones, impresoras,
pantallas, teclados, etc. El software de sistema le procura al usuario y
programador adecuadas interfaces de alto nivel, controlador, herramientas y
utilidades de apoyo que permiten el mantenimiento del sistema global. Incluye
entre otros:
Sistemas operativos
Controladores de dispositivos
Herramientas de diagnóstico
Herramientas de Corrección y Optimización
Servidores
Utilidades
6.1.1. SOFTWARE DE PROGRAMACIÓN: Es el conjunto de herramientas que permiten
al programador desarrollar programas informáticos, usando diferentes alternativas
y lenguajes de programación, de una manera práctica. Incluyen básicamente:
Editores de texto
Compiladores
Intérpretes
Enlazadores
Depuradores
Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores
herramientas, usualmente en un entorno visual, de forma tal que el
programador no necesite introducir múltiples comandos para compilar,
interpretar, depurar, etc. Habitualmente cuentan con una avanzada
interfaz gráfica de usuario (GUI).
6.1.2. Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una o
varias tareas específicas, en cualquier campo de actividad susceptible de ser
automatizado o asistido, con especial énfasis en los negocios. Incluye entre
muchos otros:
Aplicaciones para Control de sistemas y automatización industrial
Aplicaciones ofimáticas
Software educativo
Software empresarial
Bases de datos
Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
Videojuegos
Software médico
Software de cálculo numérico y simbólico.
Software de diseño asistido (CAD)
Software de control numérico (CAM)
6.2. Hardware
6.2.1. Unidad central de procesamiento
6.2.2. Placa principal, placa madre o placa base
6.2.3. Memoria RAM
6.2.3.1. Memoria RAM dinámica
6.2.3.2. Memorias RAM especiales
6.2.4. Periféricos
6.2.4.1. Dispositivos de entrada de información (E)
6.2.4.2. Dispositivos de salida de información (S)
6.2.4.3. Dispositivos mixtos (E/S de información)
6.2.5. Hardware gráfico
VII. CONLUSIONES GENERALES
VIII. REFERENCIAS BIBLIOGRÁFICAS
IX. ANEXOS
9.1. INFOGRAFIA PERSONAJES DETACADOS EN LA EVOLUCION DEL
ORDENADOR:
9.2. INFOGRAFIA ACERCA DE LA EVOLUCION DEL ORDENADOR
9.3. INFOGRAFIA ESTRUCTURA DEL ORDENADOR
9.3.1. EXTERNA:
9.3.2. INTERNA:
9.4. INFOGRAFIA DE PROTOTIPOS DE ORDENADORES
9.5. GLOSARIO:
1. Abstracto: No concreto, sin realidad propia, de difícil comprensión; sin aplicación
concreta.
2. Adaptabilidad: Facilidad con la que un sistema o un componente pueden
modificarse para corregir errores, mejorar su rendimiento u otros atributos, o
adaptarse a cambios del entorno.
3. Archivo (fichero): Son documentos computacionales que contienen información
(al contrario de instrucciones), como texto, imágenes, sonido, video, etc. Ej.: una
carta escrita en un procesador de texto.
4. Arquitectura de Computadores: Trata del diseño interno de los componentes de
un computador y la comunicación entre ellos en un lenguaje llamado
ensamblador, que es el lenguaje propio de la máquina.
5. Biométrico: La biométrica es el estudio de métodos automáticos para el
reconocimiento único de humanos basados en uno o más rasgos conductuales o
físicos intrínsecos. El término se deriva de las palabras griegas "BIOS" de vida y
"metro" de medida.
6. Cibernética: Es una aplicación de la ciencia, en el ámbito tecnológico la podría
definir como aquella función que le ayuda al hombre para poder organizar
maquinas que hagan el trabajo del hombre de una forma más eficiente y rápida.
7. Ciclo de máquina: Tiempo o período en que los elementos y memorias de la PC
deben responder a la CPU para el intercambio de datos.
8. Clones: Se refiere a los modelos de PCs cuyo diseño se ciñe a la arquitectura de
PCs originales IBM.
9. CMOS: Common Metal Oxide Semiconductor. Chip que sirve de almacenamiento
a la configuración de la PC y es alimentado por pila.
10. Compiladores: Estos programas son los que traducen las órdenes del usuario
(dadas a través de un programa computacional o una orden dada por consola)
que están conformados por letras y números, a un lenguaje de máquina
conformado por secuencias de impulsos eléctricos.
11. Componente: Una de las partes que forman un sistema. Un componente puede
ser hardware, software, y puede a su vez subdividirse en otros componentes.
12. Constante: Estructura de programación que contiene datos. Puede contener
números o caracteres alfanuméricos y el programador le asigna un nombre único.
Mantiene los datos invariablemente, es decir, no cambia ni dentro de la realización
ni dentro de la ejecución de un programa.
13. Contador: En programación: estructura de programación que contiene datos
alfanuméricos y el programador le asigna un nombre único, se usa generalmente
para almacenar la cantidad de veces que se ejecute una acción o ciclo dentro de
le ejecución de un programa. En internet: dispositivo que cuenta el número de
visitas o de impactos que ha recibido un sitio web. Suele aparecer en la página
inicial del sitio.
14. CPU: Central Processing Unit, Unidad Central de Procesamiento de instrucciones
de programas y subrutinas que permite el direccionamiento a memoria bajo
ciertos modos de operación.
15. Criterio de Escritura: Modo de operación de las memorias cachés en que la CPU
recibe datos actualizados.
16. Chipsets: Conjunto de chips que definen el funcionamiento general de buses e
interfaces de la PC, enviando y recibiendo datos de la CPU y otros elementos.
17. Descripción del sistema: Documento orientado al cliente que describe las
características del sistema desde el punto de vista del usuario final. El documento
se utiliza para coordinar conjuntamente los objetivos del sistema del usuario,
cliente, desarrollador e intermediarios.
18. Diseño: Proceso de definición de la arquitectura, componentes, interfaces y otras
características de un sistema o de un componente.
19. Disponibilidad: El grado con el que se mide la accesibilidad de un sistema o de
un componente cuando es necesario su uso. Suele expresarse en términos de
probabilidad.
20. Dirección lineal: Modo de operación de la CPU que permite la no segmentación
de aplicaciones en memoria.
21. EPA: Environmental Protection Agency – Entidad mundial que controla los efectos
de los dispositivos en el ser humano y medio ambiente.
22. Esclavo: Elemento de la PC que ocupa una posición inmediata a un dispositivo
de su mismo tipo.
23. Entropía: Medida del desorden y su influencia en el equilibrio.
24. Equifinalidad: Es una característica de los sistemas abiertos, y se entiende como
la propiedad de alcanzar determinados objetivos por caminos muy diferentes, con
independencia de las condiciones individuales que posea el sistema.
25. Excel: Hoja de cálculo con todas las facilidades para computadores personales y
Macintosh de Microsoft. Puede enlazar varias hojas de cálculo para su
consolidación y provee una amplia variedad de gráficos y diagramas comerciales,
para crear materiales de presentación.
26. Exoarquitectura: Es la estructura y capacidad funcional de la arquitectura visible
al programador de assembler ( qué y cómo hace cada instrucción, por ejemplo
una instrucción MVCL -move character long- se utiliza para mover un string de
caracteres de longitud variable).
27. Extensión de Archivo: Son los caracteres que, precedidos de un punto,
aparecen detrás del nombre de un archivo. Permiten identificar y clasificar los
ficheros.
28. Factor de Interpolación: Salto secuencia que deben hacer las cabezas de
lectura de discos duros entre sectores, para evitar la pérdida de datos debido a la
velocidad rotacional del disco.
29. Fallo de Protección General: GPF. Error que se presenta cuando un programa
de una aplicación excede el espacio estipulado para otro programa.
30. Firmware: Término que se refiere a estructuras de código de medio nivel que
involucran procesos de software y hardware.
31. FlashBIOS: Modalidad de memoria ROM programable y modificable de
actualización que permite la comunicación entre dispositivos de tecnología Plug &
Play.
32. Font: Carácter tipográfico para computación con medida variable.
33. Grafeno: Es una sustancia formada por carbono puro, con átomos dispuestos en
patrón regular hexagonal, similar al grafito, pero en una hoja de un átomo de
espesor.
34. Hardware: Se refiere a todas las partes físicas de un sistema informático; sus
componentes son: eléctricos, electrónicos, electromecánicos y mecánicos. Son
cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico
involucrado.
35. Hipertexto: Son enlaces a vínculos que encontramos cuando estamos
navegando en una página de Internet y que al dar clic sobre ellos
automáticamente nos abre una nueva página que se relaciona con la que estamos
utilizando.
36. Inherente: Algo que por su naturaleza debe mantener unido a algo o es esencial
de él y no puede ser separado.
37. Inteligencia Artificial: Este concepto lo definiría como una creación de máquinas
que son capaces de crear conocimiento a partir de una especie de algoritmos,
aunque debo decir que no se trata de crear inteligencia por sí sola, sino que como
lo dije, esta inteligencia se crea a partir de una serie de cálculos.
38. Internet: red de redes. Sistema mundial de redes de computadoras
interconectadas.
39. Interfaz de usuario: Interfaz que permite la comunicación entre un usuario y un
sistema, o los componentes de un sistema.
40. Isomorfismo: Del griego isomorfo, pretende indicar de varios sistemas con la
misma estructura.
41. Multimedia: Referido al audio, datos y video.
42. Multitarea: Capacidad de posibilitar la ejecución de distintas tareas de forma
simultánea.
43. Megabyte: Unidad de medida utilizada en informática que equivale a 1.024
Kilobyte
44. Paradigma: Etimológicamente, se origina en la palabra griega (parádeigma) que
a su vez se divide en dos vocablos "pará" (junto) y "déigma" (modelo), en general,
etimológicamente significa «modelo» o «ejemplo» .Modelo o patrón en cualquier
disciplina científica.
45. Producto de software: Conjunto de programas, procedimiento y opcionalmente
documentación asociada que se entrega al usuario como resultado.
46. Programa principal: Componente de software, llamado desde un sistema
operativo y que a su vez suele llamar a otros componentes de software.
47. Prototipo: Versión preliminar de un sistema que sirve de modelo para fases
posteriores. Sistema de software: entradas del usuario, salidas (presentadas) al
usuario, consultas del usuario, archivos usados por el sistema e interfaces
externos.
48. Software: Es el conjunto de los programas de cómputo, procedimientos, reglas,
documentación y datos asociados, que forman parte de las operaciones de un
sistema de computación.
49. Realidad virtual: Es un sistema o interfaz informático que genera entornos
sintéticos en tiempo real, representación de las cosas a través de medios
electrónicos o representaciones de la realidad, una realidad ilusoria, pues se trata
de una realidad perceptiva sin soporte objetivo, sin red extensa, ya que existe sólo
dentro del ordenador. Por eso puede afirmarse que la realidad virtual es una
speudo realidad alternativa, perceptivamente hablando.
50. Redes: Son líneas conexas que nos permiten intercambiar información. ej.: los
computadores, los teléfonos, las video conferencias... en fin, toda clase de
tecnología moderna que sirva para transferir información de un lugar a otro
51. Redundancia: Presencia de componentes auxiliares en un sistema para realizar
funciones idénticas o similares a las de los componentes principales.
52. Registro: Es una pequeña unidad de almacenamiento destinada a contener cierto
tipo de datos. Puede estar en la propia memoria central o en unidades de
memoria de acceso rápido.
53. Retroalimentación: En el concepto de Sistema, uno o varios productos o salidas
se convierten luego en entradas para repetir el ciclo del sistema.
54. Sinergia: Asociación, correlación entre las partes y estructuras.
55. Sistema Experto: Un sistema experto es aquel que posee la capacidad de utilizar
el razonamiento para que a través de una información suministrada y basándose
en conocimientos incorporados con anterioridad se llegue a una conclusión.
56. Subsistema: Sistema subordinado a otro mayor.
57. Telecomunicaciones: Esto se refiere a comunicación a distancia. Es decir poder
comunicarnos con alguien aunque se encuentre a kilómetros de distancia de
nosotros.
58. UAE: Unrecoverable Application Error – Error Irrecuperable de Aplicación que
involucra la integridad del sistema.Véase Integridad del Sistema.
59. UART: Universal Asynchronous Receiver Transmiter - Chip que controla la
información vía puerto serial.
60. Unidad Lógica: Término que se utiliza para denominar las unidades de disco que
se crean con software.
61. Variable de Entorno: Valores que utilizan las aplicaciones para referirse a una
parte específica de la PC sin la necesidad de utilizar o repetir el mismo parámetro.
62. Velocidad Externa: Se refiere a la velocidad que no hace parte de las
especificaciones internas de la CPU.
63. Windows 95: Sistema Operativo para PC cuya arquitectura de 32-bits soporta un
sistema completo de multitareas a través de un esquema de memoria virtual
paginada.
Top Related