INFORMÁTICA APLICADa A LA administración de...

105
INFORMÁTICA APLICADa A LA administración de EMPRESAs PREPARADO POR LIC. JORGE KARICA C. PARA ESTUDIANTES DE ADMINISTRACIÓN DE EMPRESAS AE202, AE213, AE-307 Y AE413 FAECO-UP

Transcript of INFORMÁTICA APLICADa A LA administración de...

Page 1: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

INFORMÁTICA APLICADa A LA administración de EMPRESAs

PREPARADO POR LIC. JORGE KARICA C.PARA ESTUDIANTES DE ADMINISTRACIÓN DE EMPRESAS

AE202, AE213, AE-307 Y AE413

FAECO-UP

Page 2: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

INFORMÁTICA APLICADAINTRODUCCIÓN

El mundo moderno ha ocasionado, como principal problema, que la mayoría de la población en ningún momento llega a conocer enteramente en que consiste el cambio tecnológico o en que se basan las nuevas tecnologías. Esto sucede porque no hemos estado al tanto de los cambios que se suscitan día a día y porque utilizamos la tecnología pero no necesariamente comprendemos sus principios y su comportamiento. Para algunos no es necesario conocer como funciona un automóvil para conducirlo pero si no se conoce el principio básico del mismo no entenderíamos el porque de revisar los aceites, el agua del radiador, los neumáticos, la batería, la transmisión y otros componentes. Algo similar sucede con los ordenadores, computadores o sistemas electrónicos de procesamiento de datos. ¿Sabe un contador o auditor qué tiene por dentro un ordenador? ¿De qué depende su velocidad? ¿Por qué se necesitan distintos tipos de programas? ¿Cuál es la importancia de la memoria, las unidades de almacenamientos o los dispositivos multimedia? ¿Qué es un microprocesador y para qué sirve? Todas estas preguntas deben poderse responder si orgullosamente ostentamos un título universitario de cualquiera índole pero, aún mas, cuando exigimos nos llamen Magíster o Magístra. La juventud moderna ha evolucionado en este sentido y no hay adolescente que se le haya comprado una computadora que no desee conocer toda la dinámica estructural y funcional de un ordenador de V o VI generación, según sea el caso, para sacarle mayor provecho en su rendimiento, el fenómeno es consecuencia de los video juegos, nintendo y play station con los cuales han convivido desde su nacimiento. En este sentido los profesionales, enchapados a la antigua, todavía cuestionan si deben o no conocer la principal herramienta de gestión con que se cuenta en la actualidad, ya que según sus criterios si no las han necesitado, ya definitivamente no la necesitarán. Toda esta argumentación sería perfectamente razonable si no emergiera, devoradoramente, una juventud habida de utilizar cuanto recurso tenga disponible para superar a cualquiera competencia profesional. Este precioso recurso se llama, hoy en día, tecnología informática aplicada a las ciencias.

2

Page 3: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

OBJETIVOS DE UNA EDUCACIÓN INFORMÁTICA.

Toda persona se siente orgullosa por una cultura religiosa, académica, moral, política y socio económica pero muy pocas hablan de su cultura informática y es debido a la poca importancia que se le da a este género de cultura. Poder identificar a la Informática como ciencia especializada en los sistemas de información y poder diferenciar que son sistemas de información ya debe ser parte de la cultura de un Administrador, Economista, Contador, Médico, Auditor u otro profesional que pretenda poder tomar decisiones en su vida profesional basado en información oportuna, concisa, precisa y eficiente. El objetivo de esta educación se basa en la necesidad que tiene el ser humano de tomar decisiones en casa, en la oficina, en la calle, en la vida y en cualquier ámbito de conocimiento. Se basa en el principio de que todo dato procesado se convierte en información para la toma de algún tipo de decisión.

Toda la ciencia pretende establecer que: “Los datos, como cuantificación de cualquier variable de conocimiento, se organizan, a través del tratamiento, ordenamiento, almacenamiento, recuperación y distribución, para originar la información, que será el elemento esencial en los procesos de toma de decisiones, en cualquier ámbito del conocimiento humano moderno”. Se parte del principio del modelo cibernético simple. Los datos sometidos a procesos se transforman en información, elemento fundamental en la toma de decisiones. La información mejora su eficiencia y calidad a través de un proceso de retroalimentación continuo y sucesivo hacia el entorno de los datos y de los procesos. Dentro del procesamiento de datos podemos diferenciar formas de proceso diferentes: en Procesamiento Electrónico de Datos (PED) se procesan los datos con el auxilio de los ordenadores a diferencia del manual en donde el hombre aplica todas sus capacidades de proceso de los datos, sin el auxilio de herramienta alguna. En el procesamiento electromecánico intervienen los equipos mecánicos movidos por electricidad (Calculadora eléctrica) y en el procesamiento mecánico los equipos mecánicos movidos por el hombre (Ábaco). En el procesamiento cibernético el hombre se auxilia con los equipos de alta tecnología e inteligencia artificial para las necesidades de procesamiento de datos. En el procesamiento de datos, tradicional, la información producida, al darle tratamiento a los datos, se convierte en el producto final independiente de su uso mediato o futuro. En el esquema de la Informática Moderna, la información generada es el punto de base para la toma de decisiones en el entendimiento que la misma es lo mas exacta, precisa, concisa y oportuna, esto es así, por los continuos procesos de retroalimentación que aumentan, sucesivamente, dicha calidad. El esquema gráfico que permite ilustrar en mecanismo se conoce como:

Modelo Cibernético Simple:

DATOS PROCESOS INFORMACIÓN

R

PROCESOS DE CAPTURA

TRATAMIENTO Y TRASFORMACIÓN

PRESENTACIÓN SEGÚN NIVELES

SISTEMA DE INFORMACIÓN

3

Page 4: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

RELACIÓN DE LA INFORMÁTICA CON OTRAS CIENCIAS

Definiciones de informática encontraremos en todos los libros, ya hemos planteado una que consideramos adecuada, intentaremos fijar sus relaciones con otras ciencias.

La Informática, al igual que las matemáticas, se considera apoyo del resto de las ciencias del conocimiento humano y mantiene relaciones muy estrecha con otras ciencias como son: la electrónica, microelectrónica, la física, cibernética, genética, matemáticas, lógica y otras con menor intensidad. A la electrónica le debe el desarrollo de los componentes de las diferentes generaciones de computadores como son: el tubo al vacío (Primera generación), el transistor (Segunda Generación), el Circuito Integrado (Tercera Generación) y los microprocesadores (Cuarta Generación hacia adelante); a la microelectrónica la reducción microscópica de los componentes electrónicos de las recientes generaciones de microcomputadores o microordenadores; a la física el estudio de materiales y componentes para la estructura de los computadores u ordenadores; a la cibernética los mecanismos de control de procesos aplicados en ordenadores o computadores; a la genética la estructura de comportamiento y funcionamiento de los procesadores; a las matemáticas la utilización del sistema numérico binario (Base 2) como elemento básico para la representación interna de los datos dentro de los componentes y a la lógica el diseño de circuitos lógicos para los requerimientos de toma de decisiones internos en los computadores. En la actualidad la informática se convierte en el pilar de todas ciencias debido la capacidad de procesar datos de cada ciencia para convertirlos en información aplicada a la ciencia que permita tomar decisiones en ámbitos científicos específicos.

Las principales divisiones de la informática son: la sistemática (Estudio de los Sistemas de Información), Ofimática (Automatización de los procesos en las oficinas), la Domótica (Estudio del Desarrollo de edificios y viviendas inteligentes) y la telemática (Estudio de los Sistemas de Comunicaciones).

La informática genética pretende identificar procesos derivados del comportamiento genético para aplicarlos al comportamiento cibernético (MD5-Hash e-DNA).

INFORMÁTICA

MICRO-ELECTRÓNICA

ELECTRÓNICA

GENÉTICA

SISTEMÁTICA

TELEMÁTICA

TECNOLOGÍAS INFORMÁTICAS

OFIMÁTICA

DOMÓTICA

MATEMÁTICAS

LÓGICA

ARITMÉTICA

CÁLCULO

SISTEMAS NUMÉRICOS

RELACIÓN DE LA INFORMÁTICA CON OTRAS CIENCIAS

4

Page 5: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

EVOLUCIÓN DE LAS TECNOLOGÍAS INFORMÁTICASSUCESOS DE MAYOR RELEVANCIA ANTES DE LA SEGUNDA GUERRA MUNDIAL.

EL ÁBACO. Resulto ser el instrumento para contar de mayor utilización en el pasado, construido por los chinos, se considera uno de los mayores aportes de la antigüedad

BLAISE PASCAL. Matemático y teólogo francés, a mediados del siglo XVII inventó la primera calculadora mecánica a base de un conjunto de ruedas dentadas que permitían realizas sumas y restas. Las ruedas trabajaban en forma sucesiva, diez dientes de la primera rueda causaban que la segunda rueda avanzara un diente y diez dientes de la segunda causaban un avance de un diente en la tercera. El diseño de ruedas de la “Pascaline” sirvió de base en todas las calculadoras mecánicas hasta mediados de la década del 60.

LEIBNITZ. Científico alemán, en 1694 tomo como base la máquina inventada por Pascal y creo un modelo que permitía multiplicar y dividir mediante sumas y restas sucesivas.

CHARLES BABBAGE. Matemático inglés, en 1835 diseño la máquina de diferencias y la máquina analítica. Entre sus trabajos están una tabla logarítmica y unas tablas de mortandad utilizadas para seguros de vida.

HERNÁN HOLLERITH. Creador del sistema de codificación de Hollerith. Permitía la incorporación de datos en tarjetas a través de la perforación de zonas 12, 11 y 0 combinada con los dígitos de 1 al 9 para formar las 27 letras del alfabeto, o la perforación única de los dígitos de 0 a 9 para los números y de multiperforaciones para los caracteres especiales. Junto a James Pawers realizó el Censo de Población de los Estados Unidos en 1890. Diseñó máquinas de perforación y clasificación que sentaron las bases del procesamiento de datos con equipos como reproductoras, interpretadoras, clasificadoras, calculadoras y tabuladotas de tarjetas mejor conocidos como Equipos de Registro Unitario o UNIT RECORD hasta mediados de los años 1960. Al Señor HOLLERITH se le atribuye la tutoría del sistema de codificación para tarjetas 5081 basado en perforaciones que permitió transcribir datos a tarjetas para su posterior proceso.

HOWARD AIKEN. Cerca del año de 1930, junto con ingenieros de IBM, se desarrollo el primer prototipo de computadora mecánica llamada MARK I con capacidad de almacenar instrucciones a ejecutar. Aiken construyo la MARK II; III Y IV posteriormente.

JOHN V. ATANASOFF. Profesor de la Universidad de IOWA junto a un estudiante graduando, Clifford Barry ensamblaron el prototipo ABC, máquina para hacer cálculos de física en menos tiempo. Atanasoff concibió la idea de una máquina con componentes electrónicos como tubos al vacío, sistema numérico binario (como mecanismo de circuitos interno) y circuitos de memoria y lógica que van a ser característicos del desarrollo de las computadoras modernas.

JOHN ECKERT, JOHN MAUCHLY Y ASOCIADOS. En 1942 en la Universidad de Pennsylvania, escuela de ingeniería eléctrica, se fabricó la computadora ENIAC considerada la primera de índole electrónica.

JOHN VON NEWMANN. Cerca de 1945 desarrolla una teoría respecto a la construcción de una computadora de estructura física sencilla. El aporte fundamental de Von Newmann al

5

Page 6: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

desarrollo de la computadora lo constituye el “principio del programa almacenado” en la memoria de la unidad central de proceso.

SUCESOS RELEVANTES DESPUÉS DE LA SEGUNDA GUERRA MUNDIALGENERACIONES DE ORDENADORES. Características de Estructura.

CARACTERÍSTICA PRIMERAGENERACIÓN

SEGUNDAGENERACIÓN

TERCERAGENERACIÓN

CUARTAGENERACIÓN

COMPONENTE TUBO AL VACÍO TRANSISTOR CIRCUITO INTEGRADO MICROPROCESADOR

LENGUAJE MÁQUINA ENSAMBLADOR COMPILADOR

COMPILADOR ALTO NIVEL

LENGUAJE DE 4 GENERACIÓN(4GL)

ALMACENAMIENTO TARJETA TARJETA CINTA MAGNÉTICA

TARJETA, CINTA Y DASD

CINTA, DASD, MULTIMEDIA, CD, DVD,

ÓPTICOS

PRIMERA GENERACIÓN DE ORDENADORES. (1951 A 1959)ESTRUCTURA ELECTRÓNICA TUBO AL VACÍOLENGUAJE DE PROGRAMACIÓN DE MÁQUINA (BINARIO)MEDIO DE ALMACENAMIENTO TARJETA PERFORADA 5081ORGANIZACIÓN DE ARCHIVOS SECUENCIAL PURAOTRAS: ALTA GENERACIÓN DE CALOR, UTILIZACIÓN DE AIRES

ACONDICIONADOS, VELOCIDAD DE PROCESO LENTO

SEGUNDA GENERACIÓN DE ORDENADORES. (1959-1963).ESTRUCTURA ELECTRÓNICA TRANSISTORLENGUAJE DE PROGRAMACIÓN ENSAMBLADORES Y COMPILADORES (Bajo Nivel)MEDIO DE ALMACENAMIENTO TARJETA PERFORADA 5081 Y CINTA MAGNÉTICAORGANIZACIÓN DE ARCHIVOS SECUENCIAL PURAOTRAS: ALTA GENERACIÓN DE CALOR, UTILIZACIÓN DE AIRES

ACONDICIONADOS, VELOCIDAD DE PROCESO MILISEGUNDOS, APARECEN LAS TELECOMUNICACIONES. MEMORIA DE NÚCLEOS MAGNÉTICOS.

TERCERA GENERACIÓN DE ORDENADORES. (1964-1979).ESTRUCTURA ELECTRÓNICA CIRCUITO INTEGRADOLENGUAJE DE PROGRAMACIÓN COMPILADORES (Alto Nivel)MEDIOS DE ALMACENAMIENTO TARJETA PERFORADA 5081, CINTA MAGNÉTICA, DISCOS

MAGNÉTICOS ORGANIZACIÓN DE ARCHIVOS SECUENCIAL PURA, SECUENCIAL INDEXADA Y RANDOMOTRAS: GENERACIÓN DE CALOR, UTILIZACIÓN DE AIRES

ACONDICIONADOS, VELOCIDAD DE PROCESO EN MICROSEGUNDOS, MEJORAN LOS SISTEMAS DE TELECOMUNICACIONES, MEMORIA DE TIPO MOS (SEMICONDUCTOR DE OXIDO DE MAGNESIO)

CUARTA GENERACIÓN DE ORDENADORES. (1980 A LA FECHA) ESTRUCTURA ELECTRÓNICA LSIC, VLSIC MICROPROCESADORESLENGUAJE DE PROGRAMACIÓN LENGUAJES DE CUARTA GENERACIÓNMEDIOS DE ALMACENAMIENTO TARJETAS, DISKETTES, CINTA MAGNÉTICA, DISCOS

MAGNÉTICOS, MULTIMEDIA, CD, DVD, ÓPTICOS, FLASH. ORGANIZACIÓN DE ARCHIVOS SECUENCIAL PURA, SECUENCIAL INDEXADA Y RANDOMOTRAS: UTILIZACIÓN DE AIRES ACONDICIONADOS, VELOCIDAD DE

6

Page 7: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

PROCESO NANOSEGUNDOS, MEJORAN LOS SISTEMAS DE TELECOMUNICACIONES, MEMORIA DE TIPO RAM Y ROM, APARECEN LOS SISTEMAS INALÁMBRICOS, TELEFONÍA CELULAR, PROCESO DE VOZ, IMAGEN Y SONIDOS.

EVOLUCIÓN DE LOS MICROPROCESADORES. (1980 A LA FECHA).

.

Historia de los microprocesadores

Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, siendo la compañía pionera en el campo de la fabricación de estos productos, y que actualmente cuenta con más del 90 por ciento del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el que desde aquel 4004 hasta el actual Pentium II hemos visto pasar varias generaciones de máquinas que nos han entretenido y nos han ayudado en el trabajo diario.

Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando información de hacia dónde vamos, en lugar de en dónde hemos estado. Por ello, no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos quince años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011 utilizaremos procesadores cuyo reloj irá a una velocidad de 10 GHz (10.000 MHz), contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, que permitirá realizar tareas nunca antes pensadas.

Los inicios

Sin embargo, para que esto llegue, la historia de los procesadores ha pasado por diferentes situaciones, siguiendo la lógica evolución de este mundo. Desde aquel primer procesador 4004 del año 1971 hasta el actual Pentium IV del presente año ha llovido mucho en el campo de los procesadores. Tanto, que no estamos seguros si las cifras que se barajan en Intel se pueden, incluso, quedar cortas. Aquel primer procesador 4004, presentado en el mercado el día 15 de noviembre de 1971, poseía unas características únicas para su tiempo. Para empezar, la velocidad de reloj sobrepasaba por poco los 100 Khz., disponía de un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Realmente una auténtica joya que para entonces podía realizar gran cantidad de tareas, pero que por desgracia no tiene punto de comparación con los actuales micros. Entre sus aplicaciones, podemos destacar su presencia en la calculadora Busicom, así como dotar de los primeros tintes de inteligencia a objetos inanimados.

Poco tiempo después, sin embargo, el 1 de abril de 1972, Intel anunciaba una versión mejorada de su procesador. Se trataba del 8008, que contaba como principal novedad con un bus de 8 bits, y la memoria direccionable se ampliaba a los 16 Kb. Además, llegaba a la cifra de los 3500 transistores, casi el doble que su predecesor, y se le puede considerar como el antecedente del procesador que serviría de corazón al primer ordenador personal. Justo dos años después, Intel anunciaba ese tan esperado primer ordenador personal, de nombre Altaír, cuyo nombre proviene de un destino de la nave Enterprise en uno de los capítulos de la popular serie de televisión Star Trek la semana en la que se creó el ordenador. Este ordenador tenía un coste de entorno a los 400 dólares de la época, y el procesador suponía multiplicar por 10 el rendimiento del anterior, gracias a sus 2 MHz de velocidad (por primera vez se utiliza esta medida), con una memoria de 64 Kb. En unos meses, logró vender decenas de miles de unidades,

7

Page 8: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

en lo que suponía la aparición del primer ordenador que la gente podía comprar, y no ya simplemente utilizar.

La introducción de IBM

Sin embargo, como todos sabemos, el ordenador personal no pasó a ser tal hasta la aparición de IBM, el gigante azul, en el mercado. Algo que sucedió en dos ocasiones en los meses de junio de 1978 y de 1979. Fechas en las que respectivamente, hacían su aparición los microprocesadores 80086 y 80088, que pasaron a formar el denominado IBM PC, que vendió millones de unidades de ordenadores de sobremesa a lo largo y ancho del mundo. El éxito fue tal, que Intel fue nombrada por la revista "Fortuna" como uno de los mejores negocios de los años setenta. De los dos procesadores, el más potente era el 80086, con un bus de 16 bits (por fin), velocidades de reloj de 5, 8 y 10 MHz, 29000 transistores usando la tecnología de 3 micras y hasta un máximo de 1 Mega de memoria direccionable. El rendimiento se había vuelto a multiplicar por 10 con respecto a su antecesor, lo que suponía un auténtico avance en lo que al mundo de la informática se refiere. En cuanto al procesador 80088, era exactamente igual a éste, salvo la diferencia de que poseía un bus de 8 bits en lugar de uno de 16, siendo más barato y obteniendo mejor respaldo en el mercado.

En el año 1982, concretamente el 1 de febrero, Intel daba un nuevo vuelco a la industria con la aparición de los primeros 80286. Como principal novedad, cabe destacar el hecho de que por fin se podía utilizar la denominada memoria virtual, que en el caso del 286 podía llegar hasta 1 Giga. También hay que contar con el hecho de que el tiempo pasado había permitido a los ingenieros de Intel investigar más a fondo en este campo, movidos sin duda por el gran éxito de ventas de los anteriores micros. Ello se tradujo en un bus de 16 bits, 134000 transistores usando una tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Megas y unas velocidades de reloj de 8, 10 y 12 MHz. En términos de rendimiento, podíamos decir que se había multiplicado entre tres y seis veces la capacidad del 8086, y suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas compañías, alentadas por los éxitos del pasado, se decidieron a crear sus propias máquinas. Como dato curioso, baste mencionar el hecho de que en torno a los seis años que se le concede de vida útil, hay una estimación que apunta a que se colocaron en torno a los 15 millones de ordenadores en todo el mundo.

Microsoft Participa.

El año de 1985 es clave en la historia de los procesadores. El 17 de octubre Intel anunciaba la aparición del procesador 80386DX, el primero en poseer una arquitectura de 32 bits, lo que suponía una velocidad a la hora de procesar las instrucciones realmente importante con respecto a su antecesor. Dicho procesador contenía en su interior en torno a los 275000 transistores, más de 100 veces los que tenía el primer 4004 después de tan sólo 14 años. El reloj llegaba ya hasta un máximo de 33 MHz, y era capaz de direccionar 4 Gigas de memoria, tamaño que todavía no se ha superado por otro procesador de Intel dedicado al mercado doméstico. En 1988, Intel desarrollaba un poco tarde un sistema sencillo de actualizar los antiguos 286 gracias a la aparición del 80386SX, que sacrificaba el bus de datos para dejarlo en uno de 16 bits, pero a menor coste. Estos procesadores irrumpieron con la explosión del entorno gráfico Windows, desarrollado por Microsoft unos años antes, pero que no había tenido la suficiente aceptación por parte de los usuarios. También había habido algunos entornos que no habían funcionado mal del todo, como por ejemplo el Gem 3, pero no es hasta este momento cuando este tipo de entornos de trabajo se popularizan, facilitando la tarea de enfrentarse a un ordenador, que por aquel entonces sólo conocíamos unos pocos.

Y si esto parecía la revolución, no tuvimos que esperar mucho para que el 10 de abril de 1989 apareciera el Intel 80486DX, de nuevo con tecnología de 32 bits y como novedades principales, la incorporación del caché de nivel 1 (L1) en el propio chip, lo que aceleraba enormemente la transferencia de datos de este caché al procesador, así como la aparición del co-procesador matemático, también integrado en el procesador, dejando por tanto de ser una opción como lo era en los anteriores 80386. Dos cambios que unido al hecho de que por primera vez se sobrepasaban el millón de transistores usando la tecnología de una micra (aunque en la versión de este procesador que iba a 50 MHz se usó ya la tecnología .8 micras), hacía posible la aparición de programas de calidad sorprendente, entre los que los juegos ocupan un lugar destacado. Se había pasado de unos ordenadores en los que prácticamente cualquier tarea compleja requería del intérprete de comandos de MS-DOS para poder ser realizada, a otros en los que con mover el cursor y pinchar en la opción deseada simplificaba en buena medida las tareas más

8

Page 9: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

comunes. Por su parte, Intel volvió a realizar, por última vez hasta el momento, una versión de este procesador dos años después. Se trataba del 80486SX, idéntico a su hermano mayor salvo que no disponía del famoso co-procesador matemático incorporado, lo que suponía una reducción del coste para aquellas personas que desearan introducirse en el segmento sin necesidad de pagar una suma elevada.

Aparece la familia del Pentium

Intel rápidamente anunció que en breve estaría en la calle una nueva gama de procesadores que multiplicaría de forma general por cinco los rendimientos medios de los 80486. Se trataba de los Pentium, conocidos por P5 (80586) en el mundillo de la informática mientras se estaban desarrollando, y de los que la prensa de medio mundo auguraba un gran futuro, tal y como así ha sido. Estos procesadores pasarán a la historia por ser los primeros a los que Intel no los bautizó con un número, y sí con una palabra. Estos procesadores, partían de una velocidad inicial de 60 MHz, llegaron hasta los 200 MHz, algo que nadie había sido capaz de imaginar en años anteriores.

Con una arquitectura real de 32 bits, se usaba de nuevo la tecnología de .8 micras, con lo que se lograba realizar más unidades en menos espacio. Los resultados no se hicieron esperar, y las compañías empezaron aunque de forma tímida a lanzar programas y juegos exclusivamente para el Pentium. Algo que demostró la aparición del nuevo sistema operativo de Microsoft Windows 95, que aunque funciona en equipos dotados de un procesador 486, lo hacía sin sacar el máximo provecho de sus funciones.

Pentium Pro y Pentium II

La aparición, el 27 de marzo de 1995, del procesador Pentium Pro supuso para los servidores de red y las estaciones de trabajo un nuevo ambiente. La potencia de este nuevo procesador no tenía comparación hasta entonces, por la arquitectura de 64 bits y el empleo de una tecnología revolucionaria como era la de .32 micras, lo que permitía la inclusión de cinco millones y medio de transistores en su interior. El procesador contaba con un segundo chip en el mismo encapsulado, que se encargaba de mejorar la velocidad de la memoria caché, lo que resultaba en un incremento del rendimiento sustancioso. Las frecuencias de reloj se mantenían como límite por arriba en 200 MHz, partiendo de un mínimo de 150 MHz. Un procesador que desde un principio no tiene intenciones de saltar al mercado doméstico, ya que los procesadores Pentium MMX cubren de momento todas las necesidades en este campo. Especificaciones técnicas de los microprocesadores Intel.

Fecha de

presentación

Velocidad

de reloj

Ancho

de bus

Número de

transistores

Memoria

direccionable

Memoria

virtual

Breve

descripción

4004 15/11/71 108 KHz. 4 bits 2.300 (10 micras) 640 byte Primer chip con

manipulación aritmética

8008 1/4/72 108 KHz. 8 bits 3.500 16 KBytes Manipulación Datos/texto

8080 1/4/74 2 MHz. 8 bits 6.000 64 KBytes 10 veces las (6 micras) prestaciones del 8008

80086 8/6/78

5 MHz.

8 MHz.

10 MHz.

16 bits29.000

(3 micras)1 MegaByte 10 veces las prestaciones

del 8080

80088 1/6/795 MHz.

8 MHz.8 bits 29.000

Idéntico al 8086 excepto en su bus externo de 8 bits

80286 1/2/82

8 MHz.

10 MHz.

12 MHz.

16 Bits134.000

(1.5 micras)16 Megabytes 1 Gigabyte De 3 a 6 veces las

prestaciones del 8086

Microprocesador 17/10/85 16 MHz. 32 Bits 275.000 4 Gigabytes 64 Terabytes

Primer chip x86 capaz de manejar juegos de datos de 32 bits

9

Page 10: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Intel 386 DX®

20 MHz.

25 MHz.

33 MHz.

(1 micra)

Microprocesador

Intel 386 SX®16/6/88

16 MHz.

20 MHz.16 Bits

275.000

(1 micra)4 gigabytes

64

Terabytes

Bus capaz de direccionar 16 bits procesando 32bits a bajo coste

Microprocesador

Intel 486 DX®10/4/89

25 MHz.

33 MHz.

50 MHz.

32 Bits(1 micra, 0.8 micras en 50 MHz.)

4 Gigabytes64

Terabytes

Caché de nivel 1 en el chip

Microprocesador

Intel 486 SX®22/4/91

16 MHz.

20 MHz.

25 MHz.

33 MHz.

32 Bits1.185.000

(0.8 micras)4 Gigabytes

64

Terabytes

Idéntico en diseño al Intel 486DX, pero sin coprocesador matemático

Procesador Pentium® 22/3/93

60 a 200 mhz

32 Bits3,1 millones

(0.8 micras)4 Gigabytes

64

Terabytes

Arquitectura escalable. Hasta 5 veces las prestaciones del 486 DX a 33 MHz.

Procesador

PentiumPro®27/3/95

150 MHz.

180 - 200 MHz.

64 Bits5,5 millones

(0.32 micras)4 Gigabytes

64

Terabytes

Arquitectura de ejecución dinámica con procesador de altas prestaciones

Procesador PentiumII® 7/5/97 233 a 300

MHz.64 Bits 7,5 millones

(0.32 micras) 4 Gigabytes 64 Terabytes

S.E.C., MMX, Doble Bus Independiente., Ejecución Dinámica

Microprocesadores más Recientes

Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales se habla fundamentalmente de los procesadores Pentium4 de Intel y Athlon XP de AMD. Además, están muy extendidos procesadores no tan novedosos, como los Pentium MMX y Pentium II/III

de Intel y los chips de AMD (familias K6 y los primeros K7/Athlon).

Tipos de conexión

El rendimiento que dan los microprocesadores no sólo depende de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas:

• Socket, con mecanismo ZIF (Zero Insertion Force). En ellas el procesador se inserta y se retire sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Hay de diferentes tipos:

o Socket 423 y 478. En ellos se insertan los nuevos Pentiums4 de Intel. El primero hace referencia al modelo de 0,18 micras (Willamete) y el segundo al construido según la tecnología de 0,13 micras (Northwood). También hay algunos de 478 con núcleo Willamete. El tamaño de micras mencionado hace referencia al tamaño de cada transistor, cuanto menor sea tu tamaño más pequeño será el micro y más transistores

10

Page 11: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

será posible utilizar en el mismo espacio físico. Además, la reducción de tamaño suele estar relacionada con una reducción del calor generado y con un menor consumo de energía. En el zócalo 478 también se insertan micros Celeron de Intel de ultimísimo generación similares a los p4 pero más económicos

o Socket 462/Socket A. Ambos son el mismo tipo. Se trata donde se insertan los procesadores Athlon en sus versiones más nuevas:

Athlon Duron (versión reducida, con sólo 64 Kb de memoria caché, para configuraciones económicas)

Athlon Thunderbird (versión normal, con un tamaño variable de la memoria caché, normalmente 256 Kb)

Athlon XP (con el núcleo Palomino fabricado en 0,18 micras o Thoroughbred fabricado en 0,13 micras) es un Thunderbird con una arquitectura totalmente remodelada con un rendimiento ligeramente superior a la misma frecuencia (MHz), con un 20% menos de consumo y el nuevo juego de instrucciones SEC de Intel junto con el ya presente 3DNow! de todos los procesadores AMD desde el K6-2. o con el núcleo T).

Ahlon MP (micro que utiliza el núcleo Palomino al igual que el XP, con la salvedad que éste accede gestiona de forma diferente el acceso a la memoria al hora de tener que compartirla con otros micros, lo cual le hace idóneo para configuraciones multiprocesador.

o Socket 370 o PPGA. Es el zócalo que utilizan los últimos modelos del Pentium III y Celeron de Intel.

o Socket 8. Utilizado por los procesadores Pentium Pro de Intel, un micro optimizado para código en 32 bits que sentaría las bases de lo que conocemos hoy día.

o Socket 7. Lo usan los micros Pentium/Pentium MMX/K6/K6-2 o K6-3 y muchos otros. o Otros socket, como el zócalo ZIF Socket-3 permite la inserción de un 486 y de un

Pentium Overdrive. • Slot A / Slot 1 /Slot 2. Es donde se conectan respectivamente los procesadores Athlon antiguos

de AMD / los procesadores Pentium II y antiguos Pentium III / los procesadores Xeon de Intel dedicados a servidores de red. Todos ellos son cada vez más obsoletos. El modo de insertarlos es a similar a una tarjeta gráfica o de sonido, ayudándonos de dos guías de plástico insertadas en la placa base.

• En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve en lo referente a los microprocesadores de PC.

Valoración del rendimiento de un microprocesador

El microprocesador es uno de los componentes que hay que prestar más atención a la hora de actualizarlo, ya que en su velocidad y prestaciones suele determinar la calidad del resto de elementos. Esta afirmación implica que es absurdo poner el último procesador hasta los topes de Mhz con solo 32 o 64 Mb de RAM, o con una tarjeta gráfica deficiente, o un sistema de almacenamiento (disco duro) lento y escaso. Hay que hacer una valoración de todos los elementos del ordenador, actualmente en las tiendas suelen venderse digamos "motores de un mercedes en la carrocería de un 600". Esto tenemos que evitarlo, dejándonos aconsejar por usuarios experimentados o bien repasarse bien esta Web, donde se puede obtener información se sobra de cómo hacer una correcta compra. Además del microprocesador, la velocidad general del sistema se verá muy influenciada debido a la placa base, la cantidad de memoria RAM, la tarjeta gráfica y el tipo de disco duro. Sin embargo, según sean más complejos y nuevos los programas, más complejos serán los equipos. Los programas multimedia y enciclopedias, requieren un procesador Pentium de gama media. A los programas de retoque fotográfico se les puede poner también un procesador Pentium de gama media, aunque influirá sobre todo la memoria RAM (harán falta un mínimo de 128 Mb. para un rendimiento medianamente óptimo). Y últimamente se está incitando a la adquisición de equipos mejores debido sobre todo a los últimos juegos 3D, descompresión MPEG-2 por software para visualizar DVDs (la tarea la realiza el micro conjuntamente con la tarjeta gráfica)... y a un nivel menos doméstico, la renderización de gráficos tridimensionales o la ejecución multitarea de servidores de red. Para esto, nada es suficiente, por ello los micros son cada vez más y más rápidos y complejos. Por ello es necesaria la compra de una tarjeta gráfica relativamente potente, dependiendo del presupuesto y las necesidades. Huye de tarjetas muy económicas que el rendimiento puede ser hasta 10 veces inferior el de una tarjeta que cueste el doble.

11

Page 12: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

El uso de los últimos micros que sobrepasan la mítica barrera del GHz se justifica por los nuevos sistemas operativos (el nuevo Windows XP por ejemplo utiliza muchos recursos de la máquina, mucho más que otros Windows anteriores), los nuevos formatos de audio o vídeo comprimido (DivX y MP3, a diferencia de videos y archivos de sonido normales, estos se descomprimen en tiempo real ,tarea llevada completamente a cabo por el micro), realizar más trabajo en menos tiempo, como compresiones de archivos, renderizado de dibujos en 3D.... o el simple hecho de cargar un programa como Word o el mismo Windows, y cómo no, los últimos juegos, quizá las aplicaciones de hoy día que mejor PC en términos generales requieren.

Conclusiones:

• Athlon XP. El nuevo procesador de AMD es según nuestra opinión la mejor alternativa sin ninguna duda, sobre todo en relación calidad/precio. Además, con la mayoría del software actual son los micros más rápidos en comparación con los Intel Pentium4 de Intel. A la hora de comprar un micro de este tipo, conviene prestar muchísima atención a la placa base (recomendamos chipsets KT333 y KT400 de Via, nForce2 de nVidia o chipsets de SiS de última generación), a la memoria RAM (siempre con memoria "DDR", olvida placas que utilicen aún SDRAM) y a la tarjeta gráfica especialmente si vas a usar el PC para jugar o para disfrutar de altas resoluciones con altos refrescos en un monitor alto de gama y de gran tamaño.

• Pentium 4. Micro sobre el papel más avanzado que el Athlon XP pero que a la hora de la verdad viene a tener un rendimiento similar. El Pentium4 se caracteriza por su alto número de Mhz, pero fíjate que ejecuta 6 instrucciones por cada ciclo de reloj mientras que el Athlon XP que funciona a menos Mhz ejecuta 9 instrucciones. Normalmente, el micro de Intel de por ejemplo 2200 Mhz va a costar más que el Athlon XP equivalente, en este caso el 2200+ (que en realidad funciona a 1800 Mhz), como puedes ver en la tabla de más abajo. El Pentium4 tiene ventajas como una menor generación de calor, por lo que tendremos en ese aspecto muchos menos problemas que el Athlon. E inconvenientes, principalmente el coste. Podríamos dar muchas más diferencias entre AMD e Intel, pero no tenemos la intención de iniciar ahora una discusión sobre el tema.

• Multiprocesador AMD, 2 Athlones MP. Mejor esto que un multiprocesador de 2 Pentiums4 Xeon, ya que el precio de esto último se va por las nubes. En caso de disponer de un presupuesto muy generoso puedes ir a este campo, siempre y cuando tengas un sistema operativo preparado para soportar 2 procesadores, tal como cualquier versión de Windows NT, Windows 2000, Windows XP SOLO VERSIÓN PROFESIONAL o por supuesto Linux / Unix y derivados. Con esto puedes distribuir las tareas, como liberar un procesador para que lo utilice sólo un determinado programa, o bien disfrutar del proceso en paralelo, ejecutar más trabajo en menos tiempo. Sólo hay algunos inconvenientes, como el hecho de tener que disponer de, lógicamente, una placa con dos zócalos preparada para dos micros, y de memoria RAM ECC/registrada, que viene a costar 5 veces la memoria que ponemos en nuestros PCs normalmente.

• Soluciones más económicas, Duron de AMD, Celeron de Intel e incluso Pentium III de Intel. Recomendable si disponemos de muy poco presupuesto o queremos adquirir un segundo equipo para diversas funciones, como por ejemplo hacer un servidor para administrar impresoras, un FTP o páginas Web.

12

Page 13: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

COMPARACIÓN DE RENDIMIENTOS DE PROCESADORES

13

Page 14: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

I.- LOS CIMIENTOS DE LA PIRÁMIDE DE LOS SISTEMAS DE INFORMACIÓN

1) La Contabilidad es un sistema de información, ya que registra, procesa, almacena y distribuye la información financiera. El sistema de Información Contable actual descansa en los ordenadores como plataforma para el registro de las transacciones económicas para su posterior agregación en Estados Financieros. Los ordenadores, junto con los programas y las tecnologías de la comunicación son los cimientos de la pirámide que forma el Sistema de Información Gerencial de cualquier empresa.

2) Y los Contadores. De acuerdo con IFAC, la Federación Internacional de Contadores, en su Guía Internacional de Educación nº 11, "Information Tecnology in the Accounting Curriculum", los contadores deben ser capaces de trabajar en diferentes equipos informáticos -ordenadores personales, estaciones de trabajo, macrocomputadoras y superordenadores-, identificar sus componentes-microprocesador, memorias, tarjetas, etc.- y conocer su función. Deben conocer el uso de los periféricos de entrada y salida de datos como impresoras, teclado, ratón, monitor, así como de las unidades de almacenamiento como discos duros, CD-ROM, disquetes, etc. y de los componentes de comunicación como el módem. Han de ser capaces de participar en las decisiones de compra o renovación de equipos informáticos y programas que le afecten, para ello tienen que estar al día con los cambios tecnológicos que periódicamente surgen. Es preciso que tengan una formación, una cultura informática previa y un deseo de estar actualizados.

3) Fuentes de información. Una buena práctica es incluir en sus fuentes de información no sólo las referidas a los cambios en normas contables o fiscales y las principales noticias económicas sino leer los suplementos dedicados a las tecnologías de la información, o estar suscrito a boletines de noticias electrónicos relacionados con el impacto de las tecnologías en la empresa. La gestión de la información moderna se basa en el uso de tecnologías informáticas aplicadas, un caso específico lo constituye la minería de datos o data mining para la colección de la información que se requiere para su ordenamiento, tratamiento y conversión a sujeto para la toma de decisiones.

4) Calidad y oportunidad de la información. Deberán poder discriminar la calidad y oportunidad de la información, en los procesos de toma de decisiones, para hacerla cada vez mas eficiente y eficaz.

5) La publicación de la Información Financiera tiende, cada día más, a realizarse sobre nuevos principios de tecnologías informáticas como son las publicaciones en Portales WEB a través de libros digitalizados. El modelo de e-Comercio, en el mundo digital, presupone la adecuación de todas las normas vigentes para el registro de transacciones a través de los métodos de flujos de datos o bajo la filosofía de almacenes de datos.

14

Page 15: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

II.- CARACTERÍSTICAS GENERALES DE LOS EQUIPOS NFORMÁTICOS

ESTRUCTURA DE UN ORDENADOR

El computador o sistema informático se compone de 5 tipos de dispositivos básicos:

A) Dispositivos de proceso de Datos. B) Dispositivos de captura y almacenamiento primario de datos. C) Dispositivos de visualización, impresión y graficación. D) Dispositivos para intercomunicación entre computadores. E) Dispositivos multimedia (Bocinas, scanner, micrófonos, cámaras de video, otros)

DISPOSITIVOENTRADA

DISPOSITIVOSALIDA

DISPOSITIVOMIXTO

CANAL CANAL

CANAL

UCP

P E UC UAL

REGISTROS

DIS. HACIA UCP

UCP HACIA DIS.

ESQUEMA ESTRUCTURAL DE UN ORDENADOR

PIRÁMIDE DE DATOS

MA

IN

E

T

O

SIG

ENTRADA SALIDA

CARÁCTERCAMPOREGISTROARCHIVOBASE DE DATOSALMACÉN DE DATOSMODELO DE DATOS

DATOS INFORMACIÓNPROCESADORMEM

AMBOSSENTIDOS

+ =

15

Page 16: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

TARJETA MADRE O MOTHER BOARD.

DATOS PARA ELABORAR

INFORMACIÓN

INFORMACIÓNELABORADA PARA

TOMA DE DECISIONES

MEMORIA PRINCIPALALMACENAR PROGRAMAS

Y ÁREAS TRABAJO

U/C

EJE

CU

TA

R

LA

INST

RU

CC

IÓN

U.A

.L O

PER

AC

IO

NE

S LÓ

GIC

AS

YA

RIT

TIC

AS

BUS, MEMORIA CACHÉSOPORTE DE OPERACIONES

UCP

ALMACENAMIENTOSECUNDARIO

MODELO DE DATOS

PIRÁMIDE

DE DATOS

CAPTURA DE DATOS

PROCESOS

ENTRADAS SALIDAS

E

T

O

MUNDO REAL

S I

G

GENERARALMACÉN DE DATOS

MIXTOS

ESTRUCTURA FUNCIONAL DEL SISTEMA

TORRE

BOCINAS

PANTALLA

TECLADORATÓN

COMPONENTES DE UN MICROCOMPUTADOR

16

Page 17: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

A.- ESTRUCTURA PARA EL PROCESO DE DATOS.

LA TORRE. Al observar un ordenador, el primer componente que distinguimos es la carcasa o caja. La placa, cuya función describiremos posteriormente, es como el esqueleto donde se instalan todos los componentes y se alojan en la carcasa.

En cuanto a la apariencia externa, la carcasa puede tener forma de torre, diseño preferido para los ordenadores profesionales y de sobremesa, que son más utilizados en casa. La carcasa con diseño de torre ocupa más volumen, pero, en general, es más fácil ampliar sus componentes. Es un elemento a tener en cuenta, pues una torre de bajo precio puede ser fuente de problemas futuros como, por ejemplo, que no quepan bien los componentes. Además, hay que prestar atención a los nuevos estándares que surgen periódicamente en las placas madre. Por esta razón, al cambiar el modelo de placa madre es muy frecuente que en un ordenador viejo no se pueda aprovechar ni la caja o torre.

1) VISTA FRONTAL

En la parte delantera de la torre se encuentra atornillado el marco frontal, con varios espacios para alojar dispositivos de captura de datos como la disquetera, el lector de CD-ROM, DVD, unidad ZIP, TAPE Backup, etc. que describiremos posteriormente.

2) LA CUBIERTA O TAPAS DE LA TORRE.

La cubierta es como la piel que rodea a la torre y se desmonta presionando o con un destornillador. Por la parte trasera nos encontramos unas ranuras, que son regletas que sirven para conectar otros componentes del ordenador o tarjetas. Deben quedar huecos libres por si se desea ampliar esas tarjetas.

3) LA FUENTE DE PODER O ALIMENTACIÓN DE CORRIENTE.

También se encuentra atornillada a la torre la fuente de alimentación, con un ventilador. La fuente de poder o de corriente, distribuye las necesidades de poder dentro de la torre como por ejemplo: para la tarjeta madre, discos, diskettes, CD, DVD y luces del panel de la torre. Conviene revisar el ventilador, pues al desgastarse con el uso suele ser el causante de la mayoría de los ruidos dentro de la torre del ordenador.

17

Page 18: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

LA UNIDAD CENTRAL DE PROCESAMIENTO SE COMPONE DE: 1) La placa madre o mother board

2) El microprocesador (INTEL, AMD, CYRIX, MOTOROLA, otros)

3) Las memorias (RAM, ROM, EPROM, etc.)

1) La placa madre o mother board. Al despojar al ordenador de la carcasa el componente

de mayor tamaño que nos encontramos es la placa madre o placa principal. En esta placa se ubican la mayoría de los componentes del ordenador: memorias, tarjetas, el microprocesador y los dispositivos integrados en el board. Es importante disponer de una placa madre moderna con una arquitectura que permita alojar futuros componentes, tarjetas o ampliar sus requerimientos sin mayores dificultades.

Placas Base. TOMADO DE WEB DUIOPS.NET

La placa base es el esqueleto de nuestro ordenador. En sus ranuras van fijados todos los demás componentes, y su calidad influirá sustancialmente en la velocidad del equipo, además de las posibilidades del equipo.

Tipos de placas base

En los ordenadores actuales existen seis tipos básicos de placas base, en función de la CPU: Socket 7, Socket 8, Super 7, Slot 1, Slot 2 y Socket 370. Las placas Socket 7 albergan los procesadores Pentium, K5 de AMD, 6x86 de Cyrix y Winchip C6 de IDT; ya no se venden, pues carecen de las interfaces más utilizadas en la actualidad, como el bus AGP y el puerto USB. Estos dos estándares se incorporan en las placas Super 7, también compatibles Pentium y K6. Las placas Socket 8, muy escasas, albergan los extinguidos procesadores Pentium Pro. Las placas Slot 1 son necesarias para suministrar soporte a los Pentium II/III y Celeron, y suelen disponer del formato ATX, que reorganiza la localización de las tarjetas, para que quepa mayor cantidad en el mismo espacio, y se reduzca el cruce de cables internos. Las placas ATX también necesitan una carcasa especial ATX. Una variante son las placas Slot 2, soporte de la versión Xeon del Pentium II, utilizada en servidores profesionales. Finalmente, las placas Socket 370 alojan una versión especial de Celeron, con las mismas prestaciones que el modelo Slot 1, pero más barato para el fabricante.

18

Page 19: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

El Bus y ranuras de expansión.

El bus de la placa base son los canales por donde circulan los datos que van y vienen del microprocesador. Con la aparición de microprocesadores muy rápidos se desperdiciaba parte de su potencia debido a que el bus hacía de cuello de botella, atascando los datos y haciendo esperar al microprocesador a que estuvieran disponibles los datos. Tras el tradicional bus ISA de 8 MHz han surgido otras alternativas como el Vesa Local Bus y el PCI, que ampliaban el ancho de banda de 16 hasta 32 bits. El resultado es una mejora en el rendimiento al transferir el doble de información (de 16 a 32 bits) en una misma operación. El Vesa Local Bus se quedó rápidamente obsoleto, permaneciendo el bus PCI que es el que se ha estado usando en las placas Pentium.

Las placas más modernas soportan una velocidad del bus que varía entre los 50 y los 100 MHz, en función del procesador utilizado. Otros valores intermedios son 66, 75 o 112 MHz, por ejemplo. La placa también incorpora distintos multiplicadores: 2x, 3x, etc. Valores superiores a 5x comienzan a ser imprescindibles. Estos dos datos se utilizan para soportar todo tipo de procesadores. A mayor número de velocidades del bus y multiplicadores, la placa soportará mayor cantidad de procesadores. Para instalar un Pentium II a 400 MHz, por ejemplo, se configura el bus a 100 MHz y se activa el multiplicador 4x. 100x4=400 MHz. Un Pentium a 200 MHz se configura con un bus a 66 MHz y un multiplicador 3x. 66x3=198 MHz.

Todas las placas soportan diferentes voltajes. No obstante, puesto que se desconoce el voltaje de los futuros procesadores, es bueno adquirir una placa que permita establecer este valor a voluntad, mediante fracciones de 0.1 voltios.

Una placa base actual debe disponer de una ranura AGP para la tarjeta gráfica, cuatro o cinco PCI y, al menos, dos ISA para las tarjetas viejas, como modems internos, tarjetas de sonido, placas SCSI, etc. Los puertos exteriores no deben bajar de dos entradas USB, dos COM, y varios puertos en paralelo.

AGP

Este nuevo bus es capaz de paliar el cuello de botella que existe entre el microprocesador y la tarjeta gráfica.

Hemos de tener en cuenta que el actual bus PCI va a 33 MHz. (132 Mb/s máximo), una velocidad bastante inferior a la del microprocesador. AGP incorpora un nuevo sistema de transferencia de datos a más velocidad, gracias al uso de la memoria principal del PC. Las placas base que lo soportan (sólo contienen 1 slot de este tipo) son las de Pentium II con chipset de Intel 440LX AGPset y 440BX. Ya están apareciendo las placas base Super 7, con el fin de hacer el estándar compatible con procesadores que van conectados con el zócalo Socket 7, tales como los Pentium, Pentium MMX y los procesadores de AMD y Cyrix.

Para que el sistema funcione, se necesita una tarjeta gráfica compatible con el slot AGP, por lo que una tarjeta PCI no nos valdrá. En este caso varía la velocidad. Existen tarjetas 1x, velocidad estándar, es decir, 66 Mhz (264 Mb/s máximo). Las nuevas AGP llegan con 2x a 133 MHz (dobla al anterior, y alcanza de máxima 528 Mb/s); y un último tipo de 4x a 400 Mhz (ya que la velocidad interna se aumenta a 100 Mhz). Aunque el chipset BX de Intel en teoría lo soporta, no saldrán tarjetas de este tipo hasta principios de 1.999.

El bus AGP permite cargar texturas en la RAM principal, es decir, ya no se limita a la capacidad de la memoria de la tarjeta gráfica; y además se apreciará de un aumento de imágenes por segundo, mayor calidad gráfica y la reproducción de vídeo más nítida. En teoría, un juego de 30 fps con una PCI alcanzaría con una AGP 240 fps. Microsoft dice que su API DirectDraw incluido en DirectX 5.0 es compatible con esta tecnología.

PCI

La tecnología PCI fue desarrollada por Intel para su microprocesador Pentium, pero se extendió hasta las placas para 486 (sobre todo las de la última generación que soportaban 486DX4). El funcionamiento es similar al del bus VESA. La diferencia es que todos los slots de expansión se conectan al microprocesador indirectamente a través de una circuiteria que controla las transferencias. Este diseño permite conectar

19

Page 20: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

(teóricamente) hasta 10 placas de expansión en PCI.

La Bios

Es una memoria especial que contiene las rutinas necesarias para que el ordenador funcione correctamente y gestione las operaciones de entrada y salida de datos, de ahí su nombre BIOS, Basic Input/Output System (Sistema básico de entrada/salida).

Es muy recomendable que se pueda actualizar por software, es decir, tipo Flash, y que sea lo más reciente posible. Con respecto al programa de Setup, teniendo en cuenta nuestros conocimientos nos decantaremos por una BIOS con el mayor número de funciones de configuración automática posible (detectado de unidades IDE y de sus parámetros, ajuste automático de velocidades de acceso a RAM y a caché, etc.), o por otro lado, podemos desear un mayor control de sus parámetros para ajustar al máximo el rendimiento. Una BIOS buena debe permitir arrancar el ordenador desde varios formados, como un disquete, un disco duro IDE o SCSI y un CD-ROM. Igualmente, conviene que las funciones automáticas de Plug and Play puedan configurarse manualmente (asignar IRQ y canales DMA para los posibles conflictos). Y se debe de poder desactivar por Setup los puertos serie y paralelo, o poder modificar sus direcciones de I/0 e IRQ para solucionar problemas al instalar nuevos dispositivos.

Hay distintos fabricantes de BIOS. Los más conocidos son Award y AMI. Por norma las opciones que nos encontramos en estas BIOS son diferentes. Por ejemplo, ambas tienen la posibilidad de obtener los parámetros de los discos duros instalados, pero sin embargo, la de Award no tiene la posibilidad de formatearlos (sólo a bajo nivel) mientras que la BIOS de AMI sí. La de AMI da la posibilidad de utilizar el ratón, mientras que la de Award no.

En el caso de una placa para Pentium II, suele incorporar funciones de desconexión automática y nos tenemos que fijar si soporta configuración del procesador por BIOS (y no por jumpers), y las nuevas características de Windows 98 ACPI y OnNow.

Los Zócalos y la Memoria RAM

La memoria es el almacén temporal de datos y código ejecutable que utiliza el ordenador. La memoria RAM es volátil, esto quiere decir que cuando se apaga el ordenador, toda la información almacenada se pierde. En las placas de Pentium II VX y TX, y en las Placas Pentium II, la RAM va en pequeñas placas llamadas DIMM, de 168 contactos, cuyas capacidades oscilan entre 16 y 128 Mb. cada una. Hasta hace poco eran las placas SIMM (Single In-line Memory Module) de 30 y 72 contactos, con capacidades entre 256 Kb y 32 Mb cada uno. Para insertar estas plaquitas hay en la placa base unos slots del mismo tamaño donde se insertan. Pueden insertarse de dos maneras: encajándolas directamente o insertándolas en sentido inclinado y después girándolas hacia arriba hasta que encajan completamente con los pivotes.

El software de hoy necesita grandes cantidades de RAM para funcionar. No compréis un equipo nuevo que no tenga instalados al menos 64 Mb de memoria RAM, especialmente si es de alta gama. Antes de comprar los módulos de memoria conviene que os informéis de los tipos de módulos que utiliza vuestra placa base. Los módulos de 72 o 168 contactos pueden ser de simple o de doble cara. Aseguraos bien del tipo de módulos que utiliza vuestra placa. Es muy importante que sepáis qué orden llevan los zócalos para los SIMM. Estos zócalos se agrupan en bancos de uno, dos o cuatro zócalos numerados como SIMMO, SIMMI, SIMM2, etc. (o DIMM0, DIMM1...) En las placas base Pentium nuevas hay uno o dos slots DIMM, mientras que en las de Pentium II hay 3 ó 4. Hoy por hoy, se recomienda poner SDRAM a las placas base Pentium y Pentium II (si la placa lo soporta), ya que de lo contrario se ocasionaría un cuello de botella, especialmente en el Pentium II

La placa base debe direccionar un mínimo de 256 Megas de RAM (en las placas base Super 7 se suele llegar a 768 Mb y en las Slot 1 a 1024 Mb). También hay que introducir el concepto de memoria cacheable: hay placas base de mala calidad que admiten mucha memoria pero no es capaz de manejarla eficientemente. En

20

Page 21: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

los mejores modelos se especifica el tamaño de memoria cacheable (Ej.: 256 Mb) y memoria máxima admitida (Ej.: 769 Mb).

Consultad la documentación de la placa base para saber cuántos módulos de memoria y de qué capacidad tenéis que comprar y así conseguir el número de Megabytes que queréis tener, sobre todo a la hora de combinar antiguos SIMM con nuevos DIMM en los Pentium.

La Memoria Caché

La memoria caché es una memoria especial de acceso muy rápido. Almacenar los datos y el código utilizados en las últimas operaciones del procesador. Habitualmente el ordenador realiza la misma operación repetidas veces seguidas. Si en lugar de, por ejemplo, leer del disco cada una de las veces que realiza la operación lee de la memoria se incrementa la velocidad de proceso unas 1.000.000 veces, es la diferencia de nanosegundos a milisegundos que son los tiempos de acceso a memoria y a disco respectivamente. Las placas base generalmente tienen instalada la memoria caché en unos zócalos para poder ampliarla. La configuración más usual es la de 512 Kb en la actualidad, pero puede haber configuraciones de 1 Mb o 2 Mb en algunas placas (hoy día sólo en los procesadores tipo Pentium (Pentium MMX, K6-x), ya que el Pentium II/II y el K7 la llevan integrada dentro de él).

A la hora de la verdad, el rendimiento no es tan grande en los módulos Pipeline de las placas Pentium. Aunque por 3.000 Ptas., no es mala idea incrementar la caché de 256 a 512 Kb en las placas Pentium más antiguas.

El chipset

El juego de chips de una placa, o chipset, es posiblemente su componente integrado más importante, ya que controla el modo de operación de la placa e integra todas sus funciones, por lo que podemos decir que determina el rendimiento y características de la misma. Determina lo que puede hacer el ordenador, desde el soporte para varias CPU, hasta la velocidad del bus o el tipo de memoria que se puede utilizar. Es el encargado de comunicar entre sí a todos los componentes de la placa, y los periféricos. Una placa puede disponer de zócalos DIMM, pero si el chipset incluido no los soporta, no podrán utilizarse. Intel fabrica los modelos oficiales para sus procesadores, aunque otras marcas como VIA, SUS o ALI fabrican clónicos a un precio más reducido.

En el caso del Pentium ha habido un gran grupo de chipsets, no sólo los Tritón, sino los Zappa, Endeavour... Hoy día sólo se encuentra el chipset Tritón TX, que es el más recomendado, ya que el VX, además de ser bastante antiguo, no soporta características como el DMA 33. Estos dos chipsets optimizan el rendimiento de la memoria EDO, soportan la técnica Bus Master, que mejora los procesos de transferencia de datos, módulos DIMM de 168 contactos y memoria SDRAM, y admiten la arquitectura SMBA (Shared Memory Buffer Architecture), que permite gestionar la memoria de forma compartida. Las placas Super 7 (las actuales) disponen de varios modelos, como los conocidos VIA Apollo MVP3, o Alladin V de ALI, con menor soporte de tipos de RAM.

En el caso del Pentium II nos encontramos con 4 chipsets: FX, LX, BX y EX (en un futuro el NX, que será el que use Katmai con MMX y 500 MHz). El FX fue el primero que apareció y ocasionaba un gran cuello de botella. Todos los impacientes que se compraron una placa base de éstas la tuvieron que cambiar. Por tanto ¡que no te "encasqueten" una! Hay que usar el bus LX para los modelos de 233 a 333 MHz y el BX desde el 350 al 400 MHz (este último es de 100 MHz). Es cierto que el BX soporta los modelos del LX, pero también es más caro. Y por último, el chipset EX es el que se usa en el microprocesador Intel Celeron, y lo tendremos que adquirir en caso de comprar este procesador. El modelo ZX es muy utilizado por las CPU Socket 370. Elimina el soporte para varias CPU, reconoce el bus a 100 MHz, y reduce la memoria máxima a 256 Megas.

21

Page 22: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

El modelo 440GX se encuentra en las placas Slot 2. Puesto que también soporta los procesadores Slot 1, puede llegar a sustituir al actual BX. VIA, SIS y ALI también venden clónicos de estos modelos, como el Apollo Pro Plus o el Alladin Pro.

Otros factores importantes

Hay otros detalles a tener en cuenta; por ejemplo, ya es común la inclusión de un conector para ratones y teclados de tipo PS/2 (ya sabéis, los que tienen la clavija pequeña y redonda), de puertos infrarrojos (que permiten la comunicación, sin cables, con dispositivos de este tipo) y USA, o Bus Serie Universal, que permite conectar 127 dispositivos con una transferencia de datos media-baja (webcams, escáneres, monitores...) a 12 Mbps y totalmente Plug and Play. Dentro de poco aparecerá el 1394, y tienes un artículo en el WEB de Duiops para informarte todo lo que quieras.

Algunos modelos incorporan diversos añadidos, como la inclusión de un chip de aceleración gráfica 3D de Intel, una tarjeta de sonido Yamaha o una controladora SCSI. No son aconsejables, pues disponen de menos calidad que los periféricos adquiridos independientemente. También pueden encontrarse chips que miden la temperatura del procesador y el ventilador, y BIOS capaces de controlar la desconexión temporal de periféricos, cuando no se utilizan, para ahorrar energía.

Otro detalle que se suele olvidar, pero que no carece de importancia, lo tenemos en el software que debe acompañar a la placa, los omnipresentes drivers; ya que se recomiendan para dispositivos como la controladora de disco duro.

Y ya por último hablaremos sobre el formato de la placa. El que ha habido siempre ha sido el Baby-AT, y desde finales del 1996 podemos encontrar el ATX. No mejorará la velocidad, sino la flexibilidad, integración y funcionalidad. Reorganiza la distribución de los componentes de la placa base, de forma que al insertar tarjetas no se tropiecen con chips como el procesador. Además, se acorta la longitud de los cables y se mejora la ventilación de los componentes. También cambia el conector de alimentación para la placa base y la forma de la caja, por lo que tendremos que cambiar la caja externa antes de comprar la placa. El ATX permite integrar componentes en la placa como la tarjeta gráfica y la tarjeta de sonido, pero suelen tener una calidad bastante mediocre. Por tanto, si queremos instalar tarjeta gráfica y de sonido independiente, tendremos que buscar una placa base ATX sin estos componentes integrados en ella.

2) El microprocesador. El elemento fundamental de proceso de los datos es el procesador dentro del ordenador y junto a la memoria principal recibe el nombre de unidad central de proceso o UCP (CPU en inglés). La UCP es responsable de todas las operaciones que se efectúan con los datos y lleva el control de los demás dispositivos del ordenador. Por ejemplo, Intel Pentium para los PC, y Motorola Power-PC de Apple.

22

Page 23: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

UNIDAD CENTRAL DE PROCESA (ESQUEMA CONCEPTUAL)

3) Estructura del microprocesador. En el microprocesador hay dos partes: unidad de control y unidad aritmético-lógica. Enlazada a la CPU se encuentra la memoria principal ROM (Read Only Memory) y RAM (Random Access Memory) que describiremos posteriormente.

4) Unidad de Control. Se encarga de la ejecución de toda instrucción de programa que se encuentre almacenada en la memoria principal. En coordinación con la unidad aritmético lógica decodifica y ejecuta toda instrucción de tipo aritmético o de lógica de decisión. En este proceso se auxilia con las áreas de entrada-salida, las áreas de trabajo, los registros para operaciones aritméticas y lógicas y las áreas de comunicaciones del sistema.

5) Ciclo de la máquina. Al conjunto de operaciones requeridas para procesar una instrucción se le denomina ciclo de la máquina. En un ciclo, el microprocesador obtiene e interpreta una instrucción para ejecutar, ejecuta dicha instrucción y deposita los resultados en las áreas de memoria especificadas por las instrucciones de los programas. Todo ciclo de máquina esta referido a la ejecución de una instrucción que se encuentra en la memoria principal en lenguaje de máquina o binario puro.

5) Unidad aritmético-lógica

La unidad aritmético-lógica se encarga de las operaciones de cálculo y de lógica matemática. Dispone de circuitos electrónicos especialmente diseñados para realizar operaciones aritméticas de punto fijo o de punto flotante y de lógica comparativa mediante la aplicación de las operaciones de AND, OR y OR Exclusivo (Aritmética Boleana).

6) Eficiencia del procesador. Para un usuario normal lo que debe importar del microprocesador es su funcionamiento y que la relación con las aplicaciones sea del mayor nivel de precisión, velocidad y confiabilidad. Esta se logra a través de la certificación del microprocesador que normalmente significa una garantía de funcionamiento por x cantidad de horas.

MEMORIAPRINCIPAL

SISTEMAOPERATIVO

PROGRAMAS

UNIDAD DEARITMÉTICO

LÓGICA

UNIDADDE CONTROL

UNIDAD CENTRAL DE PROCESO (UCP)

PROCESADOR

23

Page 24: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

7) Representación Interna de los Datos.

a) Circuito Binario. BIT (Dígito binario) es la unidad mínima de representación de datos a lo interno de un ordenador y puede tomar dos valores: 0 y 1, es decir, verdadero y falso en lógica positiva o bien en electrónica dos valores muy diferentes de tensión continúa. Todos los datos introducidos en los ordenadores se traducen internamente a combinaciones de bits, es decir forman cadenas de 0 y 1, utilizando cualquiera de los sistemas de codificación ABCDIC o ASCII. Por ejemplo, la letra A en binario se expresa con 8 bits, que son: 10100001 y el número 1 con la combinación: 11110001.

LETRA “A”1 0 1 0 0 0 0 1

DÍGITO “1”1

1 1 1 0 0 0 1

Pero no solamente las letras y número se pueden representar en un código binario. También los sonidos o los colores se pueden representar con una cadena de ceros y unos. Cualquier color se puede obtener como una mezcla de tres colores básicos, por ejemplo, rojo, verde y azul. Por ejemplo, el 2l 15 83 sería el color que se obtiene con un 21% de rojo, un 15% de verde y 83% de azul. A partir de ahí se representa en código binario dicho número con el porcentaje de cada uno de los colores básicos.

Un BYTE es una combinación de 8 bits. Las letras del abecedario, símbolos y los números se representan con 8 bits, es decir, un byte. De esta forma podemos entender mejor la capacidad de un ordenador, al medirlo en bytes. Por ejemplo, 1KB es 1 kilobyte = 1,024 bytes o sean 8192 bits, 1 Megabyte son 1,024 KB (kilobytes), 1 GB son 1,024 MB (Megabytes), y 1 Terabyte son 1,024 GB. Para hacernos una idea, en un libro de 500 folios puede haber unos 200,000 caracteres, es decir, se ocuparían 200,000 bytes, o sean, 1,600,000 bits.Existe el concepto de media palabra (4 bytes), palabra (8 bytes) y doble palabra (16 bytes) utilizado en términos de alineamiento de las instrucciones dentro de la memoria. Cada microprocesador puede localizar instrucciones en la memoria en función de 16, 32 o 64 bits. A esto se le llama direccionamiento de memoria necesario al ejecutar instrucciones en un programa.

b) Bus de datos. El bus de datos es la vía por donde se transportan los datos en el procesador al momento de ejecutarse las instrucciones. Entre mayor resulta ser el bus de datos mayor transferencia de datos podrá realizarse por unidad de tiempo.

c) Frecuencia de trabajo. Ya hemos hablado del ciclo de la máquina como la serie de operaciones requerida para procesar una instrucción. Otro de los factores que afectan a la rapidez con que se ejecutan las instrucciones en el microprocesador es precisamente la frecuencia de trabajo. Dentro de los ordenadores hay un reloj que va marcando la cantidad de instrucciones ejecutadas, que simula un contador de flujo. Un Pentium de 400 mhz (mega-hertzios), significa que su proceso es de 400 instrucciones por unidad de tiempo mega hercios. La velocidad del microprocesador es directamente proporcional a la frecuencia en mega hertzios que le llega del reloj que marca dicho ritmo. Cuanta más alta es la frecuencia, mayor es la velocidad.

d) Arquitectura. Siendo importante ese dato, la frecuencia de trabajo no es el único factor que afecta a la velocidad del microprocesador: por ejemplo un Pentium II a 233 MHz era

24

Page 25: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

más rápido que un Pentium MMX a 233MHz, pero más lento que un Power PC a 233 MHz. Por ejemplo, la arquitectura del microprocesador, es decir, cómo está diseñado, es sin duda, un factor fundamental que influye en su rendimiento. Dos arquitecturas típicas de ordenadores son la CISC, utilizada en los procesadores INTEL familias 386, 486, Pentium, etc. y la RISC, utilizada en los Power PC de Apple o IBM. Una diferencia importante es que en el mismo ciclo de reloj, los procesadores RISC pueden empezar a ejecutar una instrucción antes de que la instrucción anterior se complete, a esto se le conoce como tiempo compartido.

CARACTERÍSTICAS DEL PROCESADOR INTEL PENTIUM IV.

Intel se ha centrado en un segmento especializado que tiene unas necesidades particulares para desarrollar el procesador Intel® Pentium® 4 Extreme Edition con soporte para tecnología Hyper-Threading. Diseñado específicamente para aquellos que conocen su tecnología y sueñan con un gran rendimiento, este procesador proporciona una velocidad de proceso de 3,20 y 3,40 GHz, y está equipado con un avanzado bus del sistema a 800 MHz y una sensacional caché L3 de 2 MB. Al hacer posible que el procesador pueda ejecutar dos subprocesos de software a la vez, la tecnología Hyper-Threading¹ incorporada ofrece ventajas inmediatas al entorno informático de hoy día. Esto le permite ejecutar dos aplicaciones de software en paralelo sin tener que sacrificar el rendimiento.Basado en la micro arquitectura Intel® NetBurst® y diseñado a partir de la tecnología de proceso de 130 nm de Intel, el procesador Pentium 4 Extreme Edition con soporte para tecnología Intel ofrece a los jugadores un rendimiento sin altibajos y proporciona más potencia a los usuarios que exigen una mayor capacidad de proceso para hacer frente a las aplicaciones más avanzadas de la actualidad.

Velocidades compatibles con la tecnología Hyper-Threading

Bus del sistema a 800 MHz: 3,20 y 3,40 GHz

Bus del sistema 800 MHz

Caché L3: 2MB, L2: 512KB, L1: 8 KB

Chipset Bus del sistema a 800 MHz: Chipsets Intel® 875P , 865PE , 865G

Placas madre Intel® para equipos de sobremesa

Compatibles con el procesador Intel Pentium 4

Micro arquitectura Intel® NetBurst® • Bus del sistema a 800 MHz • Tecnología hipercanalizada • Sistema de ejecución rápida • Caché de seguimiento de ejecución • Caché de transferencia avanzada • Ejecución dinámica avanzada • Multimedia/coma flotante mejorada

• Extensiones Streaming SIMD 2

Tecnología Intel® RAID disponible La tecnología Intel® RAID está disponible en los chipsets Intel® 875P , 865PE y 865G con ICH5R

8) El rendimiento de los componentes debe ser equilibrado para que el ordenador trabaje a buena velocidad. El clonar procesadores ha sido una práctica de los últimos años que causa un desmejoramiento en la calidad del procesador ya que las fábricas de clones no se preocupan por mejorar la calidad del procesador.

9) Dos detalles sorprendentes. En diciembre de 1999, una misión fundamental de los astronautas del Discovery fue a renovar el microprocesador del Telescopio Hubble, dotándolo de un procesador 486 en la época del Pentium III. La explicación es que resulta más que suficiente

25

Page 26: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

para la sencilla tarea que realiza (girar el telescopio) y es un microprocesador muy fiable. Por otro lado, las consolas de los videojuegos disponen de procesadores de 64 o 128 bits, más que los de los ordenadores personales dado que el proceso masivo es de multimedia.

MEMORIAS DE LOS ORDENADORES.

1) Memoria RAM.Una de las más importantes es la memoria RAM memoria de acceso al azar (Random Access Memory).

Conjunto de circuitos integrados donde se almacenan instrucciones para procesos de los diferentes tipos de programas en formato binario. En estas memorias los datos se almacenan en forma aleatoria o al azar. En la memoria RAM se almacena temporalmente el programa y los datos que el mismo requiere y que han sido obtenidos de los medios de almacenamiento. En el mercado actual, tenemos memorias RAM de hasta 1,024 KB.

2) Medición de la memoria RAM. La memoria RAM se mide en KB o Megas y cuanto mayor sea significará que podemos disponer de más espacio para ejecución de programa y almacenamiento de los datos asociados.

3) Ampliar la memoria RAM. La memoria RAM se puede ampliar, aunque tiene un límite, dependiendo de los zócalos libres que tenga la placa madre del ordenador. Este es un dato muy a tener en cuenta a la hora de adquirir un equipo, sobre todo porque hay varios tamaños, tipos y calidades de módulos de memoria RAM y cada placa madre admite unas combinaciones concretas 32, 64, 128, 256 y 512 como ejemplos.

4) Correlación entre el procesador, el sistema operativo y la memoria RAM. A mayor memoria RAM el sistema operativo podrá desempeñarse con mayor eficiencia ya que podrá cargar, en memoria, un mayor número de tareas a ejecutar lo que acelerará el conjunto de procesos. La mayor limitación, histórica, en el procesamiento de los ordenadores ha sido el tamaño de la memoria.

5) La memoria caché. Mejor conocida como memoria colchón resultan ser las de mayor velocidad conocida pero de mayor precio, se utilizan para la transferencia de datos entre el bus y los componentes del procesador para incrementar el rendimiento. No toda la memoria RAM es de la misma calidad, por lo que un dato importante que suele aparecer en las especificaciones de los equipos informáticos es el tiempo de acceso de la memoria RAM. Es el tiempo mínimo necesario para asegurar que en un ciclo de lectura-escritura de los circuitos integrados de memoria estos pasan la información que contienen al bus de datos. Se mide en nanosegundos.

6) La memoria ROM. La memoria ROM (Read Only Memory) es otro tipo de memoria que sólo se puede leer, por lo tanto la información que contiene ha de ser escrita en el momento de su fabricación. Su contenido no se borra excepto, por programas especiales, y consiste programas e instrucciones de control que son necesarios para la puesta en marcha de los ordenadores. Interviene de forma casi exclusiva al encender el equipo para ejecutar automáticamente las operaciones necesarias de arranque, como cargar el sistema operativo.

7) Tipos especiales de memoria ROM. Hay otros tipos especiales de memoria ROM, como la PROM (Programable Read Only Memory) y la EPROM (Erasable Programable Read Only Memory) que tienen usos bastante específicos. La PROM es una memoria ROM que puede programarse una vez por el usuario y la EPROM puede borrarse y programarse con un programa adecuado.

8) CONFIGURACIÓN DEL BIOS DE UNA MEMORIA CMOS.BIOS (BASIC INPUT OUTPUT SYSTEM)

26

Page 27: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Ahora nos meteremos un poco con la famosa y misteriosa BIOS, también llamado el "SETUP" o configuración del BIOS (recuerda que se accede pulsando la tecla SUPR mientras hace el Tes. de memoria al arrancar, aunque en otras placas más raras se hace con F1 o combinaciones de otras teclas). Ante todo tenemos que decirte que no existe la configuración de BIOS perfecta, sino que cada una de las configuraciones posibles se hace con un propósito (conseguir la mayor velocidad en los gráficos, conseguir el funcionamiento de disco duro más eficiente, el acceso a memoria más rápido). El aumentarle en un punto le hará bajar en los demás. En realidad la configuración más ideal es la que viene por defecto, pero esta última suele traer unos valores un tanto "holgados" para ofrecer máximas compatibilidades. Pongamos un ejemplo: en las bios que soportan RAM y RAM EDO, hay una opción que permite aumentar la velocidad de este segundo tipo. Sin embargo, si esa opción la utilizamos con el primer tipo habría problemas, por lo que la opción determinada es ese acceso un poco más rápido quitado, con el fin de que vaya bien con las dos memorias.

Antes de comenzar, ten en cuenta de que hay dos métodos para restaurar los valores iniciales en caso de error: uno es la opción LOAD SETUP DEFAULTS, que permitirá cargar los valores por defecto. La otra opción es factible en el caso de que el ordenador no arranque. En este caso, habrá que cambiar el jumper de la placa base que sirve para borrar la CMOS (chip donde la BIOS guarda sus valores, recuerda que la BIOS está en una memoria ROM, Read Only Memory -> memoria de sólo lectura). Si carece de dicho jumper, habrá que quitar la pila de litio que alimenta a la CMOS. Si la pila está soldada a la placa base, lee la frase que viene a continuación:

Y nos queda por decir lo típico, que no nos responsabilizamos de los posibles problemas ocasionados por la mala utilización de estos consejos sobre la BIOS, y que se menciona con un propósito meramente informativo. Es sólo para usuarios avanzados. Así que quedas avisado. Aunque te todas formas no hay demasiado peligro. Si hay alguna opción que no entiendes, no la toques. También recuerda apuntar en papel todos los valores anteriores en caso de perder rendimiento y no verte obligado a usar la opción LOAD BIOS DEFAULTS

B.- DISPOSITIVOS DE CAPTURA Y ALMACENAMIENTO DE DATOS

Los dispositivos se clasifican de acuerdo a la función que desempeñan en: de entrada, de salida y mixtos.

DISPOSITIVOS DE CAPTURA

1) Dispositivos de captura. Son todos aquellos dispositivos que transfieren datos de las unidades de lectura hacia la unidad central de procesos. Ejemplo: lectoras de caracteres ópticos, lectoras de tarjetas, lector de código de barras, etc. Son elementos que se encargan de convertir la información que viene del exterior en un formato legible para introducirla a las áreas de entrada del ordenador.

2) Variedades de dispositivos.

Este grupo incluye todo tipo de elementos capaces de adquirir información, como los teclados y ratones. Un poco más sofisticado es el digitalizador o escáneres que es capaces de digitalizar fotografías o textos. En combinación con un programa adecuado de reconocimiento de caracteres, un dispositivo de reconocimiento de caracteres ópticos OCR (Optical Character Recognition) es capaz de identificar y traducir lo escaneado a caracteres de datos en un ordenador.

Los lectores de código de barras se usan, por ejemplo, en los supermercados y son una aplicación específica de digitalizador datos para transferirlos al ordenador de forma rápida y

27

Page 28: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

eficiente. Parecida función desempeñan los lectores de bandas magnéticas, utilizados por ejemplo para leer las tarjetas de crédito y de débito en los bancos. Las cámaras de video son utilizadas para realizar aplicaciones multimedia o incluso videoconferencias. Las cámaras digitalizadas permiten capturar imágenes para introducirlas al computador.

Otros dispositivos son las palancas de comandos, periféricos utilizados en los juegos de ordenador. Todos conocemos también las pantallas de contacto o táctiles, que son sensibles al tacto de forma que es posible introducir información tocando con el dedo en la pantalla. Los instrumentos de reconocimiento de voz, todavía no son muy populares, pero tienen un gran futuro como interfaz natural de introducción de datos en el ordenador.

Escáneres

El escáner es un dispositivo que cada vez goza de mayor popularidad y aceptación entre todos los usuarios, y no sólo entre los profesionales de la imagen. Y es que no estamos hablando únicamente del retoque fotográfico de alto nivel; digitalización de páginas de texto para su tratamiento OCR, o escaneado de documentos para su gestión en soporte magnético, entre otros cometidos.

Para aconsejaros bien de cara a la adquisición de este periférico, es preciso explicar antes su funcionamiento, así que vamos allá.

El principio de funcionamiento de un escáner es la digitalización, es decir, la conversión de una información analógica a datos comprensibles por nuestro querido PC; para ello, se vale de una serie de componentes internos que posibilitan este objetivo. Una fuente de luz va iluminando, línea por línea, la imagen o documento en cuestión, y la luz reflejada en la imagen es recogida por los elementos que componen el CCD (Charged-Couple Device), dispositivo que convierte la luz recibida

en información analógica. Por último, un DAC (Digital-Analog Converter) convierte los datos analógicos en valores digitales.

Este es, a grandes rasgos, el funcionamiento del escáner. Sin embargo, necesitamos conocer más conceptos; por ejemplo, la resolución. Cuando se habla de una resolución óptica de 600 ppp (puntos por pulgada), estamos indicando que su dispositivo CCD posee 600 elementos. Cuanta mayor sea la resolución, más calidad tendrá el resultado; en la actualidad, lo mínimo son 300 ppp, aunque 600 ppp es una resolución más conveniente si vamos a digitalizar fotografías. No obstante, la mayoría de escáneres pueden alcanzar mayor resolución, mediante la interpolación; se trata de un algoritmo por el cual el escáner calcula el valor situado entre dos píxeles digitalizados, a partir del valor de estos. Por ello, hay que saber diferenciar entre la resolución óptica (real) y la interpolada.

Profundidad de color

Este parámetro, expresado en bits, indica el número de tonalidades de color que un píxel puede adoptar; lo normal en la actualidad es un valor de 24 bits por píxeles. Aunque hasta hace poco los escáneres de blanco y negro, tonos de grises o 256 colores eran muy populares, lo cierto es que los 24 bits de color se han convertido en un estándar, lógico si se tiene en cuenta que en la actualidad cualquier tarjeta gráfica es capaz de mostrar esta cantidad de colores.

Sin embargo, hay escáneres capaces de utilizar 30 o incluso 36 bits de color, pero la mayoría lo hacen a nivel interno, para disminuir el intervalo entre una tonalidad y la siguiente; posteriormente, lo que envían al PC son únicamente 24 bits. Por otro lado, muy pocos programas pueden gestionar esos bits adicionales de color.

El estándar TWAIN

En cualquier caso, se necesita un software que actúe de intermediario entre el escáner y la aplicación que tratará el archivo digitalizado; afortunadamente se ha logrado establecer un estándar, denominado TWAIN (según algunos, la palabra viene de Technology Without An Interesting Name, algo así como "Tecnología sin nombre interesante"), hasta el punto de que no se concibe un escáner que no incluya su correspondiente driver Twain. Se trata de un controlador que puede ser utilizado por cualquier aplicación que cumpla con dicho estándar; su diseño permite que podamos digitalizar una imagen desde la aplicación con la que acabaremos retocándola, evitando pasos intermedios.

En este punto es importante tener en cuenta un detalle: es recomendable que el driver Twain del escáner a adquirir sea lo más potente y flexible posible; no basta con que nos permita elegir resolución, tamaño y tipo (color, grises, etc.) de la imagen o documento, sino que también posea controles para ajustar los parámetros que influyen en el proceso de digitalización: niveles de contraste, colores, etc.

Tipos de escáner

28

Page 29: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Hasta ahora, hemos visto el funcionamiento interno de estos dispositivos; es el momento de echar un vistazo a la amplia oferta del mercado, dividida en tres tipos: escáneres de mano, de sobremesa y de rodillo. El escáner de mano es, con mucho, la alternativa más económica, puesto que elimina gran parte de los mecanismos que encarecen a los dispositivos de sobremesa; más concretamente el de tracción, ya que es el usuario quien mueve el escáner sobre la imagen o documento a digitalizar. La ventaja económica y de ahorro de espacio tiene su contrapartida en la poca fiabilidad del proceso, ya que depende de la habilidad y el pulso del usuario, y mover el escáner de forma demasiado lenta o rápida puede afectar al resultado final. Asimismo, puede ser complicado digitalizar una página de un libro, con un escáner de mano.

Frente a estos modelos, los de sobremesa representan la alternativa más profesional y de calidad, aunque también más cara, y realmente son los que más se están extendiendo. A modo de pequeñas fotocopiadoras, el documento o imagen se coloca sobre un cristal bajo el cual la lente luminosa se desplaza, digitalizando el documento. La mayor complejidad del dispositivo, así como el sistema de escaneado, le permiten obtener una gran calidad y fiabilidad, aunque como inconvenientes podemos citar su mayor tamaño y precio.

Por último, el escáner de rodillo es una interesante alternativa, a medio camino entre los dos anteriores; como su nombre indica, el escáner utiliza como mecanismo de tracción un rodillo que recoge automáticamente el documento y lo digitaliza. La calidad obtenida no es tanta como en los modelos de sobremesa, pero es una excelente opción para usuarios con determinadas necesidades.

Software incluido

Generalmente, se incluye software de regalo con el escáner; suele tratarse de versiones reducidas de excelentes programas de retoque o de OCR (Reconocimiento Óptico de Caracteres), pero también de otras aplicaciones más sencillas, que pueden quedarse cortas según qué usuarios las empleen. Aquí es evidente que no se puede exigir demasiado, pero es preciso buscar un escáner que incluya al menos un buen software de tratamiento de imágenes y otro de OCR. En algunos casos se añade algún programa de gestión documental, que puede venirnos bien si vamos a archivar gran cantidad de documentos; en cualquier caso, es una sabia norma el buscar un software lo más potente posible, ya que es mejor pasarse que quedarse cortos.

Un par de recomendaciones

No hay que olvidar que la inmensa mayoría de los escáneres trabajan a 24 bits de color; esto significa que, incluso aunque no necesitásemos más de 256 colores, el dispositivo no va a dar buen resultado con una profundidad de color inferior. Resumiendo, nuestra tarjeta gráfica deberá estar configurada para esa cantidad de colores, si no queremos obtener resultados más pobres de lo normal.

Nuestra segunda recomendación está de alguna forma relacionada con la primera; no debemos adquirir un escáner sin antes comprobar si nuestro equipo podrá estar a la altura. No basta con tener un 486 con 8 Megas de memoria y un disco duro normal, para que nos vayamos a engañar; la digitalización y tratamiento de imágenes exige un uso intensivo de la CPU, así como una buena cantidad de memoria y mucho, mucho espacio en disco. En definitiva, se impone un análisis de nuestro PC, previo a la compra de cualquier tipo de escáner.

La mejor conexión

Un escáner puede tener diferentes formas de conectarse al ordenador, cada una con ventajas e inconvenientes. Una conexión por puerto paralelo nos ahorra la necesidad de abrir el PC y facilita la instalación, pero es notoriamente más lenta que otras soluciones.

La alternativa SCSI es mucho más rápida y fiable, aunque es preciso abrir el equipo, y lidiar con la clásica configuración de la cadena de dispositivos SCSI; otro detalle a tener en cuenta es el tipo de tarjeta SCSI que el escáner puede incluir. Si ésta tiene un diseño propietario y no es totalmente compatible con la norma (lo cual no es infrecuente), podemos tener problemas a la hora de conectar el escáner en otros ordenadores con tarjeta SCSI.

Por último, otros modelos incluyen una tarjeta ISA de diseño propietario; el tema es evidente, si deseamos usar el escáner en otro sistema, este deberá poseer una tarjeta idéntica, o tendremos que desmontar la nuestra y pincharla en el otro equipo. Por supuesto, cada usuario empleará su escáner según sus necesidades, por lo que aquí nos limitamos a citar las diferentes posibilidades existentes.

Algunos escáneres permiten obtener una gran calidad y fiabilidad, aunque siempre existen los inconvenientes del tamaño y el precio.

Existen escáneres de rodillo con alimentador de hojas, algo que facilita al usuario, en gran medida, el trabajo a realizar.

El driver Twain es un controlador que puede ser utilizado por cualquier aplicación que cumpla con dicho estándar. Los escáneres motorizados se utilizan para digitalizar grandes cantidades de texto mediante un programa OCR.

Calibración

29

Page 30: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Efectivamente, estos dispositivos también necesitan ser calibrados; esto se realiza de diversas formas. Por ejemplo, muchos escáneres de mano incluyen una hoja con diferentes tonalidades de color, que debe ser digitalizada para que nuestro periférico establezca los patrones necesarios. Asimismo, es importante que nuestra impresora de color pueda reproducir correctamente la imagen original; para ello es preciso establecer una relación entre los colores que ésta puede imprimir, y los que el escáner puede digitalizar. Se suele emplear un modelo, que primero se imprime en la impresora y posteriormente se digitaliza; se comparan las diferencias y se crea un archivo de configuración, conteniendo los ajustes que permitirán corregirlas. Aunque no todos los modelos permiten este tipo de calibración, lo cierto es que cada vez se utiliza con mayor frecuencia.

DISPOSITIVOS DE ALMACENAMIENTO PRIMARIO DE LOS DATOS Y LA INFORMACIÓN.

1) El disco duro. La unidad de almacenamiento interno más frecuente es el disco duro. La capacidad del disco duro es la capacidad total disponible en el mismo, una vez formateado y se mide en Mega bites o Giga bytes (40gigas, 80 gigas, etc.). La velocidad de transferencia de datos entre el disco duro y el ordenador depende básicamente de la interfase controladora, que normalmente está integrada en la placa madre y se comunica con el disco duro mediante una faja gris con cables. También existen controladoras que van en una tarjeta que se une a la placa a través de una ranura de expansión. Si el ordenador es lento es inútil disponer de velocidades de transferencia rápidas, ya que el microprocesador no es capaz de admitir datos a tanta velocidad. Un dato que debe aparecer en las especificaciones del equipo es el tiempo medio de acceso de disco duro, que es el tiempo medio que tardan las cabezas de lectura del disco en ir de una pista a otra y acceder a los datos de la última. Se mide en milisegundos, y cuanto más rápido sea, mejor.

Discos duros

Ha habido muchos cambios en el campo de los discos duros. De más antiguos del tamaño de una caja de zapatos y de capacidades ridículas (vistas desde hoy) hasta discos duros compactos y reducidos con capacidades 400 veces mayores.

Estructura interna de un disco duro

Un disco duro se compone de muchos elementos; citaremos los más importantes de cara a entender su funcionamiento. En primer lugar, la información se almacena en unos finos platos o discos, generalmente de aluminio, recubiertos por un material sensible a alteraciones magnéticas. Estos discos, cuyo número varía según la capacidad de la unidad, se encuentran agrupados uno sobre otro y atravesados por un eje, y giran continuamente a gran velocidad.

Asimismo, cada disco posee dos diminutos cabezales de lectura/escritura, uno en cada cara. Estos cabezales se encuentran flotando sobre la superficie del disco sin llegar a tocarlo, a una distancia de unas 3 o 4 micro pulgadas (a título de curiosidad, podemos comentar que el diámetro de un cabello humano es de unas 4.000 pulgadas). Estos cabezales generan señales eléctricas que alteran los campos magnéticos del disco, dando forma a la información. (Dependiendo de la dirección hacia donde estén orientadas las partículas, valdrán 0 o valdrán 1).

La distancia entre el cabezal y el plato del disco también determinan la densidad de almacenamiento del mismo, ya que cuanta más cerca estén el uno del otro, más pequeño es el punto magnético y más información podrá albergar.

30

Page 31: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Algunos Conceptos

Si se aumenta la velocidad de rotación, la latencia se reduce; en antiguas unidades era de 3.600 rpm (revoluciones por minuto), lo que daba una latencia de 8,3 milisegundos. La mayoría de los discos duros actuales giran ya a 7.200 rpm, con lo que se obtienen 4,17 mb de latencia. Y actualmente, existen discos de alta gama aún más rápidos, hasta 10.000 rpm.

Es preciso comentar también la estructura lógica del disco, ya que contiene importantes conceptos que todos habréis oído; para empezar, la superficie del disco se divide en una serie de anillos concéntricos, denominados pistas. Al mismo tiempo, las pistas son divididas en trames de una misma longitud, llamados sectores; normalmente un sector contiene 512 bytes. Otro concepto es el de cilindro, usado para describir las pistas que tienen el mismo número pero en diferentes discos. Finalmente, los sectores suelen agruparse en clusters o unidades de asignación. Estos conceptos son importantes a la hora de instalar y configurar un disco duro, y haremos uso de alguna de esta información cuando subamos al nivel lógico del disco. Muchas placas base modernas detectan los discos duros instalados, mientras que en otras más antiguas hay que meter algunos valores uno por uno (siempre vienen escritos en una etiqueta pegada en la parte superior del disco).

Interfaces: ST506, MFM y RLL

Hasta aquí hemos visto la estructura del disco duro, pero nos falta una pieza vital: la controladora. Es un componente electrónico que gestiona el flujo de datos entre el sistema y el disco, siendo responsable de factores como el formato en que se almacenan los datos, su tasa de transferencia, velocidad, etcétera.

Los primeros discos duros eran gestionados por controladoras ST506, un estándar creado por la conocida empresa Seagate. Dentro de esta norma se implementaron los modos MFM y RLL, dos sistemas para el almacenamiento de datos que, si bien diferentes en su funcionamiento, a nivel físico y externo del disco presentaban la misma apariencia, siendo conocidos de forma genérica en el mundillo como "discos MFM". Estas unidades incluían externamente tres conectores: el primero, y común a cualquier disco duro, es el de alimentación. En los restantes se conectaba un cable de control y un cable de datos, desde el disco a la controladora; el cable de control gestionaba la posición de los cabezales y el de datos transmitía el flujo de información desde y hasta la controladora.

La diferencia entre MFM y RLL es a nivel interno; MFM (Modified Frequency Modulation) y RLL (Run Length Limited) son dos métodos de codificación de la información binaria. RLL permite almacenar un 50% más de datos que el MFM, al aumentar la densidad de almacenamiento. También la tasa de transferencia es superior en RLL, debido al más eficiente método de grabación usado, sin embargo, la velocidad de rotación era la misma en ambos casos: 3600 rpm.

En cualquier caso, la tasa de transferencia de estas unidades no era precisamente como para tirar cohetes: una media de 5 Mbtis por segundo (es decir, medio mega) en MFM y 7.5 Mbtis/s para RLL. Y en cuanto a capacidad, las unidades MFM no solían tener más de 40 Megas, 120 Megas en las RLL

31

Page 32: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

ESDI

Con esta interfaz, “Enhanced Small Devices Interface” (interfaz mejorada para dispositivos pequeños), se daba un paso adelante. Para empezar, una parte de la lógica decodificadora de la controladora se implementó en la propia unidad, lo que permitió elevar el ratio de transferencia a 10 Mbits por segundo. Asimismo, se incluyó un pequeño buffer de sectores que permitía transferir pistas completas en un único giro o revolución del disco.

No obstante, estas unidades no se extendieron demasiado, y únicamente compañías como IBM (muy aficionadas a tecnologías propietarias) fueron las que más lo emplearon en sus máquinas. Estas unidades no solían tener una capacidad superior a 630 Megas, y en cualquier caso se trató más bien de una tecnología de transición, ya que un tiempo después tuvo lugar el salto cuantitativo y cualitativo con la interfaz que detallamos a continuación.

El estándar IDE

“Integrated Drive Electronics”, o IDE, fue creado por la firma Western Digital, curiosamente por encargo de Compaq para una nueva gama de ordenadores personales. Su característica más representativa era la implementación de la controladora en el propio disco duro, de ahí su denominación. Desde ese momento, únicamente se necesita una conexión entre el cable IDE y el Bus del sistema, siendo posible implementarla en la placa base (como de hecho ya se hace desde los 486 DX4 PCI) o en tarjeta (equipos 486 VLB e inferiores). Igualmente se eliminó la necesidad de disponer de dos cables separados para control y datos, bastando con un cable de 40 hilos desde el bus al disco duro. Se estableció también el término ATA (AT Attachment) que define una serie de normas a las que deben acogerse los fabricantes de unidades de este tipo.

IDE permite transferencias de 4 Megas por segundo, aunque dispone de varios métodos para realizar estos movimientos de datos, que veremos en el apartado “Modos de Transferencia”. La interfaz IDE supuso la simplificación en el proceso de instalación y configuración de discos duros, y estuvo durante un tiempo a la altura de las exigencias del mercado.

No obstante, no tardaron en ponerse en manifiesto ciertas modificaciones en su diseño. Dos muy importantes eran de capacidad de almacenamiento, de conexión y de ratios de transferencia; en efecto, la tasa de transferencia se iba quedando atrás ante la demanda cada vez mayor de prestaciones por parte del software (¿estás ahí, Windows?). Asimismo, sólo podían coexistir dos unidades IDE en el sistema, y su capacidad (aunque ero no era del todo culpa suya, lo veremos en el apartado “El papel de la BIOS”) no solía exceder de los 528 Megas. Se imponía una mejora, y ¿quién mejor para llevarla a cabo que la compañía que lo creó?

Enhanced IDE

La interfaz EIDE o IDE mejorado, propuesto también por Western Digital, logra una mejora de flexibilidad y prestaciones. Para empezar, aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia empieza a subir a partir de los 10 Megas por segundo, según el modo de transferencia usado. Además, se implementaron dos sistemas de traducción de los parámetros físicos de la unidad, de forma que se pudiera acceder a superiores capacidades. Estos sistemas, denominados CHS y LBA aportaron ventajas innegables, ya que con mínimas modificaciones (aunque LBA exigía también cambios en la BIOS del PC) se podían acceder a las máximas capacidades permitidas.

Otra mejora del EIDE se reflejó en el número de unidades que podían ser instaladas al mismo tiempo, que se aumentó a cuatro. Para ello se obligó a fabricantes de sistemas y de BIOS a soportar los controladores secundarios (dirección 170h, IRQ 15) siempre presentes en el diseño del PC pero nunca usados hasta el momento, de forma que se pudieran montar una unidad y otra esclava, configuradas como secundarias. Más aún, se habilitó la posibilidad de instalar unidades CD-ROM y de cinta, coexistiendo pacíficamente en el sistema (más sobre esto en el apartado “Otros términos”). A nivel externo, no existen prácticamente diferencias con el anterior IDE, en todo caso un menor tamaño o más bien una superior integración de un

32

Page 33: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

mayor número de componentes en el mismo espacio.

Modos de transferencia

Los dispositivos IDE pueden transferir información principalmente empleando dos métodos: PIO y DMA; el modo PIO (Programmed I/O) depende del procesador para efectuar el trasiego de datos. A nivel de rendimiento no hay mayor problema, ya que los micros actuales tienen la suficiente capacidad para gestionar estas operaciones y alternarlas con otras, por supuesto. El otro método es el DMA; así la CPU se desentiende de la transferencia, teniendo ésta lugar por mediación de un chip DMA dedicado. Con el IDE original se usaban los modos PIO 1 y 2, que podían llegar a unos 4 Megas por segundo de transferencia; el modo DMA del IDE original no superaba precisamente esa tasa, quedándose en unos 2 o 3 Megas por segundo.

Hay que decir que existe una variante de la transferencia DMA, y es la BusMaster DMA; esta modalidad aprovecha las ventajas de los chipsets de las placas base, cada vez más optimizados para estas laboras. Además de liberar al procesador, puede obtener por parte de éste un control casi total, de forma que la información sea transferida con la máxima prioridad. Aunque se pueden alcanzar 16 Megas por segundo, la última modalidad Ultra DMA logra llegar a los 33,3 Megas/s, aprovechando las bondades del nuevo chipset TX de Intel. No obstante, para disfrutar de esta técnica es precioso contar con los correspondientes controladores, suministrados normalmente por el fabricante de la correspondiente placa base.

Otros términos

EIDE amplió los modos PIO al 3, y estableció el MultiWord DMA 1; con ello se logró una tasa de 11 o 13 Megas/s, dando lugar al término Fast ATA. Con posterioridad, se definió la norma Fast ATA-2, para identificar aquellos productos que se acogían a los modos PIO 4 y MultiWord DMA 2, que permiten alcanzar un máximo de 16,6 Megas/s. Existe otro método de transferencia propio del Fast ATA, y es la múltiple lectura/escritura; es decir, la capacidad de leer o escribir varios sectores (normalmente hasta 32) en una sola interrupción, lo que permite optimizar la transferencia incluso en buses lentos, como ISA.

Conviene resaltar que las tasas de transferencia citadas se consiguen en el mejor de los casos, y no siempre son sostenidas, es decir, que suelen ser “picos” de transferencia.

Es preciso también abordar en esta introducción a los discos duros otro término muy conocido; ya hemos comentado que EIDE amplió la flexibilidad en el conexionado, permitiendo la coexistencia de discos duros con unidades de cinta y de CD-ROM, usando el estándar IDE. Para ello se ideó la norma ATAPI (ATA Packet Interface), una extensión del protocolo ATA creada con el fin de aportar un único conjunto de registros y mandatos, y de esta forma facilitar la coexistencia de estas unidades. Los dispositivos de este tipo también pueden, por tanto, beneficiarse de todas las ventajas de los modos PIO y DMA.

MODO DE TRANSFERENCIA MB DE TRANSFERENCIA (PICOS)PIO 0 2/3 Mb/sPIO 1 y 2 4 Mb/sPIO 3 11 Mb/sPIO 4 16 Mb/sMultiWord DMA 1 13 Mb/sMultiWord DMA 2 16,6 Mb/sUltra DMA 33 33 Mb/sUltra DMA 66 66 Mb/s

33

Page 34: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Buffer y caché

Prácticamente todos los discos duros incluyen una memoria buffer, en la que almacenan los últimos sectores leídos; ésta, que puede ser desde 2 Kb hasta 512 Kb, es importantísima de cara al rendimiento, e incluso imprescindible para poder mantener altas cotas de transferencia. Se la denomina caché cuando incluyen ciertas características de velocidad; concretamente, los procesos se optimizan cuando el sistema vuelve de una operación de copiado de datos a la unidad sin esperar a que ésta haya finalizado. También utilizan otra técnica diferente consistente en que la unidad informa de la finalización de una operación de escritura en el momento de recibir los datos, antes de comenzar a grabarlos en el disco. De esta manera no se producen estados de espera; tras todo lo comentado hasta este momento, podemos decir, resumiendo, que un caché amplio en un disco duro es absolutamente imprescindible.

Más de 520 Megas... ¿por qué no?

Seguro que muchos de vosotros habéis vivido el caso (o al menos habéis sido testigos de él) de ir a instalar un disco duro de alta capacidad, y encontraros con que de esos 1080 Megas sólo alcanzáis 528 Megas. Se trata de una nefasta limitación, que curiosamente no está impuesta ni por la BIOS (Basic Input/Output System) ni por el estándar IDE (ni por el DOS, como alguna gente piensa); en realidad, viene dada.... ¡por ambos!

La capacidad de un disco duro se mide en tres valores: número de sectores por pista, número de cabezas y número de cilindros (notación CHS); el estándar IDE soporte 65.536 cilindros, 16 cabezas y 255 sectores por pista, lo que nos da una capacidad bestial, alrededor de 137 Gigas.

Por su parte, la BIOS del PC soporta 1.024 cilindros, 255 cabezas y 63 sectores; ya que ambos deben funcionar en conjunción, es el mínimo común denominador de ambos el que marcará la capacidad definitiva, que será de 1.024 cilindros (máximo de la BIOS), 16 cabezas (máximo del IDE) y 63 sectores (máximo de la BIOS), lo que nos va a dar un total de 528 Megas.

Para superar esta traba, la BIOS debe implementar el modo de trabajo conocido como LBA (Logical Block Adreesing), que traduce el esquema CHS a otro de direccionamiento lógico. Esta operación es totalmente transparente al sistema operativo y al software en general, y aporta la evidente ventaja de poseer acceder a todo el espacio disponible del disco duro del ordenador.

Cuando una BIOS no soporta esta técnica, es preciso emularla por software; para ello, el fabricante de la unidad suele poner a disposición del usuario utilidades especiales que, en forma de driver residente, logran engañar al sistema y obtener el mismo efecto que el LBA por BIOS.

La norma SCSI

Hasta el momento hemos estado comentando los estándares ST506, MFM, RLL, IDE y EIDE, pero nos hemos saltado uno que, tan veterano como los anteriores, ha ido evolucionando (hasta hace poco en otros segmentos de mercado) de forma paralela a ellos. Nos referimos, por supuesto, a SCSI; demos un breve paseo por sus características.

La interfaz SCSI (Small Computer System Interface) ha sido tradicionalmente relegada a tareas y entornos de ámbito profesional, en los que prima más el rendimiento, la flexibilidad y la fiabilidad. Para empezar, SCSI es una estructura de bus separada del bus del sistema. De esta forma, evita las limitaciones propias del bus del PC. Además, en su versión más sencilla esta norma permite conectar hasta 7 dispositivos SCSI (serían 8 pero uno de ellos ha de ser la propia controladora) en el equipo; y las ventajas no se reducen al número de periféricos, sino también a su tipo: se puede conectar prácticamente cualquier dispositivo (escáneres, impresoras, CD-ROM, unidades removibles, etc.) siempre que cumplan con esta norma.

Otra enorme ventaja de SCSI es su portabilidad; esto quiere decir que podemos conectar nuestro disco duro o CD-ROM (o lo que sea) a ordenadores Macintosh, Amiga, etc., que empleen también la norma SCSI. Un detalle a resaltar que todos los periféricos SCSI son inteligentes; es decir, cada uno posee su propia ROM

34

Page 35: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

donde almacena sus parámetros de funcionamiento. En especial, es la controladora el dispositivo más importante de la cadena SCSI, que al poseer su propia BIOS puede sobrepasar limitaciones de la ROM BIOS del sistema.

Posiblemente lo que hace destacar a SCSI en su rendimiento, bastante superior a IDE al no depender del bus del sistema; no obstante, no todo iban a ser ventajas: SCSI es más caro que IDE, y en la mayoría de las ocasiones, más complejo de configurar, aunque esto último es cada vez menos problemáticos, ya que es preciso resaltar que la norma SCSI también ha evolucionado y mejorado; citaremos a continuación sus diferentes modalidades.

El surtido SCSI

La primera norma, SCSI-1, lograba un máximo de 3 Megas por segundo de transferencia, a una anchura de 8 bits en el bus de datos. La posterior SCSI-2 introdujo mejoras en el control de los dispositivos, inclusión de mejoras de caché y otras, subiendo a 5 Megas de ratio, con la misma anchura de bits que su predecesora. Luego se presentó la variante Fast SCSI-2, que lograba los 10 Megas por segundo, manteniendo esos 8 bits en el bus de datos. El modo Wide se unió después al Fast, resultando el Fast/Wide SCSI-2, con el que se amplió a 16 bits el ancho de banda del bus de datos, lográndose hasta 20 Megas/s de transferencia y permitiendo un soporte de hasta 15 dispositivos en cadena.

Lo último ha sido el Ultra SCSI, con el que se ha conseguido llegar a 40 Megas por segundo a 16 bits y 20 Megas a 8 bits, aunque no debemos pasar por alto la inclusión de la norma SCAM (SCSI Configured Automatically), alo parecido al Plug & Play, que nos libera de la clásica dificultad de configuración de las cadenas SCSI, aunque para ello los dispositivos también deben contemplar el SCAM. Por diversos motivos, SCSI siempre ha sido la alternativa profesional, pero cada vez podemos verla con más frecuencia en el ámbito doméstico; no hay que olvidar que periféricos como unidades Zip o Jazz, magneto-ópticos y escáneres vienen cada vez de forma más frecuente en SCSI, así como el progresivo abaratamiento al que se ven sometidos este tipo de componentes.

Norma SCSI Ancho Bus Megas/segundoSCSI-1 8 bits 3 Megas/sSCSI-2 8 bits 5 Megas/sFast SCSI-2 8 bits 10 Megas/sFast/Wide SCSI-2 16 bits 20 Megas/sUltra SCSI 8/16 bits 20/40 Megas/sUltra2 SCSI LVD 8/16 bits 40/80 Megas/s

Otras formas de usar un disco duro

Si hay algo que resulta evidente, es que el disco duro siempre almacena una valiosa información, y de su buen funcionamiento depende la integridad de los datos. Si esto es importante en el ámbito particular, imaginad a un nivel de entidades bancarias, grandes empresas, administraciones públicas o ejército, cuyas instalaciones informáticas normalmente son redes basadas en un servidor central. Si ese disco duro falla, el resultado puede ser catastrófico.

Por este motivo, surge el término SFT (Sistema tolerante a fallos, o System Fault Tolerance); se basa en el concepto de mantener tanto la integridad de los datos cómo el correcto funcionamiento del sistema, en el caso de un fallo de hardware. Este concepto aporta un nuevo término, RAID (Redundant Array of Inexpensive Disks); se puede traducir como Matriz Redundante de Discos Baratos, y sus diferentes modos de implementación forman los llamados niveles RAID. Aunque existen multitud de niveles, tocaremos más bien el concepto genérico; este se basa en utilizar varios discos duros, conectados entre sí (aunque el sistema cree

35

Page 36: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

que sólo existe uno), y que almacenan duplicados de la información principal. Por tanto, si uno de ellos cae, el sistema no se paraliza puesto que tenemos otros discos para sustituirlo, y, además, con la información totalmente intacta.

Existen numerosísimas formas de implementar la tolerancia a fallos, tanto por hardware como por software; podemos citar por ejemplo, el Disk Striping (que divide los datos en bloques de 64 Kb y los distribuye entre los diferentes discos instalados), el Disk Mirroring (crea una copia exacta, un espejo, del disco principal en otro secundario) y su variante Disk Duplexing (añade una controladora para gestionar el disco secundario y así reducir el tráfico) o el Disk Striping with Parity (variante del Striping, que añade también información de paridad a los datos guardados, empleada para recuperar la información en una hipotética pérdida de la misma). Por último, la técnica de Sector Sparing consiste en, tras la detección de un sector defectuoso del disco, sacar la información del mismo, colocarla en un sector bueno y marcar como defectuoso el sector erróneo.

Por supuesto, todas estas técnicas se efectúan en tiempo real, y normalmente son los sistemas operativos de red (como Windows NT Server o Novell Netware) los encargados de soportarlas. Asimismo, se emplean casi siempre discos SCSI debido a sus características, como flexibilidad o capacidad de ampliación; incluso técnicas como el Sector Sparing deben ser usadas en discos SCSI, puesto que es imposible aplicarlas con dispositivos IDE.

MFM RLL ESDI IDE EIDE SCSI-2 ULTRA SCSI

ULTRA2 SCSI LVD

Capacidad 40 Mb 120 Mb 630 Mb 520 Mb ? ? ?

Tasa de transferencia

5 Mg/s = 0,625 Mb/s

7,5 (Mg/s = 0,9375 Mb/s

1 Mb/s 11 Mb/s

16 Mb/s10 Mb/s y hasta 20 Mb/s en controladoras versión Fast

40 Mb/s 80 Mb/s

33 Mb/s con UDMA 3366 Mb/s con UDMA 66

Tiempo de acceso 65 ms 40 mb 15 mb 14 ms 12 ms 10 ms 9 ms ?

Notas: capacidad indica la cantidad máxima (en Megabytes) que puede controlar el sistema. Tasa de transferencia expresada en Megabits segundo (Mg/s) y en Megabytes por segundo (Mb/s). Tiempo de acceso expresado en milisegundos. Puede variar según fabricantes.

Un poco de historia

Aparte del clarísimo crecimiento que se puede observar a lo largo de todas estas tecnologías, el avance evolutivo es evidente también en términos cronológicos. Por ejemplo, y también de forma orientativa, podemos citar un “calendario” muy especial: durante el año 1992 y principios del 93, los discos duros implementados más comúnmente en los ordenadores domésticos eran de 40 y 80 Megas. A finales del 93 y primeros del 94, el tamaño ascendió a 100 y 120 Megas; sin embargo, antes de acabar el mismo año 94 ya nos poníamos en 214 y 260 Megas.

1995 fue testigo de la proliferación de los 428 y 540 Megas, pero antes de finalizar dicho año los discos de 620 y 850 Megas, e incluso se alcanzó la mágica cifra del Gigabyte, aunque los de 850 Megas también eran muy utilizados. En 1997 lo más bajo que se instalaba eran discos de 1,2 y 1,7 Gigabytes, siendo lo más normal discos de 2 Gigas. Hoy día, a finales de 1999, se instalan discos de 8, 12 y 15 GB.

En el ámbito de las interfaces, EIDE es la estrella del PC doméstico, y de buena parte del profesional, debido a su buen rendimiento y mejor precio. No obstante, es preciso recordar que SCSI es cada vez más popular y asequible. En cualquiera de los casos, no debemos olvidar que, para obtener el máximo rendimiento, el disco y la controladora deben estar al mismo nivel; por ejemplo, un disco Ultra SCSI no dará de sí todo lo posible con una controladora Fast SCSI, y viceversa. Lo mismo sucede con IDE: una controladora EIDE se verá

36

Page 37: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

frenada por un disco IDE estándar y viceversa.

Por otro lado, la relación precio/Megabyte sigue más o menos la onda de otros componentes informáticos; más que la bajada de precios, lo que realmente ocurre es que se da más por el mismo precio.

IEEE 1394 Firewire

Este es el nuevo bus de discos duros que se utilizará dentro de unos meses en adelante, por lo que ahora no está a la venta. Sin embargo, es bueno conocerlo, ya que esto se trata de una guía.

El IEEE 1394, que se dio a conocer debido sobre todo a la lista de tecnologías contenidas en Windows 98, es un nuevo bus que permite conectar hasta 63 dispositivos con una velocidad de datos media-rápida. En el fondo es similar al USB, pero, como verás más adelante, tiene diferencias tanto en aplicaciones como en prestaciones. No se harán competencia uno con otro y convivirán pacíficamente en un mismo ordenador.

Lo mejor de todo es el tipo de cosas que se pueden conectar. Éstas incluyen discos duros, DVD-ROMs y CD-ROMs de alta velocidad, impresoras, escáneres... y la novedad: cámaras de fotos digitales, videocámaras DVD, televisiones... Todo esto último es un nuevo hardware que se está fabricando ya. De hecho, ya hay disponibles muchos elementos. Gracias al 1394, se podrán conectar cámaras digitales y de DV sin la necesidad de incómodas tarjetas que vienen opcionalmente con estos aparatos.

Y ahora, te preguntarás cómo se conecta todo esto al ordenador. Por el momento, se hará con controladoras PCI.

Elegir el disco duro. IDE vs. SCSI

Como la función principal del disco duro es la de actuar como almacén de datos a largo plazo, la capacidad es una consideración fundamental. Hay que buscar un disco duro de entre 4 y 12 GB, dependiendo del tipo de datos que piense almacenar en el disco duro. Otras consideraciones son la velocidad de acceso (busquemos una velocidad mínima de 10 a 12 milisegundos, y si llega a 8 o 6, mejor), el buffer (recomendado de 256 Kb), rpm (revoluciones por minuto, busquemos 7.200) y el tamaño de la caché del disco duro. También es importante considerar el tipo de datos que piensa almacenar en su disco duro. Los formatos de datos actuales (video, sonido y gráficos) pueden requerir varios megabytes de espacio para almacenamiento.

De todas las tecnologías comentadas, cuando pienses comprar un disco duro tendrás dos opciones a elegir: IDE o SCSI. Los discos duros SCSI requieren hardware adicional y son más adecuados para tipos de operaciones de entrada/salida como servidores de archivos. Las unidades de disco duro IDE o EIDE (Enhanced IDE, o IDE mejorado) no requieren hardware adicional y los de la variante UDMA/33 o DMA/66 son casi igual o más veloces que los discos duros SCSI (los SCSI-2 concretamente). Para la mayoría de los usos de alto rendimiento, un disco duro EIDE suele ser el más apropiado y económico.

Otro punto es que el IDE admite en la actualidad cuatro dispositivos (que pueden ser discos duros, CD-ROMs, y algún tipo de disco removible), el SCSI 1 y 2 admite 7 dispositivos (discos duros, CD-ROMs, escáneres y discos removibles) y el Ultra SCSI) admite 15 (el Ultra2 SCSI LVD admite ¡30!). La cantidad de dispositivos que vamos a necesitar es otro factor de elección.

2) Unidades de disco flexibles

Las tradicionales unidades de disco flexibles tienen una capacidad de almacenamiento bastante limitada, que es la capacidad máxima que se puede leer-escribir con dichas unidades, una vez formateados y en los ordenadores compatibles las unidades de disco de 3,5 pulgadas de alta densidad admiten 1.440 GB. Es uno de los periféricos que más ha sobrevivido, aunque debido a su baja capacidad algunos fabricantes como Apple ya no lo incluyen en sus modelos. Otras

37

Page 38: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

unidades de almacenamiento muy populares son las unidades Zip, Superdisc, Jazz, etc. que permiten una mayor capacidad de datos, tanto de lectura como de escritura.

Discos Removibles

A la hora de ampliar nuestros ordenadores nos mueve algo que se puede definir con una palabra clave: necesidad. Necesidades de potencia, versatilidad, rapidez, y cómo no, almacenamiento. El software va tomando continuamente un tamaño mastodónico, y además nuestro trabajo con el ordenador va ocupando cada vez más espacio; curiosamente no basta con un disco duro de gran tamaño, puesto que éste también se va llenando rápidamente.

Todos tenemos datos y programas de los que no queremos o no podemos desprendernos, aún en el caso más que probable de que estos últimos estén desfasados: bases de datos, imágenes y sonidos, documentos, etc. Surge por tanto la necesidad de guardar esa información en algún soporte que nos permita eliminarla de nuestro disco duro y reinstalarla en él cuando sea preciso. El medio removible por excelencia es el disquete de 3 1/2", aunque relacionado con él aflora un insondable misterio, al que ningún gurú informático ha respondido: ¿cómo es posible que un dispositivo que sólo puede almacenar 1.440 Kilobytes sobreviva durante tantos años en un mundo donde la longevidad se mide en escasos meses, y es rarísimo el software que cabe en un sólo disquete? Queda clara, por tanto, la necesidad de contar con una forma de almacenar la mayor cantidad de datos posible, en un soporte removible. El mercado pone a disposición un extenso catálogo de alternativas; comentaremos los más conocidos y empleados, enumerando sus ventajas e inconvenientes. Citaremos las cintas magnéticas o streamers, cintas DAT, discos removibles (ya sean magnéticos o magneto-ópticos), y discos CD-ROM gravables, entre otros.

Streamers

Las unidades de cinta o streamers emplean un sistema similar al de casete de audio. Su capacidad puede variar entre 40 Megas y varios Gigas, y son ideales para realizar grandes copias de seguridad (backups), en los que el tiempo no sea importante, ya que su mayor desventaja estriba en su notoria lentitud, tanto al grabar como al recuperar la información; en este último punto hay que tener en cuenta que al ser un sistema secuencial, para localizar un dato debe pasar primero por los que se encuentren almacenados previamente.

También es importante saber que estos dispositivos suelen aportar la característica de compresión, por lo que la capacidad que proclaman en su publicidad es siempre la que se obtiene al comprimir la información. En otras palabras, hay que informarse bien de la capacidad de la unidad con y sin compresión. Y también asegurarse de que las cintas usadas cumplen, al menos, con el estándar QIC; y si también permiten el uso de cintas Travan (otro estándar), mucho mejor.

Cintas DAT

Existe una variante de las cintas streamers normales: las cintas DAT (Digital Audio Tape o Cinta Digital de Audio). Se trata de cintas de cuatro milímetros, bastante más pequeñas que las normales QIC y similares a las empleadas en la industria musical. Su capacidad se mide en gigabytes, normalmente más de dos. Su velocidad es también bastante mayor que la de las QIC, y su implementación suele hacerse invariablemente con SCSI; por supuesto, también son ideales para grandes copias de seguridad. Y seguro que ya os imagináis la desventaja: el precio. Estas unidades no suelen bajar de los veinte mil duros, lo que unido a sus especiales características las hacen más propias de entornos profesionales (servidores de red, etc.) que de usuarios domésticos.

Discos removibles

Las dos alternativas anteriores, debido a sus características, se orientan más exclusivamente a la realización de grandes copias de seguridad. Sin embargo, el caso de los discos removibles es diferente; se trata de unidades que combinan a la perfección rapidez de acceso, un precio bastante ajustado y una considerable capacidad de almacenamiento.

38

Page 39: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Pueden usar la tecnología magnética tradicional o la magneto-óptica; en ésta última se combinan, como su nombre indica, las dos técnicas, siendo un sistema más seguro en cuanto a la integridad y fiabilidad de la información almacenada (ventajas del láser), aunque la velocidad de grabación se resiente bastante. La capacidad más básica de este tipo de discos suele estar en 100 Megas, pasando por 230, 540, y 640, hasta llegar al gigabyte de capacidad (por supuesto, según marcas y modelos). Uno de los mayores atractivos de estas unidades estriba en su velocidad de acceso, hasta el punto de que pueden utilizarse en la mayoría de los casos para ejecutar programas desde los mismos discos. La ventaja es, por tanto, muy evidente.

CD-ROM gravables

Hasta hace no mucho tiempo, las grabadoras de CD-ROM se encontraban fuera del alcance del usuario final, principalmente por su precio. Sin embargo, éste se está reduciendo continuamente, hasta el punto de ser una opción a considerar por cualquiera. ¿Ventajas? Más de 600 Megas de capacidad y la posibilidad de ser utilizados en cualquier PC dotado de lector de CD estándar frente a la necesidad, por parte de los discos removibles, que cada PC donde se quieran utilizar cuente con una unidad de su tipo.

El principal problema consiste en que sólo se pueden grabar una vez (aunque esa importante pega comenzará a desaparecer en un breve espacio de tiempo; ver recuadro "CD-RW"), por lo que se utilizará para guardar toda la información de forma definitiva, que no necesite ser modificada en ningún momento.

¿Unidad interna o externa?

La práctica totalidad de las unidades removibles se encuentra disponible en formatos interno y externo. Está claro que un dispositivo externo nos permite, teóricamente, usarlo en otros equipos, pero es preciso tener en cuenta ciertos factores. Si la unidad es externa, implica que la conexión será por puerto paralelo o por SCSI; si elegimos SCSI, obtenemos mayor rendimiento, pero no podremos utilizar la unidad en otras máquinas, si éstas no disponen de controladora SCSI, y además con el mismo tipo de conector.

La conexión por puerto paralelo elimina ese problema, pero no está exenta de problemas; será necesario contar con un puerto paralelo mejorado EPP o ECP para obtener una tasa de transferencia aceptable, y aún así el rendimiento se verá reducido de forma considerable. Personalmente, el que suscribe prefiere unidades internas SCSI, aunque en este caso, la conexión IDE se presenta como posible alternativa a la SCSI, siendo sus ventajas más evidentes la sencillez de instalación y su relación precio/rendimiento.

CD-RW

Recientemente ha irrumpido en la industria un nuevo estándar, que puede inclinar la balanza hacia el lado de los discos compactos: el CD-RW. Se trata de unidades que pueden grabar CD-ROM más de una vez; esto, como podréis imaginaros, supone una gran ventaja, ya que se consigue unir una excelente capacidad de almacenamiento con la comodidad de poder utilizar los discos en otras unidades. No obstante, por el momento, su precio y rendimiento, amén de algunos problemillas menores relativos a su compatibilidad, nos hacen prever que su utilización será de forma minoritaria; aunque claro, esto no se puede asegurar al cien por cien.

Otros detalles

Hay otros factores a considerar: aunque la mayoría de los dispositivos externos exigen un transformador externo del que obtener alimentación eléctrica, algunos incluyen dicha fuente en la misma carcasa de la unidad, lo que nos evitaría un trasto más sobre la mesa; por tanto, es interesante conocer el sistema de alimentación del periférico antes de adquirirlo.

El otro detalle a tener en cuenta es la protección contra escritura del disco removible; algunos la realizan por software, mediante alguna utilidad incluida en el paquete. Es cuestión de gustos, pero suele ser más cómodo deslizar manualmente una pestaña del disco, que tener que iniciar el software en cuestión cada vez que queramos protegerlo o desprotegerlo.

RESPALDOS.

39

Page 40: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Finalizaremos el artículo con la misma palabra clave con que lo empezamos: necesidades. Estas deben condicionar nuestra decisión de compra: si, por ejemplo, deseamos realizar una copia de seguridad completa de nuestros datos, de forma esporádica, una unidad de cinta QIC será suficiente.

Los CD-ROM gravables son más indicados para almacenar datos o programas valiosos, que no sea preciso modificarlos pero sí utilizarlos o consultarlos con relativa frecuencia.

Por último, los discos removibles son ideales si lo que necesitamos es realizar frecuentes copias de nuestros datos, que puedan ser borrados o modificados con asiduidad, o incluso si deseamos ejecutar diferentes programas sin tener que instalarlos previamente en nuestro disco duro.

C) DISPOSITIVOS DE VISUALIZACIÓN, IMPRESIÓN Y GRAFICACIÓN DE DATOS

1) Monitores, pantallas de video o de plasma. Los más populares son los monitores, que generalmente son pantallas de rayos catódicos o en los ordenadores portátiles, de plasma. Las pantallas de plasma o planas tienen precios elevados. El tamaño del monitor se expresa en pulgadas que equivalen a 2.54 cm. y se miden como en los televisores en diagonal. La resolución gráfica es el número máximo de puntos horizontales por verticales que se pueden visualizar en la pantalla. Por ejemplo, resoluciones típicas son 800x600, 1024x768, 1200 x 1024 o 2400 x 1200 píxeles. Algunas placas madres disponen de un conjunto de circuitos especiales que permiten presentar los gráficos en la pantalla del ordenador. Sin embargo es más frecuente que haya unas tarjetas especiales para este fin, las llamadas tarjetas gráficas. La calidad del monitor tiene que estar en consonancia con la de la tarjeta gráfica, y además guardar coherencia con la cantidad de memoria que tienen estas tarjetas, que puede ser de un tipo especial optimizado para el video, y en este caso se llama VRAM. Hay ciertos estándares en el mercado de las tarjetas de video de los ordenadores compatibles, gracias a los cuales se pueden clasificar las calidades de imagen, aunque hoy en día los más conocidos son VGA, con posibilidad de generar 256 colores y la XVGA, que puede exhibir millones de colores. De ellos dependerá la gama cromática disponible.

Pantallas de Representación Visual.

Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa información que estamos suministrando es correcta. Los monitores muestran tanto la información que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y en la resolución que sean capaces de mostrar.

La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son los

40

Page 41: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros son los siguientes:

Tamaño

Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que las tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 píxel.

Resolución

Un píxel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más píxeles pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de 25 m2 y nos mudamos a una casa de 300 m2. Nosotros somos los mismos, sólo que disponemos de más espacio. Si trabajáis con Windows la resolución ampliada es fundamental, podréis tener más iconos en pantalla, podréis tener abiertas varias aplicaciones y verlas a la vez, sin tener que maximizar cada una cuando cambiéis a ellas, etc.

La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy reducido, siendo un engorro y además pagamos por unas características que nunca utilizaremos. Para estas resoluciones ampliadas os recomendamos: un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 píxeles.

Entrelazado

Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño como para mantener el fósforo activo entre las dos pasadas. Procurad que vuestro monitor sea no-entrelazado.

Frecuencia de barrido vertical

El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es el número de veces que el cañón de electrones barre la pantalla por segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superiores. Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin necesidad de entrelazar. La imagen será más nítida y estable.

Tamaño del punto (Dot Pitch)

Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la salida para que un píxel ajuste perfectamente con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy pequeñas, menor será el tamaño del píxel lógico, con lo cual las resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 píxeles.

41

Page 42: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar configuraciones en la memoria del monitor, que sea de exploración digital controlada por un microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc.

Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc.

Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15 pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo).

Filtros para el monitor

Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica, que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF (generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre las demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la electricidad estática.

En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%.

La alternativa LCD

Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo y de especio (LCD posibilita la fabricación de pantalla extraplanas, de muy poca profundidad), así como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT hace que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no hay que perder de vista esta alternativa; nunca se sabe...

2) Impresoras. Otro dispositivo de salida muy utilizado son las impresoras, que pueden ser matriciales, de inyección de tinta, láser, etc.

42

Page 43: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

PRINCIPALES CARACTERÍSTICAS.

Cuando se realiza un trabajo en un ordenador, no importa su naturaleza, tarde o temprano surge la necesidad de plasmar los resultados en papel, elemento éste que no creemos que desaparezca totalmente en favor de la llamada "oficina sin papeles".

Muy al contrario, como hemos citado, en la mayoría de las veces es imprescindible llevar al papel el resultado de nuestro trabajo, seamos diseñadores, contables o programadores. Por ello abordaremos en este artículo los puntos a tener en cuenta a la hora de adquirir una impresora.

Impresoras matriciales.

Se puede decir que este es el escalón básico en la oferta de impresoras; muchos os preguntaréis, ¿quién puede querer una impresora de agujas? La respuesta es: mucha gente. Para empezar, son imprescindibles en trabajos donde haya que imprimir sobre papel de copia, es decir, con más de una hoja; esto engloba todo tipo de oficinas y centros, públicos o privados, que empleen ese tipo de papel. También los programadores saben apreciar su valor, ya que para imprimir un gran listado de un programa no vamos a utilizar una máquina láser o de inyección.

Su funcionamiento es simple, un cabezal dotado de una serie de diminutas agujas recibe impulsos que hacen golpear dichas agujas sobre el papel, que a su vez se desplaza por un rodillo sólido. Los modelos más frecuentes son los de 9 y 24 agujas, haciendo referencia al número que de este componente se dota al cabezal; este parámetro también se utiliza para medir su calidad de impresión, lógicamente a mayor número de agujas, mayor nitidez se obtendrá en la impresión.

Como iremos viendo, en realidad no puede hablarse de inconvenientes de un tipo u otro de impresoras, simplemente cada uno tiene una orientación (a un tipo de trabajo) diferente de otro. En el caso de las matriciales, resulta evidente que no sirven para imprimir gráficos, y que su funcionamiento no es precisamente silencioso.

Impresoras de Inyección de Tinta.

Sin duda el segmento de más éxito en el campo de las impresoras es el de la inyección o chorro de tinta; su funcionamiento también se basa en un cabezal, en este caso inyector, dotado de una serie de boquillas que expulsan la tinta según los impulsos recibidos. Aunque al principio únicamente se podía imprimir en blanco y negro, el color se popularizó rápidamente, y se puede decir que ahora la inmensa mayoría de usuarios domésticos adquiere una impresora de inyección en color junto con su PC.

Aquí el parámetro de calidad lo da la resolución de la imagen impresa, expresada en puntos por pulgada; aunque con 300 ppm basta para imprimir texto, para fotografías es recomendable al menos 600 ppm. Dada su relación precio/calidad, son las impresoras más utilizadas para trabajos domésticos y semi-profesionales.

Como inconveniente se puede citar lo delicado de su mecánica y también su mantenimiento, ya que los cartuchos no suelen ser baratos.

Impresoras láser

Aunque el coste de un láser ya no tira para atrás como en otros tiempos, lo cierto es que siguen

43

Page 44: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

orientadas al ámbito profesional. En estas máquinas, un tambor, abreviado OPC (Optical Photo Conductor), o dicho comúnmente "fotoconductor", cargado de electricidad estática es recorrido por un pequeño rayo láser, cuyo haz actúa invirtiendo la carga en el tambor y atrayendo hacia éste el tuner (la "tinta" de las impresoras láser).

Este tuner se "pega" al papel por la acción de la corona o rodillo de transferencia, que invierte la polaridad del OPC atrayendo hacia sí las partículas de tuner. Como entre la corona de transferencia y el OPC está el papel, es en este en donde se queda el tuner, o sea, lo que al fin y al cabo vamos a imprimir, ya sea texto o gráfico. Ahora bien, esa imagen no está "fijada" en el papel, de hecho, si le pasamos un dedo por encima antes de pasar por el último rodillo (fusor), el tuner "se corre". Gracias la acción del fusor, que son dos rodillos, uno de calor y otro de presión, ya sí se fija definitivamente la imagen.

Aquí se tiene en cuenta tanto la resolución, también expresada en ppm. (Lo mínimo aconsejable es 600 ppm.) como la rapidez de impresión dada en páginas por minuto.

¿Inconvenientes? Son máquinas todavía caras, y aunque los consumibles no se cambian con la frecuencia que en las impresoras de inyección, cuando hay que hacerlo el bolsillo puede resentirse. Pero su rapidez y calidad de impresión las hacen destacar sobre el resto.

Detalles comunes: memoria

Prácticamente todas las impresoras, independientemente de la tecnología empleada, incluyen una memoria RAM. En las matriciales puede ser de unos pocos bytes (8 Kb, 16 Kb, etc.), y no mucho más en las de inyección. Por el contrario, en el láser sí que es imprescindible una buena cantidad de memoria, que no suele bajar de 512 Kb, aunque la verdad es que lo mínimo admisible debe ser, al menos, 1 Mega.

Impresoras de Color o blanco y negro.

Normalmente la respuesta a esta pregunta está muy clara en todos los casos, porque además no hay mucha alternativa; debido a la orientación de las impresoras matriciales y a la baja calidad que ofrecen cuando se intenta imprimir en color con ellas, es un segmento condenado al blanco y negro.

En las de inyección de tinta ocurre algo curioso, y es que será bastante difícil encontrar una impresora de este tipo, de sobremesa únicamente en blanco y negro, ya que el color se ha abaratado y perfeccionado tanto, que es algo que ya se incluye "de serie".

Por último, en las impresoras láser se imponen criterios económicos y de necesidad; ¿puedes gastarte un dineral en una impresora láser a color? ¿Realmente necesitas tanta calidad?

Consumibles

En las impresoras matriciales, el mantenimiento es sencillo y normalmente barato, ya que únicamente será preciso cambiar la cinta, que suele durar bastante. El cabezal también se suele considerar como consumible, pero no es algo que se estropee con frecuencia, teniendo una media de vida del orden de años.

En las de inyección, lo que más cambiaremos serán los cartuchos de negro y/o color; el cabezal inyector no suele estropearse, y la mayoría de impresoras implementan sistemas de limpieza y calibrado que permiten ajustar el funcionamiento de las mismas.

Por último, en las impresoras láser el consumible por excelencia es el cartucho de tuner (es decir, la tinta), pero tampoco es extraño tener que cambiar la unidad fotoconductora o el tambor (en algunas máquinas estas dos piezas se engloban en una sola) cada cierto tiempo, siempre según la carga de trabajo que soporte la máquina.

44

Page 45: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Displays y controles

La tendencia a la simplificación y reducción de tamaño que siguen las impresoras ha dado lugar a la aparición de modelos que sólo poseen un LED y un botón de selección, cuando antes eran numerosos los controles.

En general, se tiende a que sea el software quien gestione todas las operaciones con la impresora, por lo que los fabricantes incluyen drivers y controladores. Pero esto también puede ser un inconveniente, ya que obliga a tener cargado software residente que de otra forma no necesitaríamos (por ejemplo bajo DOS), además de limitar a muchos usuarios que prefieren manipular manualmente los controles de la impresora. Pero esta es la tendencia, y es preciso habituarse a ella.

Puerto EPP/ECP, imprescindible

Si bien en las matriciales no es necesario, a la hora de adquirir una impresora de inyección o láser es prácticamente imprescindible que el puerto paralelo de nuestro ordenador sea bidireccional. Esto es así debido a que estas impresoras no sólo reciben datos del PC, sino que también pueden enviarle información, en forma de notificación de errores o situaciones anómalas, respuestas a códigos de control, etc. De hecho, el funcionamiento de los drivers y paneles de control vía software de estas máquinas se basa en esa premisa, e incluso algunos modelos ni siquiera instalarán su software de control si no detectan una conexión bidireccional. En ordenadores que son relativamente recientes, ya se incluye de fábrica el puerto paralelo ECP/EPP (Enhanced Parallel Port), y únicamente hay que verificar si está activada dicha característica en el Setup. Sin embargo, en máquinas más antiguas no se implementan estos puertos, así que conviene asegurarse para evitar sorpresas de última hora.

Emulaciones

Decimos que una impresora "emula" cuando admite códigos y modos de funcionamiento de otros modelos o marcas del mercado. Normalmente las de inyección no suelen implementar emulación, ya que dada su orientación basta con el driver que se incluye. Pero en una matricial, la emulación puede llegar a ser importantísima, en especial en aplicaciones hechas a medida o basadas en DOS; una impresora matricial se puede considerar completa si incluye modos IBM Pro printer y Epson, los dos grupos de códigos estándar.

En las impresoras láser sucede como con las de inyección, el driver incluido suele ser suficiente debido al segmento al que van dirigidas, pero no vienen mal un par de modos de emulación en cualquier impresora láser.

3) Plotters. Los plotters reproducen salidas gráficas sobre papel, generalmente utilizados por los delineantes, ingenieros, topógrafos y arquitectos para imprimir planos de gran tamaño o por los diseñadores de carteles.

45

Page 46: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

D) DISPOSITIVOS PARA INTERCONEXIÓN ENTRE COMPUTADORAS

1) Módem. El módem es un dispositivo que permite la modulación de una señal sinusoidal a una señal digital y posteriormente la desmodulación de la señal digital a sinusoidal. Se utiliza para convertir la señal digital cuando ésta excede de los limites por la calidad del conductor y poderla transportar a través de sistemas públicos de transmisión de voz.

CARACTERÍSTICAS PRINCIPALES DE LOS MODEMS.

Indudablemente, la explosión experimentada por el mercado de los modems sólo tiene un protagonista: Internet. La popularidad de la omnipresente Red, ayudada por el servicio InfoVía proporcionado por Telefónica en nuestro país, está haciendo que los usuarios se familiaricen con las comunicaciones y se planteen seriamente la adquisición de uno de estos dispositivos. Así que, si eres uno de estos usuarios, esto te interesa. Un MODEM es un dispositivo que permite la transmisión y recepción de información binaria (es decir, datos de ordenador) a través de un medio analógico (o sea, la línea telefónica); para poder realizar este proceso, es necesario convertir la señal digital en analógica, y viceversa, y esa es la función del MODEM.

La importancia de la UART. Posiblemente, el componente más importante de un MODEM es el chip UART (Universal Asynchronous Receiver/Transmitter), encargado de transmitir los datos; existen varios modelos de UART, el más básico de los cuales es el 8250A, empleado en ordenadores 286 y 386 y ya obsoleto. Su diseño le impedía trabajar a velocidades superiores a 9.600 bps, algo aceptable en otros tiempos pero no en este momento.

Posteriormente, fueron apareciendo modelos más avanzados, hasta llegar al más común empleado en la actualidad, el 16550 (del que existen 3 variantes, 16550A, AF y AFN, casi idénticas entre ellas). Este chip incorpora un buffer FIFO (First In, First Out) de 16 bytes, lo que le permite incrementar notablemente su rendimiento; asimismo, su capacidad de transmisión se eleva hasta 115 Kbps, por lo que podemos decir que es totalmente imprescindible la inclusión de este modelo de UART en cualquier MODEM actual.

Protocolos

Casi tan importante como la UART es el conjunto de protocolos o normas de comunicación que el MODEM es capaz de soportar; estas normas, establecidas por la ITU (Unión Internacional de Telecomunicaciones), definen los procedimientos estándar para la transmisión de datos. Su denominación suele ser siempre un número precedido por la letra V. Así, tenemos los antiguos V.21, V.22 y V.22bis (que soportan transmisiones a 300, 1200 y 2400 bps), los posteriores V.32 y V.32bis (transmisiones a 9.600 y a 14.400 bps) y los últimos V.34 y V.34+ (velocidades de 28.800 y 33.600 bps). Evidentemente, se recomienda la máxima velocidad posible, por el momento 33.600, accesible mediante el protocolo V.34+.

De esta manera, es más que recomendable la adquisición de un MODEM que soporte compresión y corrección de errores en tiempo real; para ello, son imprescindibles las normas V.42, V.42bis y MNP5. Se trata de protocolos que permiten corregir los posibles errores durante la transmisión y al mismo tiempo comprimir los paquetes de datos, para incrementar el rendimiento del dispositivo.

Mejor con Flash ROM

Los modems incorporan una memoria ROM en la que almacenan parámetros, comandos y el código correspondiente a las diferentes normas y protocolos soportados por el aparato. Es muy deseable que la ROM del MODEM que vayamos a adquirir sea del tipo flash, ya que de esta forma sería posible actualizar el dispositivo, mediante software facilitado por el fabricante, por ejemplo, para implementar nuevos protocolos que incrementen su rendimiento. Es lo mismo que ocurre con las BIOS de las placas base: se busca el poder actualizar sin tener que cambiar el chip.

Otros detalles

46

Page 47: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Es importante no confundir la velocidad de comunicación entre el MODEM y el ordenador con la velocidad de conexión con el exterior. La primera normalmente debe ser de unos 115.200 bps, e indica el ratio de transferencia entre el MODEM y la CPU a través del bus de expansión.

La segunda velocidad sirve de medida para diferenciar el rendimiento de los modems; en un modelo de 56,000, lo más alto que podremos llegar será a unos 56,000 bps. Ya que el estado de las líneas no suele ser el óptimo, y el ruido hace descender frecuentemente la velocidad. Podemos incluso bajar hasta unos 26.400 bps, según el estado de la línea.

Por otro lado, hay que tener en cuenta que para llegar a 33.600 bps, el MODEM con que nos vayamos a conectar también debe ser capaz de llegar a esta velocidad; por ejemplo, si nuestro proveedor de Internet sólo tiene modems a 28.800 bps, únicamente podremos enganchar a esta velocidad, ya que la conexión se establece a la velocidad del MODEM más lento.

Otros factores como las capacidades de voz o el software incluido con el MODEM, deben ser evaluados; respecto a éste último, la oferta suele consistir en un paquete de comunicaciones, fax y funciones de contestador automático en caso de modems con voz.

¿Interno o externo?

Existe una clásica controversia: ¿es mejor un MODEM externo o un modelo interno? Puesto que existen ventajas y desventajas en cada caso, nosotros nos vamos a limitar a exponerlas, sin llegar a recomendar ninguno de ellos.

Un modelo externo nos obliga a tener una fuente de alimentación independiente, y añade 2 cables más a la habitual maraña que cuelga del equipo; esto lo evitamos con un modelo interno. Ahora bien, en un MODEM externo tenemos a la vista todos los LEDS que indican el funcionamiento del mismo, algo vital a la hora de detectar problemas de conexión. En un modelo interno no tenemos a la vista esa información. Por otro lado, la opción externa depende totalmente del tipo de UART instalada en el PC; y si estamos trabajando en una máquina relativamente desfasada, puede ser que no obtengamos el rendimiento esperado. En un MODEM interno, la UART viene ya incorporada, y ese problema no existe. Por el contrario, un modelo externo aprovecha uno de los dos puertos COM del PC no usado normalmente, y la opción interna implica añadir un puerto serie adicional, surgiendo conflictos.

La RDSI.

La RDSI (Red Digital de Servicios Integrados) o ISDN, como se la conoce fuera de nuestro país, es un sistema de conexión digital que permite alcanzar altas tasas de transferencia; es la opción ideal para, por ejemplo, realizar videoconferencia a nivel profesional. Sin embargo, y hablando desde el punto de vista del usuario de a pie, tiene una desventaja muy importante: el precio. Necesitaremos una tarjeta RDSI, y tendremos que solicitar la instalación de la línea digital en nuestro domicilio. Si vamos a conectarnos a Internet, habrá que contratar con el proveedor el acceso mediante RDSI. Todo esto supone una importante inversión, que no merece la pena si no vamos a emplearlo de forma profesional, por lo que no nos parece una opción a considerar por la mayoría de los usuarios. Algunos modems externos pueden colocarse en vertical para ahorrar espacio en la mesa de trabajo.

Plug and Play

En un gran número de ocasiones, la instalación de un MODEM interno puede llegar a ser un auténtico calvario, debido al clásico problema de los conflictos entre IRQ. Ya que los puertos COM1 y COM3 comparten la misma línea de interrupción (al igual que el COM2 y el COM4), añadir un puerto serie al sistema es una posible fuente de problemas, salvo que podamos desactivar el COM2 del ordenador, o establecer la IRQ del MODEM a una no usada por el equipo. Por ello, es altamente recomendable que nuestro MODEM cumpla con la norma PNP; de esta forma, la configuración queda facilitada en gran medida, puesto que el MODEM buscará una interrupción no usada en el sistema.

47

Page 48: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

2) Router (Ruteadores), hub y swiches. Equipos de enlace de computadoras cuando se diseñan redes de comunicación de datos LAN O WAN.

E) DISPOSITIVOS MULTIMEDIA.

1) Bocinas o altavoces para PC. Equipos para la reproducción de sonidos acoplados a un ordenador a través de una interfase. 2) Cámaras digitalizadas de video grabación. Permiten la grabación digitalizada de las imágenes del video para incorporarlas a un ordenador para su reproducción.

3) Cámara de fotografía digitalizada. Equipos de fotografía que transforma la foto en una imagen digitalizada.

4) Micrófonos. Equipo que recoge la voz introduciéndola al ordenador para su almacenamiento en forma digitalizada.

Tarjetas Gráficas (TOMADO DE www.duiops.net).

Antes de elegir una tarjeta gráfica tendremos que evaluar nuestras necesidades. Si, por ejemplo, somos usuarios a nivel de paquetes de gestión, o programadores, la elección irá dirigida a las tarjetas aceleradoras de Windows, en 2D por supuesto. Si, por el contrario, lo nuestro son los videojuegos o el diseño en 3D (programas de modelado, render o CAD) hay que buscar una aceleradora 3D.

Chip o controlador gráfico

Actualmente existen chips para tarjetas gráficas muy potentes, la mayoría de las veces con potencia de cálculo superior a la del procesador principal, pero también muy diferentes entre sí. Hace algunos años, no se le prestaba en absoluto atención a la calidad de la tarjeta VGA. Después, tras la aparición de la SVGA, fue el punto de partida a la hora de mejorar estas tarjetas, ya que, junto con la evolución de la tecnología en los monitores, cada vez soportaban mayores resoluciones al incorporar memorias entre 1 y 3 Mb.

Pero la auténtica revolución gráfica fue en el sector tridimensional, el 3D, donde se necesitan potencias de cálculo muy superiores que el microprocesador central no puede soportar. Fundamentalmente, lo que hace un chip 3D es quitar la labor del procesador de generar los triángulos y el relleno de texturas, haciendo que la tarjeta gráfica lo haga sola liberando al procesador de otras tareas. Con esto, se obtiene una mejora muy grande en lo que se refiere a la velocidad, y además se han incorporado

48

Page 49: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

multitud de efectos gráficos fáciles de usar por los programadores que mejoran sustancialmente la calidad de los gráficos. Las primeras tarjetas con 3D para el mercado de consumo fueron aquellas Diamond Edge 3D, 3D Blaster, o la S3 Virge, todas sin ser demasiado rápidas y con un soporte de juegos muy limitado.

La decisión de elegir un chip u otro es bastante compleja. Dentro del campo 2D, gracias al estándar VESA, todas las tarjetas son compatibles entre sí. Sin embargo, en los chips 3D (o la parte 3D de los chips 2D/3D), existen más problemas puesto que no todos contienen las mismas instrucciones (¿quién no ha oído hablar de los famosos parches para una u otra tarjeta?). Esto pasaba sobre todo en los primeros juegos acelerados 3D para MS-DOS. Por ello, se han creado unos APIs, que consiguen solucionar estos problemas, y funcionan bajo Windows 95/98. Éstos son el DirectX de Microsoft (el componente Direct 3D en concreto) y el OpenGL de Silicon Graphics. Más abajo tienes información sobre estos APIs. Y también, hay que recordar que no todas las tarjetas 3D son iguales: unas sirven digamos para "trabajar" (las compatibles con programas como 3D Studio, TrueSpace...) y las que sirven para "jugar". Muy pocas tarjetas se desenvuelven bien en estos dos campos.

Y ya para terminar este apartado, dejemos fijadas ciertas bases de conocimiento:

• Actualmente, en el mercado de consumo, existen 2 tipos de aceleradoras gráficas:

o Las propias aceleradoras 3D, tarjetas independientes que sólo entran en funcionamiento cuando se ejecuta algún juego que necesite su funcionamiento. Estas tarjetas requieren una tarjeta 2D que se encargue de las tareas normales, con un único requisito de tener un mínimo 2 Mb. de memoria. Además, ambas suelen estar unidas con un cable externo.

o Y luego están las tarjetas "híbridas" 2D/3D, que consisten en un único chip que se encarga tanto de las funciones 2D como de las funciones 3D de una aceleradora. Los últimos modelos que están apareciendo estos meses son realmente buenos y no tienen nada que envidiar a las aceleradoras 3D puras.

• Y ya por último, ten en cuenta que las tarjetas aceleradoras pueden servir para "trabajar" o para jugar. Una aceleradora profesional de 300.000 ptas. será incapaz de acelerar cualquier juego normal, y una aceleradora 3D pura de 30.000 no podrá renderizar ningún tipo de gráfico en programas como 3D Studio o TrueSpace. Hay muchas tarjetas híbridas 2D/3D que pueden acelerar juegos muy bien, y también renderizar gráficos profesionales de una manera bastante aceptable.

Librerías y APIs

Cada chip gráfico tiene una forma de procesar las rutinas implementadas en ellos, por lo que hay una incompatibilidad (sobre todo en el 3D, ya que en el 2D existe el estándar VESA que libera de estos problemas).

Para ello, han surgido las librerías de programación, para unificar en un API las diferentes funciones, y destacan 2:

• OpenGL, de Silicon Graphics, que está adoptada por sistemas como Unix, Iris, Windows NT, para profesionales.

• DirectX, de Microsoft, limitada a Windows 95/98 y dedicada a los juegos.

Depende de nuestro uso del ordenador, nos decantaremos por el soporte de uno u otro (aunque hay varias tarjetas gráficas que soportan los dos).

Buses

49

Page 50: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Las placas de video se fabrican hoy día para buses PCI y AGP (estos buses permiten características como Plug and Play y Bus Mastering, ésta última para optimizar las operaciones de transferencia de la tarjeta). Estas tarjetas se suelen usar en ordenadores Pentium o Pentium II y equivalentes (como el K6 o el K6-2 de AMD). Se puede aún encontrar de segunda mano alguna ISA para ordenadores 386 y 486, y las VESA están ya abandonadas. Para saber más cosas sobre estos buses, accede a la sección de

Placas base.

Lo único, decir que las tarjetas AGP, usadas en ordenadores Pentium II/III son capaces de usar la memoria RAM como memoria de texturas, es decir, no sólo la memoria que viene incluida en la tarjeta gráfica. Por ello, los pocos juegos que hay actualmente para AGP, son capaces de tener texturas animadas o de alta resolución moviéndose a una velocidad asombrosa. Esta memoria de texturas no está disponible para placas Socket 7 ni para placas Slot A con el Athlon de AMD. Además, el AGP ofrece un ancho de banda superior al PCI: si el PCI va a 66 MHz, el AGP va a 133 MHz, con unas variantes: el AGP 2x a 266 MHz y el AGP 4x a 533 MHz. Lástima que los programas actuales no exploten sus posibilidades, pero esto terminará con el AGP 4x que llegará en 1.999. Y por último, hay que decir que no todas las tarjetas AGP son "AGP verdaderas", es decir, que utilizan la memoria RAM como memoria de texturas. Las AGP no verdaderas son todas aquellas que tienen tanto versión PCI como AGP, o bien que la versión AGP ha evolucionado de la PCI (puede haber que tenga versión PCI y luego una versión AGP verdadera). Y las AGP verdaderas son aquellas que han sido diseñadas para tal fin, y que sólo existen en versión AGP. Todas las tarjetas AGP verdaderas hoy día son 2x, mientras que las AGP que no utilizan la memoria RAM como memoria de texturas son 1x (un modo sencillo de diferenciarlas). También se pueden diferenciar las AGP 4x y las AGP 2x, las primeras llevan 2 hendiduras en los contactos de la zona de conexión y las segundas llevan sólo una.

La memoria

La controladora de vídeo en un ordenador es la responsable de transmitir la información al monitor para que la podamos ver en la pantalla. Hay una gran variedad de tarjetas de vídeo, cada una con sus características especiales. Cuantos más píxeles sean capaces de dibujar en pantalla por la unidad de tiempo, mejor rendimiento obtendremos en las aplicaciones que usen intensivamente los gráficos, como por ejemplo Windows. Vamos a poneros un ejemplo para comprenderlo con un par de imágenes:

1. Puedes ver cómo en primer caso, los iconos se ven más grandes y, por tanto, caben menos. Por consiguiente, el logotipo de Duiops se verá con menos definición y más "cuadriculado". Las ventanas se colocarán unas encimas de otras y el trabajo se hará muy engorroso.

2. En el segundo caso, los iconos se ven más pequeños y, por tanto, caben más. Por consiguiente, el logotipo de Duiops se verá con más definición y más perfilado. Los píxel son muy difíciles de apreciar. Las ventanas podrán abrirse una al lado de la otra, de forma que se vea el contenido de ambas, y el trabajo será más amigable.

Pero todos estos puntos necesitan almacenarse en RAM. Para ello, las tarjetas gráficas tienen chips de memoria, y hoy día el mínimo que se puede encontrar son 4 Mb, aunque se recomienda un mínimo de 8. Para poder conseguir mayores resoluciones a más cantidades de colores, hay que ampliar la memoria. Para saber la que necesitamos, hay que multiplicar la resolución horizontal por la resolución vertical; esto nos da la cantidad de RAM necesaria para trabajar a 8 bits de color. Es preciso multiplicar el resultado por dos para obtener la cantidad necesaria para 16 bits de color, y por tres para los 24 bits. Hoy día las tarjeras gráficas domésticas llevan hasta 32 Mb

50

Page 51: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

de memoria, los cuales permiten alcanzar resoluciones tan asombrosas como 2048x1536 a 32 bits (más de 4.000 millones de colores)

Recordemos que más memoria en la tarjeta gráfica no implica mayor velocidad, a no ser que la utilice como memoria caché.

También hay que tener en cuenta el tipo de memoria incorporada; frente a la DRA. Clásica es mejor utilizar otros tipos, como la 2DO o la VRAM; al disponer ésta de dos puestos permite aumentar el ancho de banda en las transferencias de información.

Otra opciones, como la WRAM (que optimiza las operaciones de manejo de bloques de memoria), la MDRAM (memoria multibanda que no retarda los procesos de conmutación de bancos) o la SDRAM (RAM síncrona capaz de trabajar a la misma velocidad de reloj que el chip de la tarjeta) deben ser considerada.

Las últimas tarjetas utilizan SGRAM, de dos tipos. Podemos encontrar memoria DDR en algunas tarjetas (Double Data Rate), la cual aprovechando ciertas fases del ciclo de reloj hasta ahora no utilizados, es capaz de proporcionar un notable incremento en el ancho de banda disponible, con respecto a la memoria convencional SDR (Single Data Rate). Cuando más aumentas la resolución más "atasco" se produce debido a las limitaciones propias de la memoria. Con el sistema DDR esta limitación ya no existe y es posible utilizar resoluciones de 1280x1024 e incluso de 1600x1280 sin ninguna pérdida de velocidad.

Otras características

Las tarjetas gráficas permiten casi siempre la reproducción de vídeos MPEG por software, y las más modernas y potentes de MPEG-2 (para DVD-Vídeo); aunque se recomienda que ambas reproducciones sean por hardware.

Tarjetas de Sonido

Las dos funciones principales de estas tarjetas son la generación o reproducción de sonido y la entrada o grabación del mismo. Para reproducir sonidos, las tarjetas incluyen un chip sintetizador que genera ondas musicales. Este sintetizador solía emplear la tecnología FM, que emula el sonido de instrumentos reales mediante pura programación; sin embargo, una técnica relativamente reciente ha eclipsado a la síntesis FM, y es la síntesis por tabla de ondas (WaveTable).

En WaveTable se usan grabaciones de instrumentos reales, produciéndose un gran salto en calidad de la reproducción, ya que se pasa de simular artificialmente un sonido a emitir uno real. Las tarjetas que usan esta técnica suelen incluir una memoria ROM donde almacenan dichos "samples"; normalmente se incluyen zócalos SIMM para añadir memoria a la tarjeta, de modo que se nos permita incorporar más instrumentos a la misma.

Una buena tarjeta de sonido, además de incluir la tecnología WaveTable, debe permitir que se añada la mayor cantidad posible de memoria. Algunos modelos admiten hasta 28 Megas de RAM (cuanta más, mejor).

Efectos

Una tarjeta de sonido también es capaz de manipular las formas de onda definidas; para ello emplea un chip DSP (Digital Signal Processor, Procesador Digital de Señales), que le permite obtener efectos de eco, reverberación, coros, etc. Las más avanzadas incluyen funciones ASP (Advanced Signal Processor, Procesador de Señal

51

Page 52: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Avanzado), que amplía considerablemente la complejidad de los efectos. Por lo que a mayor variedad de efectos, más posibilidades ofrecerá la tarjeta.

Polifonía

¿Qué queremos decir cuando una tarjeta tiene 20 voces? Nos estamos refiriendo a la polifonía, es decir, el número de instrumentos o sonidos que la tarjeta es capaz de emitir al mismo tiempo. Las más sencillas suelen disponer de 20 voces, normalmente proporcionadas por el sintetizador FM, pero hoy en día no debemos conformarnos con menos de 32 voces. Las tarjetas más avanzadas logran incluso 64 voces mediante sofisticados procesadores, convirtiéndolas en el llamado segmento de la gama alta.

MIDI

La práctica totalidad de tarjetas de sonido del mercado incluyen puerto MIDI; se trata de un estándar creado por varios fabricantes, que permite la conexión de cualquier instrumento, que cumpla con esta norma, al ordenador, e intercambiar sonido y datos entre ellos. Así, es posible controlar un instrumento desde el PC, enviándole las diferentes notas que debe tocar, y viceversa; para ello se utilizan los llamados secuenciadores MIDI.

En este apartado hay poco que comentar. Simplemente, si vamos a emplear algún instrumento de este tipo, habrá que cerciorarse de que la tarjeta incluya los conectores DIN apropiados para engancharla al instrumento en cuestión, y el software secuenciador adecuado, que también suele regalarse con el periférico.

Un detalle que conviene comentar en este artículo, es que en el mismo puerto MIDI se puede conectar un Joystick, algo muy de agradecer por el usuario, puesto que normalmente los conocidos equipos Pentium no incorporan de fábrica dicho conector, algo habitual, por otra parte, en sus inmediatos antecesores, los ordenadores 486.

Frecuencia de muestreo

Otra de las funciones básicas de una tarjeta de sonido es la digitalización; para que el ordenador pueda tratar el sonido, debe convertirlo de su estado original (analógico) al formato que él entiende, binario (digital). En este proceso se realiza lo que se denomina muestreo, que es recoger la información y cuantificarla, es decir, medir la altura o amplitud de la onda. El proceso se realiza a una velocidad fija, llamada frecuencia de muestreo; cuanto mayor sea esta, más calidad tendrá el sonido, porque más continua será la adquisición del mismo.

Resumiendo, lo que aquí nos interesa saber es que la frecuencia de muestreo es la que marcará la calidad de la grabación; por tanto, es preciso saber que la frecuencia mínima recomendable es de 44.1 KHz, con la que podemos obtener una calidad comparable a la de un disco compacto.

Otras consideraciones

Existen otros factores que se deben tener en cuenta: por ejemplo, mucha gente prefiere controlar el volumen de la tarjeta de forma manual, mediante la típica ruedecilla en la parte exterior de la misma. Sin embargo, la tendencia normal es incluir este control (además de otros, como graves, agudos, etc.) por software, así que debe ser tenido en cuenta este detalle si es importante para nosotros.

La popularización de Internet ha propiciado la aparición de un nuevo uso para las tarjetas de sonido: la telefonía a través de la red de redes. Efectivamente, con un micrófono y el software adecuado, podemos utilizar la tarjeta para hablar con cualquier

52

Page 53: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

persona del planeta (que posea el mismo equipamiento, claro) a precio de llamada local.

Sin embargo, la calidad de la conversación dependerá de dos conceptos: half-duplex y full-duplex. Resumiendo un poco, full-duplex permite enviar y recibir información al mismo tiempo, mientras que half-duplex sólo puede realizar una de las dos operaciones en cada momento. Traduciendo esto a una conversación, tenemos que el half-duplex nos obliga a hablar como si utilizáramos un walkie-talkie; es decir, hay que esperar a que uno diga algo para poder responder, mientras que el full-duplex nos ofrece bi-direccionalidad, es decir, mantener una conversación normal como si fuera un teléfono.

En algunos casos, el fabricante posee controladores que añaden funcionalidad full-duplex a tarjetas que no implementan esta forma de trabajo, por lo que puede ser una buena idea ir a la página Web del fabricante en cuestión.

Por último, y aunque sea de pasada, puesto que se trata de un requisito casi obligatorio, resaltaremos la conveniencia de adquirir una tarjeta que cumpla al cien por cien con la normativa Plug and Play; seguro que muchos lo agradecerán.

Ventajas y Desventajas del puerto IDE

Un gran porcentaje de tarjetas de sonido incluye conexión IDE. ¿Es realmente útil este puerto adicional? En principio, sí que lo es; normalmente, cuando se adquiere una tarjeta de sonido, es casi seguro que el comprador ya posee, o poseerá, un lector de CD-ROM, si es que no compra las dos cosas al mismo tiempo. Los CD-ROM más difundidos implementan la conexión IDE por ser barata y eficaz.

En los ordenadores Pentium se incluyen dos puertos IDE, por lo que no suele haber problemas; ahora bien, si el PC es un 486 o inferior (todavía existe un parque muy elevado de estas máquinas) es bastante posible que el equipo sólo tenga un puerto IDE. Si la tarjeta de sonido incluye su propia conexión, la labor se hará más sencilla, ya que podemos enganchar ahí nuestro lector.

Por otro lado, un puerto IDE adicional consumirá una interrupción más en el sistema (normalmente IRQ 11), y además Windows 95 no se lleva bien con puertos IDE terciarios y cuaternarios, traduciéndose esto en el temible símbolo de admiración amarillo en la lista de dispositivos. A pesar de todo, y vista la situación, la balanza se inclina hacia el lado positivo, ¿no creéis?.

La compatibilidad

Indudablemente, en estos momentos, el mercado de las tarjetas de sonido tiene un nombre propio: Sound Blaster. En la actualidad, cualquier tarjeta que se precie debe mantener una total compatibilidad con el estándar impuesto por la compañía Creative Labs; existen otros, como el pionero Adlib o el Windows Sound System de Microsoft. Pero todos los juegos y programas que utilizan sonido exigen el uso de una tarjeta compatible Sound Blaster, así que sobre este tema no hay mucho más que comentar.

Otro asunto es la forma de ofrecer dicha compatibilidad: por software o por hardware. La compatibilidad vía soft puede tener algunas limitaciones; principalmente, puede ser fuente de problemas con programas que accedan a bajo nivel o de forma especial a las funciones de la tarjeta. Asimismo, los controladores de emulación deben estar bien diseñados, optimizados y comprobados, para no caer en incompatibilidades, justo lo contrario de lo que se desea alcanzar. Por tanto, es preferible la emulación por hardware.

Sonido 3D

53

Page 54: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

El sonido 3D consiste en añadir un efecto dimensional a las ondas generadas por la tarjeta; estas técnicas permiten ampliar el campo estéreo, y aportan una mayor profundidad al sonido habitual. Normalmente, estos efectos se consiguen realizando mezclas específicas para los canales derecho e izquierdo, para simular sensaciones de hueco y direccionalidad.

Seguro que os suenan nombres como SRS (Surround Sound), Dolby Prologic o Q-Sound; estas técnicas son capaces de ubicar fuentes de sonido en el espacio, y desplazarlas alrededor del asombrado usuario. Y decimos asombrado, porque el efecto conseguido es realmente fantástico, y aporta nuevas e insospechadas posibilidades al software multimedia y, en especial, a los juegos. Es fácil hacer una recomendación en este tema: ¡No renunciéis al sonido 3D!

54

Page 55: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

CONFIGURACIÓN RECOMENDADA PARA UN ORDENADOR O PC.

Configuración del mes de febrero 2003

Una configuración repleta de novedades. Para los que quieren estar a la última.

MicroprocesadorAMD Athlon XP 2,800+ Ghz Thoroughbred B 0,13 micras Intel Pentium4 3,06 Ghz con HT, Nothwood 0,13 micras Socket 478

Placa Base

Para el AMD, Athlon XP, Abit AT7-MAX2 o Abit NF7-S. La primera con chipset KT400 y la segunda con nForce2. Ambas con AGP 8x, firewire, serial ata, tarjeta de red, usb 2.0... Soportan memoria DDR333, DDR400, y FSB de 333 Mhz para los Athlon futuros.Para el Intel Pentium4, la Abit IT7 MAX2 2.0 con el chipset 845PE, Asus P4G8X Deluxe o Giga-Byte GA-8INXP, ambas con el chipset Intel E7205.

Tarjeta GráficaAti Radeon 9700 Pro con 128 Mb de memoria DDR. Soporta DirectX 9, AGP 8x, 19 Gb de ancho de banda para la memoria, y las tecnologías exclusivas y mejoradas de ATI Smartshader 2.0, Smootvision 2.0, Videoshader o Fullstream.

Memoria Ram

2 DIMMs de 512 MB de RAM de memoria DDR PC3200 para el Athlon XP o DDR PC3200/3500/3700 para el Pentium4.

Presta atención a la marca, que sea de calidad (Corsair, OCZ, Geil, Muskin, algunas Samsung...), los tiempos de latencia (intenta que sean Cas 2-5-2-2, esto sólo es posible) y sobre todo que sea compatible con tu placa base. El desconocimiento de que hay que prestar atención a estas cosas es la fuente de la mayoría de los cuelgues.

Disco Duro

60/120 Gb Maxtor con ATA13340/60/80 Gb Seagate Barracuda IV ATA10040/60/75 Gb IBM ATA100 (estos últimos se recomiendan para montaje en RAID)120 Gb Western Digital 1200WJ

Lector de DVD-ROM DVD Toshiba 48x CD 16x DVD SM-1612

Regrabadora CDRegrabadora Plextor 48x/24x/48x IDE

Regrabadora DVD Plextor PX-504A, 4x/2.4x/12x DVD y 16x/10x/40x CD

Tarjeta de Sonido

Sound Blaster Audigy2 Platinum, Conexión PCI, audio envolvente EAX ADVANCED HD, 24 bits 192 Khz, 106 dB de señal/ruido, compatible digital 5.1... Todo un derroche de calidad para luego tirarla con un alta bocillos de informática ;-)

Monitor CRTEizo 21'' FlexScan F980Sony F520 de 21 pulgadas o FW900 de 24 pulgadas 16:10 (tubo CRT ambos)

55

Page 56: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Monitor TFT Sony SDM-P232W (23 pulgadas 16:10)

ImpresoraEpson Stylus Photo 900 (A4)Epson Stylus Pro 10600 (A4 - B0+). Plotter de gran formato. B0+ es 1580mm - 1118 mm.

Módem/Router

Router 3com USRobotics 56KRDSI Diva 2.0 Pro (interno) o RDSI USS Robotics Courier (externo)Router ADSL 3Com 812

Escáner Epson Perfection 2400 PHOTO. Con conexiones USB 2.0.Cámara Video Conferencia Logitech Quickcam Cordless

Cámara Digital de fotosCanon Powershot G3 (cámara compacta)Canon EOS 1 Ds (cámara reflex)

Joystick Microsoft Sidewinder Force Feedback Pro 2Volante Logitech MOMO ForcePad Microsoft FreestyleTeclado Logitech Cordless Desktop Optical

RatónLogitech Cordless MouseMan OpticalLogitech MX 700

Sistema Operativo Microsoft Windows XP Professional

Caja

Racom Stealth ó Kingwin KT-436. Ambas son la misma caja. Realizadas en aluminio, tamaño semi torre, 4 huecos 5 1/4 pulgadas, 9 huecos 3,5 pulgadas (6 de ellos ocultos) y 6 ventiladores de 8 centímetros incluidos estratégicamente colocados. No incluye fuente de alimentación y tiene la posibilidad de adquirirse con una ventana lateral.

Fuente de alimentación Cualquier Enermax de la serie FMA o cualquier ASTEC de la serie True.Akasa Silver Mountain II (la mejor relación calidad/precio) para Athlon XPSwiftech MCX462 (el mejor disipador del momento, también el más caro) para Athlon XP o MCX-4000 para Pentium4

Accesorios cajaDigital Doc 5. Incluye 8 sensores de temperatura y posibilidad de conectar 8 ventiladores para gestionarlos mediante una cómoda pantalla y un sistema de menús.

Ventiladores adicionalesDe la marca Enermax si se busca buena relación prestaciones/ruido y de marcas como Delta y Sanyodenki si sólo se buscan prestaciones.

CONFIGURACION PARA 2007.

¿QUE ORDENADOR COMPRAR?.

Revisado en enero de 2007

56

Page 57: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

La primera pregunta que nos surge es ¿me compro un ordenador de marca o un ordenador clónico?.

La definición de ordenador clónico que solemos dar es “ordenador que se monta a partir de componentes de diferentes marcas”. Pues bien. Basándonos en esta definición TODOS los ordenadores personales son clónicos, ya que ninguna de las marcas de ordenadores (HP - Compaq, Packard Bell, IBM (en su gama de ordenadores personales), Fujitsu – Siemens, etc. fabrican los componentes que integran sus productos. A lo sumo, en algunos casos, un par de ellos (caso de los discos duros en IBM y Fujitsu – Siemens, lectores de DVD en el caso de HP y poco mas). Muchas veces hablamos de la ventaja de los ordenadores “de marca” en cuanto a calidad, servicio postventa, manuales, software. Vamos a tratar este punto por partes. La calidad de un ordenador viene determinada por dos factores. La calidad de los componentes y la calidad del montaje de los mismos. Bien, Intel NO hace dos fabricaciones diferentes, una para estas empresas y otra para el resto de sus clientes. Esta diferenciación de fabricaciones solo la encontramos el las placas base, que suelen ser por otra parte los mismos modelos que tienen para el resto del mercado, pero en muchos casos con otra nomenclatura. Es cierto que estas empresas pasan unos mayores controles de calidad, pero también es cierto que esto es menos relevante hoy en día que hace unos años. En el tema de los manuales estamos ante un echo parecido. Todos los componentes de un ordenador suelen venir con sus manuales, drivers, etc., por lo que este tema no justifica por si solo la diferencia de precio. En el tema del servicio postventa hay mucho que hablar, ya que en muchas ocasiones este consiste en la retirada del ordenador y en quedarnos sin el durante un periodo de tiempo en casi todos los casos superior al que nos da cualquier tienda de informática. Es cierto que el software que nos ofrecen estos ordenadores es bastante completo, pero también es cierto que en la mayoría de los casos es preinstalado y que cada vez esta más de moda (por el tema de acuerdos y costes) que este software no este soportado en cds, siendo algo complicado tanto su reinstalación en caso de que necesitemos recuperar alguno que no nos funcione bien como su actualización. Un claro ejemplo de esto es que el Windows y los drivers vengan en una partición del disco duro (con la disminución de capacidad real que esto implica) y accesibles a través de un cd de recuperación (en algunos casos ni tan siquiera nos suministran este cd), que casi siempre nos obliga a reinstalar todo el sistema para algo tan simple como reinstalar un driver de sonido. Además, mucho de este software adicional es shareware, con un periodo de caducidad. Un ordenador “clónico” suele venir sin software adicional, pero el software básico nos vendrá en cds independientes y de mas fácil manejo. Tendremos nuestro cd de Windows, nuestro cd con los drivers de la placa base y nuestros cds con los drivers de los demás componentes, por lo que la recuperación del sistema es bastante mas fácil y menos dependiente de los servicios técnicos (aquí quiero recordar que ninguna garantía incluye el software y mucho menos su reinstalación). Otra cuestión es que los ordenadores de marca son configuraciones cerradas, por lo que si queremos cambiar algo tendremos que pagar un extra por ello y además enfrentarnos a algunas incompatibilidades que no suelen darse en ordenadores “clónicos”. Visto este punto, vamos a ver con que nos encontramos para montar nuestro ordenador.

57

Page 58: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

GABINETE (CAJA).

Consideraciones estéticas aparte, al comprar una caja debemos tener en cuenta tres factores fundamentales: Robustez, diseño interior y accesibilidad. Refrigeración (que cuente con ventiladores opcionales o bien la posibilidad de ponérselos). Fuente de alimentación. Este tema es de suma importancia, ya que tanto de su capacidad como de su calidad depende en buena medida tanto el rendimiento como la estabilidad e integridad de nuestro ordenador. Para un ordenador actual debemos partir como mínimo de una fuente de 450w, siendo aconsejable una de 500w.

Imagen de una FA de gama alta.

MICROPROCESADORES

58

Page 59: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Aquí encontramos una amplia (y a veces liosa) gama, tanto en INTEL como en AMD. La primera dificultad con la que nos encontramos es la nomenclatura de los mismos. Mientras INTEL usa para identificar a sus micros la velocidad de relog del mismo, AMD ha optado por identificarlos por la relación que sus micros tienen con INTEL (salvo en la serie FX, que no tiene equivalente en INTEL), independientemente de su velocidad real. Para explicar esto habría que meterse en temas técnicos sobre la arquitectura de los micros. Baste decir que aunque ambos son micros para ordenadores personales basados en IBM, no usan la misma arquitectura, por lo que el rendimiento (a igualdad de velocidad) de un AMD es muy superior a la de un INTEL (la velocidad de reloj de un AMD 3000+ es de 1800 Mh).

MICROPROCESADORES INTEL:

Los microprocesadores INTEL actuales usan el socket 775 (de 775 contactos), en los que se han eliminado los tradicionales pines para sustituirlos por contactos, menos frágiles que los pines. Soportan tanto memorias DDR como DDR2. Todos soportan tanto 32 como 64 bits. Los P4 cuentan con Hyper Treading (permite dos subprocesos en paralelo). Soportan los estándares multimedia SSE, SSE2, SSE3 y MMX. Toda la gama INTEL cuenta con funcionalidad de desactivación de ejecución de bit, tecnología que evita el ataque de virus que provoquen desbordamiento de buffer (con XP SP2).

Socket 775, Observar los conectores en lugar de los tradicionales pines. GAMA INTEL

CELERON D

59

Page 60: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Aunque INTEL mantiene en su catálogo algunos Celeron con socket 478, no los incluyo en esta lista por estar destinados solo a montadores, ya que actualmente no se comercializan placas 478. La lista siguiente corresponde a micros con socket LGA775. Todos soportan la tecnología Intel 64 de 64 bits, tienen un bus frontal de 533 Mhz y soportan Bit de Desactivación. El orden es el siguiente: Numero/Arquitectura/Cache/Velocidad.

326 / 90nm / 256Kb L2 / 2.53Ghz 331 / 90nm / 256Kb L2 / 2.86Ghz 336 / 90nm / 256Kb L2 / 2.80Ghz 341 / 90nm / 256Kb L2 / 2.93Ghz 346 / 90nm / 256Kb L2 / 3.06Ghz 347 / 65nm / 512Kb L2 / 3.06Ghz 351 / 90nm / 256Kb L2 / 3.20Ghz 352 / 65nm / 512Kb L2 / 3.20Ghz 355 / 90nm / 256Kb L2 / 3.33Ghz 356 / 65nm / 512Kb L2 / 3.33Ghz 360 / 65nm / 512Kb L2 / 3.46Ghz 365 / 65nm / 512Kb L2 / 3.60Ghz

PENTIUM 4 (NUCLEO SIMPLE)

Todos los P4 utilizan el socket LGA775. Todos son micros de 64 bit, con la tecnología Intel 64 y soportan Bit de Desactivación. El orden es el siguiente: Numero/Arquitectura/Cache/Velocidad/Bus frontal/Hiper Threading/SpeedStep.

506 / 90nm / 1Mb L2 / 533Mhz / 2.66Ghz / No / No

60

Page 61: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

511 / 90nm / 1Mb L2 / 533Mhz / 2.86Ghz / No / No 516 / 90nm / 1Mb L2 / 533Mhz / 2.93Ghz / No / No 524 / 90nm / 1Mb L2 / 533Mhz / 3.06Ghz / Si / No 521 / 90nm / 1Mb L2 / 800Mhz / 2.80Ghz / Si / No 531 / 90nm / 1Mb L2 / 800Mhz / 3.00Ghz / Si / No 541 / 90nm / 1Mb L2 / 800Mhz / 3.20Ghz / Si / No 551 / 90nm / 1Mb L2 / 800Mhz / 3.40Ghz / Si / No 630 / 90nm / 2Mb L2 / 800Mhz / 3.00Ghz / Si / Si 631 / 65nm / 2Mb L2 / 800Mhz / 3.00Ghz / Si / Si 640 / 90nm / 2Mb L2 / 800Mhz / 3.20Ghz / Si / Si 641 / 65nm / 2Mb L2 / 800Mhz / 3.20Ghz / Si / Si 650 / 90nm / 2Mb L2 / 800Mhz / 3.40Ghz / Si / Si 651 / 65nm / 2Mb L2 / 800Mhz / 3.40Ghz / Si / Si 660 / 90nm / 2Mb L2 / 800Mhz / 3.60Ghz / Si / Si 661 / 65nm / 2Mb L2 / 800Mhz / 3.60Ghz / Si / Si 670 / 90nm / 2Mb L2 / 800Mhz / 3.80Ghz / Si / Si

PENTIUM D (DOBLE NUCLEO)

Todos los Pentium D utilizan el socket LGA775 con Bus frontal a 800Mhz. Todos son micros de 64 bit, con la tecnología Intel 64, soportan Bit de Desactivación y todos menos el 820 soportan SpeedStep. El orden es el siguiente: Numero/Arquitectura/Cache/Velocidad/IVT (Intel Virtualization Technology).

820 / 90nm / 2 x 1Mb L2 / 2.80Ghz / No 830 / 90nm / 2 x 1Mb L2 / 3.00Ghz / No 840 / 90nm / 2 x 1Mb L2 / 3.20Ghz / No 915 / 65nm / 2 x 2Mb L2 / 2.80Ghz / No 920 / 65nm / 2 x 2Mb L2 / 2.80Ghz / Si 925 / 65nm / 2 x 2Mb L2 / 3.00Ghz / No 930 / 65nm / 2 x 2Mb L2 / 3.00Ghz / Si 935 / 65nm / 2 x 2Mb L2 / 3.20Ghz / No 940 / 65nm / 2 x 2Mb L2 / 3.20Ghz / Si 945 / 65nm / 2 x 2Mb L2 / 3.40Ghz / No 950 / 65nm / 2 x 2Mb L2 / 3.40Ghz / Si 960 / 65nm / 2 x 2Mb L2 / 3.60Ghz / Si

PENTIUM Extreme Edition (DOBLE NUCLEO)

Todos los Pentium Extreme Edition utilizan el socket LGA775. Todos son micros de 64 bit, con la tecnología Intel 64, soportan Bit de Desactivación y soportan Hyper threading. No soportan SpeedStep. El orden es el siguiente: Numero/Arquitectura/Cache/Bus frontal/Velocidad/IVT (Intel Virtualization Technology).

840 / 90nm / 2 x 1Mb L2 / 800Mhz / 3.20Ghz / No 955 / 65nm / 2 x 2Mb L2 / 1066Mhz / 3.46Ghz / Si 965 / 65nm / 2 x 2Mb L2 / 1066Mhz / 3.73Ghz / Si

PENTIUM CORE 2 DUO (DOBLE NUCLEO)

61

Page 62: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Todos los Pentium Core2 Duo utilizan el socket LGA775. Todos son micros de 64 bit, con la tecnología Intel 64 y usan la arquitectura de 65nm, , soportan Bit de Desactivación y soportan SpeedStep. La velocidad es por núcleo (1.80Gb = 2 núcleos de 1.80Gb) El orden es el siguiente: Numero/Cache/Bus frontal/Velocidad/IVT (Intel Virtualization Technology).

E4300 / 2Mb L2 / 800Mhz / 1.80Ghz / No E6300 / 2Mb L2 / 1066Mhz / 1.86Ghz / Si E6400 / 2Mb L2 / 1066Mhz / 2.13Ghz / Si E6600 / 4Mb L2 / 1066Mhz / 2.40Ghz / Si E6700 / 4Mb L2 / 1066Mhz / 2.66Ghz / Si

PENTIUM CORE 2 QUAD (CUATRO NUCLEOS)

Imagen de un INTEL QUAD con el protector y sin el.

Todos los Pentium Core2 Quad utilizan el socket LGA775 con cuatro núcleos. Todos son micros de 64 bit, con la tecnología Intel 64 y usan la arquitectura de 65nm, , soportan Bit de Desactivación y soportan SpeedStep y IVT. La velocidad es por núcleo. El orden es el siguiente: Numero/Cache/Bus frontal/Velocidad.

Q6600 / 8Mb L2 / 1066Mhz / 2.40Ghz

PENTIUM CORE 2 Extreme Edition

62

Page 63: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Todos los Pentium Core2 Duo utilizan el socket LGA775. Todos son micros de 64 bit, con la tecnología Intel 64 y usan la arquitectura de 65nm, , soportan Bit de Desactivación, soportan SpeedStep y IVT. La velocidad es por núcleo. El orden es el siguiente: Numero/Núcleos/Cache/Bus frontal/Velocidad.

X6800 / 2 / 4Mb L2 / 1066Mhz / 2.93Ghz QX6700 / 4 / 8Mb L2 / 1066Mhz / 2.66Ghz

GAMA AMD

Los microprocesadores AMD usan tres tipos diferentes de sockets. El 754 (754 pines), que lo usan solo los Sempron, el 939 (de 939 pines), compatible con memorias DDR y el AM2 (de 940 pines), compatible con memorias DDR2. Esta diferencia se debe a que los microprocesadores de AMD llevan incorporado el gestor de memoria en el micro de doble canal (128 bits), lo que hace que el uso de la memoria sea mucho mas optimizado que en los procesadores INTEL, al ser la comunicación entre el micro y la memoria directa, no existiendo prácticamente tiempo de latencia. La serie 64 son microprocesadores de 64 bits, pero implementan 32 bits de forma nativa. Todos soportan las instrucciones SSE, SSE2 y SS3 de 128 bits, MMX y las exclusivas de AMD 3D Now!. Tienen un ancho de banda para DDR de 72 bits (64 de datos + 8 de control) de hasta 6.4 Gbps, sin buffer y mediante la tegnologia HyperTransport de 16 + 16 bit consiguen un FBS de hasta 2000 Mhz, lo que les da un ancho de banda total de hasta 18.6 Gbps (dependiendo del modelo). Los Athlon 64 cuentan con EVP (protección mejorada antivirus), que trabaja junto con Windows XP SP2, Linux, Soliaris y BSD Unix, protegiendo el sistema evitando el ataque de virus que provoquen desbordamiento de buffer. AMD está reestructurando casi toda su gama y pasandola a socket AM2. Mantiene algunos Sempron en socket 754 para ensambladores, pero practicamente se ha dejado de distribuir las placas 754 y 939, por lo que, salvo en los Sempron, indico solo los procesadores con socket AM2

SEMPRON

63

Page 64: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Los AMD Sempron, a pesar de ser el comienzo de la gama AMD, no son comparables en rendimiento a los INTEL Celeron, sino mas bien a los anteriores amd Athlon Y P4. Son procesadores que trabajan a 64bit y a 32 bit y todos tienen una velocidad FBS de 1600Mhz, con la tecnología HyperTransport.

Nombre / Vel. Reloj / Men. Caché (L1-L2)

Socket 754 2800+ / 1600Mhz / 128Kb - 256Kb 3000+ / 1800Mhz / 128Kb - 128Kb 3100+ / 1800Mhz / 128Kb - 256Kb 3300+ / 2000Mhz / 128Kb - 128Kb 3400+ / 2000Mhz / 128Kb - 256Kb

Socket AM2 2800+ / 1600Mhz / 128Kb - 128Kb 3000+ / 1600Mhz / 128Kb - 256Kb 3200+ / 1800Mhz / 128Kb - 128Kb 3400+ / 1800Mhz / 128Kb - 256Kb 3500+ / 2000Mhz / 128Kb - 128Kb 3600+ / 2000Mhz / 128Kb - 256Kb 3800+ / 2200Mhz / 128Kb - 256Kb

ATHLON 64

Los AMD Athlon 64, son los rivales del INTEL Pentiun 4. Son procesadores que trabajan a 64bit y a 32 bit y todos tienen una velocidad FBS de 2000Mhz, con la tecnología HyperTransport. Socket AM2 y memorias DDR2.

Nombre / Vel. Reloj / Men. Caché (L1-L2)

3000+ / 1800Mhz / 128Kb - 512Kb 3200+ / 2000Mhz / 128Kb - 512Kb

64

Page 65: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

3500+ / 2200Mhz / 128Kb - 512Kb 3800+ / 2400Mhz / 128Kb - 512Kb

ATHLON 64 x2

Los AMD Athlon 64 x2, son los rivales del INTEL Core 2 Duo. Son procesadores de doble núcleo y ambos trabajan a 64bit y a 32 bit y todos tienen una velocidad FBS de 2000Mhz, con la tecnología HyperTransport. La memoria cache es independiente para cada núcleo. Socket AM2 y memorias DDR2.

Nombre / Vel. Reloj / Men. Caché (L1-L2)

3600+ / 1900Mhz / 128Kb x2 - 512Kb x2 3800+ / 2000Mhz / 128Kb x2 - 512Kb x2 4000+ / 2100Mhz / 128Kb x2 - 1Mb x2 4000+ / 2000Mhz / 128Kb x2 - 512Kb x2 4200+ / 2200Mhz / 128Kb x2 - 512Kb x2 4400+ / 2200Mhz / 128Kb x2 - 1Mb x2 4400+ / 2300Mhz / 128Kb x2 - 512Kb x2 4600+ / 2400Mhz / 128Kb x2 - 512Kb x2 4800+ / 2400Mhz / 128Kb x2 - 1Mb x2 4800+ / 2500Mhz / 128Kb x2 - 512Kb x2 5000+ / 2600Mhz / 128Kb x2 - 512Kb x2 5200+ / 2600Mhz / 128Kb x2 - 1Mb x2 5400+ / 2800Mhz / 128Kb x2 - 512Kb x2 5600+ / 2800Mhz / 128Kb x2 - 1Mb x2

ATHLON 64 FX

Es difícil encuadrar a los AMD Athlon 64 FX con la gama de INTEL (salvo quizás con los Core 2 Extreme Edition). Son procesadores de doble núcleo y Quad de doble socket de conexión directa (DSDC), con un ancho de banda de hasta 25.6Gbps. Todos tienen una velocidad FBS de 2000Mhz, con la

65

Page 66: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

tecnología HyperTransport y memorias DDR2. No tienen relación en su denominación con INTEL (al contrario del resto de la gama), solo una relación FXxx, donde xx representa la velocidad de estos (a xx mayor, mayor velocidad).

Nombre / Vel. Reloj / Men. Caché (L1-L2) / Socket

Fx62 / 2800Mhz / 2 / 128Kb x2 - 1Mb x2 / AM2 Fx70 / 2600Mhz / 4 / 128Kb x2 - 1Mb x2 / Socket F (1207Fx) Fx72 / 2800Mhz / 4 / 128Kb x2 - 1Mb x2 / Socket F (1207Fx) Fx74 / 3000Mhz / 4 / 128Kb x2 - 1Mb x2 / Socket F (1207Fx)

Llegados a este punto, es conveniente hacer unas aclaraciones sobre los microprocesadores de doble núcleo. Tienen la gran ventaja de que cuando ejecutamos varias tareas a la vez, la carga de estas se reparte entre los núcleos y, en programas preparados para ello, ejecutan parte del programa en un núcleo y parte en el otro. Esto supone una gran ventaja en cuanto a rapidez, PERO SOLO CON PROGRAMAS QUE ESTEN DISEÑADOS PARA SOPORTAR ESTA FUNCION. En la actualidad están preparados para esta función Windows XP Profesional SP2 y la mayoría de los programas de diseño 2D – 3D, así como varios de tratamiento fotográfico (Photoshop, EDStudio, Autocad..), pero en la actualidad ningún juego esta preparado para ejecutarlo en doble núcleo, por lo que no se conseguirá ninguna mejora en estos. Además, debemos tener muy en cuenta que el calor generado por estos micros es muy superior al generado por un micro de núcleo único. Esto hace que sea muy delicado (hasta peligroso) hacer overclocking en estos micros.

REFRIGERACION.

Este es un apartado de suma importancia para la vida de nuestro ordenador. Normalmente tendremos suficiente con el disipador que nos viene con el micro, pero si deseamos sacarle el máximo rendimiento es conveniente sustituir este por uno de mayor poder de disipación. A mayor rendimiento el micro generará mayor temperatura y tendremos que disipar más.

66

Page 67: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Los tres tipos mas usuales de disipadores. De izquierda a derecha AMD 939 y AM2, INTEL 478 y a la derecha INTEL 775.

MEMORIAS.

Hay dos tipos de memorias disponibles actualmente:

DDR (184 contactos), en 400 Mhz (DDR400 – PC3200)

DDR2 (240 contactos), en 400 Mhz (DDR2-400 – PC2-3200), 533Mhz (DDR2-533 – PC2-4200), 667 Mhz (DDR2600 – PC2-5300) y 800 Mhz (DDR2-800 – PC2-6400).

La elección entre un tipo de memoria y otro viene determinado por la placa base que usemos y la cantidad de la misma (expresado en Mb), de la aplicación que vayamos a darle a nuestro ordenador y de la capacidad de la

67

Page 68: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

placa base.

TARJETA GRAFICA.

Imagenes de dos graficas. A la izquierda una AGP, a la derecha una PCIExpress.

68

Page 69: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Podemos apreciar los dos tipos de slot. Arriba PCIEx, abajo AGP.

Existen en el mercado dos grandes marcas de chipset en gráficas, NVIDIA y ATI (adquirida hace poco por AMD). Ambas marcas tienen modelos que cubren todas las necesidades del mercado, y que van desde los 64 Mb hasta los 1024 Mb. Los soportes para estas tarjetas son de dos tipos: AGP, con un ratio de transferencia de hasta 8x (velocidad de 533 Mhz y 2 Gb/s) y PCIexpress, con un ratio de transferencia de 16x (para una tasa de transferencia punto a punto de 4 Gb/s en modo bidireccional, lo que lo convierten en 16 Gb/s). Las AGP tienden a desaparecer, por lo que la oferta en estas es cada vez menor. La elección entre una u otra dependerá de la placa base que tengamos y la capacidad y modelo del uso que le vayamos a dar. Para aplicaciones ofimáticas e Internet, con una VGA de 64 Mb tendremos mas que suficiente, mientras que para aplicaciones 3D, edición de video, edición fotográfica y, sobre todo, para juegos nos interesará una VGA lo más potente posible.

PLACA BASE. Imagen de placa base para INTEL 775

Impresionante esta placa base para los nuevos AMD Fx Quad

La elección de la placa base vendrá determinada por el tipo de microprocesador que vayamos a tener, ya que dependiendo del socket que tenga el micro deberemos utilizar un tipo de placa base u otro, no siendo compatibles entre sí. Estamos ante el principal componente de nuestro ordenador, tan importante o mas que el micro, ya que de la placa base dependerá que podamos sacarle al mismo todo su rendimiento. En las placas base, el precio va más ligado a la calidad de la misma que a las prestaciones y esto es algo que debemos de tener muy en cuenta. Un punto muy importante es la estabilidad en el rendimiento, ya que es mejor una placa que no de grandes picos a otra que en un momento dado nos de un gran pico, pero que luego también nos de una gran bajada. Esto suele ocurrir en bastantes placas de marcas económicas, así como en modelos económicos de las primeras marcas (a veces el marketing se impone). Dado que dentro de una misma marca existen varios modelos con diferentes prestaciones (y muy diferentes precios), debemos hacer nuestra elección con sumo cuidado y teniendo muy en cuenta el uso que vayamos a darle al ordenador.

En la actualidad se están poniendo de moda un tipo de placas denominadas SLI, que consisten en placas con doble PCIexpress 16x para VGA. Sobre este

69

Page 70: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

tipo de placas me gustaría hacer una aclaración. Los fabricantes suelen tener esta misma placa, pero con un solo slot para gráfica, con las mismas prestaciones y a un precio bastante inferior, ya que las placas SLI son bastante caras. Este tipo de placa esta pensado sobre todo para trabajar en programas de diseño, con 2 tarjetas gráficas y 1 o 2 monitores, trabajando en una y mostrando el resultado en otro. Si tenemos esto en cuenta, la diferencia de precio final puede rondar los 500 euros, por lo que si no pensamos conectar dos monitores o usar las ultas prestaciones de SLI es preferible decantarnos por otro modelo de placa base que nos de el mismo rendimiento (por ejemplo, la ASUS A8N-SLI y la ASUS A8N-E en realidad son la misma placa, solo que la primera es SLI y el precio de la primera es casi el doble que la segunda). Las placas base actuales tienen incorporados hasta 10 puertos USB 2.0, tarjeta Ethernet, tarjeta de sonido (en la mayoria de los casos 5.1 y en las placas de gama alta, de hasta 8.1) y dependiendo del modelo, conexión WIFI y Firewire.

DISCO DURO.Es donde vamos a grabar el SO y donde vamos a almacenar nuestros datos, por lo que el tamaño del mismo (que actualmente va desde los 80 Gb hasta los 400 Gb) dependerá de la cantidad de información que pensemos guardar. Existen dos tipos de discos, dependiendo de la conexión: IDE y SATA. En la actualidad todas las placas base vienen preparadas para discos SATA, por lo que es la opción mas lógica, ya que su tasa de transferencia es muy superior.

OTROS COMPONENTES.

En este apartado debemos meter el lector – regrabador de DVD, lector de tarjetas de memoria flash, disquetera y tarjeta de sonido. En este ultimo tema es importante que sepamos que (naturalmente dependiendo de la calidad de la placa base) la calidad de las tarjetas de sonido integradas en placa base suele ser bastante elevada, por lo que en la mayoría de los casos tendremos bastante con esta.

COMPATIBILIDADES.

Esta es una palabra clave. ¿Qué es la compatibilidad entre los diferentes componentes que forman el ordenador?.

Cada tipo de microprocesador tiene un tipo de socket diferente (775 en el caso de INTEL, 754 en el caso de los Sempron y 939 y AM2 en el caso de AMD), por lo que cuando compramos la placa base, esta se tiene que adaptar al micro que queremos, pero no termina ahí la cosa. Debemos estudiar detenidamente las especificaciones de la placa base y comprobar los siguientes puntos:

Que, dentro del socket elegido, soporte el tipo de micro que queremos en cuanto a velocidad. Que la VGA sea compatible con la placa base (AGP o PCIe). Que el tipo de memoria, así como la cantidad, velocidad y capacidad de los módulos los soporte la placa base. Este punto necesita un poco mas de explicación. Las placas para INTEL pueden llevar tanto módulos DDR como DD2, las placas para AMD llevan módulos DDR las 754 y las 939 y módulos DDR2 las AM2. Asimismo, debemos comprobar el número de slot que tiene, la capacidad máxima de los mismos y las frecuencias que soportan. Muchas placas con Dual Channel tienen 4 slots de memoria, pero la configuración no

70

Page 71: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

es libre. Soportan un modulo, dos en Dual Channel y 4 en Dual Channel, pero NO soportan tres módulos, por lo que si queremos 3072 Mb tendremos que poner 2 módulos de 1024 y otros dos de 512. Esto se debe a la configuración del bus de datos de la memoria, ya que una vez activado el Dual Channel (se activa al conectar dos módulos en los bancos 0 y 2), los módulos tienen que ir de dos en dos. Asimismo, las placas suelen soportar varias frecuencias, pero no todas. Muchas placas para DDR2 soportan módulos DDR2-667, y DDR2-800. Este es un punto que debemos comprobar muy bien, ya que nos ahorraremos algún dinero y bastantes problemas.

Si vamos a cambiar el disipador debemos asegurarnos de que es el adecuado para el socket de nuestra placa base.

EJEMPLOS DE CONFIGURACION.

Vamos a dar unos cuantos ejemplos de configuración basándonos en el uso al que vaya destinado el ordenador.

INTERNET, OFIMATICA Y REPRODUCIR MUSICA Y VIDEOS Y JUEGOS POCO PESADOS

Este es un uso que no requiere grandes requisitos en el sistema, por lo que puede ser una configuración bastante económica.

MICRO.- Podemos decantarnos por un INTEL Celeron o bien por un AMD Sempron. Además, tampoco necesitamos que sean excesivamente potentes.

REFRIGERACION.- Tendremos suficiente con el disipador que trae el micro. PLACA BASE.- Con una placa base de gama media tendremos suficiente. MEMORIA.- Para este uso, con 512 Mb tendremos suficiente. VGA.- Con una VGA de 128 Mb iremos bien. También podemos elegir una placa base con la VGA incorporada. DISCO DURO.- Dependiendo de lo que pensemos almacenar, con un disco de entre 80 Gb y 160 Gb tendremos suficiente.

OTROS COMPONENTES.- Lector – regrabador de DVD, disquetera, lector de tarjetas.

LO ANTERIOR MAS EDICION DE VIDEO Y FOTOGRAFIA

MICRO.- Podemos decantarnos por un INTEL P4 o bien por un AMD Sempron o Athlon 64.

REFRIGERACION.- Casi siempre tendremos suficiente con el disipador que trae el micro.

PLACA BASE.- Nos decantaremos por una placa base de gama media – alta. MEMORIA.- Para este uso, con 2048 Mb tendremos suficiente. Es interesante que sea Dual Channel

VGA.- Con una VGA de 256 Mb iremos bien. No es recomendable una VGA incorporada en placa base.

71

Page 72: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

DISCO DURO.- Dependiendo de lo que pensemos almacenar, con un disco de entre 200 Gb y 300 Gb tendremos suficiente. Debemos tener en cuenta que la edición de video necesita mucho disco duro

OTROS COMPONENTES.- Lector de DVD, regrabador de DVD, disquetera, lector de tarjetas, probablemente necesitemos una capturadota de video si pensamos pasar cintas de VHS a DVD.

DISEÑO GRAFICO

MICRO.- Podemos decantarnos por un INTEL P4 D o bien por un AMD Athlon 64 X2 o FX (para esta configuración si vamos a notar bastante el doble núcleo. A ser posible a partir de 3500 Mh.

REFRIGERACION.- Es conveniente sustituir el disipador por uno de más potencia. PLACA BASE.- Deberíamos elegir una placa base de gama alta. Para este uso estaría justificado el uso de una placa base SLI. MEMORIA.- Para este uso, con 2048 Mb tendremos una memoria adecuada, pero mejor 4096. Muy recomendable Dual Channel y a ser posible DDR2. VGA.- Con una VGA de 512 Mb iremos bien. Es conveniente PCIe. Para este uso concreto, las prestaciones de NVIDIA son algo superiores a las de ATI. DISCO DURO.- Dependiendo de lo que pensemos almacenar, a partir de 200 Gb. OTROS COMPONENTES.- Lector de DVD, regrabador de DVD, disquetera, lector de tarjetas.

EDICION DE VIDEO, EDICION DE SONIDO Y JUEGOS DE ULTIMA GENERACION

Quizás sea esta la configuración mas exigente en algunos apartados, como la elección de la VGA. MICRO.- Podemos decantarnos por un INTEL P4 o bien por un AMD Athlon 64 o FX. Si vamos a realizar varias tareas a la vez, podemos elegir un micro de doble núcleo. A partir de 3500 Mh REFRIGERACION.- Es conveniente sustituir el disipador por uno de más potencia. PLACA BASE.- Necesitaremos una placa base de gama alta y alto rendimiento. Algunos fabricantes tienen placas específicamente diseñadas para juegos, como es el caso de la serie LANParty de DFI, con un rendimiento optimizado para juegos de última generación.

MEMORIA.- Para este uso, con 2048 - 4096 Mb tendremos suficiente. Debe ser Dual Channel y a ser posible DDR2.

VGA.- Con una VGA de 512 - 1024 Mb iremos bien. Muy recomendable PCIe.

DISCO DURO.- Dependiendo de lo que pensemos almacenar, a partir de 200 Gb. OTROS COMPONENTES.- Lector – regrabador de DVD, disquetera, lector de tarjetas. En esta configuración nos puede interesar recurrir a una tarjeta de sonido adicional del tipo Sound Blaster Audigy Pro.

72

Page 73: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

CONFIGURACIONES EN 2010.

Características del sistema

Sistema operativo instalado

Windows® 7 Home Premium original 64 bits

Tipo de procesador Procesador Intel® Core™ i7 860

Chipset Intel® H57 PCH

Memoria

Memoria DDR3 de 8 GB

Ranuras de memoria 4 conectores para módulos DIMM

Almacenamiento de datos

Compartimentos para unidades internas

2 compartimentos para unidades ópticas externas, 2 compartimentos para discos duros internos, 1 compartimento para unidad Pocket Media, Landing Pad para dispositivos USB y 1394

Unidades internas Unidad de disco duro SATA 3G de 1 TB (7200 rpm)

Unidades ópticas Reproductor Blu-ray y grabadora de DVD SuperMulti con tecnología LightScribe

Gráficos

Tarjeta gráfica NVIDIA® GeForce® GT 230 con tecnología PureVideo® HDhasta 5.118 MB de memoria gráfica total disponible con 1,5 GB dedicada

Pantalla Monitores LCD (se venden aparte): Monitor de pantalla plana panorámica de 20" HP 2010i, monitor de pantalla plana panorámica de 22" HP 2210i , monitor de pantalla plana panorámica HP 2229h, monitor de pantalla plana panorámica de 23" HP 2310i, monitor de pantalla plana panorámica de 25" HP 2510i, monitor de pantalla plana panorámica de 27" HP 2710m

Características de expansión

Puertos de E/S externos 10 puertos USB 2.0 (4 en parte frontal), 2 puertos de audio frontales, 6 puertos de audio analógicos posteriores, 1 puerto de audio digital posterior 2 puertos Firewire® IEEE 1394 (1 frontal)

Conectores de vídeo Puerto DVI, puerto VGA, puerto HDMI

73

Page 74: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Ranuras 3 PCI-Express 1x (1 libre), 1 PCI-Express 16x

Dispositivo de tarjeta de memoria

Lector tarjetas de memoria 15 en 1

Dispositivos multimedia

Mando a distancia Mando a distancia HP Win7 Media Center

Sintonizador de TV Tarjeta sintonizadora de TV (analógica y DVB-T)

Dispositivos de entrada

Dispositivo apuntador Ratón HP inalámbrico óptico

Teclado Teclado inalámbrico

Comunicaciones

Interfaz de red LAN Ethernet Gigabit 10/100/1000 integrada

Tecnologías inalámbricas

Minitarjeta LAN inalámbrica 802.11 b/g/n PCI-Ex1

Dimensiones y peso

Peso del producto 11,8 Kg

Medidas del producto (P x A x L)

179 x 422 x 401 mm

Contenido de la caja

Garantía 1 año en piezas y mano de obra con recogida y devolución

Software incluido Partición de recuperación (incluida la posibilidad de recuperar el sistema, las aplicaciones y los controladores por separado)Reasignación opcional de partición de recuperaciónHerramienta de creación de CD/DVD de recuperaciónSymantec™ Norton Internet Security™ 2009 (actualización gratuita durante 60 días)HP MediaSmart Suite: Música, Vídeo, DVD, FotografíaWindows Photo GalleryReproductor de Windows Media

74

Page 75: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Windows Movie Maker, Windows DVD Maker Cyberlink DVDSuite EasyBits Magic Desktop Consola de juegos HP con varias horas de juego gratuitas.Windows Media CenterMicrosoft® Internet ExplorerWindows Mail (correo de Windows)Microsoft® Works y versión de prueba de 60 días de Microsoft® Office Home and Student 2007

75

Page 76: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

CAPÍTULO III. TIPOS DE PROGRAMAS

Sabemos que el ordenador se compone de un conjunto de componentes conectados entre sí. Para que el ordenador funcione es necesario que haya unos programas que le digan paso a paso qué debe hacer. El software es el componente intangible de todo sistema informático y está formado por una colección de reglas e instrucciones que permiten establecer la relación entre el usuario y la máquina.

I.- SISTEMAS OPERATIOS.II.- LENGUAJES DE PROGRAMACIÓN.III.- PROGRAMAS DE APLICACIÓN.IV.- PROGRAMAS DE UTILIDAD O UTILITARIOS.V.- PROGRAMAS GENERADORES DE PROGRAMAS.VI.- PROGRAMAS PAQUETES O ARMAZONES.

I.- EL SISTEMA OPERATIVO

1) Es el programa de mayor importancia también llamado programa SUPERVISOR

El sistema operativo es el conjunto de programas que dirige las operaciones básicas del ordenador, especialmente las de entrada y salida como presentar en el monitor los resultados, controlar la impresora, etc. Se encarga del manejo de las interrupciones de los dispositivos, la carga inicial del IPL, asignar memoria a los programas y de las comunicaciones con el resto de los programas cargados en memoria.

2) Funcionamiento

Cuando se conecta un ordenador personal se carga parte del sistema operativo en la memoria, y se ejecuta. En este momento, el sistema operativo controla qué periféricos (ratón, impresora, monitor, etc.) se encuentran conectados y si hay algún error. Una parte del sistema operativo permanece en memoria para controlar la ejecución de cualquier programa, haciendo de intermediario entre el microprocesador y las aplicaciones.

De esta forma cada aplicación se dedica a hacer su tarea y deja que sea el sistema operativo quien realice las actividades comunes, como enviar los datos al monitor, imprimir, etc.

3) Relación con el hardware

El sistema operativo está muy ligado a la configuración del hardware, especialmente al microprocesador del sistema, de forma que cada sistema operativo está diseñado para operar en un tipo de ordenador. Los más conocidos son MS-DOS, Mac-OS, UNIX, VMS, Windows, LINUX, etc.

76

Page 77: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

También existe lo que se denominan sistemas propietarios, es decir, que pertenecen a una marca y aunque se pueden conectar periféricos de otras marcas, su arquitectura es incompatible con otras arquitecturas de distinto constructor. Un ejemplo es el sistema operativo de los equipos AS/400 de IBM.

System commander (http://www.systemcommander.com) es un programa que permite tener varios sistemas operativos en un mismo equipo.

4) Funciones del sistema operativo

El sistema operativo se ocupa de varias funciones:

1) Administrar los recursos disponibles de la máquina, que son escasos. Controlar los flujos de información dentro del sistema y la ejecución de los trabajos encomendados.

2) Mantener la operatividad del sistema, detectar errores y controlar los dispositivos y configuración de los periféricos, de forma que no aparezcan continuas interrupciones frente al usuario.

3) Ejecutar el software de aplicación para obtener la máxima eficacia en la explotación del equipo.

II.- LOS LENGUAJES DE PROGRAMACIÓN

1) Son programas que permiten escribir programas para ordenadores

Hay lenguajes de programación que se aproximan al código de la máquina y se llaman de bajo nivel. En este caso se utilizan los ensambladores, que son programas que transforman las órdenes escritas en lenguajes de bajo nivel a código binario, a ceros y unos.

En el otro extremo se encuentran los lenguajes de alto nivel, que se asemejan al idioma escrito. Para traducir estos programas a código binario existen los llamados intérpretes y compiladores.

En el caso de los lenguajes de programación interpretados, se traduce el llamado programa fuente cada vez que se ejecuta. Este es un proceso sencillo pero lento, ya que está continuamente traduciendo.

En los lenguajes de programación que utilizan compilador, éste traduce el programa fuente y se obtiene lo que se denomina programa objeto, que es el que se ejecuta.Los lenguajes de programación más conocidos históricamente han sido ASSEMBLER, COBOL, PL/I, BASIC, PASCAL, VISUAL BASIC, y en la actualidad para desarrollo WEB, HTML, VML y XVML.

77

Page 78: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

III.- PROGRAMAS DE APLICACIÓN

1) Programas desarrollados con propósitos específicos.

Están orientados a la resolución de un tipo de problema o a la realización de ciertas tareas específicas: planillas, inventarios, facturación, contabilidad general, programas de dibujo, etc.

IV.- PROGRAMAS DE UTILIDAD O UTILITARIOS.

Los llamados programas accesorios facilitan la interacción entre los lenguajes de programación y el usuario: pequeños editores de fotos, programas que realizan copias de seguridad, utilidades para comprimir y descomprimir ficheros, programas para medir y controlar el rendimiento del equipo, etc. También podemos incluir en este apartado las utilidades para defendernos de los virus: programas antivirus, comprobadores y vacunas.

Los antivirus son programas dirigidos contra tipos particulares de virus informáticos. Un antivirus funciona analizando los ficheros en busca de secuencias de bytes características de un determinado virus. El antivirus explora los ficheros de un disco en busca de esa cadena y la elimina. El comprobador es un programa que explora los ficheros y comprueba si han sido alterados, avisando al usuario.

Un tipo especial de software de aplicación son los programas de comunicaciones, que suelen ir unidos al hardware que soporta el tipo de interconexión requerido: red de área local, conexión a fax, a módem, etc. Este software tiene un carácter básico en los grandes ordenadores, puesto que su forma de trabajo normal requiere el enlace permanente con un gran número de usuarios y periféricos.

V.- PROGRAMAS GENERADORES DE APLICACIONES

Son utilizados para generar programas para aplicaciones o sistemas particulares como páginas Web, portales, inventarios, contabilidad, análisis financiero, estadísticas, etc.

VI.- PROGRAMAS PAQUETES O ARMAZONES.

El ejemplo típico de programa paquete es el OFFICE ya que contiene los siguientes programas especializados:

1).- Word. Para procesamiento de textos.2).- Excel. Para proceso de hojas electrónicas de cálculo.3).- Power Point. Para presentaciones ejecutivas.4).- Outlook. Para proceso de correo electrónico.5).- Access. Manejo de Bases de Datos.6).- Publisher. Publicaciones de todo tipo.

78

Page 79: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Existen diferentes formas de obtener programas paquetes o de funciones específicas:

a) Adquisición de un paquete llave en mano desarrollado por técnicos especializados en ello, con el objetivo de vender el máximo número de unidades a un precio asequible. b) Desarrollo de una aplicación informática a la medida. Esta estrategia puede implantarse de dos formas, como desarrollo interno, utilizando personal y medios de la propia empresa y como desarrollo externo, utilizando consultores y personal especializado ajeno a la empresa. También puede formarse un equipo mixto con personal propio y ajeno. c) Outsourcing financiero. Otra posibilidad que no implica la informatización de la actividad en la empresa, es la contratación externa u outsourcing financiero, que consiste en que actividades que tradicionalmente se realizan en el departamento contable-financiero las realicen proveedores de la empresa. Tradicionalmente un número muy importante de pequeñas empresas, que no cuentan en sus empresa con un contable confían su contabilidad o la elaboración de la nómina a despachos profesionales. Con el outsoucing financiero, aunque sean grandes empresas, dejan que sean proveedores de la empresa quienes realicen la nómina o la contabilidad.

d) Paquetes llave en mano. La casa de software que fabrica paquetes llave en mano trata de repartir los costes de diseño, desarrollo y puesta a punto del programa entre el mayor número de clientes, con lo que se puede fijar un precio relativamente bajo que puede incluir la actualización del programa. Las principales características del paquete llave en mano son su rapidez de adquisición e instalación y su precio inferior. Su diseño suele seguir dos alternativas: un uso genérico, como podría ser un programa de contabilidad general o bien un uso específico en el contexto de determinados negocios como podría ser una aplicación para la gestión hotelera, clínicas, supermercados, etc.

e) Software a medida con desarrollo externo. El desarrollo de software a medida con desarrollo externo tiene lugar cuando la empresa detecta la necesidad de disponer de un sistema de información de unas características y prestaciones que no cumple ningún paquete llave en mano existente en el mercado. Además tampoco se dispone de recursos internos adecuados para tal esfuerzo de desarrollo. En tales casos puede acudirse a un consultor externo o empresa de informática que realiza los programas según un contrato firmado entre ambas partes.

f) Software a medida con desarrollo interno. Utilizado por empresas que cuentan con sus propios medios de diseño y desarrollo, infraestructura informática, departamento de organización y métodos, etc. En estas circunstancias se crea un equipo de trabajo con la correspondiente dotación de personal, presupuesto y medios, y se pone en marcha para cumplir el pliego de especificaciones de diseño que define las prestaciones del sistema de información.

g) Software a medida desarrollado con el apoyo del usuario. El software a medida desarrollado con el apoyo del usuario se basa en la incorporación de tres tipos de personas al equipo de trabajo. En primer lugar los

79

Page 80: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

analistas y profesionales externos que aportan experiencia en otros proyectos de desarrollo de software. También participa el personal del departamento de informática, organización y métodos o auditoría interna de nuestra empresa, que conoce el funcionamiento de la infraestructura informática de la empresa, sus limitaciones y prestaciones. Finalmente intervienen los usuarios del sistema, que son los que informan de las necesidades.

h) Contratación externa. La contratación externa supone que la organización contrata con un proveedor externo el procesamiento de sus transacciones contables. Las razones para optar por esta modalidad son la eficiencia y el menor riesgo, ya que se confía en verdaderos profesionales que ha desarrollado procedimientos, controles y programas informáticos de eficacia demostrada. Además, se reduce personal interno y se contrata un servicio con un proveedor.

80

Page 81: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

81

Page 82: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

CAPÍTULO IV. ESTRUCTURA Y FLUJO DE LOS DATOS.

Micro y Macrodatos:

Se entiende por micro dato la unidad menor respecto a la cuantificación de una variable en el tiempo y espacio. Ejemplos: el salario de José Gomes en marzo de 2006, el estado civil de Petra Lombana en junio de 2005 o los ahorros de Juan Sibauste en enero de 2006.

Por macro dato entendemos la agregación de los micro datos en grupos de mayor jerarquía, por ejemplo: los salarios de los empleados de la empresa o el país en marzo de 2005, el producto interno bruto del país para el mes de octubre de 2004, etc.

Pirámide de los Datos.

La organización lógica de los datos ha sufrido una notable evolución para que cada día exista mayor concordancia entre los requerimientos del Sistema de Información Gerencial (SIG) y la estructura de la llamada Pirámide de los Datos. Debemos hablar mas específicamente del Modelo de Datos para el SIG.

El sistema estructural de agrupamiento lógico, a nivel de datos, parte del caracter como la menor unidad orgánica de dato; los caracteres cuando se agrupan mediante una relación lógica entre sí forman el campo(alfabético, numérico y alfanumérico); el conjunto de campos con relación lógica de conjunto da origen al registro lógico (de personal, de planilla, de costo, de inventario, etc.); cuando se integran todos los registros relacionados a un área de conocimiento constituimos un archivo lógico de datos (archivo de personal, archivo de planilla, archivo de costos, archivo de inventario, etc.); hasta este momento hemos definido la arquitectura histórica llamada PLANA.

Estableciendo relaciones correlacionadas entre archivos lógicos de datos estructuramos las llamadas BASES DE DATOS, según la génesis de la relación decimos que es jerárquica, estructurada o de red. Las necesidades de nuevos ordenamientos y seguimiento del agrupamiento de los datos para convertirlos en información elaborada han permitido desarrollar el concepto de ALMACENES DE DATOS como conjunto de datos masivos, al menor detalle, pero referidos a las áreas específicas de interés (Almacén de Datos Presupuesto, Almacén de Datos de Costos, Almacén de Datos Ventas, etc.). Pero que sucede cuando el interés por controlar las operaciones nos obliga a correlacionar por sectores (Almacén de Datos Financieros, Almacén de Datos Contables, Almacén de Datos Económicos, Almacén de Datos Estadísticos, Almacén de Datos Jurídicos, etc.) y todo el conjunto a nivel operativo, en estos casos estamos estructurando un Modelo de Datos Operativo.

Si aplicamos los mismos criterios a nivel táctico y estratégico en el SIG decimos entonces que tenemos un Modelo de Datos para el SIG. En el modelo de datos operativo, se manejan todo el micro datos de forma correlacionada ya que estos permiten el control y la administración de las actividades. Este modelo se caracteriza por el volumen de información, por la diversidad de la misma y,

82

Page 83: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

sobre todo, porque toda esta íntimamente relacionada. Por ejemplo la política de empleo se materializa, en normas de contratación de personal y de rendimiento del personal; del trabajo diario se debe derivar la productividad de los trabajadores para así determinar salario productivo e improductivo y esta condición deberá determinar el costo de la mano de obre y el salario a pagar; no debe ser la tarjeta de tiempo el instrumento que determine el salario a pagar. Todas las variables en los negocios, a nivel operativo, tienen causa y efecto y el mecanismo de registro contable solo mide un perfil de la información necesaria para la Toma de Decisiones; es por intermedio del Modelo de Datos que se aprecia el comportamiento operativo y administrativo de los negocios modernos.

Métodos de Captura y Actualización de los Datos.

Los métodos de captura de datos tradicionalmente se han dividido en fuera de línea (BATCH) o en línea (ON LINE); en el proceso fuera de línea ocurre una demora de tiempo entre el momento en que se da la transacción que genera los datos y el momento de su registro o captura por medios informáticos.

En los procesos de captura en línea (ON LINE) las transacciones se registran a través de los sistemas informáticos al momento que se da la transacción, implica la verificación de consistencia y valides de los datos para garantizar el proceso de captura. Los errores que puedan ser detectados en estos procesos por regla general obligan al rechazo de la transacción que originó los datos.

Por captura, en ambos ambientes, se entiende el registro inicial de la transacción y por actualización, el cambio de alguno de los componentes de la transacción ya registrada. Una regla moderna de certificación de los datos y de las transacciones consiste en bloquear los datos de la transacción para que no puedan ser alterados una vez certificado el contenido. En nuestro país la certificación de la información en medios magnéticos compete a los CPA.

Los procesos de actualización en línea (ON LINE) se caracterizan por realizarse en el llamado tiempo real (Menos de 10 segundos) y a través de estructuras de redes teleinformáticas. Hoy día la INTRANET e INTERNET hacen de estos procesos el acontecer diario y de allí la relevancia e importancia de controlar adecuadamente estos procesos.

MATRICES DE DATOS.

Por matrices de datos entendemos las intersecciones entre dos vectores uno vertical y uno horizontal que dan origen a una celda de datos en donde se puede alojar información con diversas características, el conjunto de celdas relacionadas da origen a la matriz de datos. Un caso específico de aplicación de las matrices de datos son los programas que manejan hojas electrónicas de cálculo. La principal ventaja de la matriz consiste en los cálculos y en la obtención de resultantes a través de sumatorias.

Ejemplo de matriz de datos:

83

Page 84: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

EMPLEADO NOMBRE APELLIDO SALARIO IMPUESTO00001 PEDRO PICAPIEDRA B/. 1,000.00 B/. 43.5000002 JUAN PIEDRITA B/. 2,500.00 B/. 257.54

BASE DE DATOS (DATA BASE).

Una base o banco de datos es un conjunto de datos que pertenecen al mismo contexto almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta.

En la actualidad, y gracias al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos tienen formato electrónico, que ofrece un amplio rango de soluciones al problema de almacenar datos.

En informática existen los sistemas gestores de bases de datos (SGBD), que permiten almacenar y posteriormente acceder a los datos de forma rápida y estructurada. Las propiedades de los sistemas gestores de bases de datos se estudian en informática.

Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas. También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información experimental.

Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran protegidos por las leyes de varios países.

TIPOS DE BASES DE DATOS.

Las bases de datos pueden clasificarse de varias maneras, de acuerdo al criterio elegido para su clasificación:

Según la variabilidad de los datos almacenados

Bases de datos estáticas

Éstas son bases de datos de sólo lectura, utilizadas primordialmente para almacenar datos históricos que posteriormente se pueden utilizar para estudiar el comportamiento de un conjunto de datos a través del tiempo, realizar proyecciones y tomar decisiones.

Bases de datos dinámicas

Éstas son bases de datos donde la información almacenada se modifica con el tiempo, permitiendo operaciones como actualización y adición de datos, además de las operaciones fundamentales de consulta. Un ejemplo de esto puede ser la base de datos utilizada en un sistema de información de una tienda de abarrotes, una farmacia, un videoclub, etc.

84

Page 85: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Según el contenido

Bases de datos bibliográficas

Solo contienen un surrogante (representante) de la fuente primaria, que permite localizarla. Un registro típico de una base de datos bibliográfica contiene información sobre el autor, fecha de publicación, editorial, título, edición, de una determinada publicación, etc. Puede contener un resumen o extracto de la publicación original, pero nunca el texto completo, porque sino estaríamos en presencia de una base de datos a texto completo (o de fuentes primarias) [ver más abajo]Como su nombre lo indica, el contenido son cifras o números. Por ejemplo, una colección de resultados de análisis de laboratorio, entre otras.

Bases de datos de texto completo

Almacenan las fuentes primarias, como por ejemplo, todo el contenido de todas las ediciones de una colección de revistas científicas.

Directorios

Un ejemplo son las guías telefónicas en formato electrónico.

Banco de imágenes, audio, video, multimedia, etc.

Es aquel banco en el cual se guarda lo que es multimedio para poder usarse mas tarde

Bases de datos o "bibliotecas" de información Biológica

Son bases de datos que almacenan diferentes tipos de información proveniente de las ciencias de la vida o médicas. Se pueden considerar en varios subtipos:

• Aquellas que almacenan secuencias de nucleótidos o proteínas.• Las bases de datos de rutas metabólicas• Bases de datos de estructura, comprende los registros de datos

experimentales sobre estructuras 3D de biomoléculas• Bases de datos clínicas• Bases de datos bibliográficas (biológicas)

MODELOS DE BASES DE DATOS.

Además de la clasificación por la función de las bases de datos, éstas también se pueden clasificar de acuerdo a su modelo de administración de datos.

Un modelo de datos es básicamente una "descripción" de algo conocido como contenedor de datos (algo en donde se guarda la información), así como de los métodos para almacenar y recuperar información de esos contenedores. Los modelos de datos no son cosas físicas: son abstracciones que permiten la implementación de un sistema eficiente de base de datos; por lo general se refieren a algoritmos, y conceptos matemáticos.

85

Page 86: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Algunos modelos con frecuencia utilizados en las bases de datos:

Bases de datos jerárquicas

Éstas son bases de datos que, como su nombre indica, almacenan su información en una estructura jerárquica. En este modelo los datos se organizan en una forma similar a un árbol (visto al revés), en donde un nodo padre de información puede tener varios hijos. El nodo que no tiene padres es llamado raíz, y a los nodos que no tienen hijos se los conoce como hojas.

Las bases de datos jerárquicas son especialmente útiles en el caso de aplicaciones que manejan un gran volumen de información y datos muy compartidos permitiendo crear estructuras estables y de gran rendimiento.

Una de las principales limitaciones de este modelo es su incapacidad de representar eficientemente la redundancia de datos.

Bases de datos de red

Éste es un modelo ligeramente distinto del jerárquico; su diferencia fundamental es la modificación del concepto de nodo: se permite que un mismo nodo tenga varios padres (posibilidad no permitida en el modelo jerárquico).

Fue una gran mejora con respecto al modelo jerárquico, ya que ofrecía una solución eficiente al problema de redundancia de datos; pero, aun así, la dificultad que significa administrar la información en una base de datos de red ha significado que sea un modelo utilizado en su mayoría por programadores más que por usuarios finales.

Base de datos relacional

Éste es el modelo más utilizado en la actualidad para modelar problemas reales y administrar datos dinámicamente. Tras ser postulados sus fundamentos en 1970 por Edgar Frank Codd, de los laboratorios IBM en San José (California), no tardó en consolidarse como un nuevo paradigma en los modelos de base de datos. Su idea fundamental es el uso de "relaciones". Estas relaciones podrían considerarse en forma lógica como conjuntos de datos llamados "tuplas". Pese a que ésta es la teoría de las bases de datos relacionales creadas por Edgar Frank Codd, la mayoría de las veces se conceptualiza de una manera más fácil de imaginar. Esto es pensando en cada relación como si fuese una tabla que está compuesta por registros (las filas de una tabla), que representarían las tuplas, y campos (las columnas de una tabla).

En este modelo, el lugar y la forma en que se almacenen los datos no tienen relevancia (a diferencia de otros modelos como el jerárquico y el de red). Esto tiene la considerable ventaja de que es más fácil de entender y de utilizar para un usuario esporádico de la base de datos. La información puede ser recuperada o almacenada mediante "consultas" que ofrecen una amplia flexibilidad y poder para administrar la información.

86

Page 87: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

El lenguaje más habitual para construir las consultas a bases de datos relacionales es SQL, Structured Query Language o Lenguaje Estructurado de Consultas, un estándar implementado por los principales motores o sistemas de gestión de bases de datos relacionales.

Durante su diseño, una base de datos relacional pasa por un proceso al que se le conoce como normalización de una base de datos.

Durante los años '80 (1980-1989) la aparición de dBASE produjo una revolución en los lenguajes de programación y sistemas de administración de datos. Aunque nunca debe olvidarse que dBase no utilizaba SQL como lenguaje base para su gestión.

Bases de datos orientadas a objetos

Este modelo, bastante reciente, y propio de los modelos informáticos orientados a objetos, trata de almacenar en la base de datos los objetos completos (estado y comportamiento).

Una base de datos orientada a objetos es una base de datos que incorpora todos los conceptos importantes del paradigma de objetos:

• Encapsulación - Propiedad que permite ocultar la información al resto de los objetos, impidiendo así accesos incorrectos o conflictos.

• Herencia - Propiedad a través de la cual los objetos heredan comportamiento dentro de una jerarquía de clases.

• Polimorfismo - Propiedad de una operación mediante la cual puede ser aplicada a distintos tipos de objetos.

En bases de datos orientadas a objetos, los usuarios pueden definir operaciones sobre los datos como parte de la definición de la base de datos. Una operación (llamada función) se especifica en dos partes. La interfaz (o signatura) de una operación incluye el nombre de la operación y los tipos de datos de sus argumentos (o parámetros). La implementación (o método) de la operación se especifica separadamente y puede modificarse sin afectar la interfaz. Los programas de aplicación de los usuarios pueden operar sobre los datos invocando a dichas operaciones a través de sus nombres y argumentos, sea cual sea la forma en la que se han implementado. Esto podría denominarse independencia entre programas y operaciones.

Se está trabajando en SQL3, que es el estándar de SQL92 ampliado, que soportará los nuevos conceptos orientados a objetos y mantendría compatibilidad con SQL92.

Bases de datos documentales

Permiten la indexación a texto completo, y en líneas generales realizar búsquedas más potentes. Tesaurus es un sistema de índices optimizado para este tipo de bases de datos.

87

Page 88: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Base de datos deductivas

Un sistema de base de datos deductivas, es un sistema de base de datos pero con la diferencia de que permite hacer deducciones a través de inferencias. Se basa principalmente en reglas y hechos que son almacenados en la base de datos. También las bases de datos deductivas son llamadas base de datos lógica, a raíz de que se basan en lógica matemática.

Gestión de bases de datos distribuida

La base de datos está almacenada en varias computadoras conectadas en red. Surgen debido a la existencia física de organismos descentralizados. Esto les da la capacidad de unir las bases de datos de cada localidad y acceder así a distintas universidades, sucursales de tiendas, etcetera

MODELOS DE DATOS (DATA MODEL).

Un modelo de datos es una serie de conceptos que puede utilizarse para describir un conjunto de datos y las operaciones para manipularlos. Hay dos tipos de modelos de datos: los modelos conceptuales y los modelos lógicos. Los modelos conceptuales se utilizan para representar la realidad a un alto nivel de abstracción. Mediante los modelos conceptuales se puede construir una descripción de la realidad fácil de entender. En los modelos lógicos, las descripciones de los datos tienen una correspondencia sencilla con la estructura física de la base de datos.

En el diseño de bases de datos se usan primero los modelos conceptuales para lograr una descripción de alto nivel de la realidad, y luego se transforma el esquema conceptual en un esquema lógico. El motivo de realizar estas dos etapas es la dificultad de abstraer la estructura de una base de datos que presente cierta complejidad. Un esquema es un conjunto de representaciones lingüísticas o gráficas que describen la estructura de los datos de interés.

Los modelos conceptuales deben ser buenas herramientas para representar la realidad, por lo que deben poseer las siguientes cualidades:

• Expresividad: deben tener suficientes conceptos para expresar perfectamente la realidad.

• Simplicidad: deben ser simples para que los esquemas sean fáciles de entender.

• Minimalidad: cada concepto debe tener un significado distinto.• Formalidad: todos los conceptos deben tener una interpretación única,

precisa y bien definida.

En general, un modelo no es capaz de expresar todas las propiedades de una realidad determinada, por lo que hay que añadir aserciones que complementen el esquema.

ALMACENES DE DATOS (DATA WAREHOUSE).

88

Page 89: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

En el contexto de la Informática, un almacén de datos o data warehouse es una colección de datos orientadas a un dominio, integrado, no volátil y varía en el tiempo que ayuda a la toma de decisiones de la empresa u organización.

Un almacén de los datos es, sobre todo, un expediente de una empresa más allá de la información transaccional y operacional, almacenado en una base de datos diseñada para favorecer análisis y la divulgación eficientes de datos. El almacenamiento de los datos no debe usarse con datos de uso actual.

Los almacenes de los datos contienen a menudo grandes cantidades de información que se subdividen a veces en unidades lógicas más pequeñas llamadas los centros comerciales dependientes de los datos.

Generalmente, dos ideas básicas dirigen la creación de un almacén de los datos:

• Integración de los datos de bases de datos distribuidas y diferentemente estructuradas, que facilita una descripción global y un análisis comprensivo en el almacén de los datos.

• Separación de los datos usados en operaciones diarias de los datos usados en el almacén de los datos para los propósitos de la divulgación, de la ayuda en la toma de decisiones, para el análisis y para controlar.

Periódicamente, uno importa datos de sistemas del planeamiento del recurso de la empresa (ERP) y de otros sistemas de software relacionados al negocio en el almacén de los datos para la transformación posterior. Es práctica común "efectuar" datos antes de combinarla en un almacén de los datos. En este sentido, "de efectuar medios de los datos" de hacerlo cola para el proceso previo, generalmente con una herramienta de ETL. El programa del proceso previo lee los datos efectuados (a menudo bases de datos primarias de OLTP de un negocio), realiza el proceso previo cualitativo o la filtración (desnormalizacion, si juzga necesario incluyendo), y la escribe en el almacén.

ESTRUCTURA DE UN DATA WAREHOUSE

El ambiente de un Data Warehouse queda definido por la suma de los diferentes DataMarts integrados, no sólo a nivel físico sino también a nivel lógico.

Cubos De Información (DataMarts). Un DataMart es una vista lógica de los datos en bruto de su los datos provistos por su sistema de operaciones/finanzas hacia el Datawarehouse con la adición de nuevas dimensiones o información calculada. Se les llama DataMart, porque representan un conjunto de datos relacionados con un tema en particular como Ventas, Operaciones, Recursos Humanos, etc, y están a disposición de los "clientes" a quienes les puede interesar la misma. Esta información puede accesarse por el Ejecutivo (Dueño) mediante "Tablas Dinámicas" de MS-Excel o programas personalizados. Las Tablas Dinámicas le permiten manipular las vistas (cruces, filtrados, organización) de la información con mucha facilidad. Los cubos de información (DataMarts) se producen con mucha rapidez. A ellos se les aplican las reglas de seguridad de acceso necesarias La información estratégica está clasificada en: Dimensiones y Variables. El análisis está basado en las dimensiones y por lo

89

Page 90: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

tanto es llamado: Análisis multidimensional. Llevando estos conceptos a un DW: Un Data Warehouse es una colección de datos que está formada por Dimensiones y Variables, entendiendo como Dimensiones a aquellos elementos que participan en el análisis y Variables a los valores que se desean analizar.

Dimensiones. Son atributos relativos a las variables. Son las perspectivas de análisis de las variables. (Forman parte de la Dimension Table – Tabla de Dimensiones)

Variables. También llamadas “indicadores de gestión”, son los datos que están siendo analizados. Forman parte de la Fact Tabla (Tabla de Hecho) Más formalmente, las variables representan algún aspecto cuantificable o medible de los objetos o eventos a analizar. Normalmente, las variables son representadas por valores detallados y numéricos para cada instancia del objeto o evento medido. En forma contraria, las dimensiones son atributos relativos a la variables, y son utilizadas para ordenar, agrupar o abreviar los valores de las mismas. Las dimensiones poseen una granularidad menor, tomando como valores un conjunto de elementos menor que el de las variables.

FLUJOS DE DATOS (DATA WORKFLOW).

Los flujos de datos nos dan el recorrido que siguen los datos que forman las transacciones en procesos definidos. Están condicionados por las reglas de cumplimiento del flujo y generan un expediente de datos asociado al proceso realizado. Ejemplo:

V.- Tecnologías de Apoyo a la Gestión Empresarial.

Procesador de Texto (OFFICE, OPEN OFFICE).

Un procesador de textos es un programa informático para crear, componer, dar formato, modificar o imprimir documentos. Es el actual sustituto

90

Page 91: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

de las máquinas de escribir, aunque con mayor capacidad, ya que pueden incluirse imágenes y mezclar otros datos. También son conocidos como procesadores de palabras (de la traducción directa del inglés).

Hay una gran cantidad de diferentes programas, desde muy sencillos hasta completamente especializados. Se pueden subdividir en dos grupos: lo que tú ves es lo que recibes (en inglés: WYSIWYG what you see is what you get): como: Microsoft Word, OpenOffice.org Writer, WordPerfect o aquellos editores para sólo el contenido y la estructura como LyX.

Obtener un documento impreso con formato suele ser el objetivo de estas aplicaciones, pero el archivo de texto enriquecido que producen también es útil como documento electrónico.

Se distinguen de los editores de texto en que los procesadores pueden manejar texto con formato, imágenes, tablas y otros elementos que acompañan un documento de texto, mientras los editores sólo manejan archivos de texto plano.

Hojas Electrónicas de Cálculo.

Una hoja de trabajo es un recurso en forma de matriz que se utiliza para organizar datos numéricos y realizar cómputos con ellos para llevar a cabo análisis financieros. Puede haber la necesidad de actualizar esos datos numéricos con cierta regularidad.

Una hoja electrónica de trabajo es un programado que emula en forma electrónica la hoja de trabajo. Reemplaza los tres instrumentos típicos de trabajo de un analista financiero: la hoja de trabajo en papel, el lápiz y la calculadora. La hoja de trabajo es reemplazada por un conjunto de celdas dispuestas en filas y columnas (matriz) cuyo contenido se guarda en la memoria principal de la computadora; el lápiz queda reemplazado por el teclado y la unidad de aritmética y lógica reemplaza la calculadora.

Las hojas electrónicas de trabajo aumentan grandemente la eficiencia, precisión y productividad del usuario. Una vez la hoja ha sido preparada, se pueden realizar comparaciones haciendo cambios en ella (qué pasa si...) y recalculando automáticamente a base de los valores nuevos que han sido entrados. Esto le deja más tiempo al usuario para realizar decisiones creativas.

Una hoja electrónica es muy útil cuando se utiliza para hacer contabilidad, gráficos de estadística, facturas, cotizaciones, proporcionalidades, entre otros.

En una hoja de calculo se pueden utilizar funciones, las cuales sirven para hacer mas fácilmente las labores que cotidianamente es difícil ejecutar. Algunas de estas funciones y sus tareas que desempeñan son: SUMAR, SUMAR.SI, SI, FECHA, etc.

Graficadores.Los graficadores son programas que permiten representar los datos,

agrupados en tablas, mediante graficas de distintos tipos como son: de barras,

91

Page 92: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

lineales, circulares, logarítmicas, 3D y otros tipos. Ejemplo de programas que permiten graficar tablas de datos son: excel, corel, 3d y otros.

Administradores de Bases de Datos.Los Sistemas Gestores de Bases de Datos son un tipo de software muy

específico, dedicado a servir de interfaz entre la Base de datos y el usuario, las aplicaciones que la utilizan. Se compone de un lenguaje de definición de datos, de un lenguaje de manipulación de datos y de un lenguaje de consulta. En los textos que tratan este tema, o temas relacionados, se mencionan los términos SGBD y DBMS, siendo ambos equivalentes, y acrónimos, respectivamente, de Sistema Gestor de Bases de Datos y DataBase Management System, su expresión inglesa

Generadores de código HTML Y XML (Páginas WEB, PORTALES). El HTML, acrónimo inglés de HyperText Markup Language (lenguaje de marcado de hipertexto), es un lenguaje de marcación diseñado para estructurar textos y presentarlos en forma de hipertexto, que es el formato estándar de las páginas web. Gracias a Internet y a los navegadores del tipo Internet Explorer, Opera, Firefox o Netscape, el HTML se ha convertido en uno de los formatos más populares que existen para la construcción de documentos y también de los más fáciles de aprender.

HTML es una aplicación de SGML conforme al estándar internacional ISO 8879. XHTML es una reformulación de HTML 4 como aplicación XML 1.0, y que supone la base para la evolución estable de este lenguaje. Además XHTML permite la compatibilidad con los agentes de usuario que ya admitían HTML 4 siguiendo un conjunto de reglas.

INTERNET (Internet Explorer, Mozilla Firefox, Netscape).Un navegador web, hojeador o browser es una aplicación software que

permite al usuario recuperar y visualizar documentos de hipertexto, comúnmente descritos en HTML, desde servidores web de todo el mundo a través de Internet. Esta red de documentos es denominada World Wide Web (WWW) o Telaraña Mundial. Los navegadores actuales permiten mostrar o ejecutar: gráficos, secuencias de vídeo, sonido, animaciones y programas diversos además del texto y los hipervínculos o enlaces.

La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que este conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados páginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen.

El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a la Internet, se llama navegación; que es de donde se origina el nombre de navegador. Por otro lado, hojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritario. Otra denominación

92

Page 93: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

es explorador web inspirada en uno de los navegadores más populares el Internet Explorer.Portales y Tiendas Virtuales (Sitios web).

Un sitio web (en inglés: website) es un conjunto de páginas web, típicamente comunes a un dominio de Internet o sub dominio en la World Wide Web en Internet

Hoy en día, hay más de 80 millones de sitios web en el mundo con dominios registrados. Todos los sitios web públicamente accesibles constituyen una gigantesca "World Wide Web" de información.

A las páginas de un sitio web se accede desde una URL raíz común llamada portada, que normalmente reside en el mismo servidor físico. Las URLs organizan las páginas en una jerarquía, aunque los hiperenlaces entre ellas controlan cómo el lector percibe la estructura general y cómo el tráfico web fluye entre las diferentes partes de los sitios.

Hay muchas variedades de sitios web, cada uno especializándose en un tipo particular de contenido o uso, y puede ser arbitrariamente clasificados de muchas maneras. Unas pocas clasificaciones pueden incluir:

• Sitio archivo: usado para preservar contenido electrónico valioso amenzado con extinción. Dos ejemplos son: Internet Archive, el cual desde 1996 ha preservado billones de antiguas (y nuevas) páginas web; y Google Groups, que a principios de 2005 archivaba más de 845.000.000 mensajes expuestos en los grupos de noticias/discusión de Usenet.

• Sitio weblog (o blog): sitio usado para registrar lecturas online o para exponer diarios online; puede incluir foros de discusión. Ejemplos: blogger, Xanga.

• Sitio de empresa: usado para promocionar una empresa o servicio.• Sitio de comercio electrónico: para comprar bienes, como Amazon.com.• Sitio de comunidad virtual: un sitio donde las personas con intereses

similares se comunican con otros, normalmente por chat o foros. Por ejemplo: MySpace.

• Sitio de Base de datos: un sitio donde el uso principal es la búsqueda y muestra de un contenido específica de la base de datos como la Internet Movie Database.

• Sitio de desarrollo: un sitio el propósito del cual es proporcionar información y recursos relacionados con el desarrollo de software, Diseño web, etc.

• Sitio directorio: un sitio que contiene contenidos variados que están divididos en categorías y subcategorías, como el directorio de Yahoo!, el directorio de Google y el Open Directory Project.

• Sitio de descargas: estrictamente usado para descargar contenido electrónico, como software, demos de juegos o fondos de escritorio.

• Sitio de juego: un sitio que es propiamente un juego o un "patio de recreo" donde mucha gente viene a jugar, como MSN Games, Pogo.com y los MMORPGs VidaJurasica, Planetarion y Kings of Chaos.

93

Page 94: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

• Sitio de información: contiene contenido que pretende informar a los visitantes, pero no necesariamente de propósitos comerciales; such as: RateMyProfessors.com, Free Internet Lexicon and Encyclopedia. La mayoría de los gobiernos y instituciones educacionales y sin ánimo de lucro tienen un sitio de información.

• Sitio de noticias: Similar a un sitio de información, pero dedicada a mostrar noticias y comentarios.

• Sitio pornográfico (porno): un sitio que muestra imágenes pornográficas y vídeos.

• Sitio buscador: un sitio que proporciona información general y está pensado como entrada o búsqueda para otros sitios. Un ejemplo puro es Google, y el tipo de buscador más conocido es Yahoo!.

• Sitio shock: incluye imágenes o otro material que tiene la intención de ser ofensivo a la mayoría de visitantes. Ejemplos: rotten.com, ratemypoo.com.

• Sitio personal: Mantenido por una persona o un pequeño grupo (como por ejemplo familia) que contiene información o cualquier contenido que la persona quiere incluir.

• Sitio portal: un sitio web que proporciona un punto de inicio, entrada o portal a otros recursos en Internet o una intranet.

• Sitio wiki: un sitio donde los usuarios editan colaborativamente (por ejemplo: Wikipedia).

• Sitio político: un sitio web donde la gente puede manifestar su visión política. Ejemplo: New Confederacy.

• Sitio de Rating: un sitio donde la gente puede alabar o menospreciar lo que aparece. Ejemplos: ratemycar.com, ratemygun.com, ratemypet.com, hotornot.com.

Correo Electrónico.

Correo electrónico, o en inglés e-mail, es un servicio de red para permitir a los usuarios enviar y recibir mensajes mediante sistemas de comunicación electrónicos (normalmente por Internet). Esto lo hace muy útil comparado con el correo ordinario, pues es más barato y rápido. Junto con los mensajes también pueden ser enviados ficheros como paquetes adjuntos.

Dirección de correo. Una dirección de correo electrónico es un conjunto de palabras que identifican a una persona que puede enviar y recibir correo. Cada dirección es única y

pertenece siempre a la misma persona.

Un ejemplo es [email protected], que se lee perico arroba palotes punto com. El signo @ (llamado arroba) siempre está en cada dirección de correo, y la divide en dos partes: el nombre de usuario (a la izquierda de la arroba; en este caso, perico), y el dominio en el que está (lo de la derecha de la arroba; en este caso, palotes.com). La arroba también se puede leer "en", ya que

94

Page 95: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

[email protected] identifica al usuario perico que está en el servidor palotes.com (indica una relación de pertenencia).

Una dirección de correo se reconoce fácilmente porque siempre tiene la @; en cambio, una dirección de página web no. Por ejemplo, mientras que http://www.palotes.com/ puede ser una página web en donde hay información (como en un libro), [email protected] es la dirección de un correo: un buzón a donde se puede escribir.

Lo que hay a la derecha de la arroba es precisamente el nombre del proveedor que da el correo, y por tanto es algo que el usuario no puede cambiar. Por otro lado, lo que hay la izquierda normalmente sí que lo elige el usuario, y es un identificador cualquiera, que puede tener letras, números, y algunos signos.

Normalmente se eligen direcciones fáciles de memorizar -si es posible- ya que es común apuntar o decirle a alguien la dirección de correo propia para que pueda escribirnos, y hay que darla de forma exacta, letra por letra. Un solo error hará que no lleguen los mensajes al destino.

Proveedor de correo. Para poder usar enviar y recibir correo electrónico, generalmente hay que estar registrado en alguna empresa que ofrezca este servicio (gratuita o de pago). El registro permite tener una dirección de correo personal única y duradera, a la que se puede acceder mediante un nombre de usuario y una contraseña. Hay varios tipos de proveedores de correo, que se diferencian sobre todo por la calidad del servicio que ofrecen. Básicamente, se pueden dividir en dos tipos: los correos gratuitos y los de pago.

Agenda Electrónica.La agenda de papel ya se ha quedado rezagada con respecto al avance

electrónico moderno. Las agendas electrónicas son equipos que permiten consultar números de teléfonos y direcciones, hacer operaciones con su calculadora, convertir monedas e incluso descargar aplicaciones desde su ordenador o Internet.

Posibilidad de conexión con el PC. Permite al usuario transferir la información de la agenda a la computadora y viceversa. De esta manera, si la agenda sufre algún desperfecto o se pierde, la información se encontrará a salvo en el ordenador (direcciones, eventos, etc.). Tenga en cuenta que el cable que permite esta conexión no siempre está incluido dentro del precio.

Posibilidad de conexión a Internet. Los nuevos organizadores digitales hacen posible la navegación por Internet. La única limitación es que, de momento, sólo pueden hacerlo con la escasa velocidad de la red GCM, por lo cual la consulta puede verse muy ralentizada. Este tipo de agendas es adecuada para aquellas personas que trabajan mucho tiempo fuera de la oficina, ya que permiten la consulta del correo electrónico.

Capacidad de memoria. Determina la cantidad de datos que puede almacenar el aparato. A modo comparativo 8MB de memoria permiten almacenar hasta 10.000 direcciones. El precio irá incrementando en función de esta capacidad de memoria. Cada comprador, en función de sus necesidades, debe buscar un equilibrio entre el precio y la posibilidades de trabajo que ofrece

95

Page 96: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

una agenda con mayor capacidad. Calidad de la pantalla. Es conveniente que posea una pantalla de fondo

luminoso que permita acceder a las distintas funciones a través de un menú táctil.

Reconocimiento de la escritura. La agenda puede contar con un lápiz especial para escribir en la pantalla de manera que su uso sea más cómodo y ventajoso.

Posibilidad de utilizar un teclado. Con el teclado, el uso de la agenda resultará más práctico. Si su usuario suele escribir habitualmente, el teclado facilitará su trabajo al mismo tiempo que lo acelera.

Tamaño y peso. Todas estas funciones deben concentrarse es un aparato que un tamaño y peso reducido. Es conveniente que la agenda electrónica no pese más de 200 gramos.

Facilidad de manejo. La agenda debe permitir un acceso a los diferentes menús de forma cómoda, efectuar anotaciones de forma rápida o la posibilidad de ver de un solo vistazo la planificación.

Clave de acceso. Con una clave de acceso, la información que contenga la agenda está protegida en caso de pérdida o robo. de toda la jornada. Todas estas funciones garantizan la funcionalidad del aparato. Archivo Electrónico. Características de un sistema de archivo electrónico de última generación:

1. Es una solución integrada, capaz de gestionar papel, documentos electrónicos y documentos multimedia que integre el proceso de reconocimiento óptico de caracteres (OCR) y el escaner como un solo producto, compacto que no requiera desarrollos añadidos.

2. Indexa automáticamente la totalidad del contenido de los documentos, mediante el reconocimiento adaptativo de patrones de dígitos binarios, que corresponden a cada palabra, trozo de palabra o frase del contenido del documento, sobre una estructura de REDES NEURONALES; sin requerir ninguna intervención externa.

3. Los índices generados son muy pequeños, de manera que índices y textos están disponibles en disco magnético pudiendo gestionar grandes volúmenes de información con independencia de donde residan los datos.

4. Integra un interface a las bases de datos relacionales más extendidas del mercado: Oracle, Informix...

5. La relación entre la imagen de un documento, el texto del documento generado por el OCR y la base de datos relacional asociada al documento es automática y dinámica.

6. Puede buscar por texto libre con gran velocidad y tolerancia a fallos-BÚSQUEDA DIFUSA-de manera que los textos generados por el OCR no requieran limpieza manual. La búsqueda difusa permite que los errores de un operador o el desconocimiento de la ortografía correcta de una palabra (sea el caso de un tecnicismo o un apellido extranjero) no resulten fatalmente determinantes.

El potente grado de automatización de estos sistemas nos reporta un gran incremento de productividad, ya que los datos están disponibles para su recuperación a la vez que son introducidos al sistema.

96

Page 97: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Con sistema de esta naturaleza se abre un nuevo horizonte al deseo, hasta ahora insatisfecho, de la automatización completa de la gestión documental; y más teniendo en cuenta que esta nueva generación de tecnología a dado recientemente su primer fruto como producto ya presente en el mercado.

Seguridad y Control de Redes de Computadoras. El término "redes de computadoras" puede referirse tanto a dos

computadoras conectadas entre si, como a Redes de Área Local (LANs), y hasta a la propia Internet - la "red de redes".

Las redes pueden ayudar para que las organizaciones trabajen en colaboración mediante el intercambio de información, y también pueden permitir que compartan recursos como las impresoras. La seguridad y la privacidad en línea debería ser una preocupación de todo usuario de Internet. Si su organización opera una red o un servidor Internet, mecanismos confiables de seguridad como "firewalls" (cortafuegos) son esenciales.

Los principales ataques a los sistemas provienen de la red. Proteger la misma de intrusiones no deseadas es, por tanto, uno de los objetivos prioritarios que un administrador debe proponerse. Lista de temas que debes tener en cuenta a la hora de proteger tu red.

Seguridad en Redes IP: Windows IP Security, del Internet Engineering Task Force, proporciona a los administradores de redes un elemento estratégico de defensa para la protección de sus redes. Firewalls / Proxys: Descubre como mejorar el funcionamiento y la seguridad de tu red a través de estos dispositivos. Servicios de Autentificación en Redes: Infórmate de las formas de autentificación de un usuario en Red. Y de cómo utilizar .NET Passport para autentificarse en Internet. Seguridad en .NET: Descubre los pilares básicos de seguridad que incorpora .NET Framework.

VI.- El ambiente Multimedia y la Era Digital.

Procesamiento de Voz.La importancia que siempre ha tenido la voz en el proceso de

comunicación humana se ve, en nuestros días, incrementada por el rápido avance tecnológico. La enorme cantidad de posibilidades que la tecnología digital, basada en el desarrollo de microprocesadores cada vez más potentes, ofrece, hace que las aplicaciones de procesamiento digital de señales se multipliquen. Entre estas aplicaciones, las que involucran señales de voz han permitido disponer de un conjunto de servicios que hasta hace algunos años eran impensables. Redes de integración de voz y datos, diálogo hombre-máquina, síntesis a partir de texto, identificación/verificación de locutores, son algunos ejemplos de los logros alcanzados por el procesado digital de señales de voz.

Procesamiento de Imagen.

97

Page 98: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Procesamiento de imágenes es el término usado para denominar las operaciones desarrolladas sobre un set de datos de imagen para mejorarlas de alguna forma, para ayudar a su interpretación o para extraer algún tipo de información útil de ella. Es obvio que el procesamiento de imágenes no puede producir información a partir de nada. Si en el set de datos no existe información concerniente a una aplicación o interpretación en particular, entonces no importa que cantidad de complicadas rutinas de procesamiento apliquemos, no se podrá obtener información. Es de gran importancia tener en cuenta que lo que estamos observando es una representación gráfica de números, de igual forma podríamos representar los datos de satélite en forma de tabla.

Los datos satélitales, dependiéndo de su tamaño pueden venir en CCT (Computer Compatible Tape), cintas de 8 o 4 mm (DAT), CDROM o descargarse por FTP (File Transfer Protocol, el cual corre en protocolo TCP/IP). El medio a seleccionar dependerá del tamaño del archivo usado y la frecuencia de acceso a dichos datos. Si los datos serán usados con frecuencia un CDROM es lo más conveniente, pero si serán archivados como base de datos histórica, la elección se inclina hacia las cintas.

La digitalización deja los datos con un formato adecuado para su manipulación por parte del computador. Éstos pueden ser ahora transformados en cualquier función matemática elegida. Cada sistema de procesamiento de imágenes tiene su propio software asociado, cada uno desarrollando una tarea diferente. La secuencia de tareas aplicadas a una imagen se denomina como procesamiento de imágenes, la cual puede variar dependiendo de las metas que se tengan en vista. A continuación se da una lista de técnicas básicas actualmente usadas en procesamiento de imágenes.

Procesamiento de Sonido.Los aparatos procesadores utilizan un sonido, recogido mediante

micrófono o sintetizado, y lo transforman en otro. Para ello existen en el mercado los aparatos de efectos, cada uno de los cuales está especializado en un solo tipo de proceso. Sin embargo, es más sencillo centrarse en los métodos más que en los aparatos concretos, ya que actualmente aparecen nuevos dispositivos que incluyen varios procesadores y además se empieza a extender el uso del ordenador para este fin.

La palabra MIDI es un acrónimo de Musical Instrument Digital Interface, lenguaje estándar que permite la comunicación entre diversos tipos de instrumentos electrónicos, como sintetizadores, cajas de ritmos, ordenadores, etc. aunque no sean del mismo fabricante. Hasta su aparición, en 1983, cada sistema utilizaba un microprocesador diferente y un lenguaje distinto, con lo que la comunicación entre los instrumentos era imposible.

Firmas Electrónicas y certificados digitales.La firma digital de un documento es el resultado de aplicar cierto

algoritmo matemático, denominado función hash, al contenido. Esta función asocia un valor dentro de un conjunto finito (generalmente los números naturales) a su entrada. Cuando la entrada es un documento, el resultado de la función es un número que identifica casi unívocamente al texto. Si se adjunta este número al texto, el destinatario puede aplicar de nuevo la función y comprobar su resultado con el que ha recibido. No obstante esto presenta algunas dificultades.

98

Page 99: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Para que sea de utilidad, la función hash debe satisfacer dos importantes requisitos. Primero, debe ser difícil encontrar dos documentos cuyo valor para la función "hash" sea idéntico. Segundo, dado uno de estos valores, debería ser difícil recuperar el documento que lo produjo.

Algunos sistemas de cifrado de clave pública se pueden usar para firmar documentos. El firmante cifra el documento con su clave privada y cualquiera que quiera comprobar la firma y ver el documento, no tiene más que usar la clave pública del firmante para descifrarla.

Existen funciones "hash" específicamente designadas para satisfacer estas dos importantes propiedades. SHA y MD5 son dos ejemplos de este tipo de algoritmos. Para usarlos un documento se firma con una función "hash", cuyo resultado es la firma. Otra persona puede comprobar la firma aplicando la misma función a su copia del documento y comparando el resultado con el del documento original. Si concuerdan, es casi seguro que los documentos son idénticos.

Claro que el problema está en usar una función "hash" para firmas digitales que no permita que un "atacante" interfiera en la comprobación de la firma. Si el documento y la firma se enviaran descifrados, este individuo podría modificar el documento y generar una firma correspondiente sin que lo supiera el destinatario. Si sólo se cifrara el documento, un atacante podría manipular la firma y hacer que la comprobación de ésta fallara. Una tercera opción es usar un sistema de cifrado híbrido para cifrar tanto la firma como el documento. El firmante usa su clave privada, y cualquiera puede usar su clave pública para comprobar la firma y el documento. Esto suena bien, pero en realidad no tiene sentido. Si este algoritmo hiciera el documento seguro también lo aseguraría de manipulaciones, y no habría necesidad de firmarlo. El problema más serio es que esto no protege de manipulaciones ni a la firma, ni al documento. Con este método, sólo la clave de sesión del sistema de cifrado simétrico es cifrada usando la clave privada del firmante. Cualquiera puede usar la clave pública y recuperar la clave de sesión. Por lo tanto, resulta obvio usarla para cifrar documentos substitutos y firmas para enviarlas a terceros en nombre del remitente.

Un algoritmo efectivo debe hacer uso de un sistema de clave pública para cifrar sólo la firma. En particular, el valor "hash" se cifra mediante el uso de la clave privada del firmante, de modo que cualquiera pueda comprobar la firma usando la clave pública correspondiente. El documento firmado se puede enviar usando cualquier otro algoritmo de cifrado, o incluso ninguno si es un documento público. Si el documento se modifica, la comprobación de la firma fallará, pero esto es precisamente lo que la verificación se supone que debe descubrir.

El Mundo Futuro y la digitalización de los Procesos.Debemos entender la revolución tecnológica como una evolución que

sigue un patrón recurrente que se ha repetido a lo largo de la historia. Nos encontramos en un período entre eras, en el que se pone en duda la continuidad del comercio electrónico, cuando aún está en su inicio. Para ver cómo se

99

Page 100: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

estructura la realidad del negocio electrónico (e-business) en nuestros días dentro y fuera de la empresa, aplicaremos conceptos económicos, como el ciclo boom-bust y los procesos de adopción, y veremos que los ciclos tecnológicos se suceden con mucha rapidez, lo que requiere una gestión creativa de los procesos. En el ámbito de las pymes, la digitalización de las empresas acaba de empezar. La dificultad de digitalizar entornos como el B2B es debida a la complejidad de los procesos que lo conforman –no a la tecnología, que tiene capacidad adaptativa– y a nuestra incapacidad para entender la complejidad.

La clave de la digitalización dentro de la empresa es la integración interna de todas las partes que conforman el negocio electrónico, y la integración entre múltiples canales fuera de la empresa. Es necesario, pues, un modelo empresarial que mediante la innovación busque vínculos que enlacen, sincronicen y completen todo el proceso, a la vez que lo hagan eficaz. La mala ejecución de las estrategias también es un punto débil en el ámbito del negocio electrónico, ya que se tiende a tener una visión del proceso que no corresponde con la realidad y a olvidar la ejecución de estrategias medianas. Sin embargo, los cambios estructurales no cesarán y esto es sólo el inicio de un nuevo período que debemos afrontar con una nueva mentalidad. El Comercio Electrónico e-Commerce.

El comercio electrónico consiste en la compra, venta, marketing y suministro de información complementaria para productos o servicios a través de redes informáticas. La industria de la tecnología de la información podría verlo como una aplicación informática dirigida a realizar transacciones comerciales. Una definición alternativa la vería como la conducción de comunicaciones de negocios comerciales y su dirección a través de métodos electrónicos como intercambio electrónico de datos y sistemas automáticos de recolección de datos. El comercio electrónico también incluye la transferencia de información entre empresas (EDI).

El significado del término "comercio electrónico" ha cambiado a lo largo del tiempo. Originariamente, "comercio electrónico" significaba la facilitación de transacciones comerciales electrónicamente, normalmente utilizando tecnología como la Electronic Data Interchange (EDI, presentada finales de los años 70) para enviar electrónicamente documentos como pedidos de compra o facturas.

Más tarde pasó a incluir actividades más precisamente denominadas "Comercio en la red" -- la compra de bienes y servicios a través de la World Wide Web vía servidores seguros (véase HTTPS, un protocolo de servidor especial que encripta la realización confidencial de pedidos para la protección de los consumidores y los datos de la organización) con tarjetas de compra electrónica y con servicios de pago electrónico como autorizaciones para tarjeta de crédito.

Se diferencia al comercio electrónico directo (que, por referirse a bienes o servicios digitales, se concerta y ejecuta completamente por vía informática) del indirecto (referido a bienes o servicios físicos que aun cuando permitan una celebración por medios tecnológicos, requieren del medio físico tradicional para su cumplimiento). También se suele categorizar en comercio electrónico de

100

Page 101: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

empresa a empresa (B2B), de empresa a consumidor (B2C), de consumidor a consumidor (C2C) o entre empresa y Gobierno (B2G).

VII.- Los Sistemas de Información Gerenciales Digitalizados.

Estructura de los Sistemas Inteligentes. (Edificios Inteligentes).

Definición. Por lo difícil de dar con exactitud una definición sobre un edificio inteligente, se citarán diferentes conceptos, de acuerdo a la compañía, institución o profesional que la enuncia:

-Intelligent Building Institute (IBI), Washington, D.C., E.U.Un edificio inteligente es aquel que proporciona un ambiente de trabajo productivo y eficiente a través de la optimización de sus cuatro elementos básicos: estructura, sistemas, servicios y administración, con las interrelaciones entre ellos. Los edificios inteligentes ayudan a los propietarios, operadores y ocupantes, a realizar sus propósitos en términos de costo, confort, comodidad, seguridad, flexibilidad y comercialización.

-Compañía HoneywelI, S.A. de C. V., México, D.F.Se considera como edificio inteligente aquél que posee un diseño adecuado que maximiza la funcionalidad y eficiencia en favor de los ocupantes, permitiendo la incorporación y/o modificación de los elementos necesarios para el desarrollo de la actividad cotidiana, con la finalidad de lograr un costo mínimo de ocupación, extender su ciclo de vida y garantizar una mayor productividad estimulada por un ambiente de máximo confort.

-Compañía AT&T, S.A. de C.V., México, D.F.Un edificio es inteligente cuando las capacidades necesarias para lograr que el costo de un ciclo de vida sea el óptimo en ocupación e incremento de la productividad, sean inherentes en el diseño y administración del edificio.

Para nosotros, un edificio inteligente aquél cuya regularización, supervisión y control del conjunto de las instalaciones eléctrica, de seguridad, informática y transporte, entre otras, se realizan en forma integrada y automatizada, con la finalidad de lograr una mayor eficacia operativa y, al mismo tiempo, un mayor confort y seguridad para el usuario, al satisfacer sus requerimientos presentes y futuros. Esto sería posible mediante un diseño arquitectónico totalmente funcional, modular y flexible, que garantice una mayor estimulación en el trabajo y, por consiguiente, una mayor producción laboral.

Los objetivos o finalidad de un edificio inteligente, son los siguientes:

a) Satisfacer las necesidades presentes y futuras de los ocupantes, propietarios y operadores del edificio.

b) La flexibilidad, tanto en la estructura como en los sistemas y servicios.

c) El diseño arquitectónico adecuado y correcto.

d) La funcionalidad del edificio.

101

Page 102: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

e) La modularidad de la estructura e instalaciones del edificio.

f) Mayor confort para el usuario.

g) La no interrupción del trabajo de terceros en los cambios o modificaciones.

h) El incremento de la seguridad.

i) El incremento de la estimulación en el trabajo.

j) La humanización de la oficina.

Tecnológicos

a) La disponibilidad de medios técnicos avanzados de telecomunicaciones. b) La automatización de las instalaciones.c) La integración de servicios

Ambientales

a) La creación de un edificio saludable. b)El ahorro energético.c) El cuidado del medio ambiente.

Económicos

a) La reducción de los altos costos de operación y mantenimiento.

b) Beneficios económicos para la cartera del cliente.

c) Incremento de la vida útil del edificio.

d) La posibilidad de cobrar precios más altos por la renta o venta de espacios.

e) La relación costo-beneficio.

f) El incremento del prestigio de la compañía.

INFRAESTRUCTURA DEL SISTEMA INTELIGENTE.

a) La estructura del edificio. Todo lo que se refiere a la estructura y diseño arquitectónico, incluyendo los acabados y mobiliario. Entre sus componentes están: la altura de losa a losa, la utilización de pisos elevados y plafones registrables, cancelería, ductos y registros para las instalaciones, tratamiento de fachadas, utilización de materiales a prueba de fuego, acabados, mobiliario y ductos para cableado y electricidad.

b) Los sistemas del edificio. Son todas las instalaciones que integran un edificio. Entre sus componentes están: aire acondicionado, calefacción y ventilación, energía eléctrica e iluminación, controladores y cableado, elevadores y escaleras mecánicas, seguridad y control de

102

Page 103: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

acceso, seguridad contra incendios y humo, telecomunicaciones, instalaciones hidráulicas, sanitarias y seguridad contra inundación.

c) Los servicios del edificio. Como su nombre lo indica, son los servicios o facilidades que ofrecerá el edificio. Entre sus componentes están: comunicaciones de video, voz y datos; automatización de oficinas; salas de juntas y cómputo compartidas; área de fax y fotocopiado; correo electrónico y de voz; seguridad por medio del personal; limpieza; estacionamiento; escritorio de información en el lobby o directorio del edificio; facilidad en el cambio de teléfonos y equipos de computación; centro de conferencias y auditorio compartidos, y videoconferencias.

d) La administración del edificio. Se refiere a todo lo que tiene que ver con la operación del mismo. Entre sus variables están: mantenimiento, administración de inventarios, reportes de energía y eficiencia, análisis de tendencias, administración y mantenimiento de servicios y sistemas. La optimización de cada uno de estos elementos y la interrelación o coordinación entre sí, es lo que determinará la inteligencia del edificio.

Sistemas de Control y Seguridad Digitalizados.

La seguridad está dada por la prevención, detección y solución de accidentes o imprevistos. Para prevenir y evitar pérdidas y acciones hostiles, cada vez más complejos sistemas de control de los accesos integran desde identificación por sofisticadas tecnologías biométricas hasta los casos más novedosos de control de entrada y salida, tanto peatonal como vehicular, con habilitación a través de una tarjeta de proximidad, de utilización obligatoria para empleados y visitantes, para registrar los movimientos de las personas en el interior del edificio, en combinación con los demás sistemas del mismo.

En algunos casos, hay códigos de accesos a todas las puertas internas, para evitar intrusos en caso de robos o extravíos de las tarjetas, y un circuito cerrado de televisión (CCTV), que mediante un registro en cinta o completamente digital, permite almacenar las grabaciones durante un mínimo de 15 días.

También se monitorean los sensores de flujos luminosos con medición permanente del nivel de iluminación, que según sea el ingreso de luz natural, accionan los atenuadores de luz (dimmers) de todo el edificio, haciendo que se apaguen o se atenúen las que no son necesarias, y en algunos casos ¡hasta se las puede gobernar mediante una orden verbal.

En todos los sistemas puede programarse que se realicen determinados llamados telefónicos para alertar de la ocurrencia de algún evento peligroso o que al entrar en cada departamento se identifique al dueño, desactive el sistema de seguridad y establezca la iluminación seleccionada.

Además puede aprovecharse la red interna del sistema para que provea acceso a los servicios de Internet de alta velocidad, videotelefonía, vídeo bajo demanda, videoconferencia, tele trabajo y trabajo cooperativo.

Fraude y Violaciones a la Seguridad.

Estos conceptos manejados por fabricantes y especialistas tienen diferentes nombres:

103

Page 104: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

Agujero de seguridad.- Es un error en el sistema operativo o alguna aplicación que pone en riesgo la seguridad del equipo.

Adware.-Es un programa que se instala en la PC y abre ventanas con contenido publicitario pero también puede robar información.

Alias.-Es el nombre alternativo que puede tener un virus, por lo general estos tienen diferentes alias.

ActiveX.-Son pequeños programas que tienen funciones específicas y pueden ser usados como componentes independientes y de estos se han descubierto vulnerabilidades que han sido usadas por virus y gusanos para su reproducción.

Bulos o hoaxes.-Es un mensaje que te alerta sobre un virus que no existe.

Backdoor.-Así se le llama al troyano que instala una puerta trasera (backdoor) para abrir paso a los intrusos y tomar el control de una PC infectada.

Bots.-Programas que se instalan automáticamente para tener el control de la PC.

Firewall.-Programa o dispositivo que analiza los datos que entran y salen del equipo para protegerlo de virus.

Keyloggers.-Son programas que tienen un registro de las teclas presionadas por el usuario. (comúnmente son usados por delincuentes para fraudes u obtener información confidencial).

Parche.-Son actualizaciones (updates) que solucionan problemas como agujeros de seguridad en sistemas operativos o aplicaciones.

Phishing.-Son ganchos que se valen de distribuir mensajes de correo invitando a acceder a sitios falsos para obtener información confidencial.

Scam.-Son mensajes que se usan con el fin de convencer a los usuarios de realizar ayuda de carácter social por medio de donativos.

Spyware.-Es un programa que se instala en la PC y crea una línea de comunicación que permite al atacante obtener datos confidenciales del usuario (passwords, números de tarjetas, etc.)

WebBugs.-El término significa pequeños micrófonos de espionaje.

Por supuesto en el medio de la tecnología estos son solo algunos de los términos

104

Page 105: INFORMÁTICA APLICADa A LA administración de …jorgekarica.tripod.com/sitebuildercontent/sitebuilderfiles/texto... · INFORMÁTICA APLICADA INTRODUCCIÓN El mundo moderno ha ocasionado,

utilizados, hay muchos más pero lo importante es conocerlos para estar siempre actualizado y protegido.

105