Resumen_I..

142
PSGT 08 Introducción Básica a I.T 1 Distribuidora Electrónica S.A. Exposición Técnica/Capacitación Introducción Básica a I.T. Autores: David Quinto Michael Miranda Stuardo Sagastume Willmar Tecun Edy Arevalo Esdras Sales Practicantes PSGT 08 Guatemala, 07-05-2008

Transcript of Resumen_I..

PSGT 08 Introducción Básica a I.T

1

Distribuidora Electrónica S.A. Exposición Técnica/Capacitación

Introducción Básica a I.T.

Autores: David Quinto

Michael Miranda Stuardo Sagastume

Willmar Tecun Edy Arevalo Esdras Sales

Practicantes PSGT 08

Guatemala, 07-05-2008

PSGT 08 Introducción Básica a I.T

2

\ÇàÜÉwâvv|™Ç Las TIC se encargan del diseño, desarrollo, fomento, mantenimiento y administración de la información por medio de sistemas informáticos y de comunicación. Esto incluye todos los sistemas informáticos no solamente las computadoras, éstas son sólo un medio más, el más versátil, pero no el único; también las redes de telecomunicaciones, telemática, los teléfonos celulares, la televisión, la radio, los periódicos digitales, faxes, dispositivos portátiles, etc. Todas esas herramientas electrónicas de primera mano son de carácter determinante en la vida de todo profesional, sobre todo en el docente pues es él, el que se encargará de difundir la importancia de esta nueva tecnología. Las TIC se conciben como el universo de dos conjuntos, representados por las tradicionales Tecnologías de la Comunicación (TC) - constituidas principalmente por la radio, la televisión y la telefonía convencional - y por las Tecnologías de la información (TI) caracterizadas por la digitalización de las tecnologías de registros de contenidos (informática, de las comunicaciones, telemática y de las interfaces)”.

PSGT 08 Introducción Básica a I.T

3

gxvÇÉÄÉz•tá wx Ät \ÇyÉÜÅtv|™Ç EL COMPUTADOR

El procesador (también llamado Unidad central de procesamiento o CPU) consta de:

Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la unidad de control; D es un estado de la salida

• La unidad lógica y aritmética o ALU es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.

• La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).

• Los dispositivos E/S sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.

UCP (UNIDAD CENTRAL DE PROCESAMIENTO)

Los datos en la memoria central se pueden leer (recuperar ) , o escribir.

1. Dirige y controla el proceso de información. 2. Procesa y manipula la información almacenada en la memoria 3. Recupera la información de la memoria: datos o instrucciones 4. almacena los resultados de los procesos en memoria

PSGT 08 Introducción Básica a I.T

4

� Un ordenador es una máquina capaz de ejecutar programas formados

por instrucciones. � El procesador lee una a una las instrucciones de memoria y las ejecuta. � El procesador lee las instrucciones y lee o escribe los datos de la

memoria. � La CPU se compone de UC, ALU y registros.

UNIDAD DE CONTROL

1. Coordina las actividades 2. Determina, ordena y sincroniza los procesos que realiza la computadora.

� Unidad encargada de leer instrucciones de memoria, interpretarlas

controlando el funcionamiento de las otras unidades. � Secuencia:

� Toma instrucción indicada por el PC � La decodifica y toma los operandos � La ejecuta

� Utiliza para ello el PC, la instrucción leída, el registro de estado y un reloj interno.

CPU

Memoria

Instrucciones

Datos

UC

Relo

ALU

Registros

PC

Instrucciones

Datos

Memoria

PSGT 08 Introducción Básica a I.T

5

UNIDAD ARITMÉTICO-LÓGICA

1. Realiza las operaciones aritméticas y Lógicas . � Unidad encargada de realizar las operaciones aritméticas y lógicas. � Opera con datos de los registros y el resultado va a otro registro. � La UC controla la ALU. � Se realizan operaciones muy simples. � Se modifica el registro de estado.

LA MEMORIA

� Una memoria es un dispositivo capaz de almacenar información. � Operaciones:

� Escritura: Introducir información en una posición determinada de la memoria

� Lectura: Obtener información existente en una posición determinada de la memoria

� Palabra de memoria � Unidad de almacenamiento típica. Contienen números binarios. � La capacidad es el número de palabras: C � El tamaño el número de bytes.

� Direcciones de memoria � Cada palabra se identifica por un número que llamamos dirección. � El tamaño de las direcciones el número de bits de las

direcciones:B � El espacio direccionable es D=2B. Se ha de cumplir D>=C.

Registros

Estado

ALU

Operandos

Resultado

PSGT 08 Introducción Básica a I.T

6

ENTRADA-PROCESO-SALIDA

BLOQUES DE UN COMPUTADOR

El mapa conceptual muestra, en forma básica, como funciona el flujo de los datos en una computadora, para luego convertirse en información útil para el usuario. Podemos notar que los datos comúnmente fluyen según esta secuencia. Existe también la entrada de datos directamente a la RAM, sin la intervención previa del microprocesador; este modo de acceso se denomina acceso directo a memoria. La memoria RAM está en constante comunicación con el microprocesador (en el diagrama, procesamiento), de forma mucho más rápida que cualquier otro dispositivo de almacenamiento. Finalmente la información

Unidades de Entrada(Teclado, Mouse, Scanner)

Unidades de Salida(Monitor, Impresora,

Parlantes)

Memoria Interna

Unidad AritméticoLógica

Unidad de Control

Unidad Central de Proceso

PSGT 08 Introducción Básica a I.T

7

(los datos procesados) es almacenada en algún disco, o bien, sale directamente de forma analógica o digital de la computadora, ya sea hacia el monitor, los altavoces la impresora o cualquier otro dispositivo que reciba y proyecte la información. ESQUEMA DE UN COMPUTADOR

1: Monitor 2: Placa base 3: Procesador 4: Puertos ATA 5: Memoria principal (RAM) 6: Placas de expansión 7: Fuente eléctrica 8: Unidad de almacenamiento óptico 9: Disco duro 10: Teclado 11: Mouse DISPOSITIVOS DE ENTRADA

Tipos de Mouse: Mecánico: es una unidad de ingreso de datos equipada con uno o más botones y una pequeña esfera en su parte inferior, del tamaño de una mano y

PSGT 08 Introducción Básica a I.T

8

diseñado para trabajar sobre una tabla o mouse-pad ubicada al lado del teclado. Al mover el mouse la esfera rueda y un censor activa la acción. Óptico: es el que emplea la luz para obtener sus coordenadas y se desplaza sobre una tabla que contiene una rejilla reflectante, colocada sobre el escritorio. Mecánicos: Son los más utilizados por su sencillez y bajo coste. Se basan en una bola de silicona que gira en la parte inferior del ratón a medida que desplazábamos éste. Dicha bola hace contacto con dos rodillos, uno perpendicular al ratón y otro transversal, de forma que uno recoge los movimientos de la bola en sentido horizontal y el otro en sentido vertical Los ratones opto-mecánicos trabajan según el mismo principio que los mecánicos, pero aquí los cilindros están conectados a codificadores ópticos que emplean pulsos luminosos al ordenador, en lugar de señales eléctricas. El modo de capturar el movimiento es distinto. Los tradicionales rodillos que giran una rueda radiada ahora pueden girar una rueda ranurada, de forma que un haz de luz las atraviesa. De esta forma, el corte intermitente del haz de luz por la rueda es recogido en el otro lado por una célula fotoeléctrica que decide hacia donde gira el ratón y a que velocidad. Los ratones ópticos carecen de bola y rodillos, y poseen unos foto-sensores o sensores ópticos que detectan los cambios en los patrones de la superficie por la que se mueve el ratón. Antiguamente, estos ratones necesitaban una alfombrilla especial, pero actualmente no. Microsoft ha denominado a este sistema IntelliEye en su ratón IntelliMouse y es capaz de explorar el escritorio 1500 veces por segundo, sobre multitud de superficies distintas como madera plástico o tela. La ventaja de estos ratones estriba en su precisión y en la carencia de partes móviles, aunque son lógicamente algo más caros que el resto. Funciones del teclado: - Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt...etc. - Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1. - Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta,... etc.

PSGT 08 Introducción Básica a I.T

9

- Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas. Tipos de Teclado: De Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura. Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario. Teclado para internet: El nuevo Internet Keyboard incorpora 10 nuevos botones de acceso directo, integrados en un teclado estándar de ergonómico diseño que incluye un apoya manos. Los nuevos botones permiten desde abrir nuestro explorador Internet hasta ojear el correo electrónico. El software incluido, IntelliType Pro, posibilita la personalización de los botones para que sea el teclado el que trabaje como nosotros queramos que lo haga. Teclados inalámbricos: Pueden fallar si están mal orientados, pero no existe diferencia con un teclado normal. En vez de enviar la señal mediante cable, lo hacen mediante infrarrojos, y la controladora no reside en el propio teclado, sino en el receptor que se conecta al conector de teclado en el PC. Si queremos conectar a nuestro equipo un teclado USB, primero debemos tener una BIOS que lo soporte y en segundo lugar debemos tener instalado el sistema operativo con el "Suplemento USB". Un buen teclado USB debe tener en su parte posterior al menos un conector USB adicional para poderlo aprovechar como HUB y poder conectar a él otros dispositivos USB como ratones, altavoces, etc

Tipos de Escáner: Flatbed: significa que el dispositivo de barrido se desplaza a lo largo de un documento fijo. En este tipo de escáneres, como las fotocopiadoras de oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y son barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner flatbed utiliza un elemento de barrido instalado en una carcasa fija encima del documento. Escáner de mano: también llamado hand-held, porque el usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres tienen la ventaja de ser relativamente baratos, pero resultan algo limitados porque no pueden leer documentos con una anchura mayor a 12 o 15 centímetros. Lector de código de barras: dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras

PSGT 08 Introducción Básica a I.T

10

representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos. Tipos de Cámaras: Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador. Cámara de video: Graba videos como si de una cámara normal se tratara, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado. Lápiz Óptico: Dispositivo señalador que permite sostener sobre la pantalla (fotosensible) un lápiz que está conectado al ordenador con un mecanismo de resorte en la punta o en un botón lateral, mediante el cual se puede seleccionar información visualizada en la pantalla. Cuando se dispone de información desplegada, con el lápiz óptico se puede escoger una opción entre las diferentes alternativas, presionándolo sobre la ventana respectiva o presionando el botón lateral, permitiendo de ese modo que se proyecte un rayo láser desde el lápiz hacia la pantalla fotosensible. MICRÓFONOS Los micrófonos son los transductores* encargados de transformar energía acústica en energía eléctrica, permitiendo, por lo tanto el registro, almacenamiento, transmisión y procesamiento electrónico de las señales de

PSGT 08 Introducción Básica a I.T

11

audio. Son dispositivos duales de los altoparlantes, constituyendo ambos transductores los elementos mas significativos en cuanto a las características sonoras que sobre imponen a las señales de audio. No existe el micrófono ideal, debido a la sencilla razón que no se tiene un solo ambiente acústico o un solo tipo de música. Es por ello que, el ingeniero de sonido tiene a su disposición una amplia gama de micrófonos, cada uno de los cuales sirve para ciertos casos particulares. Existen los llamados micrófonos de diadema que son aquellos, que, como su nombre lo indica, se adhieren a la cabeza como una diadema cualquiera, lo que permite al usuario mayor comodidad ya no necesita sostenerlo con las manos, lo que le permite realizar otras actividades.

DISPOSITIVOS DE SALIDA

Impresoras de impacto (matriciales) Fueron las primeras que surgieron en el mercado. Se las denomina "de impacto" porque imprimen mediante el impacto de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en tinta, la cual suele ser fuente de muchos problemas si su calidad no es la que sería deseable. Impresoras de tinta Por supuesto, las impresoras matriciales utilizan tinta, pero cuando nos referimos a impresora de tinta nos solemos referir a aquéllas en las que la tinta se encuentra en forma más o menos líquida, no impregnando una cinta como en las matriciales. La tinta suele ser impulsada hacia el papel por unos mecanismos que se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula gota de tinta por cada inyector, sin necesidad de impacto. De todas formas, los entresijos últimos de este proceso varían de una a otra marca de impresoras (por ejemplo, Canon emplea en exclusiva lo que denomina "inyección por burbuja") y no son realmente significativos a la hora de adquirir una u otra impresora. Impresora laser. El único problema de importancia de las impresoras láser es que sólo imprimen en blanco y negro. En realidad, sí existen impresoras láser de color, que dan unos resultados bastante buenos, pero su precio es absolutamente desorbitado. Los láser son muy resistentes, mucho más rápidas y mucho más silenciosas que las impresoras matriciales o de tinta, y aunque la inversión inicial en una láser es mayor que en una de las otras, el tóner sale más barato a la larga que los cartuchos de tinta, por lo que a la larga se recupera la inversión. Por todo

PSGT 08 Introducción Básica a I.T

12

ello, los láser son idóneas para entornos de oficina con una intensa actividad de impresión, donde son más importantes la velocidad, la calidad y el escaso coste de mantenimiento que el color o la inversión inicial. Impresoras para fotos Constituyen una categoría de reciente aparición; usan métodos avanzados como la sublimación o las ceras o tintas sólidas, que garantizan una pureza de color excepcional, si bien con un coste relativamente elevado en cuanto a consumibles y una velocidad baja. Impresoras de gran formato Resulta un calificativo tan bueno como cualquier otro para definir a las impresoras, casi exclusivamente de tinta, que imprimen en formatos hasta el A2 (42x59,4 cm). Son impresoras que asocian las ventajas de las impresoras de tinta en cuanto a velocidad, color y resolución aceptables junto a un precio bastante ajustado. Impresoras para grupos Son impresoras de gran capacidad, preparadas para funcionar en una red incluso sin depender de un ordenador de la misma. Suelen ser impresoras láser, en ocasiones con soporte para color, con bandejas para 500 hojas o más, velocidades de más de 12 ppm (reales!!) y memoria por encima de 6 MB. Últimamente se tiende a que tengan funciones de fotocopiadora o capacidad para realizar pequeñas tiradas sin necesidad de emplear una fotocopiadora, e incluso clasifican y encuadernan. Plóters. Un plóter es un dispositivo que conectado a una computadora puede dibujar sobre papel cualquier tipo de gráfico mediante el trazado de líneas gracias a las plumillas retraibles de las que dispone. La limitación fundamental respecto a una impresora está en la menor velocidad del plóter y en lo limitado de los colores que puede ofrecer, que se ven limitados por el número de plumillas, bien es cierto que se pueden crear mezclando puntos de distintas plumillas, pero el proceso alargaría aún más la obtención de resultados. HPGL es un conjunto de comandos en el ROM de plóters de pluma para reducir el trabajo requerido por los programadores de las aplicaciones que ejecutan salida en ploteo. HPGL usa dos cartas de nemotécnica como instrucciones para dibujar líneas, círculos, texto y símbolos simples. Existe una desventaja primaria: HPGL es más abultado que otros lenguajes de ploteo lo cual significa que toma más tiempo transmitir un archivo HPGL que en cualquier otro.

PSGT 08 Introducción Básica a I.T

13

Según la forma en que se realiza el dibujo, los plóters se pueden clasificar en tres tipos: Pluma. Electrostáticos. Inyección Plóters de pluma Los primeros plóters, aún en pleno uso, fueron los de plumillas. Son los que más tardan en realizar un dibujo complejo, pero también son los que ofrecen una calidad y suavidad en las curvas absolutamente perfectas. Normalmente disponen de un soporte para seis u ocho plumillas, del cual el cabezal de dibujo las irá tomando según las necesite. Plóters electrostáticos Otro tipo de plóters son los plóters electrostáticos, térmicos o láser. Suelen ser más caros que cualquier otro tipo de trazador y aunque con tecnologías distintas entre sí, todos ellos ofrecen una calidad de dibujo similar. Casi ninguno de ellos dibuja en color, y la calidad del resultado final se asemeja mucho a la impresión de un fax, aunque el tamaño del punto es menor y el trazado resiste mejor el paso del tiempo y la acción de la luz. Inyección de tinta. Un tipo de trazador que está teniendo mucho éxito en los últimos años es el de chorro de tinta. Realmente es una impresora de chorro de tinta de gran formato, y la mayoría de ellos pueden producir impresiones con 16.7 millones de colores. Se les puede llamar plóters, porque son capaces de entender las instrucciones de lenguajes específicos de los plóters (HP-GL, RD-GL, DMPL, etc.), aunque internamente tienen que realizar la conversión de formato vectorial (líneas) a formato ráster (puntos de color). Un plóter de corte es básicamente igual que uno de dibujo. La diferencia estriba en que además de dibujar esta diseñado principalmente para cortar vinilo adhesivo, que es el que utilizan los profesionales de la rotulación para decorar y rotular vehículos, luminosos, o escaparates. Algunos pueden cortar también materiales más gruesos, como cartulina, cartón, etc. Bocinas:

PSGT 08 Introducción Básica a I.T

14

Algunas bocinas son de mesas, similares a la de cualquier aparato de sonidos y otras son portátiles (audífonos). Existen modelos muy variados, de acuerdo a su diseño y la capacidad en watts que poseen. Tarjeta de sonido. La tarjeta de sonido es la encargada de convertir la información digital procesada por nuestro equipo (1s y 0s) en datos analógicos, o sonidos, para que sean reproducidos por unos altavoces conectados a la propia tarjeta de sonido. Dispositivos por los cuales se emiten sonidos procedentes de la tarjeta de sonido. Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo), hasta el más complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando por productos intermedios de 4 o 5 altavoces.

La gran mayoría de las tarjetas de sonido incluyen un amplificador interno de 4W por canal, lo que nos permite conectar a la salida "speakers" de la tarjeta unos altavoces sencillos como los utilizados en el walkman.

AURICULARES Son dispositivos colocados en el oído para poder escuchar lo que la tarjeta de sonido envía. Presentan la ventaja de que no pueden ser escuchados por otra persona, solo la que los utiliza. Equipos empleados para audición. Los audífonos son el equipo básico empleado para escuchar los sonidos propios de un ambiente virtual: Audífonos convencionales Son los audífonos de uso más corriente, a través de estos se escucha el sonido simulado de los objetos sin identificar auditivamente el punto de ubicación de los mismos. Convolvotrón Estos audífonos además de simular el sonido propio de los objetos, simulan la ubicación de los mismos dentro del ambiente virtual.

PSGT 08 Introducción Básica a I.T

15

Fax: Dispositivo mediante el cual se imprime una copia de otro impreso, transmitida o bien, vía teléfono, o bien desde el propio fax. Se utiliza para ello un rollo de papel que cuando acaba la impresión se corta. MONITOR: El monitor o pantalla de computadora, es un dispositivo de salida que, mediante una interfaz, muestra los resultados del procesamiento de una computadora. DISPOSITIVOS DE ENTRDA Y SALIDA

Disco Flexible (Floppy Disk) Es un dispositivo de almacenamiento de información de acceso directo, que consiste en un disco de material flexible llamado `Mylar´ recubierto de un material magnético y con el mismo sistema de grabación y lectura que un disco duro. Este disco flexible, también conocido como `floppy disk´ esta protegido por una funda de plástico en la que aparecen tres ventanas: una para el arrastre del disco, otra para la sincronía y una última para la lectura y grabación de la información. También, posee una o más aberturas para protección contra escritura y borrado o para definir la densidad de grabación, y una etiqueta donde se representa alguna identificación de la información contenida en el disco.

PSGT 08 Introducción Básica a I.T

16

El proceso de preparar los discos flexibles para guardar información, se conoce como formatear. Y consiste en organizar la superficie del disco en pistas y sectores, actualmente la mayoría de los discos flexibles disponibles en el mercado ya vienen formateados de fábrica por lo que no es necesario formatearlos sino que vienen listos para usarse. Pantalla táctil Una pantalla táctil (touchscreen en inglés) es una pantalla que mediante un contacto directo sobre su superficie permite la entrada de datos y órdenes al dispositivo. A su vez, actúa como periférico de salida, mostrando los resultados introducidos previamente. Este contacto también se puede realizar con lápiz u otras herramientas similares. Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal. Así pues, la pantalla táctil puede actuar como periférico de entrada y periférico de salida de datos. Comunicación inalámbrica La comunicación inalámbrica (inglés wireless, sin cables) es el tipo de comunicación en la que no se utiliza un medio de propagación físico alguno esto quiere decir que se utiliza la modulación de ondas electromagnéticas, las cuales se propagan por el espacio sin un medio físico que comunique cada uno de los extremos de la transmisión. En ese sentido, los dispositivos físicos sólo están presentes en los emisores y receptores de la señal, como por ejemplo: Antenas, Laptops, PDAs, Teléfonos Celulares, etc.

PSGT 08 Introducción Básica a I.T

17

Bluetooth: es una especificación industrial para Redes Inalámbricas de Área Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia segura y globalmente libre (2,4 GHz.). Los principales objetivos que se pretende conseguir con esta norma son: Facilitar las comunicaciones entre equipos móviles y fijos. Eliminar cables y conectores entre éstos. Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre nuestros equipos personales. Los dispositivos que con mayor intensidad utilizan esta tecnología son los de los sectores de las telecomunicaciones y la informática personal, como PDAs, teléfonos móviles, computadoras portátiles, ordenadores personales, impresoras y cámaras digitales. Bluetooth se utiliza principalmente en un gran número de productos tales como teléfonos, impresoras, módems y auriculares. Su uso es adecuado cuando puede haber dos o más dispositivos en un área reducida sin grandes necesidades de ancho de banda. Su uso más común está integrado en teléfonos y PDA's, bien por medio de unos auriculares Bluetooth o en transferencia de ficheros. Bluetooth tiene la ventaja de simplificar el descubrimiento y configuración de los dispositivos, ya que éstos pueden indicar a otros los servicios que ofrecen, lo que redunda en la accesibilidad de los mismos sin un control explícito de direcciones de red, permisos y otros aspectos típicos de redes tradicionales.

MICROPROCESADOR

El microprocesador es un circuito integrado que contiene todos los elementos necesarios para conformar una "unidad central de procesamiento", también es conocido como CPU (por sus siglas en inglés: Central Process Unit). En la actualidad este componente electrónico está compuesto por millones de transistores, integrados en una misma placa de silicio. Suelen tener forma de prisma chato, y se instalan sobre un elemento llamado zócalo (en inglés, socket). También, en modelos antiguos solía soldarse directamente a la placa madre (motherboard). Aparecieron algunos modelos donde se adoptó el formato de cartucho, sin embargo no tuvo mucho éxito. Actualmente se dispone de un zócalo especial para alojar el microprocesador y el sistema de enfriamiento, que comúnmente es un disipador de aluminio con un ventilador adosado (conocido como microcooler). Desde el punto de vista lógico y funcional, el microprocesador está compuesto básicamente por: varios

PSGT 08 Introducción Básica a I.T

18

registros; una Unidad de control, una Unidad aritmético-lógica; y dependiendo del procesador, puede contener una unidad en coma flotante. HISTORIA DEL MICROPROCESADOR

o La Evolución del Microprocesador.

El microprocesador es un producto de la computadora y con tecnología semiconductora. Se eslabona desde la mitad de los años 50's; estas tecnologías se fusionaron a principios de los años 70`'s, produciendo el llamado microprocesador.

La computadora digital hace cálculos bajo el control de un programa. La manera general en que los cálculos se han hecho es llamada la arquitectura de la computadora digital. Así mismo la historia de circuitos de estado sólido nos ayuda también, porque el microprocesador es un circuito con transistores o microcircuito LSI (grande escala de integración), para ser más preciso.

El mapa de la figura, mostrada al final de esta sección, muestra los sucesos importantes de éstas dos tecnologías que se desarrollaron en las últimas cinco décadas. Las dos tecnologías iniciaron su desarrollo desde la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras especialmente para uso militar. Después de la guerra, a mediados del año de 1940 la computadora digital fue desarrollada para propósitos científicos y civiles.

La tecnología de circuitos electrónicos avanzó y los científicos hicieron grandes progresos en el diseño de dispositivos físicos de Estado Sólido. En 1948 en los laboratorios Bell crearon el Transistor.

En los años 50's, aparecen las primeras computadoras digitales de propósito general. Éstas usaban tubos al vacío (bulbos) como componentes electrónicos activos. Tarjetas o módulos de tubos al vacío fueron usados para construir circuitos lógicos básicos tales como compuertas lógicas y flip-flops (Celda donde se almacena un bit). Ensamblando compuertas y flip-flops en módulos, los científicos construyeron la computadora ( la lógica de control, circuitos de memoria, etc.). Los bulbos también formaron parte de la construcción de máquinas para la comunicación con las computadoras. Para el estudio de los circuitos digitales, en la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas.

La construcción de una computadora digital requiere de muchos circuitos o dispositivos electrónicos. El principal paso tomado en la computadora fue hacer que el dato fuera almacenado en memoria como una forma de palabra digital. La idea de almacenar programas fue muy importante.

PSGT 08 Introducción Básica a I.T

19

La tecnología de los circuitos de estado sólido evolucionó en la década de los años 50's. El uso del material silicio de bajo costo y con métodos de producción masiva, hicieron al transistor ser el más usado para el diseño de circuitos. Por lo tanto el diseño de la computadora digital fue un gran avance del cambio para remplazar al tubo al vacío (bulbo) por el transistor a finales de los años 50's. A principios de los años 60's, el arte de la construcción de computadoras de estado sólido se incrementó y surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor). A mediados de los años 60's se producen las familias de lógica digital, dispositivos en escala SSI y MSI que corresponden a pequeña y mediana escala de integración de componentes en los circuitos de fabricación. A finales de los años 60's y principios de los años 70's surgieron los LSI (gran escala de integración ). La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito integrado. Pero pocos circuitos LSI fueron producidos, los dispositivos de memoria fueron un buen ejemplo. Las primeras calculadoras electrónicas requerían de 75 a 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando un circuito que fue llamado el microprocesador. El primer microprocesador fue el Intel 4004, producido en 1971. Se desarrolló originalmente para una calculadora, y resultaba revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que sólo podía realizar 60.000 operaciones por segundo. El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1979 para su empleo en terminales informáticos. El Intel 8008 contenía 3.300 transistores. El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4.500 transistores y podía ejecutar 200.000 instrucciones por segundo. Los microprocesadores modernos tienen

PSGT 08 Introducción Básica a I.T

20

una capacidad y velocidad mucho mayores. Entre ellos figuran el Intel Pentium Pro, con 5,5 millones de transistores; el UltraSparc-II, de Sun Microsystems, que contiene 5,4 millones de transistores; el PowerPC 620, desarrollado conjuntamente por Apple, IBM y Motorola, con 7 millones de transistores, y el Alpha 21164A, de Digital Equipment Corporation, con 9,3 millones de transistores.

FUNCIONAMIENTO

El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:

• PreFetch, Pre lectura de la instrucción desde la memoria principal, • Fetch, envío de la instrucción al decodificador, • Decodificación de la instrucción, es decir, determinar qué instrucción es

y por tanto qué se debe hacer, • Lectura de operandos (si los hay), • Ejecución,(Lanzamiento de las Máquinas de estado que llevan a cabo el

procesamiento). • Escritura de los resultados en la memoria principal o en los registros.

Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un oscilador, normalmente un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo.

PROCESADORES DEL PRESENTE

Procesadores Intel Core™2 Duo

Características y beneficios Ofrece un desempeño general óptimo y excepcional. Ahora podrá obtener lo mejor de lo mejor con los procesadores Intel Core 2 Duo más recientes, que se han diseñado con la tecnología de 45 nm de Intel y circuitos infundidos por hafnio a fin de proporcionarle las más modernas tecnologías de alto desempeño.

PSGT 08 Introducción Básica a I.T

21

Estos increíbles procesadores nuevos incluyen hasta 6 MB de caché L2 compartida, un bus frontal de hasta 1333 MHz para equipos de desktop y un bus frontal de hasta 800 MHz para equipos portátiles. Por lo tanto, usted tiene el futuro de la computación en sus manos hoy mismo y como sólo Intel puede ofrecerlo: Ejecución dinámica ampliada Intel®, que permite proporcionar una mayor cantidad de instrucciones por ciclo de reloj a fin de mejorar el tiempo de ejecución y la eficiencia en el consumo de energía. Función Intel® para gestión inteligente de la energía, que, por sus características de diseño, incrementa la eficiencia en el consumo de energía y la duración de la batería de su equipo portátil. Acceso Intel® a memoria inteligente, que mejora el desempeño del sistema mediante la optimización del uso del ancho de banda de datos disponible. Caché Intel® inteligente avanzada, que proporciona un subsistema de caché con un desempeño más elevado y una mayor eficiencia. Viene optimizada para procesadores multi-core y dual-core. Intel® Advanced Digital Media Boost, que acelera una amplia gama de aplicaciones, tales como video, voz e imagen, procesamiento de fotografías, cifrado, aplicaciones financieras, técnicas y científicas. Ahora mejorados en las versiones de 45 nm con Intel® HD Boost que utilizan las nuevas instrucciones SSE4 para aumentar aún más el desempeño en aplicaciones de multimedia.

El microprocesador Core 2 DuoCore 2 DuoCore 2 DuoCore 2 Duo de Intel es la continuación de los Pentium D y Core Duo. Su distribución comenzó el 27 de julio de 2006.

PSGT 08 Introducción Básica a I.T

22

El Core 2 Duo es un procesador con un pipeline de 14 etapas lo que le permite escalar más en frecuencia que su antecesor directo: el Core 1, que tenía 12 etapas al igual que el Athlon 64. Tiene, además, un motor de ejecución ancho con tres ALUs, cuatro FPUs, y tres unidades de SSE de 128 bits. Estas dos características hacen que sea el procesador x86 que más instrucciones por ciclo puede lograr.

Entre otras características destacan arquitectura de 64 bits EM64T (no disponible en su predecesor Core Duo), Virtualization Technology, LaGrande Technology, Intel Enhanced SpeedStep Technology, Active Management Technology (iAMT2), MMX, SSE, SSE2, SSE3, SSSE3, y XD bit.

Existen versiones de sobremesa y para portátiles, a diferencia de la división existente desde 2003 entre Pentium M para portátiles y Pentium 4 para ordenadores de sobremesa, unificando el nombre de Core 2 Duo para todas los procesadores de gama media dejando además el nombre Pentium, utilizado desde 1993, para los procesadores de gama baja (y menor rendimiento) basados en la arquitectura de Core 2 con un caché reducido llamado Pentium Dual Core, quienes a su vez vienen a reemplazar a la familia Celeron en este rol.

Una llamativa característica de esta familia es su particular facilidad para aplicar overclock, llegando muchos de estos procesadores a ganancias superiores al 50% en su frecuencia de trabajo

Otra diferencia es la forma como trabajan sus núcleos: en el dual core sus núcleos trabajan de manera alterna, mientras que en el core 2 dúo sus núcleos trabajan de manera simultanea dando un mayor rendimiento.

Durante un tiempo se dijo que el core 2 dúo poseía 4 núcleos cosa que es errónea. Solo posee 2 pues es un tipo especial de dual core.

PSGT 08 Introducción Básica a I.T

23

Procesadores de escritorio

Core 2 Duo "Conroe" (dual core, 65 nm) (gama media) E6750 y E6850 Gama Alta

Los procesadores ConroeConroeConroeConroe están etiquetados como "E6x00" o "E6x20" o "E6x50" o "E65x0". Están destinados a ordenadores de sobremesa.

Nombre del modelo Frecuencia

Front Side Bus

Mult. Cache

L1 Cache

L2 TDP Socket Fecha de

salida

Core 2 Duo E6850

3,00 GHz 1333 MT/s

9 x 2×32 kb

4 Mb 65 W LGA 775

22/07/2007

Core 2 Duo E6750

2,66 GHz 1333 MT/s

8 x 2×32 kb

4 Mb 65 W LGA 775

22/07/2007

Core 2 Duo E6700

2,66 GHz 1066 MT/s

10 x 2×32 kb

4 Mb 65 W LGA 775

27/07/2006

Core 2 Duo E6600

2,40 GHz 1066 MT/s

9 x 2×32 kb

4 Mb 65 W LGA 775

27/07/2006

Core 2 Duo E6550

2,33 GHz 1333 MT/s

7 x 2×32 kb

4 Mb 65 W LGA 775

22/07/2007

Core 2 Duo E6540

2,33 GHz 1333 MT/s

7 x 2×32 kb

4 Mb 65 W LGA 775

22/07/2007

Core 2 Duo E6420

2,13 GHz 1066 MT/s

8 x 2×32 kb

4 Mb < 65 W

LGA 775

xx/xx/2007

Core 2 Duo E6320

1,86 GHz 1066 MT/s

7 x 2×32 kb

4 Mb < 65 W

LGA 775

xx/xx/2007

PSGT 08 Introducción Básica a I.T

24

Intel Core 2 Duo CPU

Intel Core 2 Duo E6600 "Conroe"

Producción: 2006 -

Fabricante: Intel

Velocidad de CPU: 1.60 GHz a 3.33 GHz

Velocidad de FSB: 667 MT/s a 1333 MT/s

Procesos: (Longitud de canal del MOSFET)

0.065 µm a 0.040 µm

Conjunto de instrucciones:

EM64T

Microarquitectura: Intel Core Microarchitecture

Sockets:

• Socket T • Socket M

Número de Cores: 1, 2, o 4 (2x2)

Cores:

• Conroe-L • Allendale • Conroe • Merom • Kentsfield • Yorkfield • Wolfdale

PSGT 08 Introducción Básica a I.T

25

Procesadores Intel Core™2 Quad

El procesador líder en desempeño, no busque más. Gracias a sus cuatro núcleos, el procesador Intel® Core™2 Quad permite ejecutar a gran velocidad tareas de alto nivel de procesamiento en exigentes entornos de multitarea y aprovecha al máximo las aplicaciones de varios subprocesos. Ya sea que esté creando multimedia, aniquilando a sus enemigos en un videojuego o ejecutando aplicaciones exigentes a la vez, el nuevo procesamiento quad-core cambiará la manera de hacer todo. Sea el primero en entrar en el nuevo mundo de quad-core y libere la potencia de la tecnología de varios subprocesos. Características y beneficios Alto nivel superado. Presentamos los nuevos miembros de la familia Core 2 Quad desarrollados con la tecnología de 45 nm de Intel y circuitos infundidos por hafnio. Estos nuevos procesadores proporcionan un sorprendente desempeño y una extraordinaria eficacia en el consumo de energía. Ya sea que se trate de codificar, presentar, editar o distribuir, saque el máximo provecho de sus aplicaciones multimedia profesionales con una PC equipada con el procesador Intel® Core™2 Quad. Con cuatro núcleos y hasta 12MB de caché L2 compartida y un bus frontal de hasta 1333 MHz, contará con una usina para multimedia en su casa y disfrutará de entretenimientos más intensos y de mayor capacidad multitarea.

PSGT 08 Introducción Básica a I.T

26

Ejecución dinámica ampliada Intel®, que permite proporcionar una mayor cantidad de instrucciones por ciclo de reloj a fin de mejorar el tiempo de ejecución y la eficacia en el consumo de energía. Función Intel® para gestión inteligente de la energía, que, por sus características de diseño, incrementa el desempeño con un consumo eficaz de energía. Acceso Intel® a memoria inteligente, que mejora el desempeño del sistema mediante la optimización del uso de todo el ancho de banda de datos disponible. Caché Intel® inteligente avanzada, que proporciona un subsistema de caché con un desempeño más elevado y una mayor eficacia. Viene optimizada para procesadores multi-core y dual-core. Intel® Advanced Digital Media Boost, que acelera una amplia gama de aplicaciones, tales como video, voz e imagen, procesamiento de fotografías, cifrado, aplicaciones financieras, técnicas y científicas. Ahora mejorados en las versiones de 45 nm con Intel® HD Boost que utilizan las nuevas instrucciones SSE4 para aumentar aún más el desempeño en aplicaciones de multimedia.

Permite ejecutar aplicaciones de varios subprocesos con simplicidad. Aproveche la creciente cantidad de programas de varios subprocesos con la tecnología quad-core de Intel. Con cuatro núcleos de procesamiento, una PC equipada con el procesador Intel Core 2 Quad permitirá disfrutar de entretenimientos más intensos y ejecutar más multitareas de medios como nunca antes.

PSGT 08 Introducción Básica a I.T

27

Intel Core 2 QuadIntel Core 2 QuadIntel Core 2 QuadIntel Core 2 Quad o Intel Quad CoreIntel Quad CoreIntel Quad CoreIntel Quad Core son una serie de procesadores de Intel con 4 núcleos y de 64 bits. Según el fabricante, estos procesadores son un 65% más rápidos que los Core 2 Duo. La realidad es que son dos procesadores Core 2 Duo encapsulados en un mismo zócalo, formando así los 4 núcleos reales.

Intel tiene en mente lanzar los procesadores de 4 núcleos para portátiles en el primer semestre de 2008, con el nombre de "Penryn" y será una actualización de los denominados Intel Santa Rosa que se utilizan actualmente.

Modelos

Tecnología de

fabricación

Nombre del

modelo Frecuencia

Front Side Bus

Mult. Cache

L0 Cache

L1 TDP Socket Fecha de

salida

45 nm Core 2 Quad Q9300

2.50 GHz 1333 MT/s

7.5 x 2×32 kb

6MB L2

105 - 95 W

LGA 775

01/02/2007

65 nm Core 2 Quad Q6600

2,40 GHz 1066 MT/s

9 x 2×32 kb

8 Mb 105 - 95 W

LGA 775

07/01/2007

65 nm Core 2 Quad Q6700

2,66 GHz 1066 MT/s

10 x 2×32 kb

8 Mb 95 W

LGA 775

22/07/2007

PSGT 08 Introducción Básica a I.T

28

Core 2™ Quad CPU

Producción: 2007

Fabricante: Intel

Velocidad de CPU: 2.40 GHz a 3.00 GHz

Velocidad de FSB: 1066 MT/s a 1333 MT/s

Procesos: (Longitud de canal del MOSFET)

0.065 µm

Conjunto de instrucciones:

EM64T

Microarquitectura: Intel Core Microarchitecture

Sockets:

• LGA 775 • Socket T

Cores:

• Kentsfield • Yorkfield

PSGT 08 Introducción Básica a I.T

29

Procesadores AMD Serie Phenom™

AMD PhenomAMD PhenomAMD PhenomAMD Phenom es la nueva familia de microprocesadores lanzada a mediados

de Noviembre del 2007 por AMD. Esta conformada por el Phenom (series FX), Phenom de cuádruple núcleo (series 9)y Phenom de triple núcleo (series 7). Esta familia también esta relacionada con los procesadores Athlon de doble

"Agena FX " (65 nm, quad core)

Todos los modelos soportan: MMX, SSE, SSE2, SSE3, SSE4a, Enhanced 3DNow!, NX bit, AMD64 (AMD's x86-64 implementation), Cool'n'Quiet

PSGT 08 Introducción Básica a I.T

30

Modelo Frecuencia L2-Cache

L3 cache

HT (por

dirección) Multiplicador Voltaje Socket Fecha de

Lanzamiento Numero(s)de

Parte

Phenom FX-911

2400-2600 MHz

4 x 512 KB

2 MB 1800 MHz

Socket F+

Q1 2008 ??

Phenom FX-901

2200-2400 MHz

4 x 512 KB

2 MB 1600 MHz

Socket F+

Q1 2008 ??

Phenom FX-8x2

TBD 4 x 512 KB

2 MB >=2000 MHz

Socket AM2+

Q2 2008 ??

Phenom FX-822

2600+ MHz

4 x 512 KB

2 MB 2000 MHz

Socket AM2+

Q1 2008 ??

Phenom quad-core 9-series

"Agena " (65 nm, quad core)

Todos los modelos soportan: MMX, SSE, SSE2, SSE3, SSE4a, Enhanced 3DNow!, NX bit, AMD64 (AMD's x86-64 implementation), Cool'n'Quiet

Modelo Frecuencia L2-

Cache L3

cache

HT (por

dirección) Multiplicador Voltaje Socket

Fecha de Lanzamiento

Numero(s)de Parte Precio de

Lanzamiento

Phenom 9xxx2

2xxx MHz 4 x 512 KB

2 MB >=2000 MHz

Socket AM2+

Q2 2008 ? ?

Phenom 99003 3

2600 MHz 4 x 512 KB

2 MB 2000 MHz

Socket AM2+

Q1 2008 ? ?

Phenom 97002 4

2400 MHz 4 x 512 KB

2 MB 2000 MHz

12x 1.2-1.25

Socket AM2+

Q1 2008 HD9700XAGDBOX ?

PSGT 08 Introducción Básica a I.T

31

Phenom 96002 4

2300 MHz 4 x 512 KB

2 MB 1800 MHz

11.5x 1.1-1.25

Socket AM2+

Noviembre 19 2007

HD9600WCGDBOX $283

Phenom 95002 4

2200 MHz 4 x 512 KB

2 MB 1800 MHz

11x 1.1-1.25

Socket AM2+

Noviembre 19 2007

HD9500WCGDBOX $251

Phenom triple-core 7-series

"Toliman " (65 nm, triple core)

Todos los modelos soportan: MMX, SSE, SSE2, SSE3, SSE4a, Enhanced 3DNow! NX bit, AMD64 (AMD's x86-64 implementation), Cool'n'Quiet

Modelo Frecuencia L2-Cache

L3 cache

HT (por

dirección) Multiplicador Voltaje Socket Fecha de

Lanzamiento Numero(s)de

Parte

Phenom 77005

2500 MHz 3 x 512 KB

2 MB TBD Socket AM2+

Marzo 2008 ??

Phenom 76005

2300 MHz 3 x 512 KB

2 MB TBD Socket AM2+

Marzo 2008 ??

Athlon de doble Núcleo (series 6)

Los microprocesadores Athlon de doble núcleo de serie 6 están basados en la familia Phenom en vez de estarlo en el original Athlon 64 que pertenece a la familia 0Fh de procesadores (K8).

PSGT 08 Introducción Básica a I.T

32

PhenomPhenomPhenomPhenom es el nombre que se le da a la nueva familia de procesadores de cuatro núcleos de AMD. Este nombre fue dado a conocer a finales de abril del 2007, reemplazando así a la serie de alto rendimiento de AMD.

Modelos

Código Frecuencia del Reloj (GHz)

Tamaño del L2 Caché (KB)

Tamaño del Caché L3 compartido (MB)

TDP (W)

Socket Núcleos Disponibilidad

AMD Phenom FX

2.4–2.6

2.2–2.4

AM2+

Agena FX

2.2–2.4

4x512 2 TBD

AM2+

4 Q3 2007

AMD Phenom X4

2.4

Agena

2.2

4x512 2 89 AM2+ 4 Q3 2007

AMD Phenom X2

2.8 89

2.6 Kuma

2.4

2x512 2

65

AM2+ 2 Q4 2007

PSGT 08 Introducción Básica a I.T

33

Características

Como característica común todos los Phenom tienen tecnología de 65 nanómetros y utilizarán el socket AM2+ (cuya principal novedad es la integración de la última versión de HyperTransport, la 3.0), excepto los Phenom FX que utilizarán el Socket F o el F+ (el mismo que algunos Opteron).

Salen junto con la nueva serie AMD DirectX 10 ATI Radeon HD 2000 (RV600). AMD espera la disponibilidad de los ordenadores de escritorio basadas en Phenom dual y quad-core para finales de 2007.

En San Francisco, la empresa mostró una plataforma de ocho núcleos, donde se pudo ver la primera plataforma de ocho núcleos de próxima generación de silicio. Ésta incluye dos procesadores Phenom de cuatro núcleos, la nueva DirectX 10 ATI Radeon HD 2900 XT y el chipset RD790 que será lanzado en la segunda mitad del año 2007.

PSGT 08 Introducción Básica a I.T

34

Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por watt.

Todos los procesadores Phenom poseerán características como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de punto flotante de 128 bits, para incremento de la velocidad y rendimiento de los cálculos de punto flotante.

Con el diseño de cuatro núcleos real ofrecido por los procesadores Phenom, los núcleos se comunican dentro del mismo sustrato de silicio prescindiendo de un front side bus externo al procesador, lo que genera un cuello de botella en otros productos que unen dos chips de doble núcleo para conformar procesadores de cuatro núcleos.

La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos.

PSGT 08 Introducción Básica a I.T

35

Tiene caché L3 compartida para un acceso más rápido de datos y compatibilidad de infraestructura del socket AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos.

Velocidad y Ancho de Banda Actualmente se habla de frecuencias de Gigaherzios (GHz.), o de Megaherzios (MHz.). Lo que supone miles de millones o millones, respectivamente, de ciclos por segundo. El indicador de la frecuencia de un microprocesador es un buen referente de la velocidad de proceso del mismo, pero no el único. La cantidad de instrucciones necesarias para llevar a cabo una tarea concreta, así como el ancho de banda ó cantidad de instrucciones ejecutadas por ciclo ICP, son los otros dos factores que determinan la velocidad de la CPU. La cantidad de instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones disponible, mientras que el índice ICP depende de varios factores, como el grado de supersegmentación y la cantidad de unidades de proceso o "pipelines" disponibles, entre otros. La cantidad de instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones.

Bus de datos El microprocesador lee y escribe datos en la memoria principal y en los dispositivos de entrada/salida. Estas transferencias se realizan a través de un conjunto de conductores que forman el bus de datos. El número de conductores suele ser potencia de 2. Hay buses de 4, 8, 16, 32, 64, ... conductores. Los modelos de la familia x86, a partir del 80386, trabajan con bus de datos de 32 bits, y a partir del Pentium con bus de 64 bits. Pero los

PSGT 08 Introducción Básica a I.T

36

microprocesadores de las tarjetas gráficas, que tienen un mayor volumen de procesamiento por segundo, se ven obligados a aumentar este tamaño, y así tenemos hoy en día microprocesadores gráficos que trabajan con datos de 128 ó 256 bits. Estos dos tipos de microprocesadores no son comparables, ya que ni su juego de instrucciones ni su tamaño de datos son parecidos y por tanto el rendimiento de ambos no es comparable en el mismo ámbito. La arquitectura x86 se ha ido ampliando a lo largo del tiempo a través de conjuntos de operaciones especializadas denominadas "extensiones", las cuales han permitido mejoras en el procesamiento de tipos de información específica. Este es el caso de las extensiones MMX y SSE de Intel, y sus contrapartes, las extensiones 3DNow! de AMD. A partir de 2003, el procesamiento de 64 bits fue incorporado en los procesadores de arquitectura x86 a través de la extensión AMD64 y posteriormente con la extensión EM64T en los procesadores AMD e Intel respectivamente.

Puertos de entrada y salida El microprocesador tiene puertos de entrada/salida en el mismo circuito integrado. El chipset es un conjunto de circuitos integrados que se encarga de realizar las funciones que el microprocesador delega en ellos. El conjunto de circuitos integrados auxiliares necesarios por un sistema para realizar una tarea suele ser conocido como chipset, cuya traducción literal del inglés significa conjunto de circuitos integrados. Se designa circuito integrado auxiliar al circuito integrado que es periférico a un sistema pero necesario para el funcionamiento del mismo. La mayoría de los sistemas necesitan más de un circuito integrado auxiliar; sin embargo, el término chipset se suele emplear en la actualidad cuando se habla sobre las placas base de los IBM PCs. FABRICACIÓN DE MICROPROCESADORES

Los microprocesadores se fabrican empleando técnicassimilares a las usadas para otros circuitos integrados, como chips de memoria. Generalmente, los microprocesadores tienen una estructura más compleja que otros chips, y su fabricación exige técnicas extremadamente precisas.

La fabricación económica de microprocesadores exige su producción masiva. Sobre la superficie de una oblea de silicio se crean simultáneamente varios cientos de gruposde circuitos. El proceso de fabricación de microprocesadores consiste en una sucesión de deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, hasta que después de cientos de pasos se llega a un complejo "bocadillo" que contiene todos los circuitos interconectados del microprocesador. Para el circuito electrónico sólo se emplea la superficie externa de la oblea de silicio, una capa de unas 10 micras de espesor (unos 0,01 mm, la décima parte del espesor de un cabello humano). Entre las etapas del proceso figuran la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas.

La primera etapa en la producción de un microprocesador es la creación de un sustrato de silicio de enorme pureza, una "rodaja" de silicio en forma de una oblea redonda pulida hasta quedar lisa como un espejo. En la actualidad, las obleas más grandes empleadas en la industria tienen 200 mm de diámetro.

PSGT 08 Introducción Básica a I.T

37

En la etapa de oxidación se coloca una capa eléctricamente no conductora, llamada dieléctrico. El tipo de dieléctrico más importante es el dióxido de silicio, que se "cultiva" exponiendo la oblea de silicio a una atmósfera de oxígeno en un horno a unos 1.000 ºC. El oxígeno se combina con el silicio para formar una delgada capa de óxido de unos 75 angstroms de espesor (un ángstrom es una diezmilmillonésima de metro).

Casi todas las capas que se depositan sobre la oblea deben corresponder con la forma y disposición de los transistores y otros elementos electrónicos. Generalmente esto se logra mediante un proceso llamado fotolitografía, que equivale a convertir la oblea en un trozo de película fotográfica y proyectar sobre la misma una imagen del circuito deseado. Para ello se deposita sobre la superficie de la oblea una capa fotosensible cuyas propiedades cambian al ser expuesta a la luz. Los detalles del circuito pueden llegar a tener un tamaño de sólo 0,25 micras.

Como la longitud de onda más corta de la luz visible es de unas 0,5 micras, es necesario emplear luz ultravioleta de baja longitud de onda para resolver los detalles más pequeños. Después de proyectar el circuito sobre la capa fotorresistente y revelar la misma, la oblea se graba: esto es, se elimina la parte de la oblea no protegida por la imagen grabada del circuito mediante productos químicos (un proceso conocido como grabado húmedo) o exponiéndola a un gascorrosivo llamado plasma en una cámara de vacío especial.

En el siguiente paso del proceso, la implantación iónica, se introducen en el silicio impurezas como boro o fósforo para alterar su conductividad. Esto se logra ionizando los átomos de boro o de fósforo (quitándoles uno o dos electrones) y lanzándolos contra la oblea a elevadas energías mediante un implantador iónico. Los iones quedan incrustados en la superficie de la oblea.

En el último paso del proceso, las capas o películas de material empleadas para fabricar un microprocesador se depositan mediante el bombardeo atómico en un plasma, la evaporación (en la que el material se funde y posteriormente se evapora para cubrir la oblea) o la deposición de vapor químico, en la que el material se condensa a partir de un gas a baja presión o a presión atmosférica. En todos los casos, la película debe ser de gran pureza, y su espesor debe controlarse con una precisión de una fracción de micra.

Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico de aire (0,028 metros cúbicos). Como comparación, un hogar normal sería de clase 1 millón.

TECNOLOGÍAS FUTURAS

La tecnología de los microprocesadores y de la fabricación de circuitos integrados está cambiando rápidamente. Se prevé que en 2010 los microprocesadores avanzados contengan unos 800 millones de transistores.

PSGT 08 Introducción Básica a I.T

38

Se cree que el factor limitante en la potencia de los microprocesadores acabará siendo el comportamiento de los propios electrones al circular por los transistores. Cuando las dimensiones se hacen muy pequeñas, los efectos cuánticos debidos a la naturalezaondulatoria de los electrones podrían dominar el comportamiento de los transistores y circuitos. Puede que sean necesarios nuevos dispositivos y diseños de circuitos a medida que los microprocesadores se aproximan a dimensiones atómicas. Para producir las generaciones futuras de microchips se necesitarán técnicas como la epitaxia por haz molecular, en la que los semiconductores se depositan átomo a átomo en una cámara de vacío ultraelevado, o la microscopía de barrido de efecto túnel, que permite ver e incluso desplazar átomos individuales con precisión.

MICROPROCESADORES ANTIGUOS

Tal como está el mundo, podríamos decir que cualquiera que tenga más de un mes en el mercado. De todas formas, aquí vamos a suponer antiguo a todo micro que no sea un Pentium o similar (K5, K6, 6x86, Celeron...). 8086, 8088, 286

Se caracterisan por ser todos prehistóricos y de rendimiento similar. Los ordenadores con los dos primeros eran en ocasiones conocidos como ordenadores XT, mientras que los que tenían un 286 (80286 para los puristas) se conocían como AT. En España se vendieron muchos ordenadores con estos micros por la firma Amstrad, por ejemplo.

Ninguno era de 32 bits, sino de 8 ó 16, bien en el bus interno o el externo. Esto significa que los datos iban por caminos (buses) que eran de 8 ó 16 bits, bien por dentro del chip o cuando salían al exterior, por ejemplo para ir a la memoria. Este número reducido de bits (un bit es la unidad mínima de información en electrónica) limita sus posibilidades en gran medida. Un chip de estas características tiene como entorno preferente y casi único el DOS, aunque puede hacerse correr Windows 3.1 sobre un 286 a 16 ó 20 MHz si las aplicaciones que vamos a utilizar no son nada exigentes; personalmente, he usado el procesador de textos AmiPro 1.2 en Windows 3.1 en un 286 y sólo era cuestión de tomármelo con calma (mucha calma cuando le mandaba imprimir, eso sí).

Sin embargo, si tiene un ordenador así, no lo tire; puede usarlo para escribir textos (con algún WordPerfect antiguo), para jugar a juegos antiguos pero adictivos (como el Tetris, Prince of Persia, y otros clásicos), o incluso para navegar por Internet, sobre todo si el monitor es VGA y tiene un módem "viejo" (por ejemplo un 14.400).

386, 386 SX

Estos chips ya son más modernos, aunque aún del Neolítico informático. Su ventaja es que son de 32 bits; o mejor dicho, el 386 es de 32 bits; el 386 SX es de 32 bits internamente, pero de 16 en el bus externo, lo que le hace hasta un 25% más lento que el original, conocido como DX.

PSGT 08 Introducción Básica a I.T

39

Resulta curioso que el más potente sea el original, el 386. La versión SX fue sacada al mercado por Intel siguiendo una táctica comercial típica en esta empresa: dejar adelantos tecnológicos en reserva, manteniendo los precios altos, mientras se sacan versiones reducidas (las "SX") a precios más bajos. La cuestión es que ambos pueden usar software de 32 bits, aunque si lo que quiere usar es Windows 95 ¡ni se le ocurra pensar en un 386! Suponiendo que tenga suficiente memoria RAM, disco, etc., prepárese para esperar horas para realizar cualquier tontería.

Su ámbito natural es DOS y Windows 3.x, donde pueden manejar aplicaciones bastante profesionales como Microsoft Word sin demasiados problemas, e incluso navegar por Internet de forma razonablemente rápida. Si lo que quiere es multitarea y software de 32 bits en un 386, piense en los sistemas operativos OS/2 o Linux (¡este último es gratis!).

486, 486 SX, DX, DX2 y DX4

La historia se repite, aunque esta vez entra en el campo del absurdo de la mano del márketing "Intel Inside". El 486 es el original, y su nombre completo es 80486 DX; consiste en:

• un corazón 386 actualizado, depurado y afinado; • un coprocesador matemático para coma flotante integrado; • una memoria caché (de 8 Kb en el DX original de Intel).

Es de notar que la puesta a punto del núcleo 386 y sobre todo la memoria caché lo hacen mucho más rápido, casi el doble, que un 386 a su misma velocidad de reloj (mismos MHz). Hasta aquí el original; veamos las variantes:

• 486 SX: un DX sin coprocesador matemático. ¿Que cómo se hace eso? Sencillo: se hacen todos como DX y se quema el coprocesador, tras lo cual en vez de "DX" se escribe "SX" sobre el chip. Dantesco, ¿verdad? Pero la teoría dice que si lo haces y lo vendes más barato, sacas dinero de alguna forma. Lo dicho, alucinante.

• 486 DX2: o el "2x1": un 486 "completo" que va internamente el doble de rápido que externamente (es decir, al doble de MHz). Así, un 486 DX2-66 va a 66 MHz en su interior y a 33 MHz en sus comunicaciones con la placa (memoria, caché secundaria...). Buena idea, Intel.

• 486 DX4: o cómo hacer que 3x1=4. El mismo truco que antes, pero multiplicando por 3 en vez de por 2 (DX4-100 significa 33x3=99 ó, más o menos, 100). ¿Que por qué no se llama DX3? Márketing, chicos, márketing. El 4 es más bonito y grande...

En este terreno Cyrix y AMD hicieron de todo, desde micros "light" que eran 386 potenciados (por ejemplo, con sólo 1 Kb de caché en vez de 8) hasta chips muy buenos como el que usé para empezar a escribir esto: un AMD DX4-120 (40 MHz por 3), que rinde casi (casi) como un Pentium 75, o incluso uno a 133 MHz (33 MHz por 4 y con 16 Kb de caché!!).

Por cierto, tanto "por" acaba por generar un cuello de botella, ya que hacer pasar 100 ó 133 MHz por un hueco para 33 es complicado, lo que hace que más que "x3" acabe siendo algo así como "x2,75" (que tampoco está mal).

PSGT 08 Introducción Básica a I.T

40

Además, genera calor, por lo que debe usarse un disipador de cobre y un ventilador sobre el chip.

En un 486 se puede hacer de todo, sobre todo si supera los 66 MHz y tenemos suficiente RAM; por ejemplo, yo hice gran parte de estas páginas, que no es poco.

MICROPROCESADORES MODERNOS

Pentium MMX

Es un micro propio de la filosofía Intel. Con un gran chip como el Pentium Pro ya en el mercado, y a 3 meses escasos de sacar el Pentium II, decidió estirar un poco más la tecnología ya obsoleta del Pentium clásico en vez de ofrecer esas nuevas soluciones a un precio razonable.

Así que se inventó un nuevo conjunto de instrucciones para micro, que para ser modernos tuvieran que ver con el rendimiento de las aplicaciones multimedia, y las llamó MMX (MultiMedia eXtensions). Prometían que el nuevo Pentium, con las MMX y el doble de caché (32 KB), podía tener ¡hasta un 60% más de rendimiento!!

Disculpen si respondo: ¡y unas narices! En ocasiones, la ventaja puede llegar al 25%, y sólo en aplicaciones muy optimizadas para MMX (ni Windows 95 ni Office lo son, por ejemplo). En el resto, no más de un 10%, que además se debe casi en exclusiva al aumento de la caché interna al doble. ¿La ventaja del chip, entonces? Que su precio final acaba siendo igual que si no fuera MMX. Además, consume y se calienta menos por tener voltaje reducido para el núcleo del chip (2,8 V). Por cierto, el modelo a 233 MHz (66 MHz en placa por 3,5) está tan estrangulado por ese "cuello de botella" que rinde poco más que el 200 (66 por 3).

Pentium II ¿El nuevo super-extra-chip? Pues no del todo. En realidad, se trata del viejo Pentium Pro, jubilado antes de tiempo, con algunos cambios (no todos para mejor) y en una nueva y fantástica presentación, el cartucho SEC: una cajita negra superchula que en vez de a un zócalo se conecta a una ranura llamada Slot 1.

Los cambios respecto al Pro son:

• optimizado para MMX (no sirve de mucho, pero hay que estar en la onda, chicos);

• nuevo encapsulado y conector a la placa (para eliminar a la competencia, como veremos);

• rendimiento de 16 bits mejorado (ahora sí es mejor que un Pentium en Windows 95, pero a costa de desaprovecharlo; lo suyo son 32 bits puros);

• caché secundaria encapsulada junto al chip (semi-interna, como si dijéramos), pero a la mitad de la velocidad de éste (un retroceso desde el Pro, que iba a la misma velocidad; abarata los costes de fabricación).

PSGT 08 Introducción Básica a I.T

41

Vamos, un chip "Pro 2.0", con muchas luces y algunas sombras. La mayor sombra, su método de conexión, el "Slot 1"; Intel lo patentó, lo que es algo así como patentar un enchufe cuadrado en vez de uno redondo (salvando las distancias, no nos pongamos puristas). El caso es que la jugada buscaba conseguir que los PC fueran todos marca Intel; ¡y decían que los sistemas propietarios eran cosa de Apple! Eso sí, durante bastante tiempo fue el mejor chip del mercado, especialmente desde que se dejó de fabricar el Pro.

AMD K6 Un chip meritorio, mucho mejor que el K5. Incluía la "magia" MMX, aparte de un diseño interno increíblemente innovador y una caché interna de 64 KB (no hace demasiado, ese tamaño lo tenían las cachés externas; casi da miedo). Se "pincha" en un zócalo de Pentium normal (un socket 7, para ser precisos) y la caché secundaria la tiene en la placa base, a la manera clásica. Pese a esto, su rendimiento es muy bueno: mejor que un MMX y sólo algo peor que un II, siempre que se pruebe en Windows 95 (NT es terreno abonado para el Pentium II).

Aunque es algo peor en cuanto a cálculos de coma flotante (CAD y juegos), para oficina es la opción a elegir en todo el mundo... excepto España. Aquí nos ha encantado lo de "Intel Pentium Inside", y la gente no compra nada sin esta frase, por lo que casi nadie lo vende y mucho menos a los precios ridículos de lugares como EEUU o Alemania. Oferta y demanda, como todo; no basta con una buena idea, hay que convencer. De todas formas, hasta IBM lo usa en algunos de sus equipos; por algo será.

6x86MX (M2) de Cyrix (o IBM)

Nada que añadir a lo dicho sobre el 6x86 clásico y el K6 de AMD; pues eso, un chip muy bueno para trabajo de oficinas, que incluye MMX y que nunca debe elegirse para CAD o juegos (peor que los AMD).

Celeron (Pentium II light)

En breve: un Pentium II sin la caché secundaria. Pensado para liquidar el mercado de placas base tipo Pentium no II (con socket 7, que se dice) y liquidar definitivamente a AMD y otras empresas molestas que usan estas placas. Esta gente de Intel no tiene compasión, sin duda... Muy poco recomendable, rendimiento mucho más bajo que el de Pentium II, casi idéntico al del Pentium MMX.

AMD K6-2 (K6-3D)

Consiste en una revisión del K6, con un núcleo similar pero añadiéndole capacidades 3D en lo que AMD llama la tecnología 3DNow! (algo así como un MMX para 3D).

Además, generalmente trabaja con un bus de 100 MHz hacia caché y memoria, lo que le hace rendir igual que un Pentium II en casi todas las condiciones e incluso mucho mejor que éste cuando se trata de juegos 3D modernos (ya que

PSGT 08 Introducción Básica a I.T

42

necesitan estar optimizados para este chip o bien usar las DirectX 6 de Microsoft).

Desarrollo De Los Microprocesadores Intel

Procesador Fecha de

presentación

Velocidad

de reloj

Ancho

de bus

Número de

transistores

Memoria

direccionable

Memoria

virtual

Breve

descripción

4004 15/11/71 108 KHz. 4 bits 2.300 (10 micras)

640 byte

Primer chip con manipulación aritmética

8008 1/4/72 108 KHz. 8 bits 3.500 16 KBytes Manipulación Datos/texto

8080 1/4/74 2 MHz. 8 bits 6.000 64 KBytes

10 veces las (6 micras) prestaciones del 8008

8086 8/6/78

5 MHz.

8 MHz.

10 MHz.

16 bits

29.000

(3 micras) 1 MegaByte

10 veces las prestaciones del 8080

8088 1/6/79 5 MHz.

8 MHz. 8 bits 29.000

Idéntico al 8086 excepto en su bus externo de 8 bits

80286 1/2/82

8 MHz.

10 MHz.

12 MHz.

16 Bits

134.000

(1.5 micras)

16 Megabytes

1 Gigabyte

De 3 a 6 veces las prestaciones del 8086

Microprocesador

Intel 386 DX® 17/10/85

16 MHz.

20 MHz.

25 MHz.

33 MHz.

32 Bits

275.000

(1 micra) 4 Gigabytes 64

Terabytes

Primer chip x86 capaz de manejar juegos de datos de 32 bits

Microprocesador 16/6/88 16 MHz. 16 Bits

275.000 4 gigabytes 64 Bus capaz de direccionar

PSGT 08 Introducción Básica a I.T

43

Intel 386 SX® 20 MHz. (1 micra) Terabytes 16 bits procesando 32bits a bajo coste

Microprocesador

Intel 486 DX® 10/4/89

25 MHz.

33 MHz.

50 MHz.

32 Bits

(1 micra, 0.8 micras en 50 MHz.)

4 Gigabytes 64

Terabytes

Caché de nivel 1 en el chip

Microprocesador

Intel 486 SX® 22/4/91

16 MHz.

20 MHz.

25 MHz.

33 MHz.

32 Bits

1.185.000

(0.8 micras)

4 Gigabytes 64

Terabytes

Idéntico en diseño al Intel 486DX, pero sin coprocesador matemático

Procesador

Pentium® 22/3/93

60 MHz.

66 MHz.

75 MHz.

90 MHz.

100 MHz.

120 MHz.

133 MHz.

150 MHz.

166 MHz.

200 MHz.

32 Bits

3,1 millones

(0.8 micras)

4 Gigabytes 64

Terabytes

Arquitectura escalable. Hasta 5 veces las prestaciones del 486 DX a 33 MHz.

Procesador

PentiumPro® 27/3/95

150 MHz.

180 MHz.

200 MHz.

64 Bits

5,5 millones

(0.32 micras)

4 Gigabytes 64

Terabytes

Arquitectura de ejecución dinámica con procesador de altas prestaciones

Procesador

PentiumII® 7/5/97

233 MHz.

266 MHz.

300 MHz.

64 Bits

7,5 millones

(0.32 micras)

4 Gigabytes 64

Terabytes

S.E.C., MMX, Doble Bus Indep., Ejecución Dinámica

PSGT 08 Introducción Básica a I.T

44

CHIPSETS

El chipset es un conjunto de circuitos integrados diseñado para trabajar conjuntamente y generalmente vendido como un único producto. En el mundo de los computadores personales se disponían muchos circuitos integrados como apoyo al microprocesador tales como el controlador de interrupciones, controlador de acceso directo a memoria, controlador de reloj, etc. Para reducir el número de circuitos se fueron creando circuitos más complejos que incluían multiples funcionalidades en su interior. Esos circuitos son los que actualmente se denominan chipset del computador y son responsables en una medida importante del rendimiento global del mismo. Se ha comparado al Chipset con la "médula espinal": "una persona puede tener un buen cerebro, pero si la médula falla, todo el cuerpo no sirve para nada". Las computadoras personales actuales tienen chipset formado por 2 circuitos auxiliares al procesador principal:

• El puente norte que se utiliza como puente de enlace entre el microprocesador y la memoria, controlando los accesos hacia y desde el microprocesador, la memoria RAM, el puerto gráfico y las comunicaciones con el puente sur.

• El puente sur que controla los dispositivos asociados, es decir se encarga de comunicar el procesador con el resto de los periféricos. (los controladores de disco, puertos de entrada y salida, como USB, etc.)

RAM (RANDOM ACCES MEMORY)

MEMORIA DE ACCESO ALEATORIO Esta se compone físicamente de uno o más chips y se utiliza como memoria de trabajo para programas y datos. Es un tipo de memoria temporal que pierde sus datos cuando se queda sin energía, por lo cual es una memoria volátil. Es un tipo de memoria a la que se puede acceder de forma aleatoria; esto es, se puede acceder a cualquier byte de la memoria sin pasar por los bytes precedentes. RAM es el tipo más común de memoria en las computadoras y en otros dispositivos, tales como las impresoras. La memoria principal o RAM es donde el computador guarda los datos que está utilizando en el momento presente. El almacenamiento es considerado temporal por que los datos y programas permanecen en ella mientras que la computadora este encendida o no sea reiniciada.

PSGT 08 Introducción Básica a I.T

45

TIPOS DE RAM

Hay dos tipos básicos de memoria RAM

• RAM dinámica (DRAM) • RAM estática (SRAM)

Los dos tipos de memoria RAM se diferencian en la tecnología que utilizan para guardar los datos, la memoria RAM dinámica es la más común. La memoria RAM dinámica necesita actualizarse miles de veces por segundo, mientras que la memoria RAM estática no necesita actualizarse, por lo que es más rápida, aunque también más cara. Ambos tipos de memoria RAM son volátiles, es decir, que pierden su contenido cuando se apaga el equipo.

MEMORIA DRAM

La memoria DRAM ("Dynamic RAM") es una memoria RAM electrónica construida mediante condensadores. Los condensadores son capaces de almacenar un bit de información almacenando una carga eléctrica. Lamentablemente los condensadores sufren de fugas lo que hace que la memoria DRAM necesite refrescarse cada cierto tiempo: el refresco de una memoria RAM consiste en recargar los condensadores que tienen almacenado un uno para evitar que la información se pierda por culpa de las fugas (de ahí lo de "Dynamic"). Entre las memorias DRAM tenemos: FPM-RAM (Fast Page Mode RAM) Memoria asíncrona, más rápida que la anterior (modo de Página Rápida) y con tiempos de acceso de 70 ó 60 ns. Esta memoria se encuentra instalada en muchos sistemas de la primera generación de Pentium. Incorpora un sistema de paginado debido a que considera probable que el próximo dato a acceder este en la misma columna, ganando tiempo en caso afirmativo. EDO-RAM (Extended Data Output RAM) Memoria asíncrona, esta memoria permite a la CPU acceder más rápido porque envía bloques enteros de datos; con tiempos de acceso de 40 ó 30 ns. BEDO-RAM (Burst Extended Data Output RAM) Es una evolución de la EDO RAM y competidora de la SDRAM. Lee los datos en ráfagas, lo que significa que una vez que se accede a un dato de una posición determinada de memoria se leen los tres siguientes datos en un solo ciclo de reloj por cada uno de ellos, reduciendo los tiempos de espera del procesador. Al igual que la EDO RAM, la limitación de la BEDO RAM es que no puede funcionar por encima de los 66 MHz. SDR SDRAM (Single Data Rate Synchronous Dynamic RAM ) Memoria síncrona (misma velocidad que el sistema), con tiempos de acceso de entre 25 y 10ns y que se presentan en módulos DIMM de 168 contactos. Fue

PSGT 08 Introducción Básica a I.T

46

utilizada en los Pentium 2 y en los Pentium III , así como en los AMD K6, K7 y Duron. Dependiendo de la frecuencia de trabajo se dividen en:

• PC66: la velocidad de bus de memoria es de 66 MHz, temporización de 15 ns y ofrece tasas de transferencia de hasta 533 MB/s.

• PC100: la velocidad de bus de memoria es de 100 MHz, temporización de 8 ns y ofrece tasas de transferencia de hasta 800 MB/s.

• PC133: la velocidad de bus de memoria es de 133 MHz, temporización de 7,5 ns y ofrece tasas de transferencia de hasta 1066 MB/s.

Está muy extendida la creencia de que se llama SDRAM a secas, y que la denominación SDR SDRAM es para diferenciarla de la memoria DDR, pero no es así, simplemente se extendió muy rápido la denominación incorrecta. El nombre correcto es SDR SDRAM ya que ambas (tanto la SDR como la DDR) son Memorias Síncronas Dinámicas. DDR SDRAM (Double Data Rate SDRAM) Memoria síncrona, envía los datos dos veces por cada ciclo de reloj. De este modo trabaja al doble de velocidad del bus del sistema, sin necesidad de aumentar la frecuencia de reloj. Se presenta en módulos DIMM de 184 contactos. Del mismo modo que la SDRAM, en función de la frecuencia del sistema se clasifican en (según JEDEC):

• PC 1600 ó DDR200: funciona a 2.5 V, trabaja a 200 MHz, es decir 100 MHz de bus de memoria y ofrece tasas de transferencia de hasta 1,6 GB/s (de ahí el nombre PC1600). Este tipo de memoria la utilizaron los Athlon XP de AMD, y los primeros Pentium 4.

• PC 2100 ó DDR266: funciona a 2.5 V, trabaja a 266 MHz, es decir 133 MHz de bus de memoria y ofrece tasas de transferencia de hasta 2,1 GB/s (de ahí el nombre PC2100).

• PC 2700 ó DDR333: funciona a 2.5 V, trabaja a 333 MHz, es decir 166 MHz de bus de memoria y ofrece tasas de transferencia de hasta 2,7 GB/s (de ahí el nombre PC2700).

• PC 3200 ó DDR400: funciona a 2.5V, trabaja a 400 MHz, es decir, 200 MHz de bus de memoria y ofrece tasas de transferencia de hasta 3,2 GB/s (de ahí el nombre PC3200).

• También existen las especificaciones DDR433, DDR466, DDR500, DDR533 y DDR600 pero según muchos ensambladores es poco práctico utilizar DDR a más de 400 MHz, por lo que está siendo sustituida por la revisión DDR2.

• PC-4200 ó DDR2-533: trabaja a 533 MHz, es decir, 133 MHz de bus de memoria y ofrece tasas de transferencia de hasta 4,2 GB/s (de ahí el nombre PC4200).

• PC-4800 ó DDR2-600: trabaja a 600 MHz, es decir, 150 MHz de bus de memoria y ofrece tasas de transferencia de hasta 4,8 GB/s (de ahí el nombre PC4800).

PSGT 08 Introducción Básica a I.T

47

• PC-5300 ó DDR2-667: trabaja a 667 MHz, es decir, 166 MHz de bus de memoria y ofrece tasas de transferencia de hasta 5,3 GB/s (de ahí el nombre PC5300).

• PC-6400 ó DDR2-800: trabaja a 800 MHz, es decir, 200 MHz de bus de memoria y ofrece tasas de transferencia de hasta 6,4 GB/s (de ahí el nombre PC6400).

También existen las versiones DDR2-400, DDR2-433, DDR2-466, DDR2-500 (por la misma razón anterior, JEDEC no considera práctico DDR2 a menos de 533 MHz), DDR2-1000, DDR2-1066, DDR2-1150 y DDR2-1200. RDRAM (Rambus DRAM) Memoria de gama alta basada en un protocolo propietario creado por la empresa Rambus, lo cual obliga a sus compradores a pagar regalías en concepto de uso. Esto ha hecho que el mercado se decante por la memoria DDR de uso libre, excepto algunos servidores de grandes prestaciones (Cray) y la famosa PlayStation 2. Se clasifica en:

• Rambus PC600: se caracteriza por utilizar dos canales en vez de uno y ofrece unas tasas de transferencia de 1,06 GB/s por canal => 2,12 GB/s a una frecuencia de 266MHz.

• Rambus PC700: igual que el anterior, trabaja a una frecuencia de 356 MHz y ofrece unas tasas de transferencia de 1,42 GB/s por canal => 2,84 GB/s.

• Rambus PC800: del mismo modo, trabaja a 400 MHz y ofrece unas tasas de transferencia de 1,6 GB/s por canal => 3,2 GB/s.

Aunque competidora de la DDR, la RDRAM funciona de modo muy distinto: la DDR utiliza los flancos de subida y bajada del reloj para duplicar su frecuencia efectiva (hasta DDR400) con un bus de datos de 64 bits, mientras que la RDRAM eleva la frecuencia de los chips para evitar cuellos de botella (hasta PC800) con un bus de datos de 16 bits. ESDRAM (Enhanced SDRAM) Esta memoria incluye una pequeña memoria estática en el interior del chip SDRAM. Con ello, las peticiones de ciertos ser resueltas por esta rápida memoria, aumentando las prestaciones. Se basa en un principio muy similar al de la memoria caché utilizada en los procesadores actuales.

MEMORIA SRAM (STATIC RAM)

Representa la abreviatura de "Static RAM". El hecho de ser estática quiere decir que no es necesario refrescar los datos (al contrario que la DRAM), ya que sus celdas mantienen los datos, siempre y cuando estén alimentadas. Otra de sus ventajas es su velocidad, comparable a la de los procesadores actuales. Como contraprestación, debido al elevado número de transistores por bit, las SRAM tienen un elevado precio, por lo que su uso se limita a las memorias caché de procesadores y microcontroladores. Así, y atendiendo a la utilización de la SRAM como memoria caché de nuestros sistemas informáticos, tenemos tres tipos:

PSGT 08 Introducción Básica a I.T

48

Async SRAM

Memoria asíncrona y con tiempos de acceso entre 20 y 12 nanosegundos, utilizada como caché de los antiguos i386, i486 y primeros Pentium,

Sync SRAM

Memoria síncrona y con un tiempo de acceso entre 12 y 8,5 nanosegundos. Muy utilizada en sistemas a 66 MHz de bus.

Pipelined SRAM

Memoria síncrona con tiempos de acceso entre 8 y 4,5 nanosegundos. Tarda más que la anterior en cargar los datos, pero una vez cargados, accede a ellos con mayor rapidez.

COSTOS

La memoria DRAM es más lenta que la memoria SRAM, pero por el contrario es mucho más barata de fabricar y por ello es el tipo de memoria RAM más comúnmente utilizada como memoria principal. Como contraprestación, debido al elevado número de transistores por bit, las SRAM tienen un elevado precio, por lo que su uso se limita a las memorias caché de procesadores y microcontroladores.

TIPOS DE MÓDULOS

Los chipsets de memoria vienen montados en módulos entre los que tenemos los siguientes:

Módulo de memoria SIMM de 30 pines

SIMM es un acrónimo del idioma ingles que expresa Single in Line Memory Module o modulo de memoria de una sola línea, es decir, un modulo de memoria SIMM es un conjunto de chips, generalmente DIPs integrados a una tarjeta electrónica. Este modulo normalmente trabaja con una capacidad para el almacenamiento y lectura de datos de 8 bits.

Módulo de memoria SIMM de 72 pines con tecnología E DO RAM

Este módulo de memoria es superior en tamaño al SIMM de 30 pines. Normalmente trabaja con una capacidad para el almacenamiento y lectura de datos de 32 bits.

Módulo de memoria DIMM de 168 pines con tecnología SDR SDRAM

DIMM es un acrónimo inglés que expresa Dual in Line Memory Module o módulo de memoria de doble línea. Este módulo generalmente trabaja con una capacidad para el almacenamiento y lectura de datos de 64 bits.

PSGT 08 Introducción Básica a I.T

49

Módulo de memoria DIMM de 184 pines con tecnología DDR SDRAM

Este tipo de módulo de memoria trabaja con chips de memoria DDR SDRAM, con un bus de datos de 64 bits y posee 184 pines (lo que evita confundirlo con el de 168 pines y conectarlo en placas que no lo soporten).

Módulo de memoria RIMM de 184 pines con tecnología RDRAM

Este tipo de módulo de memoria trabaja con chips de memoria RDRAM, por lo que deben instalarse siempre de dos en dos y en módulos específicos. Suelen tener una protección metálica que favorece la disipación térmica.

TENDENCIAS

Se usan técnicas de detección de errores para detectar si los datos leídos de la memoria han sido alterados por algún error. La técnica del bit de paridad consiste en guardar un bit adicional por cada byte de datos, y en la lectura se comprueba si el número de unos es par (paridad par) o impar (paridad impar), detectándose así el error. Una técnica mejor es la que usa ECC, que permite detectar errores de 2,3 y 4 bits y corregir errores que afecten a un sólo bit, esta técnica se usa sólo en sistemas que requieren alta fiabilidad.

MEMORIAS PARA DESKTOP Y LAPTOP

En laptops suelen emplearse, dado su tamaño tan compacto en módulos de memoria SO-DIMM (Small Outline DIMM) que consisten en una versión compacta de los módulos DIMM convencionales, contando con 144 contactos y con un tamaño de aproximadamente la mitad de un módulo SIMM.

Mientras en las desktop suele usarse una gran gama de memorias en las que varia el el tamaño de los contactos, la cantidad, las dimensiones físicas de los componentes

PSGT 08 Introducción Básica a I.T

50

UTILIZACION DE MEMORIAS FLASH COMO AUXILIARES

Las memoria auxiliares mantienen de manera permanente los datos que forman parte del sistema automatizado de la computadora de una manera contraria a la memoria central que contiene datos y programas de manera temporal (memorias volátiles) útiles para datos intermediarios necesarios por la computadora para realizar un cálculo específico, este proceso puede ser llevado a cabo muy útilmente por una memoria flash que son de tipo no volátil, esto es, la información que almacena no se pierde en cuanto se desconecta de la corriente. Las capacidades de almacenamiento de estas tarjetas que integran memorias flash comenzaron en 128 MB pero actualmente se pueden encontrar en el mercado tarjetas de hasta 32 GB. Ofrecen, características como gran resistencia a los golpes, bajo consumo y es muy silencioso, ya que no contiene ni actuadores mecánicos ni partes móviles. MEMORIA VIRTUAL Sólo la carga del sistema operativo puede consumir TODA la memoria con la que se venden algunos computadores de gama baja, esto debido a que la carga del sistema operativo consume recursos de la memoria física. En el caso del Sistema Operativo Windows de Microsoft tiende a aumentar su tamaño y su consumo de memoria según vamos instalando programas, o sencillamente según pasa el tiempo, sin instalar nada. Pese a esto, el hecho es que los computadores siguen trabajando cuando se les agota la memoria RAM, es algo que sería imposible si no fuera por la denominada "memoria virtual", que no es sino espacio del disco duro que se utiliza como si fuera memoria RAM. Sin embargo, esta memoria virtual tiene varios inconvenientes; el principal es su velocidad, ya que es mucho más lenta que la RAM. Mientras la velocidad de acceso a la RAM se mide en nanosegundos (ns, la 0,000000001 parte de un segundo), la de los discos duros se mide en milisegundos; es decir, que se tarda casi un millón de veces más en acceder a un dato que encuentra en el disco duro que a uno de la RAM.

PSGT 08 Introducción Básica a I.T

51

PAGINACION

En sistemas operativos de computadoras, los sistemas de paginación de memoria dividen los programas en pequeñas partes o páginas. Del mismo modo, la memoria es dividida en trozos del mismo tamaño que las páginas llamados marcos de página. De esta forma, la cantidad de memoria desperdiciada por un proceso es el final de su última página, lo que minimiza la fragmentación interna y evita la externa. La memoria virtual usualmente (pero no necesariamente) es implementada usando paginación. En paginación, los bits menos significativos de la dirección de memoria virtual son preservados y usados directamente como los bits de orden menos significativos de la dirección de memoria física. Los bits más significativos son usados como una clave en una o más tablas de traducción de direcciones (llamadas tablas de paginación), para encontrar la parte restante de la dirección física buscada.

PSGT 08 Introducción Básica a I.T

52

MEMORY STICK “Memory Stick” es un medio compacto de grabación a base de circuitos integrados que incorpora la tecnología de memoria relámpago reescribible.

Memory Stick es un formato de tarjeta de memoria extraíble (memoria flash), comercializado por Sony en octubre de 1998. El término también se utiliza para definir a la familia entera de estos dispositivos de memoria (Memory Stick). Dentro de dicha familia se incluye la Memory Stick Pro, una versión posterior que permite una mayor capacidad de almacenamiento y velocidades de transferencia de archivos más altas, y la Memory Stick Pro Duo, una versión de menor tamaño que el Memory Stick. USOS

Normalmente, la Memory Stick es utilizada como medio de almacenamiento de información para un dispositivo portátil, de forma que puede ser fácilmente extraído para tener acceso a un ordenador. Por ejemplo, las cámaras digitales de Sony utilizan la tarjeta Memory Stick para guardar imágenes y vídeos. Con

PSGT 08 Introducción Básica a I.T

53

un lector de Memory Stick (normalmente una pequeña caja conectada vía USB o alguna otra conexión de serie) una persona puede transferir las imágenes tomadas con la cámara digital Sony a su ordenador. Sony utiliza y sigue utilizando las tarjetas Memory Stick en cámaras digitales, dispositivos digitales de música, PDAs, teléfonos celulares, la PlayStation Portable (PSP), y en otros dispositivos. Además, la línea de portátiles Sony VAIO lleva mucho tiempo incluyendo ranuras para Memory Stick. También hay lectores que usan PCMCIA, Compact Flash, lectores floppy de 3.5" pulgadas y otros formatos. En términos de compatibilidad, una Memory Stick antigua puede ser usada en lectores MS más recientes (como también puede utilizarse la Memory Stick Duo con un adaptador en lectores más recientes). Aun así, la Memory Stick Pro y la Memory Stick Pro Duo a menudo no son soportados en los lectores antiguos. Incluso, aunque las tarjetas de alta velocidad Pro o Pro Duo puedan trabajar en lectores Pro (las Pro Duo necesitando de un adaptador), su mayor velocidad puede no estar disponible.

El Memory Stick original estaba disponible con capacidades de hasta 128 MB, y una versión más pequeña, la Memory Stick Select, que permite tener dos núcleos de 128 MB en una misma tarjeta. La Memory Stick Pro tiene un máximo de memoria de 32 GB de acuerdo con Sony, con tamaños que van hasta los 8 GB disponibles para 2006 y para 2008 los de 16 GB. Se puede comprar un adaptador para las Memory Stick Pro Duo, y poder insertarla en una ranura de Memory Stick Duo. La Memory Stick para muchos es asociada sólo con la marca propietaria Sony, ya que la gran mayoría de dispositivos portátiles de ésta la han utilizado durante mucho tiempo (Aun así, los únicos fabricantes relevantes que producen la Memory Stick son San disk y Lexar). A pesar de ser propiedad de una marca en especial (o debido al apoyo obstinado de parte de Sony para el formato), la Memory Stick ha sobrevivido más que otros formatos de memoria flash de otras marcas, y su longevidad es sólo comparable a la del Compact Flash y la del Secure Digital.

LOS DIFERENTES FORMATOS

La Memory Stick incluye un amplio rango de formatos actuales, incluyendo dos factores de forma diferentes. La Memory Stick original era aproximadamente del tamaño y espesor de una goma de mascar y venía con capacidades de 4 MB hasta 128 MB. Esta

PSGT 08 Introducción Básica a I.T

54

limitación de capacidad se volvió obsoleta rápidamente, por lo que Sony introdujo el poco conocido Memory

Stick PRO Duo. Memory Stick fue desarrollado para darse cuenta de la conveniencia de grabar diferentes tipos de contenido digital y compartir e intercambiar entre ellas la más amplia variedad posible de productos. Es compacto, ligero, fiable y fácil de manejar. Una amplia variedad de contenido digital, de las fotos y los datos informáticos a la música y las imágenes en movimiento, se pueden almacenar en un solo palo. Memory Stick también ofrece un entorno fiable protección de derechos de autor de manera que los usuarios pueden grabar segura de contenido protegido por derechos de autor y, al mismo tiempo, los derechos de los titulares de derechos de autor pueden ser protegidas. Versátil, compatible y fácil de utilizar - Memory Stick es la memoria portátil de elección para cualquier persona para disfrutar de los contenidos digitales en cualquier lugar, cualquier momento.

Aplicación de las tarjetas de memoria se ha ampliado en los últimos años de registro e intercambio de datos para disfrutar de contenidos de entretenimiento, incluida aún la grabación de la imagen, grabación y reproducción de música, grabación de imágenes en movimiento y desempeño emitido en Internet. Al mismo tiempo, con mayor calidad de imágenes fijas o en movimiento, más avanzadas y versátiles aplicaciones de la tecnología, tales como tarjetas de memoria de alta velocidad y de gran capacidad de transferencia de datos que se espera. Con el fin de satisfacer esas necesidades, Memory Sticks se va a ampliar la funcionalidad y evolucionar con la innovación tecnológica para realizar más versátiles aplicaciones.

PSGT 08 Introducción Básica a I.T

55

Secure Digital (SD) es un formato de tarjeta de memoria flash. Se utiliza en dispositivos portátiles tales como cámaras fotográficas digitales, Wiis, ordenadores PDA y Palm, entre otros. Estas tarjetas tienen unas dimensiones de 32 Mm. x 24 Mm. x 2'1 mm. Existen dos tipos: unos que funcionan a velocidades normales, y otros de alta velocidad que tienen tasas de transferencia de datos más altas. Algunas cámaras fotográficas digitales requieren tarjetas de alta velocidad para poder grabar vídeo con fluidez o para capturar múltiples fotografías en una sucesión rápida. Los dispositivos con ranuras SD pueden utilizar tarjetas MMC, que son más finas, pero las tarjetas SD no caben en las ranuras MMC. Asimismo, se pueden utilizar directamente en las ranuras de Compact Flash o de PC Card con un adaptador. Sus variantes MiniSD y MicroSD se pueden utilizar, también directamente, en ranuras SD mediante un adaptador. Hay algunas tarjetas SD que tienen un conector USB integrado con un doble propósito, y hay lectores que permiten que las tarjetas SD sean accesibles por medio de muchos puertos de conectividad como USB, FireWire y el puerto paralelo común. Las tarjetas SD también son accesibles mediante una disquetera usando un adaptador Flash Path.

DESCRIPCION E INTRODUCCION AL MERCADO

Las tarjetas Secure Digital son utilizadas como soportes de almacenamiento por algunos dispositivos portátiles como:

PSGT 08 Introducción Básica a I.T

56

Cámaras digitales, para almacenar imágenes La consola Wii, la cual dispone de un lector de este tipo de tarjetas, que

ofrece la posibilidad de guardar datos relativos a los juegos Videocámaras, para almacenar tanto imágenes instantáneas como

vídeos PDA, para almacenar todo tipo de datos Teléfonos móviles, para almacenar imágenes, archivos de sonido y otros

archivos multimedia Palm

En 2005, las capacidades típicas de una tarjeta SD eran de 128, 256 y 512 megabytes, y 1, 2 y 4 giga bites. En 2006, se alcanzaron los 8 GB, y en 2007, los 16 GB. El 22 de agosto de 2007 Toshiba anunció que para 2008 empezará a vender memorias de 32 GB. Las tarjetas SD han sustituido a las SmartMedia como formato de tarjeta de memoria dominante en las cámaras digitales compactas. En 2001, SmartMedia había logrado un uso de cerca del 50%, pero en 2005, SD/MMC había alcanzado más de un 40% de cuota de mercado, y el porcentaje de SmartMedia cayó en picado. La gran mayoría de los principales fabricantes de cámaras fotográficas digitales usa SD en sus líneas de productos, como Canon, Nikon, Kodak y Konica Minolta. Sin embargo, tres fabricantes importantes se han adherido a sus propios formatos propietarios en sus cámaras fotográficas: Olympus y Fuji, que usan tarjetas XD; y Sony con su Memory Stick. Además, el SD no ha conquistado el mercado de Digital SLR,

PSGT 08 Introducción Básica a I.T

57

donde Compact Flash sigue siendo el formato más popular (excepto en la reciente Nikon dSLR D50 lanzada en abril de 2005).

"Secure" (seguro en español) en Secure Digital, viene del origen de la tarjeta. Para crear una tarjeta SD, Toshiba añadió hardware de cifrado a la ya existente tarjeta MMC, para aliviar las preocupaciones de la industria de la música, que giraban en torno a que las tarjetas MMC permitirían el pirateo fácil de la música (un esquema similar es el estándar de MagicGate usado en las Memory Stick). En teoría, este cifrado permitiría cumplir fácilmente los esquemas DRM sobre la música digital, pero esta funcionalidad se utiliza poco.

Con un soporte lector de tarjetas (normalmente, un pequeño dispositivo USB), el usuario puede acceder al contenido de una tarjeta SD usando su ordenador. Algunos ordenadores recientes tienen integrado dicho lector de tarjetas. Un reciente desarrollo son las tarjetas SD con conectores USB integrados, para eliminar la necesidad de disponer de un adaptador SD/USD o una ranura SD en el PC, aunque a cambio de un precio inicial más alto. Un diseño pionero de San disk tenía una aleta que giraba y dejaba al descubierto el conector. Aunque San disk no pretendía en un primer momento comercializar una tarjeta SD con USB, este movimiento animó a otros fabricantes a seguir el modelo. La abreviatura “SD” fue realmente desarrollada para otra aplicación completamente diferente: fue empleada en un primer momento para “Súper-Density Optical Disk” (disco óptico de alta densidad ), que supuso la entrada, poco exitosa, de Toshiba en las guerras de formatos de DVD.

PSGT 08 Introducción Básica a I.T

58

APERTURA DE ESTANDARES

Como la mayoría de los formatos de tarjeta de memoria, el SD está cubierto por numerosas patentes y marcas registradas, y sólo se puede licenciar a través de la Secure Digital Card Association (Asociación de la Tarjeta Secure Digital). El acuerdo de licencia actual de esta organización no permite controladores de código abierto para lectores de tarjetas SD, un hecho que genera consternación en las comunidades de código abierto y software libre. Generalmente, se desarrolla una capa de código abierto para un controlador SD de código cerrado disponible en una plataforma particular, pero esto está lejos de ser lo ideal. Otro método común consiste en utilizar el antiguo modo MMC, donde se requiere que todas las tarjetas SD soporten el estándar SD. Esto significa que SD es menos abierto que Compact Flash o los llaveros USB, que pueden ser implementados libremente (aunque requieren costes de licencia por las marcas registradas y logotipos asociados, pero aun así resulta mucho más abierto que XD o Memory Stick, donde no hay disponible ni documentación pública ni implementación documentada. Explicación técnica Todas las tarjetas de memoria SD y SDIO necesitan soportar el antiguo modo SPI/MMC que soporta la interfaz de serie de cuatro cables ligeramente más lenta (reloj, entrada serial, salida serial y selección de chip) que es compatible con los puertos SPI en muchos microcontroladores. Muchas cámaras digitales, reproductoras de audio digital y otros dispositivos portátiles, probablemente utilicen exclusivamente el modo MMC. La documentación para este modo se puede comprar en MMCA por 500,00 USD;

PSGT 08 Introducción Básica a I.T

59

sin embargo, la documentación parcial para SDIO es libre y existe documentación libre disponible para tarjetas de memoria como parte de las hojas de especificación de algunos fabricantes. El modo MMC no proporciona acceso a las características propietarias de cifrado de las tarjetas SD y la documentación libre de SD no describe dichas características. La información del cifrado es utilizada primordialmente por los productores de medios y no es muy utilizada por los consumidores quienes típicamente utilizan tarjetas SD para almacenar datos no protegidos. Existen 3 modos de transferencia soportados por SD:

Modo SPI: entrada separada serial y salida serial Modo un-bit SD: separa comandos, canales de datos y un formato

propietario de transferencia Modo cuatro-bit SD: utiliza terminales extra más algunos terminales

reasignados para soportar transferencias paralelas de cuatro bits. Las tarjetas de baja velocidad soportan tasas de transferencia de 0 a 400 Kbps y modo de transferencia un-bit SD, mientras que las tarjetas de alta velocidad soportan tasas de transferencia de 0 a 100 Mbps en el modo de cuatro-bit, y de 0 a 25 Mbps en el modo un-bit SD.

Los derechos de las licencias para SD/SDIO son impuestos a los fabricantes y vendedores de tarjetas de memoria y lectores de las mismas (1000 USD por año, más una membresía de 1500 USD por año). No obstante, las tarjetas SDIO pueden ser fabricadas sin licencia, así como tampoco es necesaria en el caso de la fabricación de los lectores MMC. Las tarjetas MMC tienen una interfaz de 7 terminales, SD y SDIO la expandieron a 9 terminales. Las ranuras SD pueden ser utilizadas para más cosas que una tarjeta de memoria flash. Los dispositivos que soportan SDIO (típicamente PDA, pero cada vez más ordenadores portátiles y teléfonos móviles) pueden usar pequeños dispositivos diseñados para las dimensiones SD, como receptores GPS, Wi-Fi o adaptadores Bluetooth, módems, lectores de códigos de barras, adaptadores IrDA, sintonizadores de radio FM, lectores de RFID o cámaras digitales acoplables. Se han propuesto otros dispositivos, pero todavía no se han implementado, como los adaptadores serie RS-232, sintonizadores de TV, escáneres de huella dactilar, adaptadores maestro/esclavo de SDIO a USB (que permitirían que un dispositivo de mano equipado con SDIO utilizara periféricos USB o interfaz a PC), lectores de bandas magnéticas, transmisores-receptores de Bluetooth/Wi-Fi/GPS, adaptadores Ethernet y adaptadores de módems celulares (PCS, CDPD, GSM, etc.).

PSGT 08 Introducción Básica a I.T

60

DIFERENTES TIPOS DE TARJETAS MMC/SD

La tarjeta SD no es el único estándar de tarjetas de memoria flash ratificado por la Secure Digital Card Association. Existen otros formatos de dicha asociación, como son el MiniSD y el MicroSD (conocido como Trans Flash antes de la ratificación por la Secure Digital Card Association). Estas tarjetas más pequeñas se pueden utilizar en ranuras del mismo tamaño que MMC/SD/SDIO con un adaptador (que deba conectar las conexiones eléctricas así como la llevar a cabo el contacto físico). Sin embargo, hay que decir que ya es difícil crear dispositivos de E/S con el factor de forma del SD y esto será aún menos posible con tamaños más pequeños.

Como las ranuras SD todavía tienen soporte para las tarjetas MMC, las variantes de MMC más pequeñas, que han evolucionado, también son compatibles con los dispositivos lectores para SD. De forma diferente a MiniSD y MicroSD (que son lo suficientemente distintas de la SD para hacer imposible construir adaptadores mecánicos), las ranuras RS-MMC mantienen compatibilidad hacia atrás con las tarjetas MMC de tamaño normal, ya que las tarjetas RS-MMC son simplemente tarjetas MMC más cortas. Se puede encontrar más información sobre estas variantes en Multi Media Card. Los datos de la tabla han sido recogidos a partir de versiones simplificadas de las especificaciones de MMC y de SDIO, y de otros datos de sitios Web sobre las asociaciones de tarjetas SD y MMC. Los datos de otras variantes de tarjetas es una fusión de los datos recogidos. El límite de la capacidad de todos los formatos SD/MMC parece ser de 128 GB en modo LBA (direccionamiento de sector de 28 bits). Todas las tarjetas fabricadas actualmente por San Disk, Ritek/Ridata y Kingmax Digital parecen utilizar el modo SPI. Además, las tarjetas MMC pueden ser eléctricamente idénticas a las tarjetas SD pero en una carcasa más fina y con un fusible para deshabilitar las funciones de SD (así que no es necesario pagar royalties SD). El MMC definió los protocolos SPI y un-bit MMC/SD. El protocolo subyacente SPI ha existido durante años como una característica estándar en muchos microcontroladores. Desde una perspectiva social, la justificación para un nuevo protocolo incompatible de SD/MMC es cuestionable; el desarrollo de un nuevo protocolo incompatible e innecesario puede ayudar a las asociaciones comerciales a recoger honorarios y pagos en calidad de socio pero aumenta el coste del hardware y software. El nuevo LASER1245458 utilizaba la señalización del colector abierto para permitir múltiples tarjetas en el mismo bus pero esto realmente causa problemas en una frecuencia de reloj alta.

PSGT 08 Introducción Básica a I.T

61

Mientras SPI utilizaba tres líneas compartidas más una de selección de chip separada en cada tarjeta, el nuevo protocolo permite que hasta 30 tarjetas sean conectadas con los mismos tres cables (sin la selección de chip) a expensas de una inicialización mucho más complicada de la tarjeta y del requisito de que cada tarjeta tiene un número de serie único para el conector y debe solicitar autorización para realizar la operación. Esta característica se utiliza raramente, y su uso se desaconseja en los nuevos estándares (que recomiendan un canal totalmente separado a cada tarjeta) debido a cuestiones de velocidad y consumo de energía. El protocolo casi-propietario de un-bit MMC/SD fue ampliado para utilizar transferencias con un ancho de cuatro bits (SD y MMC) y ocho bits (sólo MMC) para lograr más velocidad, mientras que la mayor parte del resto de la industria de la informática se está trasladando a canales más estrechos de una velocidad más alta. El estándar SPI se habría podido registrar simplemente con unas frecuencias de transferencia de datos más altas (por ejemplo, 133 MHz) para tener un rendimiento más alto que el ofrecido por el SD de cuatro bits (de todos modos, las CPU embebidas que ya no tenían tasas de reloj más altas no habrían sido lo suficientemente rápidas como para manejar tasas de datos más altas). La asociación de la tarjeta SD dio soporte para parte de las órdenes del antiguo protocolo MMC de un bit y añadió soporte para comandos adicionales relacionados con la protección de copia. MINISD

MiniSD es un formato de tarjeta de memoria flash. Presentada por primera vez por San Disk en CeBIT 2003, el miniSD se unió a la Memory Stick Duo y xD-Picture en cuanto a dispositivos pequeños. La tarjeta miniSD fue adoptada en 2003 por la Asociación SD como una extensión de tamaño ultra-pequeño para el estándar de tarjeta SD. Dado que las nuevas tarjetas se diseñaron especialmente para ser usadas en teléfonos móviles, están envueltas por un adaptador miniSD que permite la compatibilidad con todos los dispositivos equipados con una ranura de tarjeta SD.

ESPECIFICACIONES

PSGT 08 Introducción Básica a I.T

62

Tarjeta miniSD

Tarjeta SD

Tarjeta MicroSD

Ancho 5mm 24mm 15mm

Largo 215mm 3mm 11mm

Grosor 14mm 2,1mm 1mm

Volumen de la tarjeta

589 mm³

1,596 mm³

165mm³

Peso 1g aprox.

2g aprox.

< 1g aprox.

Voltaje de funcionamiento

2,7 - 3,6V

2,7 - 3,6V

2,7 - 3,6V

Interruptor de protección contra escritura

No Sí No

Protectores de terminal

No Sí No

Número de pines

11 pines 9 pines 8 pines

RED DE ÁREA LOCAL

REDES: NETWORKS.

Es un grupo de sistemas de cómputo pueden ser enlazados entre sí.

Hay muchos tipos de redes de cómputo, incluyendo los siguientes:

• Local-Area Networks (LANs) Red de Área Local: • Las computadoras están fisicamente muy juntas (esto es, en el mismo edificio). • Wide-Area Networks (WANs) Red de Area Amplia: • Las computadoras están muy lejos entre sí, y se conectan vía líneas telefónicas o por frecuencias de radio. • Campus-Area Networks (CANs) Red de Campus: Las computadoras están dentro de una área geográfica limitada, tal como un Campus universitario o Base Militar. Metroyolitan-Area Networks (MANs) Red de Área Metropolitana: Es una Red de Datos diseñada para un pueblo o ciudad. • Home-AreaNetworks (HANs) Red de Área—Casa: Red casera que mantiene a los usuarios conectados con los dispositivos digitales.

PSGT 08 Introducción Básica a I.T

63

Agregando a esos tipos de Redes, las siguientes características son usadas también para categorizar y diferenciar otros tipos de Redes:

• Topología: El arreglo geométrico de un sistema de cómputo. Las topologías comunes incluyen: redes de bus, estrella, y aro (anillo). Los dispositivos son conectados con muchas interconexiones redundantes entre nodos de red. En una topología de red verdadera cada nodo tiene una conexión a cada otro nodo en la red.

La topología de red define la estructura de una red. Una parte de la definición topológica es la topología física, que es la disposición real de los cables o medios. La otra parte es la topología lógica, que define la forma en que los hosts acceden a los medios para enviar datos.

• Protocolos: El Protocolo define un set común de reglas y señales que las computadoras en las redes usan para comunicarse. Uno de los protocolos más populares para LANs son las llamadas Ethernet. Otros protocolos populares de LAN para PCs es el de IBM: Red token-ring.

LOCAL AREA NETWORK

Es una red de computo que atraviesa una relativamente pequeña área. La mayor parte de las LANs son limitados a un solo edificio o grupo de edificios. Sin embargo, una LAN puede ser conectada a otras LANs sobre cualquier

PSGT 08 Introducción Básica a I.T

64

distancia vía líneas telefónicas y ondas de radio. Llaman un sistema de LANs conectados de este modo una red de área amplia (WAN).

La mayor parte de LANs unen (conectan) terminales de trabajo y ordenadores personales. Cada nodo (el ordenador individual) en un LAN tiene su propia CPU con la cual esto ejecuta programas, pero esto también es capaz de tener acceso a datos y dispositivos en todas partes sobre el LAN. Esto significa (piensa) que muchos usuarios pueden compartir dispositivos caros, como impresoras de láser, así como datos. Los usuarios también pueden usar el LAN para comunicar el uno con el otro, por enviando al correo electrónico o contratando en sesiones de charla. Hay muchos tipos diferentes de Redes Ethernet que son la más común para ordenadores personales.

Ventajas

En una empresa suelen existir muchos ordenadores, los cuales necesitan de su propia impresora para imprimir informes (redundancia de hardware), los datos almacenados en uno de los equipos es muy probable que sean necesarios en otro de los equipos de la empresa, por lo que será necesario copiarlos en este, pudiéndose producir desfases entre los datos de dos usuarios, la ocupación de los recursos de almacenamiento en disco se multiplican (redundancia de datos), los ordenadores que trabajen con los mismos datos tendrán que tener los mismos programas para manejar dichos datos (redundancia de software), etc. La solución a estos problemas se llama red de área local, esta permite compartir bases de datos (se elimina la redundancia de datos), programas (se elimina la redundancia de software) y periféricos como puede ser un módem, una tarjeta RDSI, una impresora, etc. (se elimina la redundancia de hardware); poniendo a nuestra disposición otros medios de comunicación como pueden ser el correo electrónico y el Chat.

Ethernet

Ethernet es el nombre de una de las redes de área local más populares hoy en día inventada por Xerox PARC a principios de los 70’s. La versión a continuación descrita fue estandarizada por Xerox Corporation, Intel Corporation y Digital Equipment Corporation en 1978. IEEE sacó una versión compatible con la norma bajo el número 802.3.

PSGT 08 Introducción Básica a I.T

65

La tecnología Ethernet consiste fundamentalmente en un cable coaxial llamado ether de aproximadamente /2 pulgada de diámetro y hasta 500 metros de longitud. Estos pueden ser extendidos por medio de dispositivos llamados repetidores que duplican las señales eléctricas de un cable a otro. Sólo 2 repetidores pueden ser usados entre 2 computadora, por lo que la longitud máxima de un Ethernet es bastante moderada (1500 melros).

COMPONENTES

• Servidor: El servidor es aquel o aquellos ordenadores que van a compartir sus recursos hardware y software con los demás equipos de la red.

• Estación de trabajo: Los ordenadores que toman el papel de estaciones de trabajo aprovechan o tienen a su disposición los recursos que ofrece la red así como los servicios que proporcionan los Servidores a los cuales pueden acceder.

• Gateways o pasarelas: Es un hardware y software que permite las comunicaciones entre la red local y grandes ordenadores (mainframes).

• Bridges o puentes: Es un hardware y software que permite que se conecten dos redes locales entre sí. Un puente interno es el que se instala en un servidor de la red, y un puente externo es el que se hace sobre una estación de trabajo de la misma red. Los puentes también pueden ser locales o remotos. Los puentes locales son los que conectan

PSGT 08 Introducción Básica a I.T

66

a redes de un mismo edificio, usando tanto conexiones internas como externas.

• Tarjeta de red: También se denominan NIC (Network Interface Card). Básicamente realiza la función de intermediario entre el ordenador y la red de comunicación. En ella se encuentran grabados los protocolos de comunicación de la red. La comunicación con el ordenador se realiza normalmente a través de las ranuras de expansión que éste dispone, ya sea ISA, PCI o PCMCIA. Aunque algunos equipos disponen de este adaptador integrado directamente en la placa base.

El conector de red LAN El conector de red Ethernet estándar es conocido como RJ-45. Posee entradas para 8 hilos (cables). Los cables y su configuración obedecen a la norma EIA/TIA – 568 (topología física, tipo de cables, longitud de cables, conectores) Los cables de red más comunes que utilizan los conectores RJ-45, se conocen como UTP (Unshielded Twisted Pair o Par Trenzado sin escudo). Mediante los conectores de red RJ-45 se pueden fabricar 2 tipos de cables : CABLE RECTO Y CABLE CRUZADO

Concentradores de cableado: Una LAN en bus usa solamente tarjetas de red en las estaciones y cableado coaxial para interconectarlas, además de los conectores, sin embargo este método complica el mantenimiento de la red ya que si falla alguna conexión toda la red deja de funcionar. Para impedir estos problemas las redes de área local usan concentradores de cableado para realizar las conexiones de las estaciones, en vez de distribuir las conexiones el concentrador las centraliza en un único dispositivo manteniendo indicadores luminosos de su estado e impidiendo que una de ellas pueda hacer fallar toda la red.

PSGT 08 Introducción Básica a I.T

67

PROTOCOLOS TCP/IP La Familia de protocolos de internet es un conjunto de protocolos de red en la que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se la denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, entre otros. El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa del departamento de defensa.

Ventajas e inconvenientes El conjunto TCP/IP está diseñado para enrutar y tiene un grado muy elevado de fiabilidad, es adecuado para redes grandes y medianas, así como en redes empresariales. Se utiliza a nivel mundial para conectarse a Internet y a los servidores web. Es compatible con las herramientas estándar para analizar el funcionamiento de la red. Un inconveniente de TCP/IP es que es más difícil de configurar y de mantener que NetBEUI o IPX/SPX; además es algo más lento en redes con un volumen de tráfico medio bajo. Sin embargo, puede ser más rápido en redes con un volumen de tráfico grande donde haya que enrutar un gran número de tramas.

Hub (Repetidor) • Permite la conexi ón de computadoras en red mediante una tecnolog ía de red (Ethernet, FDDI, ATM) Regla 5s,4r,3sa. • Se comparte el ancho de banda de la red

Switch (Cambiador) • Permite la separaci ón entre subredes de una LAN • Provee ancho de banda dedicado (PSHUB50)

Router (Ruteador) • Permite la conexi ón de redes • Posee conexiones m ás lentas (de mayor alcance) para E1(32 canales de 64kbps o DS0)

10 Mbps para todos los puertos

10 Mbps en cada puerto

PSGT 08 Introducción Básica a I.T

68

El conjunto TCP/IP se utiliza tanto en redes empresariales como por ejemplo en campus universitarios o en complejos empresariales, en donde utilizan muchos enrutadores y conexiones a mainframe o a ordenadores UNIX, como así también en redes pequeñas o domésticas, y hasta en teléfonos móviles.

LAS REDES INALÁMBRICAS

(en inglés wireless) son aquellas que se comunican por un medio de transmisión no guiado (sin cables) mediante ondas electromagnéticas. La transmisión y la recepción se realiza a través de antenas. Tienen ventajas como la rápida y fácil instalación de la red sin la necesidad de tirar cableado, permiten la movilidad y tienen menos costes de mantenimiento que una red convencional.

Según el tamaño que tiene cada red, es decir, su cobertura, se pueden

clasificar en diferentes tipos:

WPAN (Wireless Personal Area Network )

En este tipo de red de cobertura personal, existen tecnologías basadas en

HomeRF (estándar para conectar todos los teléfonos móviles de la casa y los

ordenadores mediante un aparato central); Bluetooth (protocolo que sigue la

especificación IEEE 802.15.1); ZigBee (basado en la especificación IEEE

802.15.4 y utilitzado en aplicaciones como la domótica, que requieren

comunicaciones seguras con tasas bajas de transmisión de datos y

maximización de la vida útil de sus baterías, bajo consumo); RFID (sistema

remoto de almacenamiento y recuperación de datos con el propósito de

transmitir la identidad de un objeto (similar a un número de serie único)

mediante ondas de radio).

WLAN (Wireless Local Area Network )

En las redes de área local podemos encontrar tecnologías inalámbricas

basadas en HiperLAN (del inglés, High Performance Radio LAN), un estándar

del grupo ETSI, o tecnologías basadas en Wi-Fi (Wireless-Fidelity), que siguen

el estándar IEEE 802.11 con diferentes variantes.

WMAN (Wireless Metropolitan Area Network , Wireless MAN)

Para redes de área metropolitana se encuentran tecnologías basadas en

WiMax (Worldwide Interoperability for Microwave Access, es decir,

Interoperabilidad Mundial para Acceso con Microondas), un estándar de

comunicación inalámbrica basado en la norma IEEE 802.16. WiMax es un

protocolo parecido a Wi-Fi, pero con más cobertura y ancho de banda.

PSGT 08 Introducción Básica a I.T

69

También podemos encontrar otros sistemas de comunicación como LMDS

(Local Multipoint Distribution Service).

WWAN (Wireless Wide Area Network , Wireless WAN)

En estas redes encontramos tecnologías como UMTS (Universal Mobile

Telecommunications System), utilizada con los teléfonos móviles de tercera

generación (3G) y sucesora de la tecnología GSM (para móviles 2G), o también

la tecnología digital para móviles GPRS (General Packet Radio Service).

WIRELESS

Se denomina Wireless a las comunicaciones inalámbricas, en las que se

utilizan modulación de ondas electromagnéticas, radiaciones o medios ópticos.

Estás se propagan por el espacio vacío sin medio físico que comunique cada

uno de los extremos de la transmisión.

COMPONENTES RED WIRELESS

DESVENTAJAS

PSGT 08 Introducción Básica a I.T

70

Desventajas de Wireless

Los hornos de microondas utilizan radiaciones en el espectro de 2.45 Ghz. Es

por ello que las redes y teléfonos inalámbricos que utilizan el espectro de 2.4

Ghz. pueden verse afectados por la proximidad de este tipo de hornos, que

pueden producir interferencias en las comunicaciones.

.

Wi-Fi es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11. Wi-Fi no tiene ningún significado ni es acrónimo de nada. Es sólo una marca, un sello que sirve para certificar que un producto cumple con los estándares 802.11.

Bluetooth es una especificación industrial para Redes Inalámbricas de Área

Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes

dispositivos mediante un enlace por radiofrecuencia segura y globalmente libre

(2,4 GHz.). Los principales objetivos que se pretende conseguir con esta norma

son:

Facilitar las comunicaciones entre equipos móviles y fijos.

Eliminar cables y conectores entre éstos.

Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la

sincronización de datos entre nuestros equipos personales.

Los dispositivos que con mayor intensidad utilizan esta tecnología son los de

los sectores de las telecomunicaciones y la informática personal, como PDAs,

teléfonos móviles, computadoras portátiles, ordenadores personales,

impresoras y cámaras digitales.

PSGT 08 Introducción Básica a I.T

71

Clase Potencia máxima permitida (mW)

Potencia máxima permitida (dBm)

Rango (aproximado)

Clase 1 100 mW 20 dBm ~100 metros

Clase 2 2.5 mW 4 dBm ~20 metros

Clase 3 1 mW 0 dBm ~1 metro

Cabe mencionar que en la mayoría de los casos, la cobertura efectiva de un dispositivo de clase 2 se extiende cuando se conecta a un transceptor de clase 1. Esto es así gracias a la mayor sensibilidad y potencia de transmisión del dispositivo de clase 1. Es decir, la mayor potencia de transmisión del dispositivo de clase 1 permite que la señal llegue con energía suficiente hasta el de clase 2. Por otra parte la mayor sensibilidad del dispositivo de clase 1 permite recibir la señal del otro pese a ser más débil. En cuanto al ancho de banda:

Versión Ancho de banda

Versión 1.2 1 Mbit/s

Versión 2.0 + EDR 3 Mbit/s

UWB Bluetooth (propuesto)

53 - 480 Mbit/s

VENTAJAS BLUETOOTH

• Facilitar las comunicaciones entre equipos móviles y fijos.

• Eliminar cables y conectores entre éstos.

• Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la

sincronización de datos entre nuestros equipos personales

PSGT 08 Introducción Básica a I.T

72

WIMAX

"Interoperabilidad Mundial para Acceso por Microondas") es un estándar de transmisión inalámbrica de datos (802.16 MAN) que proporciona accesos concurrentes en áreas de hasta 48 km de radio y a velocidades de hasta 70 Mbps, utilizando tecnología que no requiere visión directa con las estaciones base. WiMax es un concepto parecido a Wi-Fi pero con mayor cobertura y ancho de banda. Wi-Fi, fue diseñada para ambientes inalámbricos internos como una alternativa al cableado estructurado de redes y con capacidad sin línea de vista de muy pocos metros. WiMax, por el contrario, fue diseñado como una solución de última milla en redes metropolitanas (MAN) para prestar servicios a nivel comercial.

Características de WiMAX

Mayor productividad a rangos más distantes (hasta 50 km)

Mejor tasa de bits/segundo/HZ en distancias largas

Sistema escalable

Fácil adición de canales: maximiza las capacidades de las

células.

Anchos de banda flexibles que permiten usar espectros

licenciados y exentos de licencia

Cobertura

Soporte de mallas basadas en estándares y antenas inteligentes.

Servicios de nivel diferenciados: E1/T1 para negocios, mejor

esfuerzo para uso doméstico

Coste y riesgo de investigación

Los equipos WiMAX-CertifiedFF (certificación de compatibilidad)

permiten a los operadores comprar dispositivos de más de un vendedor

PSGT 08 Introducción Básica a I.T

73

GENERAL PACKET RADIO SERVICE (GPRS)

es un servicio de datos móvil orientado a paquetes. Está disponible para

los usuarios del Sistema Global para Comunicaciones Móviles (Global

System for Mobile Communications o GSM), así como para los teléfonos

móviles que incluyen el sistema IS-136. Permite velocidades de

transferencia de 56 a 114 kbps.

GPRS se puede utilizar para servicios tales como Wireless Application

Protocol (WAP) , servicio de mensajes cortos (SMS), servicio de

mensajería multimedia (MMS), Internet y para los servicios de

comunicación, como el correo electrónico y la World Wide Web (WWW).

La transferencia de datos de GPRS se cobra por megabyte de

capacidad, mientras que la comunicación de datos a través de

conmutación de circuitos tradicionales se factura por minuto de tiempo

de conexión, independiente de si el usuario utiliza la capacidad o está en

un estado de inactividad. GPRS da mejor rendimiento a la conmutación

de paquetes de servicios, en contraposición a la conmutación de

circuitos, donde una cierta calidad de servicio (QoS) está garantizado

durante la conexión para los no usuarios de móviles.

Servicios ofrecidos

La tecnología GPRS mejora y actualiza a GSM con los servicios siguientes:

Servicio de mensajes multimedia (MMS)

Mensajería instantánea

Aplicaciones en red para dispositivos a través del protocolo WAP

Servicios P2P utilizando el protocolo IP

Servicio de mensajes cortos (SMS)

Posibilidad de utilizar el dispositivo como módem USB

3G

PSGT 08 Introducción Básica a I.T

74

(o 3-G) es una abreviatura para tercera-generación de telefonía móvil.

Los servicios asociados con la tercera generación proporcionan la

posibilidad de transferir tanto voz y datos (una llamada telefónica) y

datos no-voz (como la descarga de programas, intercambio de email, y

mensajería instantánea).

Inicialmente la instalación de redes 3G fue lenta. Esto se debió a que los

operadores requieren adquirir una licencia adicional para un espectro de

frecuencias diferente al que era utilizado por las tecnologías anteriores

2G. El primer país en implementar una red comercial 3G a gran escala

fue Japón. En la actualidad, existen 164 redes comerciales en 73 países

usando la tecnología WCDMA.

3G (o 3-G) es una abreviatura para tercera-generación de telefonía

móvil. Los servicios asociados con la tercera generación proporcionan la

posibilidad de transferir tanto voz y datos (una llamada telefónica) y

datos no-voz (como la descarga de programas, intercambio de email, y

mensajería instantánea).

Inicialmente la instalación de redes 3G fue lenta. Esto se debió a que los

operadores requieren adquirir una licencia adicional para un espectro de

frecuencias diferente al que era utilizado por las tecnologías anteriores

2G. El primer país en implementar una red comercial 3G a gran escala

fue Japón. En la actualidad, existen 164 redes comerciales en 73 países

usando la tecnología WCDMA[1].

PSGT 08 Introducción Básica a I.T

75

Ventajas

IP basado en paquetes, pues solo pagas en función de la descarga lo

que supone relativamente un menor coste. Aunque dependiendo del tipo

de usuario también se podría calificar como desventaja.

Más velocidad de acceso.

UMTS, sumado al soporte de protocolo de Internet (IP), se combinan

poderosamente para prestar servicios multimedia y nuevas aplicaciones

de banda ancha, tales como servicios de video-telefonía y video-

conferencia.

Desventajas

Cobertura limitada.

No orientado a conexión. Cada uno de los paquetes pueden seguir rutas

distintas entre el origen y el destino, por lo que pueden llegar

desordenados o duplicados.

Sin embargo el hecho de no ser orientado a conexión tiene la ventaja de que

no se satura la red. Además para elegir la ruta existen algoritmos que

"escogen" qué ruta es mejor, estos algoritmos se basan en la calidad del canal,

en la velocidad del mismo y, en algunos, oportunidad hasta en 4 factores (todos

ellos configurables) para que un paquete "escoja" una ruta.

WIRELESS USB

Wireless USB es un protocolo de comunicación inalámbrica por radio con gran

ancho de banda que combina la sencillez de uso de USB con la versatilidad de

las redes inalámbricas. Suele abreviarse W-USB o WUSB, si bien el USB-IF,

que desarrolla su especificación, prefiere referirse a esta tecnología como

“Certified Wireless USB” para distinguirla de otros competidores (ver más

abajo). Utiliza como base de radio la plataforma Ultra-WideBand desarrollada

por WiMedia Alliance, que puede lograr tasas de transmisión de hasta 480

Mbps en rangos de tres metros y 110 en rangos de diez metros y opera en los

PSGT 08 Introducción Básica a I.T

76

rangos de frecuencia de 3,1 a 10,6 GHz (si bien las legislaciones locales

pueden imponer restricciones adicionales sobre los mismos).

PANTALLAS PARA COMPUTADOR PANTALLA LCD

Una pantalla de cristal líquido o LCD (acrónimo del inglés Liquid crystal display) es una pantalla delgada y plana formada por un número de píxeles en color o monocromos colocados delante de una fuente de luz o reflectora. A menudo se utiliza en pilas, dispositivos electrónicos, ya que utiliza cantidades muy pequeñas de energía eléctrica. Cada píxel de un LCD consta de una capa de moléculas alineadas entre dos electrodos transparentes, y dos filtros de polarización, los ejes de transmisión, de los cuales son (en la mayoría de los casos) perpendiculares entre sí. Sin cristal líquido entre el filtro polarizante, la luz que pasa por el primer filtro sería bloqueada por el segundo (cruzando) polarizador. La superficie de los electrodos que están en contacto con los materiales de cristal líquido es tratada a fin de ajustar las moléculas de cristal líquido en una dirección en particular. Este tratamiento normalmente consiste en una fina capa de polímero que es unidireccionalmente frotada utilizando, por ejemplo, un paño. La dirección de la alineación de cristal líquido se define por la dirección de frotación. Antes de la aplicación de un campo eléctrico, la orientación de las moléculas de cristal líquido está determinada por la adaptación a las superficies. En un dispositivo twisted nematic,TN, (unos de los dispositivos más comunes entre los de cristal líquido), las direcciones de alineación de la superficie de los dos electrodos son perpendiculares entre sí, y así se organizan las moléculas en una estructura helicoidal, o retorcida. Debido a que el material es de cristal líquido birefringent, la luz que pasa a través de un filtro polarizante se gira por

PSGT 08 Introducción Básica a I.T

77

la hélice de cristal líquido que pasa a través de la capa de cristal líquido, lo que le permite pasar por el segundo filtro polarizado. La mitad de la luz incidente es absorbida por el primer filtro polarizante, pero por lo demás todo el montaje es transparente. Cuando se aplica un voltaje a través de los electrodos, una tuerca ajusta las moléculas de cristal líquido paralelas al campo eléctrico, que distorsiona la estructura helicoidal (esto se puede resistir gracias a las fuerzas elásticas desde que las moléculas están limitadas a las superficies). Esto reduce la rotación de la polarización de la luz incidente, y el dispositivo aparece gris. Si la tensión aplicada es lo suficientemente grande, las moléculas de cristal líquido en el centro de la capa son casi completamente desenrolladas y la polarización de la luz incidente no es rotada ya que pasa a través de la capa de cristal líquido. Esta luz será principalmente polarizada perpendicular al segundo filtro, y por eso será bloqueada y el pixel aparecerá negro. Por el control de la tensión aplicada a través de la capa de cristal líquido en cada píxel, la luz se puede permitir pasar a través de distintas cantidades, constituyendose los diferentes tonos de gris.

• Resolución: El tamaño horizontal y vertical expresadas en píxeles (por ejemplo, 1024x768). A diferencia de los monitores CRT, las pantallas LCD tienen una resolución de soporte nativo para mostrar mejor efecto.

• Ancho de punto: La distancia entre los centros de dos pixeles adyacentes. Cuanto menor sea el ancho de punto, menor granularidad en la imagen. El ancho de punto puede ser el mismo tanto vertical como horizontal, o diferentes (menos común).

• Tamaño: El tamaño de un panel LCD se mide sobre la diagonal (más concretamente, conocida como área de visualización activa).

• Tiempo de respuesta: El tiempo mínimo necesario para cambiar el color de un pixel o brillo. El tiempo de respuesta también se divide en ascenso y caída de tiempo.

• Tipo de Matriz: activa o pasiva. • Ángulo de visión: más concretamente, conocida como visualización de la

dirección. • Soporte de color: ¿Cuántos tipos de colores son soportados?, más

conocida como gama de colores. • Brillo: La cantidad de luz emitida desde la pantalla, también se conoce

como luminosidad. • Contraste: La relación de la intensidad entre la más brillante y la más

oscura. • Aspecto: La proporción de la anchura y la altura (por ejemplo, 4:3, 16:9 y

16:10). • Puertos de entrada: entre los que se encuentran DVI, VGA, LVDS, o

incluso S - Video y HDMI.

Partes de pantalla LCD

• Film de filtro vertical para polarizar la luz que entra. • Substrato de vidrio con eléctrodos de Oxido de Indio ITO. Las formas de

los electrodos determinan las formas negras que aparecen cuando la

PSGT 08 Introducción Básica a I.T

78

pantalla se enciende y apaga. Los cantos verticales de la superficie son suaves.

• Cristales líquidos "Twisted Nematic" (TN). • Substrato de vidrio con film electrodo común (ITO) con los cantos

horizontales para alinearse con el filtro horizontal. • Film de filtro horizontal para bloquear/permitir el paso de luz. • Superficie reflectante para enviar devolver la luz al espectador. (En un

LCD retro-iluminado, esta capa es reemplazada por una fuente luminosa).

PANTALLA CRT

El Tubo de Rayos Catódicos (CRT o Cathode Ray Tube en inglés), fue inventado por Karl Ferdinand Braun y a su desarrollo contribuyeron los trabajos de Philo Farnsworth. Este componente es un dispositivo de visualización utilizado principalmente en monitores, televisiones y osciloscopios, aunque en la actualidad se tiende a ir sustituyéndolo paulatinamente por tecnologías como plasma, LCD, DLP, etc. El monitor es el encargado de traducir a imágenes las señales que provienen de la tarjeta gráfica. Su interior es similar al de un televisor convencional. La mayoría del espacio está ocupado por un tubo de rayos catódicos en el que se sitúa un cañón de electrones. Este cañón dispara constantemente un haz de electrones contra la pantalla, que está recubierta de fósforo (material que se ilumina al entrar en contacto con los electrones). En los monitores a color, cada punto o píxel de la pantalla está compuesto por tres pequeños puntos de fósforo: rojo, azul y verde. Iluminando estos puntos con diferentes intensidades, puede obtenerse cualquier color. Ésta es la forma de mostrar un punto en la pantalla, pero ¿cómo se consigue rellenar toda la pantalla de puntos? La respuesta es fácil: el cañón de electrones activa el primer punto de la esquina superior izquierda y, rápidamente, activa los siguientes puntos de la primera línea horizontal. Después sigue pintando y rellenando las demás líneas de la pantalla hasta llegar a la última y vuelve a comenzar el proceso. Esta acción es tan rápida que el ojo humano no es capaz de distinguir cómo se activan los puntos por

PSGT 08 Introducción Básica a I.T

79

separado, percibiendo la ilusión de que todos los píxels se activan al mismo tiempo. En el caso de los televisores y de los monitores de computador modernos, todo el frontal del tubo se obtiene por escáner según un recorrido definido, y se crea la imagen haciendo variar la intensidad del flujo de electrones (el haz) a lo largo del recorrido. El flujo en todas las TV modernas es desviado por un campo magnético aplicado sobre el cuello del tubo por un "yugo magnético" (magnetic yoke en inglés), que está formado por bobinas (a menudo dos) envueltas sobre ferrita y controladas por un circuito electrónico. Éste sería un barrido por desviación magnética. En el caso de un osciloscopio, la intensidad del haz se mantiene constante, y la imagen es dibujada por el camino que recorre el haz. Normalmente, la desviación horizontal es proporcional al tiempo, y la desviación vertical es proporcional a la señal. Los tubos para este tipo de usos son largos y estrechos, y además la desviación se asegura por la aplicación de un campo electrostático en el tubo mediante placas (de desviación) situadas en el cuello del tubo. Este clase de desviación es más rápida que una desviación magnética, ya que en el caso de una desviación magnética la inductancia de la bobina impide las variaciones rápidas del campo magnético (ya que impide la variación rápida de la corriente que crea el campo magnético). Los monitores en color utilizan tres materias agrupadas en un punto, por lo que el frontal del tubo está cubierto de puntos minúsculos. Cada una de estas materias produce un color si es sometida a un flujo de electrones. Los colores pueden ser el rojo, el verde o el azul. Hay tres cañones de electrones, uno por cada color, y cada cañón sólo puede encender los puntos de un color. Hay dispuesta una máscara en el tubo antes del frontal para evitar que interfieran los electrones de varios cañones.

PARTES DE UNA PANTALLA CRT

PANTALLA PLASMA

� Electrodos que desvían el haz � Cañón de electrones � Haces de electrones � Bobina para hacer converger el haz � Cara interior de la pantalla cubierta de fósforo

PSGT 08 Introducción Básica a I.T

80

Una pantalla de plasma (Plasma Display Panel – PDP) es un tipo de pantalla plana habitualmente usada para grandes TV (alrededor de 37 pulgadas o 940 mm.). Consta de muchas celdas diminutas situadas entre dos paneles de cristal que contienen una mezcla de gases nobles (neon y xenon). El gas en las celdas se convierte eléctricamente en plasma el cual provoca que los fósforos emitan luz. Las pantallas de plasma son brillantes (1000 lux o más por módulo), tienen un amplia gama de colores y pueden fabricarse en tamaños bastante grandes, hasta 262 cm de diagonal. Tienen una luminancia muy baja a nivel de negros, creando un negro que resulta más deseable para ver películas. Esta pantalla sólo tiene cerca de 6 cm de grosor y su tamaño total (incluyendo la electrónica) es menor de 10 cm. Los plasmas usan tanta energía por metro cuadrado como los televisores CRT o AMLCD. El consumo eléctrico puede variar en gran medida dependiendo de qué se esté viendo en él. Las escenas brillantes (como un partido de fútbol) necesitarán una mayor energía que las escenas oscuras (como una escena nocturna de una película). Las medidas nominales indican 400 vatios para una pantalla de 50 pulgadas. Los modelos relativamente recientes consumen entre 220 y 310 vatios para televisores de 50 pulgadas cuando se está utilizando en modo cine. La mayoría de las pantallas están configuradas con el modo “tienda” por defecto y consumen como mínimo el doble de energía que con una configuración más cómoda para el hogar. El tiempo de vida de la última generación de pantallas de plasma está estimado en unas 60.000 horas (o 27 años a 6 horas de uso por día) de tiempo real de visionado. En concreto, éste es el tiempo de vida medio estimado para la pantalla, el momento en el que la imagen se ha degradado hasta la mitad de su brillo original. Se puede seguir usando pero se considera el final de la vida funcional del aparato. Los competidores incluyen a CRT, OLED, AMLCD, DLP, SED-tv, etc. La principal ventaja de la tecnología del plasma es que pantallas muy grandes pueden ser fabricadas usando materiales extremadamente delgados. Ya que cada píxel es iluminado individualmente, la imagen es muy brillante y posee un gran ángulo de visión. Los gases xenon y neon en una televisión de plasma están contenidos en cientos de miles de celdas diminutas entre dos pantallas de cristal. Los electrodos también se encuentran “emparedados” entre los dos cristales, en la parte frontal y posterior de las celdas. Ciertos electrodos se ubican detrás de las celdas, a lo largo del panel de cristal trasero y otros electrodos, que están rodeados por un material aislante dieléctrico y cubiertos por una capa protectora de óxido de magnesio, están ubicados en frente de la celda, a lo largo del panel de cristal frontal. El circuito carga los electrodos que se cruzan en cada celda creando diferencia de voltaje entre la parte trasera y la frontal y provocan que el gas se ionice y forme el plasma. Posteriormente, cuando los iones del gas corren hacia los electrodos y colisionan se emiten fotones. En una pantalla monocroma es posible mantener el estado ionizado mediante la aplicación de un voltaje de bajo nivel a todos los electrodos verticales y horizontales, incluso cuando el voltaje iónico ha sido retirado. Para borrar una celda se elimina todo el voltaje de un par de electrodos. Este tipo de pantallas

PSGT 08 Introducción Básica a I.T

81

tiene memoria inherente y no usa fósforos. Se añade una pequeña cantidad de nitrógeno al neón para incrementar la histéresis. En las pantallas a color, la parte trasera de cada celda es cubierta con un fósforo. Los fotones ultravioletas emitidos por el plasma excitan esos fósforos y emiten luz de colores. La operación de cada una de las celdas se puede comparar con la de una lámpara fluorescente. Cada pixel está compuesto por tres celdas separadas (subpixeles), cada una con fósforos de diferentes colores. Un subpixel tiene un fósforo con luz de color rojo, otro subpixel tiene un fósforo con luz de color verde y el otro subpixel lo tiene con luz de color azul. Estos colores se mezclan para crear el color final del píxel de forma análoga a como se hace en los “triads” de las máscaras de sombras de los CRT. Variando los pulsos de la corriente que fluye a través de las diferentes celdas miles de veces por segundo, el sistema de control puede incrementar o reducir la intensidad del color de cada subpixel para crear billones de combinaciones diferentes de rojo, verde y azul. De esta forma, el sistema de control es capaz de producir la mayoría de los colores visibles. Las pantallas de plasma usan los mismos fósforos que los CRTs, lo cual explica la extremadamente precisa reproducción del color.

PANTALLA DLP

Digital Light Processing (en español "Procesado digital de la luz") es una tecnología usada en proyectores y televisores de proyección. El DLP fue desarrollado originalmente por Texas Instruments, y sigue siendo el único fabricante de esta tecnología, aunque muchos productos de mercado autorizados están basados en sus circuitos integrados auxiliares. En los proyectores DLP, la imagen es creada por espejos microscópicos dispuestos en una matriz sobre un chip semiconductor, conocido como Digital Micromirror Device (DMD). Cada espejo representa un píxel en la imagen proyectada. El número de espejos se corresponde con la resolución de la imagen proyectada: las matrices de 800×600, 1024×768, y 1280×720 son algunos de los tamaños comunes de DMD. Estos espejos pueden ser recolocados rápidamente para reflejar la luz a través de la lente o sobre un disipador de calor (denominado descarga ligera en la terminología de Barco).

PSGT 08 Introducción Básica a I.T

82

RETROPROYECTOR

Consta de dos partes diferenciadas: la base o caja de luz y la cabeza, que se puede deslizar a lo largo de un soporte. La lámpara productora de rayos luminosos (1) está situada en el centro de la base. Los rayos luminosos son dirigidos por medio de un espejo reflector (2), a través de una lente (3), que concentra a éstos, los cuales alcanzan la lente de Fresnel (4), la cual concentra nuevamente el haz; éste pasa a través de la base o placa de trabajo (5) llegando hasta la cabeza del proyector. Al alcanzar la cabeza, el haz luminoso pasa a través de una nueva lente condensadora (6) y llega hasta un espejo inversor (7), el cual lo proyecta sobre la pantalla y la imagen aparece en esta en la misma posición en que la teníamos en la placa de trabajo, es decir, directa y natural. La cabeza suele llevar un tornillo para poder orientarla verticalmente. Para que la proyección sea clara y nítida se necesita mucha intensidad de luz, lo cual implica calor, por lo que los retroproyectores llevan en la caja un ventilador (8). Para enfocar bien la imagen, todos los aparatos poseen un tornillo o rueda de fricción que permite ajustar la altura de la cabeza, la cual se desliza sobre el soporte (9). En algunos modelos, puede variar alguno de los elementos antes descritos, en cualquiera de los casos, investigar su funcionamiento antes de manejarlo suele evitar acaloramientos si durante la proyección fallase algún elemento.

PSGT 08 Introducción Básica a I.T

83

MATRIZ ACTIVA Y PASIVA

Matriz Pasiva.- son las pantallas más antiguas, tienen un Angulo de visión muy cerrado, se ven solo de frente.

Matriz activa.- son las más modernas, se ven desde cualquier Angulo sin perder definición, obviamente son mejores (y mas caras) que las pasivas.

PANTALLA VGA

El término Video Graphics Array (VGA) se refiere tanto a una pantalla de computadora analógica estándar; conector VGA de 15 clavijas D subminiatura que se comercializó por primera vez en 1988 por IBM; o la resolución 640 ×

PSGT 08 Introducción Básica a I.T

84

480. Si bien esta resolución ha sido reemplazada en el mercado de las computadoras, se está convirtiendo otra vez popular por los dispositivos móviles. VGA fue el último estándar de gráficos introducido por IBM al que la mayoría de los fabricantes de clones de PC se ajustaba, haciéndolo hoy (a partir de 2007) el mínimo que todo el hardware gráfico soporta antes de cargar un dispositivo específico. Por ejemplo, la pantalla de Microsoft Windows aparece mientras la máquina sigue funcionando en modo VGA, razón por la que esta pantalla aparecerá siempre con reducción de la resolución y profundidad de color. VGA fue oficialmente reemplazado por XGA estándar de IBM, pero en realidad ha sido reemplazada por numerosas extensiones clon ligeramente diferentes a VGA realizados por los fabricantes que llegaron a ser conocidas en conjunto como "Super VGA". VGA que se denomina "matriz" (array) en lugar de "adaptador" (adapter), ya que se puso en práctica desde el inicio como un solo chip, en sustitución de los Motorola 6845 y docenas de chips de lógica discreta que cubren una longitud total de una tarjeta ISA que MDA, CGA y EGA utilizaban. Esto también permite que se coloquen directamente sobre la placa base del PC con un mínimo de dificultad (sólo requiere memoria de vídeo y un RAMDAC externo). Los primeros modelos IBM PS / 2 estaban equipados con VGA en la placa madre. Las especificaciones VGA son las siguientes:

• 256 KB Video RAM • Modos: 16-colores y 256-colores • 262144 valores de la paleta de colores (6 bits para rojo, verde y azul) • Reloj maestro seleccionable de 25.2 MHz o 28.3 • Máximo de 720 píxeles horizontales • Máximo de 480 líneas • Tasa de refresco de hasta 70 Hz • Interrupción vertical vacía (No todas las tarjetas lo soportan) • Modo plano: máximo de 16 colores • Modo pixel empaquetado: en modo 256 colores (Modo 13h) • Soporte para hacer scrolling • Algunas operacions para mapas de bits • Barrel shifter • Soporte para partir la pantalla • 0.7 V pico a pico • 75 ohm de impedancia (9.3mA - 6.5mW)

VGA soporta tanto los modos de todos los puntos direccionables como modos de texto alfanuméricos. Los modos estándar de gráficos son:

• 640×480 en 16 colores • 640×350 en 16 colores • 320×200 en 16 colores • 320×200 en 256 colores (Modo 13h)

Tanto como los modos estándar, VGA puede ser configurado para emular a cualquiera de sus modos predecesores (EGA, CGA, and MDA).

PSGT 08 Introducción Básica a I.T

85

PANTALLA SVGA

Super Video Graphics Array o SVGA es un término que cubre una amplia gama de estándares de visualización gráfica de ordenadores, incluyendo tarjetas de video y monitores. Cuando IBM lanzara al mercado el estándar VGA en 1987 muchos fabricantes manufacturan tarjetas VGA clones. Luego, IBM se mueve y crea el estándar XGA, el cual no es seguido por las demás compañías, éstas comienzan a crear tarjetas de vídeo SVGA. Las nuevas tarjetas SVGA de diferentes fabricantes no eran exactamente igual a nivel de hardware, lo que las hacía incompatibles. Los programas tenían dos alternativas: Manejar la tarjeta de vídeo a través de llamadas estándar, lo cual era muy lento pero había compatibilidad con las diferentes tarjetas, o manejar la tarjeta directamente, lo cual era muy rápido y se podía acceder a toda la funcionalidad de ésta (modos gráficos, etc), sin embargo, el programador tenía que hacer una rutina de acceso especial para cada tipo de tarjeta. Poco después surgió Video Electronics Standards Association (VESA), un consorcio abierto para promover la interoperabilidad y definición de estándares entre los diferentes fabricantes. Entre otras cosas, VESA unificó el manejo de la interface del programa hacia la tarjeta, también desarrolló un bus con el mismo nombre para mejorar el rendimiento entre el ordenador y la tarjeta. Unos años después, este bus sería sustituido por el PCI de Intel. SVGA fue definido en 1989 y en su primera versión se estableció para una resolución de 800 × 600 pixels y 4 bits de color por pixel, es decir, hasta 16 colores por pixel. Después fue ampliado rápidamente a los 1024 × 768 pixels y 8 bits de color por pixel, y a otras mayores en los años siguientes. Aunque el número de colores fue definido en la especificación original, esto pronto fue irrelevante, (en contraste con los viejos estándares CGA y EGA), ya que el interfaz entre la tarjeta de vídeo y el monitor VGA o SVGA utiliza voltajes simples para indicar la profundidad de color deseada. En consecuencia, en cuanto al monitor se refiere, no hay límite teórico al número de colores distintos que pueden visualizarse, lo que se aplica a cualquier monitor VGA o SVGA. Mientras que la salida de VGA o SVGA es analógica, los cálculos internos que la tarjeta de vídeo realiza para proporcionar estos voltajes de salida son enteramente digital. Para aumentar el número de colores que un sistema de visualización SVGA puede producir, no se precisa ningún cambio en el monitor,

PSGT 08 Introducción Básica a I.T

86

pero la tarjeta vídeo necesita manejar números mucho más grandes y puede ser necesario rediseñarla desde el principio. Debido a esto, los principales fabricantes de chips gráficos empezaron a producir componentes para tarjetas vídeo del alta densidad de color apenas unos meses después de la aparición de SVGA. Sobre el papel, el SVGA original debía ser sustituido por el estándar XGA o SXGA, pero la industria pronto abandonó el plan de dar un nombre único a cada estándar superior y así, casi todos los sistemas de visualización hechos desde finales de los 80 hasta la actualidad se denominan SVGA. Los fabricantes de monitores anuncian a veces sus productos como XGA o SXGA, pero esto no tiene ningún significado, ya que la mayoría de los monitores SVGA fabricados desde los años 90 llegan y superan ampliamente el rendimiento de XGA o SXGA.

PANTALLA XVGA

XGA (siglas en inglés de Extended Graphics Array) es un estándar de visualización de gráficos para ordenadores creada por IBM en 1990. El estándar XGA permite una resolución de pantalla máxima de 1024x768 pixeles, con una paleta gráfica de 256 colores, o 640x480 con una profundidad de color de 16 bits por pixel (65.536 colores) El estándar XGA-2 permite mayor profundidad de color para el modo 1024x768 y mayor frecuencia de refresco de pantalla, además de una resolución de 1360x1024 a 16 colores. Todos estos modos de pantalla conservan la relación de aspecto 4:3 redondeado a 8 pixeles. El formato de presentación de gráficos XGA no es un reemplazo para el estándar Super VGA, sino sólo un conjunto particular de modos de pantalla dentro del rango permitido por éste. No debe confundirse XGA con el estándar VESA EVGA, comercializado en las mismas fechas.

CONECTORES

PSGT 08 Introducción Básica a I.T

87

CONECTOR VGA

Un conector VGA como se le conoce comúnmente (otros nombres incluyen conector RGB, D-sub 15, sub mini mini D15 y D15), de tres hileras de 15 pines DE-15. Hay cuatro versiones: original, DDC2, el más antiguo y menos flexible DE-9, y un Mini-VGA utilizados para computadoras portátiles. El conector común de 15 pines se encuentra en la mayoría de las tarjetas de vídeo, monitores de computadoras, y otros dispositivos, es casi universalmente llamado "HD-15". HD es de "alta densidad", que la distingue de los conectores que tienen el mismo factor de forma, pero sólo en 2 filas de pines. Sin embargo, este conector es a menudo erróneamente denominado DB-15 o HDB-15. Los conectores VGA y su correspondiente cableado casi siempre son utilizados exclusivamente para transportar componentes analógicos RGBHV (rojo - verde - azul - sincronización horizontal - sincronización vertical), junto con señales de vídeo DDC2 reloj digital y datos. En caso de que el tamaño sea una limitación (como portátiles) un puerto mini-VGA puede figurar en ocasiones en lugar de las de tamaño completo conector VGA.

Tipo Conector analógico de video para ordenador

Production history

Diseñador IBM basado en D-subminiature

Diseñado en

1987

Producido 1987 hasta hoy

Especificaciones

Señal de Video

RGB más sincronismo H y V

Señal de Datos

I²C canal de datos para información DDC

Pines 15

Conector DE-15

PSGT 08 Introducción Básica a I.T

88

CONECTOR VIDEO COMPUESTO

El conector RCA es un tipo de conector eléctrico común en el mercado automotor. El nombre "RCA" deriva de la Radio Corporation of America, que introdujo el diseño en los 1940. En muchas áreas ha sustituido al conector típico de audio (jack), muy usado desde que los reproductores de casete se hicieron populares, en los años 1970. Ahora se encuentra en la mayoría de televisores y en otros equipos, como grabadores de vídeo o DVDs. El conector macho tiene un polo en el centro (+), rodeado de un pequeño anillo metálico (-) (a veces con ranuras), que sobresale. El conector hembra tiene como polo central un agujero cubierto por otro aro de metal, más pequeño que el del macho para que éste se sujete sin problemas. Ambos conectores (macho y hembra) tienen una parte intermedia de plástico, que hace de Aislante eléctrico. Un problema del sistema RCA es que cada señal necesita su propio cable. Otros tipos de conectores son combinados, como el euroconector (SCART), usado exclusivamente en Europa. La señal de los RCA no es balanceada por lo que corresponde generalmente a -10dBu. Esto hace que no se utilicen profesionalmente. Su nombre técnico es CINCH

CONECTOR RGB

La sigla RGB se refiere al tratamiento de la señal de vídeo que trata por separado las señales de los tres colores rojo, verde y azul (en inglés Red, Green, Blue). Al usarlo independientemente, proporciona mayor calidad y reproducción más fiel del color. Este modelo de color, también llamado aditivo, define cómo, al aumentar la intensidad de los tres colores, hasta su máximo posible, se forma la luz blanca (de ahí la denominación aditivo: al sumarse los tres colores el resultado es la luz blanca) y, por el contrario, a medida que disminuyen su intensidad, hasta el mínimo posible, desaparece la luminosidad y se origina la oscuridad total. Las diferentes intensidades de los tres colores en sus múltiples combinaciones van originando todos los colores, es decir el espectro de colores visibles (arco iris). El modelo de color llamado RGB es el que se utiliza en todos los sistemas que forman imágenes a través de rayos luminosos, ya sea emitiéndolos o recibiéndolos. Unos sistemas (los que emiten rayos luminosos) forman las imágenes bien a través de tubos de rayos catódicos (TV, monitores,

PSGT 08 Introducción Básica a I.T

89

proyectores de vídeo, etc.), a través de LED (diodos luminosos) o sistemas de Plasma (TV, monitores, etc.). Los sistemas que reciben y capturan luz (capturan las imágenes) son las cámaras digitales de fotografía y vídeo, los escáneres, etc. Gracias al establecimiento de este modelo de color, ha sido posible la creación de todos estos sistemas de emisión y recepción de imágenes.

CONECTOR HDMI

El conector estándar de HDMI tipo A tiene 19 pines. Se ha definido también una versión de mayor resolución -tipo B-, pero su uso aún no se ha generalizado. El tipo B tiene 29 pines, permitiendo llevar un canal de vídeo expandido para pantallas de alta resolución. El tipo B fue diseñado para resoluciones más altas que las del formato 1080p. El HDMI tipo A es compatible hacia atrás con un enlace simple DVI, usado por los monitores de ordenador y tarjetas gráficas modernas. Esto quiere decir que una fuente DVI puede conectarse a un monitor HDMI, o viceversa, por medio de un adaptador o cable adecuado, pero el audio y las características de control remoto HDMI no estarán disponibles. Además, sin el uso de HDCP, la calidad de vídeo y la resolución podrían ser degradadas artificialmente por la fuente de la señal para evitar al usuario final ver o, mayormente, copiar contenido protegido. El HDMI tipo B es, de forma similar, compatible hacia atrás con un enlace dual DVI.

Las conexiones de HDMI allí son porciones de métodos que usted puede utilizar para conectar componentes del hogar-teatro. Por ejemplo: El vídeo

PSGT 08 Introducción Básica a I.T

90

componente lleva las señales video análogas separadas en dos canales para el color y un tercero para la luminiscencia. Los cables video componentes utilizan los conectadores de RCA. el S-vi'deo transmite señales análogas usando un cable y un cuatro-perno conectador. DVI, o el interfaz visual digital, es los 29-pernos conexión usada comúnmente con los monitores de la computadora. Desemejante del vídeo compuesto y del s-vi'deo, lleva señales numéricas. Muchos adopters tempranos de HDTV confían en DVI, puesto que golpeó el mercado antes de que lo hiciera HDMI. Puesto que DVI y HDMI ambos utilizan el protocolo de TMDS, son compatibles. Todo lo que usted necesita conectar un cable de HDMI con un puerto de DVI es un adaptador pasivo. Comprador con un adaptador simple, usted de HowStuffWorks de la cortesía de la foto puede tapar un cable de HDMI en una ranura de DVI. Los conectadores de DVI y de HDMI tienen algunas otras semejanzas. Ambos utilizan una rejilla de pernos para transmitir señales del cable al dispositivo. Mientras que DVI tiene 29-pernos conectador, el tipo conectador de HDMI de A tiene 19 pernos. Un conectador de DVI también utiliza un par de tornillos incorporados para anclarlo al dispositivo. Los enchufes de HDMI no tienen esta ayuda adicional, y algunos usuarios han expresado la preocupación esa esto ponen la tensión innecesaria en el trazado de circuito del dispositivo. Hay también una versión miniatura del conectador de HDMI para el uso en dispositivos más pequeños como los camcorders digitales así como 29-pernos tipo conectador de B, aunque la mayoría de los dispositivos del consumidor utilizan el tipo A. De los pernos de conectador de HDMI, las señales viajan con pares torcidos de cable de cobre. Tres audio y los canales video viajan a través de dos pernos cada uno, para un total de seis pernos. El reloj de TMDS, que permite que los dispositivos sincronicen los datos entrantes, viaja con un par de pernos. Cada uno de estos cuatro pares totales tiene un protector -- otro alambre que lo proteja contra interferencia de sus vecinos. Los canales de TMDS, el reloj y los protectores hacen para arriba el bulto de los pares del cable dentro del cable de HDMI. Las otras señales que viajan con la necesidad del cable de HDMI solamente un perno. Un tal canal es el canal de la electrónica de consumidor (la CCE). Si sus dispositivos lo apoyan, este canal permite que envíen las instrucciones a una otras. Por ejemplo, un jugador de HD-DVD podría girar automáticamente un receptor del hogar-teatro y un HDTV cuando comenzó a jugar un disco. El enchufe caliente detectó el canal, que utiliza un perno, los sentidos cuando usted enchufa o desenchufa un dispositivo, volviendo a iniciar el acoplamiento de HDMI en caso de necesidad. El uno-perno canal de los datos de la exhibición (DDC) lleva la información del dispositivo y la información del cifrado de HDCP discutida en la sección anterior. Otros canales llevan datos y electricidad del cifrado para accionar la comunicación entre los dispositivos. Los cables ellos mismos vienen en dos categorías. La categoría 1 tiene una velocidad de 74.25 megaciclos. La categoría 2 tiene apresurado de 340 megaciclos. La mayoría de los cables del consumidor son la variedad más rápida de la categoría 2. Además del conectador y del cable, el estándar de HDMI se aplica a cómo los aparatos de TV Pueden sincronizar el sonido con vídeo y exhibir color. Estas capacidades han cambiado perceptiblemente sobre varias revisiones al estándar, que compararemos en la sección siguiente. Asignación debvb pines de un conector tipo A

Pin Asignación de señal Pin Asignación de señal

PSGT 08 Introducción Básica a I.T

91

1 TMDS Data2+ 2 TMDS Data2 Shield

3 TMDS Data2– 4 TMDS Data1+

5 TMDS Data1 Shield 6 TMDS Data1–

7 TMDS Data0+ 8 TMDS Data0 Shield

9 TMDS Data0– 10 TMDS Clock+

11 TMDS Clock Shield 12 TMDS Clock–

13 CEC 14 Reservado

15 SCL 16 SDA

17 Tierra DDC/CEC 18 +5V Power

19 Detección de conexión "en caliente" (Hot Plug)

CONECTIVIDAD

Conectividad es la capacidad de un dispositivo (un PC, periférico, PDA, móvil, robot, electrodoméstico, coche, etc.) de poder ser conectado (generalmente a un PC u otro dispositivo) sin la necesidad de un ordenador, es decir en forma autónoma. Un conector de un ordenador es cualquier conector dentro de un ordenador o para conectar ordenadores a redes, impresoras u otros dispositivos. Generalmente, estos conectores tienen nombres específicos que permiten una identificación más precisa, y el uso de estos nombres se recomienda. Algunos conectores de ordenadores comunes son subminiatura D, edgecard, Centronics, USB, FireWire, BNC, RJ-11 y varios conectores de pin y de "socket". La mayor parte de los conectores de ordenador son eléctricos u ópticos.

CONECTIVIDAD ALAMBRICA

PSGT 08 Introducción Básica a I.T

92

CONECTIVIDAD INALÁMBRICA

ILINK O IEEE 1394 El IEEE 1394 (conocido como FireWire -Cable de fuego- por Apple Inc. y como i.Link -i.Eslabón- por Sony) es un estándar multiplataforma para entrada/salida de datos en serie a gran velocidad. Suele utilizarse para la interconexión de dispositivos digitales como cámaras digitales y videocámaras a computadoras.

PSGT 08 Introducción Básica a I.T

93

HISTORIA

El FireWire fue inventado por Apple Computer a mediados de los 90, para

luego convertirse en el estándar multiplataforma IEEE 1394. A principios

de este siglo fue adoptado por los fabricantes de periféricos digitales hasta convertirse en un estándar establecido.

Sony utiliza el estándar IEEE 1394 bajo la denominación i.Link, que sigue los mismos estándares pero solo utiliza 4 conexiones, de las 6 disponibles en la norma IEEE 1394, suprimiendo las dos conexiones encargadas de proporcionar energía al dispositivo, que tendrá que proveerse de ella mediante una toma separada.

CARACTERÍSTICAS

• Elevada velocidad de transferencia de información. • Flexibilidad de la conexión. • Capacidad de conectar un máximo de 63 dispositivos.

Su velocidad hace que sea la interfaz más utilizada para audio y vídeo digital. Así, se usa mucho en cámaras de vídeo, discos duros, impresoras, reproductores de vídeo digital, sistemas domésticos para el ocio, sintetizadores de música y escáneres. Existen dos versiones:

• FireWire 400* (IEEE 1394a): tiene un ancho de banda de 400 Mbit/s, 30 veces mayor que el USB 1.1 y similar a la del USB 2.0, que alcanza los 480.

• IEEE 1394b, FireWire 800 ó FireWire 2: duplica la velocidad del FireWire 400.

Así, para usos que requieran la transferencia de grandes volúmenes de información, resulta muy superior al USB.

• Arquitectura altamente eficiente. IEEE 1394b reduce los retrasos en la negociación, gracias a 8b10b (código que codifica 8 bits en 10 bits, que fue desarrollado por IBM y permite suficientes transiciones de reloj, la codificación de señales de control y detección de errores. El código 8b10b es similar a 4B/5B de FDDI, el que no fue adoptado debido al pobre equilibrio de corriente continua), que reduce la distorsión de señal y aumenta la velocidad de transferencia. Proporciona, por tanto, una mejor vivencia como usuario.

• Da igual cómo conectes tus dispositivos entre ellos, FireWire 800 funciona a la perfección. Por ejemplo, puedes incluso enlazar a tu Mac la cadena de dispositivos FireWire 800 por los dos extremos para mayor seguridad durante acontecimientos en directo.

• Compatibilidad retroactiva. Los fabricantes han adoptado el FireWire para una amplia gama de dispositivos, como videocámaras digitales, discos duros, cámaras fotográficas digitales, audio profesional,

PSGT 08 Introducción Básica a I.T

94

impresoras, escáneres y electrodomésticos para el ocio. Los cables adaptadores para el conector de 9 contactos del FireWire 800 te permiten utilizar productos FireWire 400 en el puerto FireWire 800. FireWire 800 comparte las revolucionarias prestaciones del FireWire 400.

• Flexibles opciones de conexión. Conecta hasta 63 computadoras y dispositivos a un único bus: puedes incluso compartir una cámara entre dos Macs o PCs.

• Distribución en el momento. Fundamental para aplicaciones de audio y vídeo, donde un fotograma que se retrasa o pierde la sincronización arruina un trabajo, el FireWire puede garantizar una distribución de los datos en perfecta sincronía.

• Alimentación por el bus. Mientras el USB 2.0 permite la alimentación de dispositivos sencillos y lentos que consumen un máximo de 2,5 W, como un mouse, los dispositivos con FireWire pueden proporcionar o consumir hasta 45 W, más que suficiente para discos duros de alto rendimiento y baterías de carga rápida.

• Conexiones de enchufar y listo. No tienes más que enchufar un dispositivo para que funcione.

• Ahora en muchas tiendas ya venden "kits" con cables que sirven para conectar tu IEEE 1394 con distintos adaptadores para USB, para que los conectes más fácil a tus dispositivos ya sean camaras, celulares, juegos, etc.

Ventajas de FireWire

• Alcanzan una velocidad de 400 megabits por segundo (800 en la revisión FireWire 2).

• Es hasta cuatro veces más rápido que una red Ethernet 100Base-T y 40 veces más rápido que una red Ethernet 10Base-T.

• Soporta la conexión de hasta 63 dispositivos con cables de una longitud máxima de 425 cm.

• No es necesario apagar un escáner o una unidad de CD antes de conectarlo o desconectarlo, y tampoco requiere reiniciar la computadora.

• Los cables FireWire se conectan muy fácilmente: no requieren números de identificación de dispositivos, conmutadores DIP, tornillos, cierres de seguridad ni terminadores.

• FireWire funciona tanto con Macintosh como con PC. • FireWire 400 envía los datos por cables de hasta 4,5 metros de longitud.

Mediante fibra óptica profesional, FireWire 800 puede distribuir información por cables de hasta 100 metros, lo que significa que podrías copiar un CD hasta una computadora en la otra punta de un campo de fútbol cada diez segundos. Ni siquiera se necesita una computadora o dispositivos nuevos para alcanzar estas distancias. Siempre que los dispositivos se conecten a un concentrador FireWire 800, puedes enlazarlos mediante un cable de fibra óptica supereficiente. (Aunque en realidad el uso de esta fibra hace más costoso el sistema, y proporciona velocidades en extremo reducidas en comparación a la capacidad del medio que se utiliza).

PSGT 08 Introducción Básica a I.T

95

APLICACIONES DE FIREWIRE

Edición de vídeo digital La edición de vídeo digital con FireWire ha permitido que tuviera lugar una revolución en la producción del vídeo con sistemas de escritorio. La incorporación de FireWire en cámaras de vídeo de bajo costo y elevada calidad permite la creación de vídeo profesional en Macintosh o PC. Atrás quedan las carísimas tarjetas de captura de vídeo y las estaciones de trabajo con dispositivos SCSI de alto rendimiento. FireWire permite la captura de vídeo directamente de las nuevas cámaras de vídeo digital con puertos FireWire incorporados y de sistemas analógicos mediante conversores de audio y vídeo a FireWire.

Redes IP sobre FireWire Como explica Apple, "con este software instalado, se pueden utilizar entre computadoras Macintosh y periféricos los protocolos IP existentes, incluyendo AFP, HTTP, FTP, SSH, etcétera. En todos los casos, se puede utilizar Bonjour (Rendezvous) para su configuración, resolución de nombres y descubrimiento." Si unimos la posibilidad de usar las conexiones FireWire para crear redes TCP/IP a las prestaciones de FireWire 2 (FireWire 800), tenemos razones muy serias para que Apple recupere rápidamente la atención de los fabricantes de periféricos para satisfacer las necesidades de los usuarios de aplicaciones que requieren gran ancho de banda en redes locales, como todas las relacionadas con el vídeo digital. Por no hablar de introducirse en un posible mercado nuevo.

TABLA COMPARATIVA.

CONECTORES

PSGT 08 Introducción Básica a I.T

96

ESTRUCTURA

PSGT 08 Introducción Básica a I.T

97

DISPOSITIVOS DE COMUNICACIÓN HUMANA

CÁMARA WEB.

Una cámara web o web cam es una pequeña cámara digital conectada a una computadora, la cual puede capturar imágenes y transmitirlas a través de Internet en directo, ya sea a una página web o a otra u otras computadoras de forma privada. Las webcams necesitan una computadora para transmitir las imágenes. Sin embargo, existen otras cámaras autónomas que tan sólo necesitan un punto de acceso a la red informática, bien sea ethernet o inalámbrico. Para diferenciarlas de la webcam o cámaras de web se las denomina net cam o cámaras de red. También son muy utilizadas en mensajería instantánea y chat como el MSN Messenger, Yahoo! Messenger, etc. ¿Qué es una cámara IP? Una Cámara IP (también conocidas como cámaras Web o de Red) son videocámaras especialmente diseñadas para enviar las señales (video, y en algunos casos audio) a través de Internet desde un explorador (por ejemplo el Internet Explorer) o a través de concentrador (un HUB o un SWITCH) en una Red Local (LAN) En las cámaras IP pueden integrarse aplicaciones como detección de presencia (incluso el envío de mail si detectan presencia), grabación de imágenes o secuencias en equipos informáticos (tanto en una red local o en una red externa (WAN), de manera que se pueda comprobar el porque ha saltado la detección de presencia y se graben imágenes de lo sucedido. ¿Cómo se conecta una cámara IP a Internet? ¿Y a una red local (LAN)?

PSGT 08 Introducción Básica a I.T

98

¿Cómo es una cámara IP por dentro? Básicamente una cámara IP se compone de:

� La " cámara " de video tradicional (lentes, sensores, procesador digital de imagen, etc)

� Un sistema de compresión de imagen (para poder comprimir las imágenes captadas por la cámara a formatos adecuados como MPEG4

� Un sistema de procesamiento (CPU, FLASH, DRAM y un módulo Wireless ETHERNET/WIFI). Este sistema de procesamiento se encarga de la gestión de las imágenes, del envío al modem. Del movimiento de la cámara (si dispone de motor), de la detección de movimiento.

Con todo esto únicamente necesitamos conectar la cámara al Router ADSL y a la alimentación eléctrica y no necesitamos nada más o si pensamos usar la cámara en una red local, lo conectamos a un HUB/SWITCH y pasa a ser un equipo más que se comunica con el resto de la LAN (y con el exterior si la LAN dispone de conexión a Internet) ¿Qué puedo hacer con una cámara IP? ¿Qué ventajas tiene? Las cámaras IP se utilizan mucho en entornos de vigilancia:

� En el hogar: para poder " vigilar " tu casa, negocio, empresa, a personas mayores, a niños o bebes,y hacerlo desde tu trabajo, desde tu lugar de vacaciones, desde cualquier lugar con una conexión Internet y un explorer, y con el móvil en las cámaras 3GPP.

PSGT 08 Introducción Básica a I.T

99

� En el trabajo: puede utilizarse para controlar puntos de tu comercio a los que tu vista no alcanza y no quieres dejar sin vigilancia o para ver lo que ocurre en tu cadena de tiendas desde tu casa.

� Empresas: para vigilar almacenes, aparcamientos, obras, entradas. � Hostelería: restaurantes, hoteles, o simplemente para promoción de

estos. � Zonas deportivas

¿Qué sistemas de compresión utilizan las Cámaras IP? El sistema de Compresión de Imagen de las cámaras IP sirve para hacer que la información obtenida de la cámara, que es mucha información y de gran tamaño, y que si no se comprime adecuadamente es imposible que se envíe por los cables de una red Local (LAN) o de las líneas telefónicas. Al comprimir pretendemos que ocupe lo menos posible, sin que las imágenes enviadas sufran pérdidas en la calidad o en la visualización.

Resumiendo, los sistemas de compresión tienen como objetivo ajustar la información captada por la cámara a los anchos de banda de los sistemas de transmisión como por ejemplo el ADSL. Los estándares de compresión actuales son el MJPEG y MPEG4, este último es el más reciente y muy potente, y la mayor parte de las cámaras comercializadas por Domodesk lo llevan.

MICROFONO

Un micrófono es un elemento capaz de captar ondas sonoras convirtiendo la potencia acústica en eléctrica de similares características ondulatorias. Para ello se necesita la combinación escalonada de dos tipos de transductores. El primero de ellos consiste en una fina lámina, denominada diafragma. Su misión es transformar las variaciones de presión en vibraciones mecánicas, es por tanto un transductor mecanoacústico. El segundo transforma las vibraciones mecánicas recibidas en magnitudes eléctricas, es por tanto un transductor electromecánico. El conjunto de los dos transductores puede considerarse como uno electroacústico

.

PSGT 08 Introducción Básica a I.T

100

El micrófono de un ordenador es exactamente igual a cualquier otro micrófono, de hecho, puedes enchufar cualquier micrófono a tu tarjeta de sonido y funcionará más o menos igual. ¿Como funciona el micrófono? Los micrófonos son transductores, los dispositivos que cambian la información a partir de una forma a otra. Detectaron la información sana como patrones de la presión de aire, que interpretan y “traducir” a patrones actuales eléctricos. La exactitud de esta transformación proporciona un sonido mejor o peor. Los micrófonos dinámicos del magneto tienen una superficie metálica fina (como un diafragma) y un alambre de metal en espiral unido a él. Cuando la bobina está en el movimiento, debido al campo magnético que rodea la bobina, se facilita el flujo actual. La cantidad de corriente es determinada por la frecuencia y la velocidad del movimiento del diafragma, causado por los patrones entrantes del aire. Estos grupos de micrófonos se conocen como dispositivos sensibles de la velocidad.

PSGT 08 Introducción Básica a I.T

101

BOCINAS

CÓMO FUNCIONA UN ALTAVOZ Un altavoz magnético funciona al hacer reaccionar el campo magnético variable creado por una bobina con el campo magnético fijo de un imán. Esto hace que se produzcan fuerzas, que son capaces de mover una estructura móvil que es la que transmite el sonido al aire. Esta estructura móvil se llama diafragma, puede tener forma de cúpula o de cono. A su vez, esta estructura móvil está sujeta por dos puntos mediante unas piezas flexibles y elásticas que tienen como misión centrar al altavoz en su posición de reposo.

ALTAVOZ DE CONO Este es el esquema de un altavoz convencional. La araña (una pieza de tela con arrugas concéntricas de color amarillo o naranja) se encarga de mantener centrado el cono, junto a la suspensión.

El imán, junto a las piezas polares crean un circuito magnético. En el entrehierro es donde el campo de la bobina reaciona contra el campo fijo del imán.

ALTAVOZ DE CÚPULA (TWEETER)

Conviene decir que no sólo un tweeter puede ser un altavoz de cúpula. El altavoz de cúpula funciona básicamente igual que el de cono, pero en éste la superficie radiante no es un cono, es una cúpula. La cúpula tiene la característica de que la resonancia en esa estructura es absorbida de manera muy eficiente y prácticamente no causa efectos audibles, pero tiene como desventaja que la aceleración no es igual en todos los puntos de la cúpula, siendo el centro el más perjudicado.

PSGT 08 Introducción Básica a I.T

102

Como consecuencia, se produce una pérdida de eficiencia respecto a su equivalente en forma de cono, pero con un sonido mejor al evitar la resonancia.

TOUCHPAD

El touchpad o trackpad es un dispositivo táctil de entrada que permite controlar un cursor o facilitar la navegación a través de un menú o de cualquier interfaz gráfica. La mayoría de los touchpads se sitúan generalmente en la parte inferior de los teclados de los ordenadores portátiles y toman la función de los ratones de los ordenadores de sobremesa. Son generalmente de forma rectangular y acompañados de 1, 2 o más botones que representan los botones de un ratón . La tecnología táctil de los touchpads apareció igualmente en el 2002 en los reproductores de mp3 portátiles de Apple, los iPods de segunda generación, pero en forma circular. Muchos ordenadores portátiles usan el llamado "touchpad" como ratón. Se trata de una pequeña superficie sobre la que desplazamos un dedo con la que controlamos el movimiento del cursor en la pantalla. También habremos visto las pantallas táctiles, tocando con un dedo sobre la pantalla simula la pulsación de botones. Aquí veremos brevemente cómo funcionan estos dispositivos. Existen varias tecnologías para implementar los sistemas táctiles, cada una basada en diferentes fenómenos y con distintas aplicaciones. Los sistemas táctiles más importantes son:

• Pantallas táctiles por infrarrojos • Pantallas táctiles resistivas • Pantallas táctiles y touchpad capacitivos • Pantallas táctiles de onda acústica superficial, (SAW)

PSGT 08 Introducción Básica a I.T

103

Infrarrojos En los bordes de la pantalla, en la carcasa de la misma, existen unos emisores y receptores de infrarrojos. En un lado de la pantalla están los emisores y en el contrario los receptores. Tenemos una matriz de rayos infrarrojos vertical y horizontal. Al pulsar con el dedo o con cualquier objeto, sobre la pantalla interrumpimos un haz infrarrojo vertical y otro horizontal. El ordenador detecta que rayos han sido interrumpidos, conoce de este modo dónde hemos pulsado y actúa en consecuencia. Este sistema tiene la ventaja de la simplicidad y de no oscurecer la pantalla, pero tiene claras desventajas: son caras y voluminosas, muy sensibles a la suciedad y pueden detectar fácilmente falsas pulsaciones (una mosca que se pose, por ejemplo).

Pantallas táctiles resistivas La pantalla táctil propiamente dicha está formada por dos capas de material conductor transparente, con una cierta resistencia a la corriente eléctrica, y con una separación entre las dos capas. Cuando se toca la capa exterior se produce un contacto entre las dos capas conductoras. Un sistema electrónico detecta el contacto y midiendo la resistencia puede calcular el punto de contacto.

Las pantallas táctiles resistivas tienen la ventaja de que pueden ser usadas con cualquier objeto, un dedo, un lápiz, un dedo con guantes, etc. Son económicas, fiables y versátiles. Por el contrario al usar varias capas de material transparente sobre la propia pantalla, se pierde bastante luminosidad. Por otro lado el tratamiento conductor de la pantalla táctil es sensible a la luz ultravioleta, de tal forma que con el tiempo se degrada y pierde flexibilidad y transparencia.

PSGT 08 Introducción Básica a I.T

104

"Touchpad" capacitivos Son los utilizados normalmente en los ordenadores portátiles para suplir al ratón. El touchpad está formado por una rejilla de dos capas de tiras de electrodos, una vertical y otra horizontal, separadas por un aislante y conectadas a un sofisticado circuito. El circuito se encarga de medir la capacidad mutua entre cada electrodo vertical y cada electrodo horizontal. Un dedo situado cerca de la intersección de dos electrodos modifica la capacidad mutua entre ellos al modificarse las propiedades dieléctricas de su entorno. El dedo tiene unas propiedades dieléctricas muy diferentes a las del aire. La posición del dedo se calcula con precisión basándose en las variaciones de la capacidad mutua en varios puntos hasta determinar el centroide de la superficie de contacto. La resolución de este sistema es impresionante, hasta 1/40 mm. Además se puede medir también la presión que se hace con el dedo. No se pueden usar lápices u otros materiales no conductores como punteros. Es muy resistente al entorno, soporta perfectamente polvo, humedad, electricidad estática, etc. Además es ligero, fino y puede ser flexible o transparente.

Pantallas táctiles de onda acústica superficial (SA W) A través de la superficie del cristal se transmiten dos ondas acústicas inaudibles para el hombre. Una de las hondas se transmite horizontalmente y la otra verticalmente. Cada onda se dispersa por la superficie de la pantalla rebotando en unos reflectores acústicos.

PSGT 08 Introducción Básica a I.T

105

Las ondas acústicas no se transmiten de forma continua, sino por trenes de impulsos. Dos detectores reciben las ondas, uno por cada eje. Se conoce el tiempo de propagación de cada onda acústica en cada trayecto. Cuando el usuario toca con su dedo en la superficie de la pantalla, el dedo absorbe una parte de la potencia acústica, atenuando la energía de la onda. El circuito controlador mide el momento en que recibe una onda atenuada y determina las coordenadas del punto de contacto.

EL TECLADO

Un teclado es un conjunto de interruptores (teclas), que se hallan conectados a un microprocesador. Este último vigila el estado de los interruptores, y responde de forma específica ante cualquier cambio de estado. Los teclados suelen incorporar cuatro tipos de teclas: de escritura, de función, de control y de teclado numérico o keypad. Las teclas de escritura se suelen organizar en formato QWERTY (son las seis primeras letras que aparecen en este arreglo).

Teclado numérico

El teclado numérico (con un total de 17 teclas) facilita enormemente la introducción de dígitos, operadores matemáticos elementales, punto decimal, etc. La disposición es la que podemos encontrar en multitud de calculadoras, lo que hace su uso más familiar.

Teclas de función

PSGT 08 Introducción Básica a I.T

106

Las teclas de función, dispuestas en una fila en la parte superior del teclado, permiten que los programas o el sistema operativo les asignen comandos específicos. Por ejemplo, a la tecla F1 se le suele asignar el comando "mostrar ayuda", casi de forma estándar.

Teclas de control

Finalmente, las teclas de control facilitan funciones de edición en pantalla (inicio, fin, insertar, eliminar, escape, etc.) y ofrecen cursores para desplazarse en pantalla. En el caso particular de los teclados diseñados para Windows, aparecen nuevas teclas de control, como "menú inicio" o "menú de contexto".

Funcionamiento del teclado

Las teclas se hallan ligadas a una matriz de circuitos (o matriz de teclas) de dos dimensiones. Cada tecla, en su estado normal (no presionada) mantiene abierto un determinado circuito. Al presionar una tecla, el circuito asociado se cierra, y por tanto circula una pequeña cantidad de corriente a través de dicho circuito. El microprocesador detecta los circuitos que han sido cerrados, e identifica en qué parte de la matriz se encuentran, mediante la asignación de un par de coordenadas (x,y).

Luego se acude a la memoria ROM del teclado, que almacena lo que se denomina "mapa de caracteres". Dicho mapa no es más que una tabla que asigna un carácter a cada par (x,y). También se almacena el significado de pulsar varias teclas simultáneamente. Por ejemplo, a la tecla etiquetada como "T" se le asigna el carácter "t", pero si se pulsa SHIFT +T, se asigna "T". NUEVA TECNOLOGIA

PSGT 08 Introducción Básica a I.T

107

El teclado Celluon CL850 es una evolución de los que salieron al mercado el año pasado. Su funcionamiento no tiene complicaciones: se proyecta la imagen de un teclado en una superficie, y la escritura se produce cuando el sensor detecta donde colocamos cada dedo y el movimiento de los mismos. Como inconvenientes tenemos los de siempre: acostumbrarse a un nuevo teclado y no obtener respuesta al pulsar una tecla. Podemos usarlo con casi cualquier gadget que tenga conectividad USB o Bluetooth y tiene un precio estimado de unos 100 dólares.

DISPOSITIVOS DE ALMACENAMIENTO DE DATOS

MEDIDAS DE ALMACENAMIENTO DE DATOS

� Byte � Kilobyte (Kb) � Megabyte (Mb) � Gigabyte (Gb):

PSGT 08 Introducción Básica a I.T

108

DISCO DURO

CARACTERISTICAS DEL DISCO DURO

• Tiempo medio de acceso : Tiempo medio que tarda en situarse la aguja en el cilindro deseado; es la suma de la Latencia y el Tiempo medio de Búsqueda.

• Tiempo medio de Búsqueda (seek) : Es la mitad del tiempo que tarda la aguja en ir de la periferia al centro del disco.

• Latencia : Tiempo que tarda el disco en girar media vuelta, que equivale al promedio del tiempo de acceso (tiempo medio de acceso). Una vez que la aguja del disco duro se sitúa en el cilindro el disco debe girar hasta que el dato se sitúe bajo la cabeza; el tiempo en que esto ocurre es, en promedio, el tiempo que tarda el disco en dar medio giro; por este motivo la latencia es diferente a la velocidad de giro, pero es aproximadamente proporcional a ésta.

• Tiempo de acceso máximo: Tiempo máximo que tarda la aguja en situarse en el cilindro deseado. Es el doble del Tiempo medio de acceso.

• Tiempo pista a pista : Tiempo de saltar de la pista actual a la adyacente.

• Tasa de transferencia : Velocidad a la que puede transferir la información al ordenador. Puede ser velocidad sostenida o de pico.

• Caché de pista : Es una memoria de estado sólido, tipo RAM, dentro del disco duro de estado sólido. Los discos duros de estado sólido utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limita a las supercomputadoras, por su elevado precio.

PARTES

PSGT 08 Introducción Básica a I.T

109

FUNCIONAMIENTO

TIPOS DE INTERFACE

� IDE � USB � SATA � FIREWIRE � SCSI

PSGT 08 Introducción Básica a I.T

110

DISCO OPTICO

¿QUE ES EL DISCO OPTICO? El disco óptico es una superficie circular de policarbonato donde la información se guarda haciendo unos surcos en la superficie del disco NORMAS Los estándares de almacenamiento óptico son regulados por la OSTA (Optical Storage Technology Association). PRIMERA GENERACION Compact disc (CD) Laserdisc Disco magneto-óptico

PSGT 08 Introducción Básica a I.T

111

SEGUNDA GENERACION Minidisc DVD EVD DMD DIVX

PSGT 08 Introducción Básica a I.T

112

TERCERA GENERACION Blu-ray FVD HVD UDO

PSGT 08 Introducción Básica a I.T

113

DISCO HOLOGRAFICO

Los discos holográficos son aquellos en los que la información se imprime a través de un láser en un patrón tridimensional

UNIDAD DE ESTADO SÓLIDO

El SSD (solid state drive) es un dispositivo de almacenamiento de datos que usa memoria no volátil (NAND) tales como flash, o memoria volátil como la SDRAM, para almacenar datos, en lugar de los platos giratorios encontrados en los discos duros convencionales. Aunque técnicamente no son "discos" a veces se traduce erróneamente en español la 'D' de SSD como 'Disk' cuando en realidad representa la palabra 'Drive', que podría traducirse como unidad o dispositivo.

Una unidad de estado sólido es un dispositivo de almacenamiento secundario hecho con componentes electrónicos de estado sólido para su uso en computadoras en reemplazo de una unidad de disco duro convencional, como memoria auxiliar o para la fabricación de unidades híbridas compuestas por SSD y disco duro.

Consta de una memoria no volátil, en lugar de los platos giratorios y cabezal, que son encontrados en las unidades de disco duro convencionales. Sin partes móviles, una unidad de estado sólido pretende reducir drásticamente el tiempo de búsqueda, latencia y otros, esperando diferenciarse positivamente de sus primos hermanos los discos duros.

PSGT 08 Introducción Básica a I.T

114

Al ser inmune a las vibraciones externas, lo hace especialmente apto para su uso en computadoras móviles (instaladas p.ej. en aviones, automotores, notebooks, etc.).

Diseño y funcionamiento

Los SSD basados en memoria volátil como la SDRAM están categorizados por su rápido acceso a datos, menos de 0.01 milisegundos y son usados primariamente para acelerar aplicaciones que de otra manera serían frenados por la latencia de los discos duros. Los SSD basados en DRAM típicamente incorporan una batería interna y sistemas de respaldo de disco para asegurar la persistencia de datos. Si la potencia se pierde por cualquier razón, la batería podría mantener la unidad encendida lo suficiente para copiar todos los datos de la memoria RAM al disco de respaldo. Después de la restauración de energía, los datos son copiados de vuelta del disco de respaldo a la RAM y el SSD continua su operación normal. Sin embargo, la mayoría de los fabricantes usan memoria flash no volátil para crear alternativas más compactas y fuertes a los SSD basados en DRAM. Estos SSD basados en flash, también conocidos como discos flash, no requieren baterías, permitiendo a los fabricantes replicar tamaños estándar del disco duro (1.8 pulgadas, 2.5 pulgadas. y 3.5 pulgadas). Además, la no volatilidad permite a los SSD flash mantener memoria incluso tras una perdida repentina de energía, asegurando la permanencia de los datos. Al igual que los SSD DRAM, los SSD flash son extremadamente rápidos al no tener partes móviles, reduciendo ostensiblemente el tiempo de búsqueda, latencia y otros retardos electromecánicos inherentes a los discos duros convencionales. Aunque los SSD flash son significativamente más lentos que los SSD DRAM.

PSGT 08 Introducción Básica a I.T

115

Las unidades de estado sólido son especialmente útiles en una computadora que ya llegó a máximo de memoria RAM. Por ejemplo, algunas arquitecturas x86 tienen 4GB de limite, pero esto puede ser extendido efectivamente colocando un SSD como archivo de intercambio (swap). Estos SSD no proporcionan tanta rapidez de almacenamiento como la memoria RAM principal debido al cuello de botella (Bottleneck) del bus que los conecta, pero aun así mejoraría el rendimiento de colocar el archivo de intercambio en una unidad de disco duro tradicional.

Ventajas y desventajas Los dispositivos de estado sólido basados en Flash tienen varias ventajas únicas:

• Arranque más rápido • Mayor rapidez de lectura - En algunos casos, dos o más veces que los

discos duros tradicionales más rápidos. • Baja latencia de lectura y escritura, cientos de veces más rápido que los

discos mecánicos. • Lanzamiento y arranque de aplicaciones en menor tiempo - Resultado

de la mayor velocidad de lectura y especialmente del tiempo de búsqueda. Pero solo si la aplicación reside en flash y es más dependiente de la velocidad de lectura que de otros aspectos.

• Menor consumo de energía y producción de calor - Resultado de no tener partes mecánicas.

• Sin ruido - La misma carencia de partes mecánicas los hace completamente silenciosos

• Menor, pero mejorado tiempo de lectura y escritura - En el pasado los SSD basados en flash estaba limitados a un número dado de ciclos de lectura/escritura, pero la moderna tecnología flash y de corrección de errores permite a los SSD basados en flash operar varios años sin fallar.

• Seguridad - permitiendo una muy rápida "limpieza" de los datos almacenados.

• Rendimiento deterministico - a diferencia de los discos duros mecánicos, el rendimiento de los SSD es constante y deterministico a través del almacenamiento entero. El tiempo de "búsqueda" constante, y el

PSGT 08 Introducción Básica a I.T

116

rendimiento no se deteriora mientras el medio se llena. (Véase Desfragmentación)

• Menor peso y (dependiendo del tipo) tamaño.

Los dispositivos de estado sólido basados en flash tienen también varias desventajas:

• Precio - Los precios de las memorias flash a finales del 2006 son considerablemente más altos por giga bite que los de los discos convencionales.

• Menor velocidad en operaciones I/O secuenciales - Los discos duros más recientes presentas tasas de transferencia en lecturas secuenciales de hasta 150 MB/s mientras que los SSD tan solo llegan alrededor de los 100 MB/s.

• Menor tiempo de vida confiable - Los discos duros basados en Flash tienen ciclos de lectura y escritura limitados (entre 100.000 y 300.000 los modelos convencionales y entre 1 y 5 millones los modelos de alta duración), mientras que los discos duros pueden durar hasta una década sin fallos mecánicos. Esto es significativo debido a que en muchos sistemas, los discos son leídos regularmente miles de veces en cortos periodos de tiempo. Sistemas de ficheros especiales así como nuevos diseños de Firmware resolverían el problema extendiendo la zona de lectura/escritura sobre todo el dispositivo en lugar de concentrarlo en una única zona.

• Menor recuperación - Después de un fallo mecánico los datos son completamente perdidos pues la celda es destruida, mientras que en un disco duro normal que sufre daño mecánico los datos son frecuentemente recuperables usando ayuda de expertos.

• Vulnerabilidad contra ciertos tipo de efectos - Incluyendo perdida de energía abrupta (especialmente en los SSD basado en DRAM), campos magnéticos y cargas estáticas comparados con los discos duros normales (que almacenan los datos dentro de una Jaula de Faraday).

SISTEMAS OPERATIVOS

PSGT 08 Introducción Básica a I.T

117

RESEÑA HISTÓRICA

En el pasado, la mayoría de las computadoras trabajaban en forma aislada y la mayoría de los sistemas operativos eran diseñados para su ejecución en un solo procesador. Esta situación ha evolucionado de forma que ahora las computadoras están conectadas en una red, por lo cual los sistemas operativos distribuidos son cada vez más importantes. Para tratar de comprender los requisitos de un Sistema Operativo y el significado de las principales características de un Sistema Operativo contemporáneo, es útil considerar como han ido evolucionando éstos con el tiempo. A finales de los 40’s el uso de computadoras estaba restringido a aquellas empresas o instituciones que podían pagar su alto precio, y no existían los sistemas operativos. En su lugar, el programador debía tener un conocimiento y contacto profundo con el hardware, y en el infortunado caso de que su programa fallara, debía examinar los valores de los registros y paneles de luces indicadoras del estado de la computadora para determinar la causa del fallo y poder corregir su programa, además de enfrentarse nuevamente a los procedimientos de apartar tiempo del sistema y poner a punto los compiladores, ligadores, etc; para volver a correr su programa, es decir, enfrentaba el problema del procesamiento serial (serial processing). La importancia de los sistemas operativos nace históricamente desde los 50’s, cuando se hizo evidente que el operar una computadora por medio de tableros enchufables en la primera generación y luego por medio del trabajo en lote en la segunda generación se podía mejorar notoriamente, pues el operador realizaba siempre una secuencia de pasos repetitivos, lo cual es una de las características contempladas en la definición de lo que es un programa. Es decir, se comenzó a ver que las tareas mismas del operador podían plasmarse en un programa, el cual a través del tiempo y por su enorme complejidad se le llamó “Sistema Operativo”. Así, tenemos entre los primero sistemas operativos al Fortran Monitor System (FMS) e IBSYS. Para mediados de los 80’s, comienza el auge de las redes de computadores y la necesidad de sistemas operativos en red y sistemas operativos distribuidos. La red mundial Internet se va haciendo accesible a toda clase de instituciones y se comienzan a dar muchas soluciones (y problemas) al querer hacer convivir recursos residentes en computadoras con sistemas operativos diferentes. Para los 90’s el paradigma de la programación orientada a objetos cobra auge, así como el manejo de objetos desde los sistemas operativos. Las aplicaciones intentan crearse para ser ejecutadas en una plataforma específica y poder ver sus resultados en la pantalla o monitor de otra diferente (por ejemplo, ejecutar una simulación en una máquina con UNIX y ver los resultados en otra con DOS). Los niveles de interacción se van haciendo cada vez más profundos. ¿Qué Es un Sistema Operativo?

PSGT 08 Introducción Básica a I.T

118

Un sistema Operativo es un programa que actúa como intermediario entre el usuario y el hardware de un computador y su propósito es proporcionar un entorno en el cual el usuario pueda ejecutar programas. El objetivo principal de un Sistema Operativo es, entonces, lograr que el Sistema de computación se use de manera cómoda, y el objetivo secundario es que el hardware del computador se emplee de manera eficiente. Un sistema operativo es una parte importante de cualquier sistema de computación. CARACTERÍSTICAS DE UN SISTEMA OPERATIVO

En general, se puede decir que un Sistema Operativo tiene las siguientes características: Conveniencia. Un Sistema Operativo hace más conveniente el uso de una computadora. Eficiencia. Un Sistema Operativo permite que los recursos de la computadora se usen de la manera más eficiente posible. Habilidad para evolucionar. Un Sistema Operativo deberá construirse de manera que permita el desarrollo, prueba o introducción efectiva de nuevas funciones del sistema sin interferir con el servicio. Encargado de administra el hardware. El Sistema Operativo se encarga de manejar de una mejor manera los recursos de la computadora en cuanto a hardware se refiere, esto es, asignar a cada proceso una parte del procesador para poder compartir los recursos. Relacionar dispositivos (gestionar a través del kernel). El Sistema Operativo se debe encargar de comunicar a los dispositivos periféricos, cuando el usuario así lo requiera. Organizar datos para acceso rápido y seguro. Manejar las comunicaciones de red. El Sistema Operativo permite al usuario manejar con alta facilidad todo lo referente a la instalación y uso de las redes de computadoras. Procesamiento por bytes de flujo a través del bus de datos. Facilitar las entradas y salidas. Un sistema operativo debe hacerle fácil al usuario el acceso y manejo de los dispositivos de Entrada/Salida de la computadora. Técnicas de recuperación de errores. Evita que otros usuarios interfieran. El sistema operativo evita que los usuarios se bloqueen entre ellos, informándoles si esa aplicación esta siendo ocupada por otro usuario. Generación de estadísticas. Permite que se puedan compartir el hardware y los datos entre los usuarios. El software de aplicación son programas que se utilizan para diseñar, tal como el procesador de palabras, lenguajes de programación, hojas de cálculo, etc. El software de base sirve para interactuar el usuario con la máquina, son un conjunto de programas que facilitan el ambiente plataforma, y permite el diseño del mismo. El software de base está compuesto por:

• Cargadores.

PSGT 08 Introducción Básica a I.T

119

• Compiladores. • Ensambladores. • Macros.

TIPOS DE SISTEMAS OPERATIVOS

Actualmente los sistemas operativos se clasifican en tres principales: Sistemas operativos por su estructura (visión interna), sistemas operativos por los servicios que ofrecen y sistemas operativos por la forma en que ofrecen sus servicios (visión externa). Sistemas Operativos por Servicios (Visión Externa) Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final. Esta clasificación se comprende fácilmente con el cuadro sinóptico que a continuación se muestra:

Por Número de Usuarios

� Sistemas Operativos Monousuarios Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.

PSGT 08 Introducción Básica a I.T

120

� Sistemas Operativos Multiusuarios

Los sistemas operativos multiusuarios son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente. Por el Número de Tareas

� Sistema Operativo Monotarea.

Los sistemas monotarea son aquellos que sólo permiten una tarea a la vez por usuario. Puede darse el caso de un sistema multiusuario y monotarea, en el cual se admiten varios usuarios al mismo tiempo pero cada uno de ellos puede estar haciendo solo una tarea a la vez.

� Sistema Operativo Multitarea

Un sistema operativo multitarea es aquél que le permite al usuario estar realizando varias labores al mismo tiempo. Por ejemplo, puede estar editando el código fuente de un programa durante su depuración mientras compila otro programa, a la vez que está recibiendo correo electrónico en un proceso en background. Es común encontrar en ellos interfaces gráficas orientadas al uso de menús y el ratón, lo cual permite un rápido intercambio entre las tareas para el usuario, mejorando su productividad. Por el Número de procesadores

� Sistema Operativo de Uniproceso.

Un sistema operativo uniproceso es aquél que es capaz de manejar solamente un procesador de la computadora, de manera que si la computadora tuviese más de uno le sería inútil. El ejemplo más típico de este tipo de sistemas es el DOS y Mac OS.

� Sistema Operativo de Multiproceso

Un sistema operativo multiproceso se refiere al número de procesadores del sistema, que es más de uno y éste es capaz de usarlos todos para distribuir su carga de trabajo. Generalmente estos sistemas trabajan de dos formas: simétrica o asimétricamente. Cuando se trabaja de manera asimétrica, el sistema operativo selecciona a uno de los procesadores el cual jugará el papel de procesador maestro y servirá como pivote para distribuir la carga a los demás procesadores, que reciben el nombre de esclavos. Cuando se trabaja de manera simétrica, los procesos o partes de ellos (threads) son enviados indistintamente a cuales quiera de los procesadores disponibles, teniendo, teóricamente, una mejor distribución y equilibrio en la carga de trabajo bajo este esquema. Se dice que un thread es la parte activa en memoria y corriendo de un proceso, lo cual puede consistir de un área de memoria, un conjunto de registros con

PSGT 08 Introducción Básica a I.T

121

valores específicos, la pila y otros valores de contexto. Un aspecto importante a considerar en estos sistemas es la forma de crear aplicaciones para aprovechar los varios procesadores. Existen aplicaciones que fueron hechas para correr en sistemas monoproceso que no toman ninguna ventaja a menos que el sistema operativo o el compilador detecte secciones de código paralelizable, los cuales son ejecutados al mismo tiempo en procesadores diferentes. Por otro lado, el programador puede modificar sus algoritmos y aprovechar por sí mismo esta facilidad, pero esta última opción las más de las veces es costosa en horas hombre y muy tediosa, obligando al programador a ocupar tanto o más tiempo a la paralelización que a elaborar el algoritmo inicial. Sistemas Operativos por su Estructura (visión Inter na) Según [Alcal92], se deben observar dos tipos de requisitos cuando se construye un sistema operativo, los cuales son: Requisitos de usuario: Sistema fácil de usar y de aprender, seguro, rápido y adecuado al uso al que se le quiere destinar. Requisitos del software: Donde se engloban aspectos como el mantenimiento, forma de operación, restricciones de uso, eficiencia, tolerancia frente a los errores y flexibilidad. A continuación se describen las distintas estructuras que presentan los actuales sistemas operativos para satisfacer las necesidades que de ellos se quieren obtener. Estructura monolítica. Es la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra (Ver Fig. 2). Las características fundamentales de este tipo de estructura son: Construcción del programa final a base de módulos compilados separadamente que se unen a través del ligador. Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede provocar mucho acoplamiento. Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de los recursos de la computadora, como memoria, disco, etc. Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones. Estructura jerárquica. A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los sistemas, se hizo necesaria una mayor organización del software, del sistema operativo, donde una parte del sistema contenía sub. partes y esto organizado en forma de niveles. Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de ellas estuviera perfectamente definida y con un claro interfase con el resto de elementos.

PSGT 08 Introducción Básica a I.T

122

Se constituyó una estructura jerárquica o de niveles en los sistemas operativos, el primero de los cuales fue denominado THE (Technische Hogeschool, Eindhoven), de Dijkstra, que se utilizó con fines didácticos. Se puede pensar también en estos sistemas como si fueran `multicapa'. Multics y Unix caen en esa categoría. [Feld93].

En la estructura anterior se basan prácticamente la mayoría de los sistemas operativos actuales. Otra forma de ver este tipo de sistema es la denominada de anillos concéntricos o "rings". En el sistema de anillos, cada uno tiene una apertura, conocida como puerta o trampa (trap), por donde pueden entrar las llamadas de las capas inferiores. De esta forma, las zonas más internas del sistema operativo o núcleo del sistema estarán más protegidas de accesos indeseados desde las capas más externas. Las capas más internas serán, por tanto, más privilegiadas que las externas.

PSGT 08 Introducción Básica a I.T

123

MÁQUINA VIRTUAL.

Se trata de un tipo de sistemas operativos que presentan una interfase a cada proceso, mostrando una máquina que parece idéntica a la máquina real subyacente. Estos sistemas operativos separan dos conceptos que suelen estar unidos en el resto de sistemas: la multiprogramación y la máquina extendida. El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos sistemas operativos dando la sensación de ser varias máquinas diferentes. El núcleo de estos sistemas operativos se denomina monitor virtual y tiene como misión llevar a cabo la multiprogramación, presentando a los niveles superiores tantas máquinas virtuales como se soliciten. Estas máquinas virtuales no son máquinas extendidas, sino una réplica de la máquina real, de manera que en cada una de ellas se pueda ejecutar un sistema operativo diferente, que será el que ofrezca la máquina extendida al usuario.

Cliente-servidor ( Microkernel) El tipo más reciente de sistemas operativos es el denominado Cliente-servidor, que Puede ser ejecutado en la mayoría de las computadoras, ya sean grandes o pequeñas.

PSGT 08 Introducción Básica a I.T

124

Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito general y cumple con las mismas actividades que los sistemas operativos convencionales. El núcleo tiene como misión establecer la comunicación entre los clientes y los servidores. Los procesos pueden ser tanto servidores como clientes. Por ejemplo, un programa de aplicación normal es un cliente que llama al servidor correspondiente para acceder a un archivo o realizar una operación de entrada/salida sobre un dispositivo concreto. A su vez, un proceso cliente puede actuar como servidor para otro." [Alcal92]. Este paradigma ofrece gran flexibilidad en cuanto a los servicios posibles en el sistema final, ya que el núcleo provee solamente funciones muy básicas de memoria, entrada/salida, archivos y procesos, dejando a los servidores proveer la mayoría que el usuario final o programador puede usar. Estos servidores deben tener mecanismos de seguridad y protección que, a su vez, serán filtrados por el núcleo que controla el hardware. Actualmente se está trabajando en una versión de UNIX que contempla en su diseño este paradigma. Sistemas Operativos por la Forma de Ofrecer sus Ser vicios Esta clasificación también se refiere a una visión externa, que en este caso se refiere a la del usuario, el cómo acceso los servicios. Bajo esta clasificación se pueden detectar dos tipos principales: sistemas operativos de red y sistemas operativos distribuidos. Sistemas Operativos de Red Los sistemas operativos de red se definen como aquellos que tiene la capacidad de interactuar con sistemas operativos en otras computadoras por medio de un medio de transmisión con el objeto de intercambiar información, transferir archivos, ejecutar comandos remotos y un sin fin de otras actividades. El punto crucial de estos sistemas es que el usuario debe saber la sintaxis de un cinjunto de comandos o llamadas al sistema para ejecutar estas operaciones, además de la ubicación de los recursos que desee acceder. Por ejemplo, si un usuario en la computadora hidalgo necesita el archivo matrizas que se localiza en el directorio /software/código en la computadora morelos bajo el sistema operativo UNIX, dicho usuario podría copiarlo a través de la red con los comandos siguientes: hidalgo% hidalgo% rcp morelos:/software/codigo/matriz.pas . hidalgo% En este caso, el comando rcp que significa "remote copy" trae el archivo indicado de la computadora morelos y lo coloca en el directorio donde se ejecutó el mencionado comando. Lo importante es hacer ver que el usuario puede acceder y compartir muchos recursos. Sistemas Operativos Distribuidos Los sistemas operativos distribuidos abarcan los servicios de los de red, logrando integrar recursos (impresoras, unidades de respaldo, memoria, procesos, unidades centrales de proceso) en una sola máquina virtual que el usuario acceda en forma transparente. Es decir, ahora el usuario ya no necesita saber la ubicación de los recursos, sino que los conoce por nombre y simplemente los usa como si todos ellos fuesen locales a su lugar de trabajo habitual. Todo lo anterior es el marco teórico de lo que se desearía tener como

PSGT 08 Introducción Básica a I.T

125

sistema operativo distribuido, pero en la realidad no se ha conseguido crear uno del todo, por la complejidad que suponen: distribuir los procesos en las varias unidades de procesamiento, reintegrar sub-resultados, resolver problemas de concurrencia y paralelismo, recuperarse de fallas de algunos recursos distribuidos y consolidar la protección y seguridad entre los diferentes componentes del sistema y los usuarios. [Tan92]. Los avances tecnológicos en las redes de área local y la creación de microprocesadores de 32 y 64 bits lograron que computadoras mas o menos baratas tuvieran el suficiente poder en forma autónoma para desafiar en cierto grado a los mainframes, y a la vez se dio la posibilidad de intercomunicarlas, sugiriendo la oportunidad de partir procesos muy pesados en cálculo en unidades más pequeñas y distribuirlas en los varios microprocesadores para luego reunir los sub-resultados, creando así una máquina virtual en la red que exceda en poder a un mainframe. El sistema integrador de los microprocesadores que hacer ver a las varias memorias, procesadores, y todos los demás recursos como una sola entidad en forma transparente se le llama sistema operativo distribuido. Las razones para crear o adoptar sistemas distribuidos se dan por dos razones principales: por necesidad (debido a que los problemas a resolver son inherentemente distribuidos) o porque se desea tener más confiabilidad y disponibilidad de recursos. En el primer caso tenemos, por ejemplo, el control de los cajeros automáticos en diferentes estados de la república. Ahí no es posible ni eficiente mantener un control centralizado, es más, no existe capacidad de cómputo y de entrada/salida para dar servicio a los millones de operaciones por minuto. En el segundo caso, supóngase que se tienen en una gran empresa varios grupos de trabajo, cada uno necesita almacenar grandes cantidades de información en disco duro con una alta confiabilidad y disponibilidad. La solución puede ser que para cada grupo de trabajo se asigne una partición de disco duro en servidores diferentes, de manera que si uno de los servidores falla, no se deje dar el servicio a todos, sino sólo a unos cuantos y, más aún, se podría tener un sistema con discos en espejo a través de la red, de manera que si un servidor se cae, el servidor en espejo continúa trabajando y el usuario ni cuenta se da de estas fallas, es decir, obtiene acceso a recursos en forma transparente.

VENTAJAS DE LOS SISTEMAS DISTRIBUIDOS

En general, los sistemas distribuidos (no solamente los sistemas operativos) exhiben algunas ventajas sobre los sistemas centralizados que se describen enseguida.

• Economía: El cociente precio/desempeño de la suma del poder de los procesadores separados contra el poder de uno solo centralizado es mejor cuando están distribuidos.

• Velocidad: Relacionado con el punto anterior, la velocidad sumada es muy superior.

• Confiabilidad: Si una sola máquina falla, el sistema total sigue funcionando.

• Crecimiento: El poder total del sistema puede irse incrementando al añadir pequeños sistemas, lo cual es mucho más difícil en un sistema centralizado y caro.

• Distribución: Algunas aplicaciones requieren de por sí una distribución física.

PSGT 08 Introducción Básica a I.T

126

Por otro lado, los sistemas distribuidos también exhiben algunas ventajas sobre sistemas aislados. Estas ventajas son:

• Compartir datos: Un sistema distribuido permite compartir datos más fácilmente que los sistemas aislados, que tendrían que duplicarlos en cada nodo para lograrlo.

• Compartir dispositivos: Un sistema distribuido permite acceder dispositivos desde cualquier nodo en forma transparente, lo cual es imposible con los sistemas aislados. El sistema distribuido logra un efecto sinergético.

• Comunicaciones: La comunicación persona a persona es factible en los sistemas distribuidos, en los sistemas aislados no. _ Flexibilidad: La distribución de las cargas de trabajo es factible en los sistemas distribuidos, se puede incrementar el poder de cómputo.

DESVENTAJAS DE LOS SISTEMAS DISTRIBUIDOS

Así como los sistemas distribuidos exhiben grandes ventajas, también se pueden identificar algunas desventajas, algunas de ellas tan serias que han frenado la producción comercial de sistemas operativos en la actualidad. El problema más importante en la creación de sistemas distribuidos es el software: los problemas de comparición de datos y recursos es tan complejo que los mecanismos de solución generan mucha sobrecarga al sistema haciéndolo ineficiente. El verificar, por ejemplo, quiénes tienen acceso a algunos recursos y quiénes no, el aplicar los mecanismos de protección y registro de permisos consume demasiados recursos. En general, las soluciones presentes para estos problemas están aún en pañales. Otros problemas de los sistemas operativos distribuidos surgen debido a la concurrencia y al paralelismo. Tradicionalmente las aplicaciones son creadas para computadoras que ejecutan secuencialmente, de manera que el identificar secciones de código `paralelizable' es un trabajo arduo, pero necesario para dividir un proceso grande en sub-procesos y enviarlos a diferentes unidades de procesamiento para lograr la distribución. Con la concurrencia se deben implantar mecanismos para evitar las condiciones de competencia, las postergaciones indefinidas, el ocupar un recurso y estar esperando otro, las condiciones de espera circulares y, finalmente, los "abrazos mortales". Estos problemas de por sí se presentan en los sistemas operativos multiusuarios o multitareas, y su tratamiento en los sistemas distribuidos es aún más complejo, y por lo tanto, necesitará de algoritmos más complejos con la inherente sobrecarga esperada.

OSI

A principios de la década de 1980 el desarrollo de redes sucedió con desorden en muchos sentidos. Se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnología de networking, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red. Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas

PSGT 08 Introducción Básica a I.T

127

que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de networking privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controlan todo uso de la tecnología. Las tecnologías de networking que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes. Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional para la Estandarización (ISO) investigó modelos de networking como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. Con base en esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.

MODELO DE REFERENCIA OSI

Siguiendo el esquema de este modelo se crearon numerosos protocolos, por ejemplo X.25, que durante muchos años ocuparon el centro de la escena de las comunicaciones informáticas. El advenimiento de protocolos más flexibles donde las capas no están tan demarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo sigue siendo muy usado en la enseñanza como una manera de mostrar como puede estructurarse una "pila" de protocolos de comunicaciones (sin importar su poca correspondencia con la realidad). El modelo en sí mismo no puede ser considerado una arquitectura, ya que no especifica el protocolo que debe ser usado en cada capa, sino que suele hablarse de modelo de referencia. Este modelo está dividido en siete capas:

Capa Física (Capa 1) La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica y otros tipos de cables; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) y la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)

Capa de enlace de datos (Capa 2) Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.

PSGT 08 Introducción Básica a I.T

128

La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.

Capa de red (Capa 3) El cometido de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores. Adicionalmente la capa de red debe gestionar la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU de la capa 3 es el paquete. Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de maquinas.

Capa de transporte (Capa 4) Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación.

Capa de sesión (Capa 5) Esta capa establece, gestiona y finaliza las conexiones entre usuarios (procesos o aplicaciones) finales. Ofrece varios servicios que son cruciales para la comunicación, como son:

• Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).

• Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).

• Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.

Capa de presentación (Capa 6) El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible. Esta capa es la primera en trabajar más el contenido de la comunicación que en como se establece la misma. En ella se tratan aspectos tales como la

PSGT 08 Introducción Básica a I.T

129

semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.

Capa de aplicación (Capa 7) Ofrece a las aplicaciones (de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar. Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "HTTP/1.0 GET index.html" para conseguir una página en html, ni lee directamente el código html/xml. Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:

• HTTP (HyperText Transfer Protocol) el protocolo bajo la WWW • FTP (File Transfer Protocol) ( FTAM, fuera de TCP/IP) transferencia de

ficheros • SMTP (Simple Mail Transfer Protocol) (X.400 fuera de TCP/IP) envío y

distribución de correo electrónico • POP (Post Office Protocol)/IMAP: reparto de correo al usuario final • SSH (Secure Shell) principalmente terminal remoto, aunque en realidad

cifra casi cualquier tipo de transmisión. • Telnet otro terminal remoto, ha caído en desuso por su inseguridad

intrínseca, ya que las claves viajan sin cifrar por la red.

Hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red:

• SNMP (Simple Network Management Protocol) • DNS (Domain Name System)

SOFTWARE Se refiere al equipamiento lógico o soporte lógico de un computador digital, comprende el conjunto de los componentes lógicos necesarios para hacer posible la realización de una tarea específica, en contraposición a los componentes físicos del sistema (hardware). Tales componentes lógicos incluyen, entre otras, aplicaciones informáticas tales como procesador de textos, que permite al usuario realizar todas las tareas concernientes a edición

PSGT 08 Introducción Básica a I.T

130

de textos; software de sistema, tal como un sistema operativo, el que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y el resto de las aplicaciones, también provee una interfase ante el usuario.

Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación.

Extraído del estándar 729 del IEEE2

Bajo esta definición, el concepto de software va más allá de los programas de cómputo en sus distintos estados: código fuente, binario o ejecutable; también su documentación, datos a procesar e información de usuario es parte del software: es decir, abarca todo lo intangible, todo lo "no físico" relacionado. El término «software» fue usado por primera vez en este sentido por John W. Tukey en 1957.

PSGT 08 Introducción Básica a I.T

131

En las ciencias de la computación y la ingeniería de software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial. La teoría que forma la base de la mayor parte del software moderno fue propuesta por vez primera por Alan Turing en su ensayo de 1936, "Los números computables", con una aplicación al problema de decisión.

CLASIFICACION DEL SOFTWARE

Software de aplicación: Aquel que permite a los usuarios llevar a cabo una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios. Incluye entre otros:

• Aplicaciones de control y automatización industrial

• Aplicaciones ofimáticas

• Software educativo

• Software médico

• Software de Cálculo Numérico

• Software de Diseño Asistido (CAD)

• Software de Control Numérico (CAM)

El software de aplicación permite a los usuarios llevar a cabo una o varias tareas mas especificas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios, también podemos decir que el software de aplicación son aquellos que nos ayudan a la

PSGT 08 Introducción Básica a I.T

132

elaboración de una determinada tarea, este tipo de software es diseñado para facilitar al usuario en la realización de un determinado tipo de trabajo.

El software de aplicación resulta una solución informática para la automatización de ciertas tareas complicadas como puede ser la contabilidad y gestión de una organización, como ejemplo del software de aplicación podemos mencionar a la paquetería que nos ofrece Office de Microsoft (Word, Excel, One Note, etc.), Word Perfec, Lotus 123. El software de Aplicación es aquel que hace que el computador coopere con el usuario en la realización de tareas típicamente humanas, tales como gestionar una contabilidad o escribir un texto.

La diferencia entre los programas de aplicación y los de sistema estriba en que los de sistema suponen ayuda al usuario para relacionarse con el computador y hacer un uso más cómo del mismo, mientras los de aplicación son programas que cooperan con el usuario para la realización de las actividades mencionadas.

Es en este software de Aplicación donde se aprecia en forma más clara la ayuda que puede suponer un computador en las actividades humanas, ya que la máquina se convierte en un auxiliar del hombre, liberándole de las tareas repetitivas. Los programadores de aplicaciones, a diferencia de los programadores de sistemas, no necesitan conocer a fondo el modo de funcionamiento interno del hardware.

PSGT 08 Introducción Básica a I.T

133

Basta con que conozcan las necesidades de información de sus aplicaciones y cómo usar el sistema operativo, para conseguir satisfacer estas necesidades. Sus programas deben ser independientes del hardware específico que se utilice y deben ser transportados sin grandes problemas de adaptación a otras computadoras y otros entornos operativos. Dentro de los programas de aplicación, puede ser útil una distinción entre aplicaciones verticales, de finalidad específica para un tipo muy delimitado de usuarios (médicos, abogados, arquitectos…), y aplicaciones horizontales, de utilidad para una amplísima gama de usuarios de cualquier tipo. Algunos ejemplos de software aplicaciones son: > Procesadores de texto. (Bloc de Notas) > Editores. (PhotoShop para el Diseño Gráfico) > Hojas de Cálculo. (MS Excel) > Sistemas gestores de bases de datos. (MySQL) > Programas de comunicaciones. (MSN Messenger) > Paquetes integrados. (Ofimática: Word, Excel, PowerPoint…) > Programas de diseño asistido por computador. (AutoCAD)

EL PROCESO DE CREACION DE SOFTWARE

El proceso de creación de software es materia de la ingeniería del software, una de las ramas propias de la Ingeniería Informática. Es un proceso complejo que involucra diversas tareas de gestión y desarrollo. Como resumen de las etapas para la creación de un software, se pueden mencionar:

PSGT 08 Introducción Básica a I.T

134

ANALISIS:

Extraer los requisitos de un producto de software es la primera etapa para crearlo. Mientras que los clientes piensan que ellos saben lo que el software tiene que hacer, se requiere de habilidad y experiencia en la ingeniería de software para reconocer requisitos incompletos, ambiguos o contradictorios. El resultado del análisis de requisitos con el cliente se plasma en el documento ERS, Especificación de Requerimientos del Sistema, cuya estructura puede venir definida por varios estándares, tales como CMM-I. Asimismo, se define un diagrama de Entidad/Relación, en el que se plasman las principales entidades que participarán en el desarrollo del software.

La captura, análisis y especificación de requisitos (incluso pruebas de ellos), es una parte crucial; de esta etapa depende en gran medida el logro de los objetivos finales. Se han ideado modelos y diversos procesos de trabajo para estos fines. Aunque aun no está formalizada, ya se habla de la Ingeniería de Requisitos.

La IEEE Std. 830-1998 normaliza la creación de las Especificaciones de Requisitos Software (Software Requirements Specification).

Especificación

Es la tarea de describir detalladamente el software a ser escrito, en una forma matemáticamente rigurosa. En la realidad, la mayoría de las buenas especificaciones han sido escritas para entender y afinar aplicaciones que ya

PSGT 08 Introducción Básica a I.T

135

estaban desarrolladas. Las especificaciones son más importantes para las interfaces externas, que deben permanecer estables.

Diseño y arquitectura

Se refiere a determinar como funcionará de forma general sin entrar en detalles. Consiste en incorporar consideraciones de la implementación tecnológica, como el hardware, la red, etc. Se definen los Casos de Uso para cubrir las funciones que realizará el sistema, y se transforman las entidades definidas en el análisis de requisitos en clases de diseño, obteniendo un modelo cercano a la programación orientada a objetos.

Desarrollo del software El software adopta varios estados durante su desarrollo y en las distintas etapas de su ciclo de vida:

Código fuente: el escrito por los programadores. Contiene el conjunto de instrucciones codificadas en algún lenguaje de alto nivel.

Código objeto: código binario o intermedio resultante de procesar con un compilador al código fuente. Consiste en una traducción completa de éste último. El código objeto no es directamente inteligible por el ser humano, pero tampoco es directamente ejecutable por la computadora. Se trata de una representación intermedia entre el código fuente y el código ejecutable, a los

PSGT 08 Introducción Básica a I.T

136

fines de un enlace final con las rutinas de librería o bien para su uso con un pequeño intérprete de intermedio (a modo de ejemplos distintos véase EUPHORIA, FORTRAN y MSIL (Microsoft Intermédiate Language)).

Código ejecutable: resultado de enlazar uno o varios fragmentos de código objeto con las rutinas y librerías necesarias. Constituye un archivo binario con un formato tal que el sistema operativo es capaz de cargarlo en la memoria de una computadora, y proceder a su ejecución directa. El código ejecutable es directamente inteligible por la computadora.

Programación

Reducir un diseño a código puede ser la parte más obvia del trabajo de ingeniería de software, pero no es necesariamente la porción más larga. La complejidad y la duración es esta etapa está íntimamente ligada al o a los lenguajes de programación utilizados.

Prueba

Consiste en comprobar que el software realice correctamente las tareas indicadas en la especificación. Una técnica de prueba es probar por separado cada módulo del software, y luego probarlo de forma integral, para así llegar al

PSGT 08 Introducción Básica a I.T

137

objetivo. Se considera una buena practica el que las pruebas sean efectuadas por alguien distinto al desarrollador que la programó, idealmente un área de pruebas; sin perjuicio de lo anterior el programador debe hacer sus propias pruebas. En general hay dos grandes formas de organizar un área de pruebas, la primera es que esté compuesta por personal inexperto y que desconozca el tema de pruebas, de esta forma se evalúa que la documentación entregada sea de calidad, que los procesos descritos son tan claros que cualquiera puede entenderlos y el software hace las cosas tal y como están descritas. El segundo enfoque es tener un área de pruebas conformada por programadores con experiencia, personas que saben sin mayores indicaciones en que condiciones puede fallar una aplicación y que pueden poner atención en detalles que personal inexperto no consideraría.

Documentación

Todo lo concerniente a la documentación del propio desarrollo del software y de la gestión del proyecto, pasando por modelaciones (UML), diagramas, pruebas, manuales de usuario, manuales técnicos, etc.; todo con el propósito de eventuales correcciones, utilidades, mantenimiento futuro y ampliaciones al sistema.

Mantenimiento

Mantener y mejorar el software para enfrentar errores descubiertos y nuevos requisitos. Esto puede llevar más tiempo incluso que el desarrollo inicial del software. Alrededor de 2/3 de toda la ingeniería de software tiene que ver con dar mantenimiento. Una pequeña parte de este trabajo consiste en arreglar errores, o bugs. La mayor parte consiste en extender el sistema para hacer nuevas cosas. De manera similar, alrededor de 2/3 de toda la ingeniería civil, arquitectura y trabajo de construcción es dar mantenimiento.

PSGT 08 Introducción Básica a I.T

138

MODELOS DE DESARROLLO DE SOFTWARE

La ingeniería de software tiene varios modelos o paradigmas de desarrollo en los cuales se puede apoyar para la realización de software, de los cuales podemos destacar a éstos por ser los más utilizados y los más completos:

MODELO EN CASCADA

También llamado modelo en cascada, es el enfoque metodológico que ordena rigurosamente las etapas del ciclo de vida del software, de forma tal que el inicio de cada etapa debe esperar a la finalización de la inmediatamente anterior. Un ejemplo de una metodología de desarrollo en cascada es:

1. Análisis de requisitos

2. Diseño del Sistema

3. Diseño del Programa

4. Codificación

5. Pruebas

6. Implantación

7. Mantenimiento De esta forma, cualquier error de diseño detectado en la etapa de prueba conduce necesariamente al rediseño y nueva programación del código afectado, aumentando los costes del desarrollo. La palabra cascada sugiere, mediante la metáfora de la fuerza de la gravedad, el esfuerzo necesario para introducir un cambio en las fases más avanzadas de un proyecto. Si bien ha sido ampliamente criticado desde el ámbito académico y la industria, sigue siendo el paradigma más seguido al día de hoy.

PSGT 08 Introducción Básica a I.T

139

DESARROLLO EN ESPIRAL El Desarrollo en Espiral es un modelo de ciclo de vida desarrollado por Barry Boehm en 1985, utilizado generalmente en la Ingeniería de software. Las actividades de este modelo son una espiral, cada bucle es una actividad. Las actividades no están fijadas a prioridad, sino que las siguientes se eligen en función del análisis de riesgo, comenzando por el bucle interior. Para cada actividad habrá cuatro tareas:

• Determinar o fijar objetivos

• Análisis del riesgo

• Desarrollar, verificar y validar (probar)

• Planificar

MODELO DE PROTOTIPOS

PSGT 08 Introducción Básica a I.T

140

También llamado modelo de prototipos o modelo de desarrollo evolutivo, se inicia con la definición de los objetivos globales para el software, luego se identifican los requisitos conocidos y las áreas del esquema en donde es necesaria más definición. Entonces se plantea con rapidez una iteración de construcción de prototipos y se presenta el modelado (en forma de un diseño rápido). El diseño rápido se centra en una representación de aquellos aspectos del software que serán visibles para el cliente o el usuario final (por ejemplo, la configuración de la interfaz con el usuario y el formato de los despliegues de salida). El diseño rápido conduce a la construcción de un prototipo, el cual es evaluado por el cliente o el usuario para una retroalimentación; gracias a ésta se refinan los requisitos del software que se desarrollará. La iteración ocurre cuando el prototipo se ajusta para satisfacer las necesidades del cliente. Esto permite que al mismo tiempo el desarrollador entienda mejor lo que se debe hacer y el cliente vea resultados a corto plazo.

DESARROLLO POR ETAPAS El modelo de desarrollo de software por etapas es similar al Modelo de prototipos ya que se muestra al cliente el software en diferentes estados sucesivos de desarrollo, se diferencia en que las especificaciones no son conocidas en detalle al inicio del proyecto y por tanto se van desarrollando simultáneamente con las diferentes versiones del código. Pueden distinguirse las siguientes fases:

• Especificación conceptual

• Análisis de requerimientos

• Diseño inicial

• Diseño detallado, codificación, depuración y liberación Estas diferentes fases se van repitiendo en cada etapa del diseño.

PSGT 08 Introducción Básica a I.T

141

PSGT 08 Introducción Básica a I.T

142

VÉÇvÄâá|ÉÇxá • En conclusión tenemos que el tema de I.T. es un tema

bastante fuerte, extenso y largo, pero a la vez muy interesante y de mucha ayuda, ya que su estudio puede llegar a llevar varios años sin que el tema se acabe ya que este se va actualizando constantemente día a día, con la evolución y la aparición de nuevas tecnologías ya sean para hardware como para software. Su estudio abarca desde su creación e inicios hasta lo que es el día de hoy con sus respectivas tecnologías, como lo es también el estudio de las tecnologías futuras que puedan venir a reforzar y ayudar al hombre en su trabajo diario. Gracias a la computadora y a la computación se ha logrado avanzar en la evolución de la vida del ser humano, ya que estos nos han ayudado a que los trabajos sean mejores, más eficientes y más eficaces proporcionándole al hombre un gran ayudante y evitándole bastante trabajo y la realización de tareas repetitivas.

exvÉÅxÇwtv|ÉÇxá • Se les recomienda a cada uno de ustedes que aparte de leer

el trabajo anterior, amplíen la información que se les presenta ya sea por el medio de Internet como por los libros, ya que son temas bastantes extensos y de gran ayuda.

U|uÄ|ÉzÜty•t

• www.monografias.com • es.wikipedia.org • www.rincondelvago.com • www.unicrom.com • www.geocities.com