INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C....

17
1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina, 1 es una ciencia que estudia métodos, técnicas, procesos, con el fin de almacenar, procesar y transmitir información y datos en formato digital. La informática se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX, con la aparición de tecnologías tales como el circuito integrado, el Internet, y el teléfono móvil. Se define como la rama de la tecnología que estudia el tratamiento automático de la información. En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un documento denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información). El soviético Alexander Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de «estudio, organización, y la diseminación de la información científica», que sigue siendo su significado en dicha lengua.En inglés, la palabra informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa denominada Informatics General. 1.1 Orígenes En los inicios del proceso de información, con la informática sólo se facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización de esos procesos trajo como consecuencia directa una disminución de los costes y un incremento en la productividad. En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones / herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos. Actualmente, es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Entre las funciones principales de la informática se cuentan las siguientes: Creación de nuevas especificaciones de trabajo Desarrollo e implementación de sistemas informáticos

Transcript of INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C....

Page 1: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

1

ELABORADO POR : PROF. RANGEL LEÓN C.

INFORMATICA

1- INTRODUCCIÓN

La informática, también llamada computación en América latina,1 es una ciencia que estudia métodos, técnicas, procesos, con el fin de almacenar, procesar y transmitir información y datos en formato digital. La informática se ha desarrollado rápidamente a partir de la segunda mitad del siglo XX, con la aparición de tecnologías tales como el circuito integrado, el Internet, y el teléfono móvil. Se define como la rama de la tecnología que estudia el tratamiento automático de la información.

En 1957, Karl Steinbuch añadió la palabra alemana Informatik en la publicación de un documento denominado Informatik: Automatische Informationsverarbeitung (Informática: procesamiento automático de información). El soviético Alexander Ivanovich Mikhailov fue el primero en utilizar Informatik con el significado de «estudio, organización, y la diseminación de la información científica», que sigue siendo su significado en dicha lengua.En inglés, la palabra informatics fue acuñada independiente y casi simultáneamente por Walter F. Bauer, en 1962, cuando Bauer cofundó la empresa denominada Informatics General.

1.1 Orígenes

En los inicios del proceso de información, con la informática sólo se facilitaban los trabajos repetitivos y monótonos del área administrativa. La automatización de esos procesos trajo como consecuencia directa una disminución de los costes y un incremento en la productividad. En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica. Se puede entender por informática a la unión sinérgica de todo este conjunto de disciplinas. Esta disciplina se aplica a numerosas y variadas áreas del conocimiento o la actividad humana, como por ejemplo: gestión de negocios, almacenamiento y consulta de información, monitorización y control de procesos, industria, robótica, comunicaciones, control de transportes, investigación, desarrollo de juegos, diseño computarizado, aplicaciones / herramientas multimedia, medicina, biología, física, química, meteorología, ingeniería, arte, etc. Puede tanto facilitar la toma de decisiones a nivel gerencial (en una empresa) como permitir el control de procesos críticos. Actualmente, es difícil concebir un área que no use, de alguna forma, el apoyo de la informática. Ésta puede cubrir un enorme abanico de funciones, que van desde las más simples cuestiones domésticas hasta los cálculos científicos más complejos. Entre las funciones principales de la informática se cuentan las siguientes:

Creación de nuevas especificaciones de trabajo

Desarrollo e implementación de sistemas informáticos

Page 2: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

2

ELABORADO POR : PROF. RANGEL LEÓN C.

Sistematización de procesos

Optimización de los métodos y sistemas informáticos existentes

Facilitar la automatización de datos

2. Sistemas de tratamiento de la información

Los sistemas computacionales, generalmente implementados como dispositivos electrónicos, permiten el procesamiento automático de la información. Conforme a ello, los sistemas informáticos deben realizar las siguientes tres tareas básicas:

Entrada: captación de la información. Normalmente son datos y órdenes ingresados por los usuarios a través de cualquier dispositivo de entrada conectado a la computadora.

Proceso: tratamiento de la información. Se realiza a través de programas y aplicaciones diseñadas por programadores que indican de forma secuencial cómo resolver un requerimiento.

Salida: transmisión de resultados. A través de los dispositivos de salida los usuarios pueden visualizar los resultados que surgen del procesamiento de los datos.

Sistema operativo es un conjunto de programas que permite interactuar al usuario con la computadora.

Sistemas de mando y control, son sistemas basados en la mecánica y motricidad de dispositivos que permiten al usuario localizar, dentro de la logística, los elementos que se demandan. Están basados en la electricidad, o sea, no en el control del flujo del electrón, sino en la continuidad o discontinuidad de una corriente eléctrica, si es alterna o continua o si es inducida, contrainducida, en fase o desfase (ver periférico de entrada).

Sistemas de archivo, son sistemas que permiten el almacenamiento a largo plazo de información que no se demandará por un largo periodo de tiempo. Estos sistemas usan los conceptos de biblioteca para localizar la información demandada.

Código ASCII es un método para la correspondencia de cadenas de bits permitiendo de esta forma la comunicación entre dispositivos digitales así como su proceso y almacenamiento, en la actualidad todos los sistemas informáticos utilizan el código ASCII para representar textos, gráficos, audio e infinidad de información para el control y manipulación de dispositivos digitales.

En un editor de texto presionando las teclas ALT + el número del código ASCII, aparecerá el carácter correspondiente, solamente funciona en un teclado que tenga las teclas numéricas.

Page 3: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

3

ELABORADO POR : PROF. RANGEL LEÓN C.

Los virus informáticos son programas que se introducen en una computadora, sin conocimiento del usuario, para ejecutar en él acciones no deseadas.

Estas acciones son:

Unirse a un programa.

Mostrar mensajes o imágenes, generalmente molestas.

Ralentizar o bloquear la computadora.

Destruir la información almacenada.

Reducir el espacio en el disco.

Robo de datos: contraseñas, usuarios, y otros tipos de datos personales.

2.1. Los tipos de virus informáticos que existen son:

Gusanos: recogiendo información, contraseñas, para enviarla a otro.

Bombas lógicas o de tiempo: que se activan cuando sucede algo especial, como puede ser una fecha.

Troyanos: hace que las computadoras vayan más lentos.

Virus falsos: información falsa.

2.2. Estos virus se pueden prevenir:

Haciendo copias de seguridad.

Copias de programas originales.

Rechazo de copias de origen dudoso.

Uso de contraseñas.

Uso de antivirus.

3. DEFINICIÓN

El término informática proviene del francés informatique, implementado por el

ingeniero Philippe Dreyfus a comienzos de la década del ’60. La palabra es, a

su vez, un acrónimo de information y automatique.

De esta forma, la informática se refiere al procesamiento automático de

información mediante dispositivos electrónicos y sistemas computacionales.

Page 4: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

4

ELABORADO POR : PROF. RANGEL LEÓN C.

Los sistemas informáticos deben contar con la capacidad de cumplir tres tareas

básicas: entrada (captación de la información), procesamiento y salida

(transmisión de los resultados). El conjunto de estas tres tareas se conoce

como algoritmo.

La informática reúne a muchas de las técnicas que el hombre ha desarrollado

con el objetivo de potenciar sus capacidades de pensamiento, memoria y

comunicación. Su área de aplicación no tiene límites: la informática se utiliza en

la gestión de negocios, en el almacenamiento de información, en el control de

procesos, en las comunicaciones, en los transportes, en la medicina y en

muchos otros sectores.

La informática abarca también los principales fundamentos de las ciencias de la

computación, como la programación para el desarrollo de software, la

arquitectura de las computadoras y del hardware, las redes como Internet y la

inteligencia artificial. Incluso se aplica en varios temas de la electrónica.

Se considera que la primera máquina programable y completamente

automática de la historia fue el computador Z3, diseñado por el científico

alemán Konrad Zuse en 1941. Esta máquina pesaba 1.000 kilogramos y se

demoraba tres segundos para realizar una multiplicación o una división. Las

operaciones de suma o resta, en cambio, le insumían 0,7 segundos.

La informática se define como la ciencia que estudia el tratamiento de la

información mediante medios automáticos, es decir la ciencia de la información

automática. Fue en el año 1957 cuando Karl Steinbuch citó por primera vez la

palabra informática bajo el concepto anteriormente descrito.

Desde los primeros tiempos, el ser humano ha inventado y desarrollado medios

necesarios para transmitir información, medios como el lenguaje, la escritura,

las señales acústicas o luminosas como silbatos, tambores, humo, el teléfono,

la televisión… pudiendo trasladar de generación en generación todo el

pensamiento y conocimiento adquirido a lo largo de la historia, gracias a esta

transmisión y tratamiento de la información el ser humano ha evolucionado

hacia la tecnología que actualmente disponemos.

El objetivo principal de la informática consiste en automatizar mediante equipos

generalmente electrónicos todo tipo de información, de tal forma que evite la

repetición de tareas arduas las cuales pueden inducir al error reduciendo a su

vez el tiempo de ejecución de las mismas, ¿te imaginas contabilizar

manualmente sin ayuda de ningún tipo de calculadora o programa informático

todas las transacciones económicas de un gran centro comercial?.

Para poder automatizar la información la informática se basa en la realización

de 3 tareas básicas:

• La entrada de la información

Page 5: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

5

ELABORADO POR : PROF. RANGEL LEÓN C.

• El tratamiento de la información

• Salida de la información

El sistema informático ha de estar dotado de algún medio por el cual aportemos

la información, a su vez el sistema informático ha de ser capaz de interpretar y

guardar dicha información, para que una vez que la solicitemos se nos muestre

mediante algún medio de salida.

Cuando introducimos una canción en nuestro ordenador mediante una

memoria externa el puerto USB de nuestro ordenador sería el medio de

entrada, posteriormente el ordenador guarda la canción en el disco duro y un

software específico (reproductor de música) lo trata de tal forma que transforma

los bits guardados en música retransmitida por los altavoces (medio de salida)

de nuestro ordenador.

La ciencia de la informática de desglosa en diversas ramas de la ciencia como

la programación, la arquitectura de redes y computadores, electricidad y

electrónica, la inteligencia artificial, etc.. ramas de la ciencia que nos permite

desarrollar el hardware y el software necesario y fundamental en la informática.

El área de aplicación de la informática es inmensa, desde la gestión de

empresas mediante hojas de cálculo, sistemas de gestión de stocks, crm, erp,

etc… hasta la aplicación para la monitorización y manipulación de satélites

ubicados en nuestra galaxia, pasando por aplicaciones para la medicina,

diseño de estructuras, análisis matemáticos, físicos y químicos, etc…

4. CIENCIAS DE LA COMPUTACION APLICADA

Las ciencias de la computación aplicadas tratan de identificar ciertos aspectos conceptuales y teóricos de las ciencias de la computación que pueden ser aplicados directamente para resolver problemas del mundo real.

4.1 Inteligencia artificial

Esta rama de las ciencias de la computación pretende o es requerida para la síntesis de procesos meta-orientados tales como la resolución de problemas, toma de decisiones, la adaptación del medio ambiente, el aprendizaje y la comunicación que se encuentran en los seres humanos y los animales. Desde sus orígenes en la cibernética y en la Conferencia de Dartmouth (1956), la investigación en inteligencia artificial (IA) ha sido necesariamente multidisciplinaria, aprovechando áreas de especialización, tales como las matemáticas, la lógica simbólica, la semiótica, la ingeniería eléctrica, la filosofía de la mente, la neurofisiología, y la inteligencia social. La IA erróneamente es asociada en la mente popular con el desarrollo robótico, pero el principal campo de aplicación práctica ha sido como un componente integrado en las áreas de desarrollo de software que requieren la comprensión y modelación computacional, tales como las finanzas y la economía, la minería de datos y las

Page 6: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

6

ELABORADO POR : PROF. RANGEL LEÓN C.

ciencias físicas. El término fue acuñado por el científico de la computación y matemático John McCarthy en 1955.

Aprendizaje

automático

Visión artificial

Procesamiento

de imágenes

Reconocimiento de

patrones

Ciencia cognitiva Minería de datos

Computación

evolutiva

Búsqueda y

recuperación de

información

Representación del

conocimiento

Procesamiento de

lenguaje natural

Robótica

Cómputo de

imágenes médicas

4.2 Arquitectura de computadoras

La arquitectura de computadores u organización de computadoras digitales es el diseño conceptual y la estructura operacional fundamental de un sistema cómputo. Se centra en gran medida de la manera en que la unidad central de procesamiento realiza internamente y accede a las direcciones en la memoria El campo involucra disciplinas de la ingeniería en computación y la ingeniería eléctrica, la selección y la interconexión de los componentes de hardware para crear los equipos que cumplen funciones, de rendimiento, y costes.

Lógica digital Microarquitecturas Multiprocesamiento

Page 7: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

7

ELABORADO POR : PROF. RANGEL LEÓN C.

Sistemas

operativos

Redes de

computadoras

Sistemas de gestión de bases de

datos

Seguridad de

la información

Computación

ubicua

Arquitectura de

software

Diseño de compiladores

Lenguajes de

programación

4.3. Análisis de rendimiento de computador

Análisis de rendimiento del equipo es el estudio del trabajo que fluye a través de los equipos con el objetivo general de mejora de rendimiento y control de tiempo de respuesta, utilizando los recursos de manera eficiente, la eliminación de los cuellos de botella, y la predicción de rendimiento bajo cargas máximas previstas.

4.4 Cómputo científico

La ciencia computacional (o computación científica) es el campo de estudio que trata con la construcción de modelos matemáticos y técnicas de análisis cuantitativos así como el uso de computadoras para analizar y resolver problemas científicos. En el uso práctico, es típicamente la aplicación de simulación por ordenador y otras formas de cálculo a los problemas en diversas disciplinas científicas.

Análisis numérico Física computacional Química computacional Bioinformática

Page 8: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

8

ELABORADO POR : PROF. RANGEL LEÓN C.

4.5 Redes de computadoras

Esta rama de las ciencias de la computación tiene como objetivo gestionar la conectividad entre redes (LAN / WAN) de computadoras a nivel mundial.

4.6. Sistemas concurrentes, paralelos y distribuidos

Concurrencia es una propiedad de los sistemas en los que varios cálculos están ejecutando de forma simultánea, y, potencialmente, que interactúan entre sí. Un número de modelos matemáticos han sido desarrollados para el cálculo concurrente general, incluyendo las redes de Petri, cálculos de proceso y del modelo de máquina de acceso aleatorio en paralelo. Un sistema distribuido se extiende la idea de la simultaneidad en varios ordenadores conectados a través de una red. Computadoras dentro del mismo sistema distribuido tienen su propia memoria privada, y la información es a menudo intercambian entre sí para lograr un objetivo común.

4.7. Bases de datos.

Una base de datos tiene la intención de organizar, almacenar y recuperar grandes cantidades de datos de forma sencilla. Bases de datos digitales se gestionan mediante sistemas de gestión de base de datos para almacenar, crear, mantener y consultar los datos, a través de modelos de bases de datos y lenguajes de consulta. Una base de datos es un conjunto de datos interrelacionados entre si mismos.

4.8. Informática en salud

Informática de la Salud se ocupa de las técnicas computacionales para la solución de problemas en el cuidado de la salud.

4.9. Ciencia de la información

El campo estudia la estructura, algoritmos, comportamiento e interacciones de los sistemas naturales y artificiales que guardan, procesan, acceden a y comunican información. También desarrolla sus propios fundamentos conceptuales y teóricos y emplea fundamentos desarrollados en otros campos. Una aplicación moderna es el Big Data, que consiste en el procesamiento de un conjunto de datos (provenientes de fuentes como por ejemplo: transacciones comerciales, formularios web, imágenes, videos, emails, redes sociales, entre otros), los cuales son sometidos a herramientas informáticas de análisis que permiten extraer información valiosa para predecir comportamientos futuros y formular estrategias de toma decisiones

Page 9: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

9

ELABORADO POR : PROF. RANGEL LEÓN C.

Búsqueda y recuperación de información

Representación del conocimiento

Procesamiento de lenguaje natural

Interacción persona-computador

4.9 Ingeniería de software

Ingeniería de software es el estudio del diseño, implementación y modificación del software con la finalidad de asegurarse de que es de alta calidad, asequible, fácil de mantener, y rápido de construir. Es un enfoque sistemático para el diseño de software, que implica la aplicación de prácticas de ingeniería de software. Los ingenieros de software comercian con la organización y análisis de software — no solo lidian con la creación o fabricación de un nuevo software, sino también con su mantenimiento y disposición interna. Se prevé que estén entre las ocupaciones de más rápido crecimiento entre 2008 y 2018. Debido a la novedad de este subcampo, la educación formal en Ingeniería de software generalmente es parte de los planes de estudio de ciencias de la computación, la gran mayoría de ingenieros de software tienen un grado académico en ciencias de la computación sin tener relación con la ingeniería

5. UNIDADES DE MEDIDAS

Introducción. Las unidades de medida

Para que no existan diferentes interpretaciones sobre las medidas de los diferentes objetos ó fenómenos que existen, en 1960 el Congreso Internacional de Pesas y Medidas decidió unificar el criterio de ellas y lo hizo creando el Sistema Internacional de Unidades de Medida (SI). En la tabla se muestran algunas magnitudes en unidades fundamentales y su respectivo símbolo.

Magnitudes con unidad de medida y símbolo.

Magnitud Nombre de la unidad Símbolo

Longitud metro m

Masa Kilogramo Kg

Tiempo segundo s

Tabla 1. Algunas magnitudes con unidad de medida y símbolo

5.1. - Bits y Bytes como unidad de medida

Las unidades de medida se definen por convenciones internacionales. Por deducción lógica la unidad fundamental de la masa debería ser el gramo, pero

Page 10: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

10

ELABORADO POR : PROF. RANGEL LEÓN C.

es una cantidad muy pequeña, así que se escogió el kilogramo debido a que es mas común y práctico utilizarlo. En el caso de la información, sucede algo similar, la unidad de medida de la información es el bit, pero por cuestiones de utilidad se utiliza el "Byte" que significa octeto. Puede abreviarse como b ó B, pero aún no se ha estandarizado su forma de representarlo, por lo que en este sitio utilizamos la B para referirnos al Byte, siendo correcto también abreviarlo con b (byte).

La computadora trabaja con en el sistema binario, que se basa solo en 2 dígitos: El cero (0) y el uno (1). Un bit es simplemente un cero ó un uno, pero la computadora trabaja con conjuntos de ocho combinaciones de ceros y unos, a esto se le denomina Byte (octeto).

Esto es:

1 bit = cero ó uno (0 ó 1).

1 Byte = combinación de ocho ceros ó unos. Ejemplo: 0 1 0 0 0 0 0 1

0 1 0 0 0 0 0 1 : equivale a un carácter ó letra, en este ejemplo es la letra A.

Para interpretar el Byte se utiliza una codificación binaria llamada ASCII que significa ("American Standar Code for Information Exchange"), es decir código estándar americano para intercambio de información. Este es el estándar que define los caracteres (letras) en mayúscula, minúscula, símbolos, etc., que representa cada Byte.

Ejemplo de ello son:

Códigos Binarios ASCII

Carácter bit 1 bit 2 bit 3 bit 4 bit 5 bit 6 bit 7 bit 8 Byte

A 0 1 0 0 0 0 0 1 01000001

B 0 1 0 0 0 0 1 0 01000010

1 0 0 1 1 0 0 0 1 00110001

2 0 0 1 1 0 0 1 0 00110010

Tabla 2. Ejemplos de utilización de bits para representar caracteres

5.2. - Los bits y sus interpretaciones

La computadora interpreta los bits desde los dispositivos de almacenamiento de información por medio de características físicas que cada uno contiene:

Page 11: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

11

ELABORADO POR : PROF. RANGEL LEÓN C.

En un disco duro

Figura 1. Disco duro marca Seagate®, modelo Free Agent Go, capacidad para 250 GB

Una cantidad alta de concentración de limadura magnética en una área microscópica determina un uno (1) y al contrario, una baja concentración determina un cero (0).

Ejemplo: si la concentración de limadura magnética en un área definida del disco duro tiene la siguiente estructura entonces la computadora lo interpreta así:

Entonces sí: 0 = (menor concentración magnética).

Y también: 1 = (mayor concentración magnética).

Carácter Bit 1 Bit 2 Bit 3 Bit 4 Bit 5 Bit 6 Bit 7 Bit 8 Byte

A

01000001

B

01000010

1

00110001

2

00110010

Tabla 3. Magnitudes con unidad de medida y símbolo

En un CD-ROM

Figura 2. Disco compacto marca Melody®, modelo platinum, velocidad 32X, capacidad para 830 MB

Page 12: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

12

ELABORADO POR : PROF. RANGEL LEÓN C.

Microscópicamente una hendidura profunda puede representar un uno (1) y caso contrario, una hendidura mas superficial un cero (0).

Ejemplo: si las hendiduras están definidas en una pista del CD-ROM, entonces la computadora lo interpreta así:

Entonces sí: 0 = (hendidura superficial).

Y también: 1 = (hendidura profunda).

Carácter Bit 1 Bit 2 Bit 3 Bit 4 Bit 5 Bit 6 Bit 7 Bit 8 Byte

A

01000001

B

01000010

1

00110001

2

00110010

Tabla 4. Magnitudes con unidad de medida y símbolo

En una memoria USB

Figura 3. Memoria USB, marca Adata®, modelo MyFlash mini

Para el caso de las memorias, una carga eléctrica alta almacenada en una celda microscópica puede determinar un uno (1) y una carga eléctrica baja determina al cero (0).

Ejemplo: si las celdas de memoria de una memoria USB están cargadas eléctricamente de la siguiente manera, entonces la computadora lo interpreta así:

Entonces sí: 0 = (carga eléctrica baja almacenada).

Page 13: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

13

ELABORADO POR : PROF. RANGEL LEÓN C.

Y también: 1 = (carga eléctrica alta almacenada).

Carácter Bit 1 Bit 2 Bit 3 Bit 4 Bit 5 Bit 6 Bit 7 Bit 8 Byte

A

01000001

B

01000010

1

00110001

2

00110010

Tabla 5. Magnitudes con unidad de medida y símbolo

5.3. - Múltiplos del Byte (Kilo, Mega, Giga y Tera)

Al igual que las demás unidades de medida, para el Byte se utilizan múltiplos decimales para determinar las cantidades. En términos de cantidades superiores como el Kilobyte, se maneja un bit extra llamado bit de control ó bit de paridad, el cuál determina dónde empieza y dónde termina el carácter, por ello un Kilobyte no es exactamente 1000 Bytes, sino 1024 Bytes. Para evitar este tipo de confusiones, se esta impulsando una nueva nomenclatura, vea en esta misma página el tema de: Las nuevas unidades de medida.

Tabla 6. Tabla comparativa de los múltiplos de la unidad de medida de la información (Byte)

Entonces si actualmente en el mercado, la memoria flash USB marca Adata®, modelo C801, tiene capacidad de almacenar hasta 32 Gigabytes (GB), quiere decir que tiene disponibles:

(32 GB X 8,000,000,000) = 256,000,000,000 celdas de memoria físicamente disponibles

ó espacio para: (32 GB X 1,000,000,000) = 32,000,000,000 de letras (caracteres).

5.4. - Las nuevas unidades de medida

Hay un problema con respecto al uso de los prefijos como el Kilo y Mega, ya que estos no coinciden con el Sistema Internacional de Unidades de medida

Unidad Cantidad de Bytes Kilobytes Megabytes Gigabytes Terabytes

Byte 1

Kilobyte 1,024 1

Megabyte 1,048,576 1,024 1

Gigabyte 1073,741,824 1,048,576 1,024 1

Terabyte 1,099,511,627,776 1073,741,824 1,048,576 1,024 1

Page 14: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

14

ELABORADO POR : PROF. RANGEL LEÓN C.

(SI). Para el sistema internacional de medida 1 Kilo = 1000, mientras que en informática 1 Kilo = 1024 ó 1 Kilo=1048.

- Ejemplos:

+ Una red de área local (LAN - computadoras relativamente cercanas interconectadas entre sí) que soporte 1 Mbps (Megabit por segundo) de velocidad equivale a 1,048, 576 bits por segundo.

+ Al momento de formatear un disquete de 1.44 MB, el sistema lo prepara con la característica de que un Megabyte equivalga a 1,024,000 Bytes.

Por lo tanto hay un problema de convención, por lo tanto se está impulsando una nueva nomenclatura para evitar lo anterior, dejando que Mega signifique 1000 Kilos como siempre ha sido y creando un nuevo prefijo basado en las letras "bi" que indicaría "binary", ello para usarse solamente en algunos ámbitos de la informática.

Actuales y propuestos Símbolos Capacidad

+ Un kibibit (Propuesto) 1 Kibit 1,024 bits

+ Un Kilobit (Actual) 1 kbit 1,000 bits

+ Un Kibibyte 1 KiB 1,024 B (Bytes)

+ Un Kilobyte 1 KB 1,000 B (Bytes)

+ Un Mebibyte (Propuesto)

1 MiB 1,048,576 B (Bytes)

+ Un Megabyte (Actual) 1 MB 1,000,000 B (Bytes)

+ Un Gibibyte (Propuesto)

1 GiB 1,073,741,824 B (Bytes)

+ Un Gigabyte (Actual) 1 GB 1,000,000,000 B (Bytes)

Tabla 7. Tabla comparativa de nombres propuestos y sus magnitudes

5.5. - El baudio

El baudio es una unidad de medida derivada directamente del bit, se mide en "bit per second" (bps) ó bit por segundo, pero para mayor comodidad se utilizan los Kilobits por segundo (Kbps) y los Megabits por segundo (Mbps). Esta unidad se suele utilizar para definir las velocidades de transferencia en las redes basadas en cable, redes inalámbricas, módems y en algunos casos en dispositivos como memorias USB. Esta unidad mide la cantidad de bits que se transmiten en cuestión de un segundo.

Suele haber una confusión muy frecuente entre el Megabit por segundo (Mbps) y el Megabyte/segundo (MB/s), en parte porque los fabricantes de dispositivos no especifican las velocidades en MB/s sino en Mbps y la mayoría de las personas confunden los términos.

Page 15: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

15

ELABORADO POR : PROF. RANGEL LEÓN C.

Ejemplo de ello es lo siguiente:

+ Los fabricantes especifican que la velocidad máxima de transferencia del puerto USB es de 480 Mbps, lo cuál suena muy veloz a primera instancia, pero si convertimos los Megabits por segundo (Mbps) a Megabytes por segundo (MB/s) tenemos entonces usamos la siguiente equivalencia:

8 Mbps (Megabits por segundo) = 1 MB/s (Megabytes/segundo)

Usando "regla de 3":

8 Mbps = 1 MB/s

480 MB/s = Z MB/s

La fórmula es: Z MB/s = (480 Mbps X 1 MB/s) / 8 Mbps

El resultado es Z = 60 MB/s, por lo tanto es muy diferente a la primera impresión que da la cifra inicial de 480 Mbps.

5.6. - La velocidad de transferencia

Para determinar la velocidad con que los dispositivos intercambian la información se utiliza la unidad Bytes/segundo y los baudios (bits por segundo).

+ Ejemplo, si un disco duro SATA II marca Seagate®, tiene una velocidad de transferencia de 300 MB/s, quiere decir que es capaz de enviar 300 Megabytes de datos por cada segundo que transcurre.

+ Ejemplo, si un módem marca Motorola® es capaz de recibir 56 Kbps (56 Kilo baudios), quiere decir que en cada segundo que transcurre puede recibir 56,000 bits ó en su caso 7 Kilobytes por segundo de datos.

5.7. - La velocidad de proceso

Es la capacidad que tiene un dispositivo de realizar una cierta cantidad de procesos por segundo que transcurre. La unidad de medida es el de la frecuencia (Hertz/segundo). Esta unidad es muy utilizada para determinar las velocidades con que trabajan los dispositivos (el denominado bus frontal FSB), como microprocesadores, memorias RAM y tarjetas principales ("Motherboard").

+ Ejemplo de ello es el microprocesador AMD Phenom 8450, que tiene una velocidad de 2.1 GigaHertz (GHz), es decir puede realizar 2100,000,000 procesos por segundo.

6. PIXELES

Un píxel o pixel,1 plural píxeles (acrónimo del inglés picture element, ‘elemento de imagen’), es la menor unidad homogénea en color que forma parte de una imagen digital.

Page 16: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

16

ELABORADO POR : PROF. RANGEL LEÓN C.

Ampliando lo suficiente una imagen (zoom) en la pantalla de una computadora, pueden observarse los píxeles que la componen. Los píxeles son los puntos de color (siendo la escala de grises una gama de color monocromática). Las imágenes se forman como una sucesión de píxeles. La sucesión marca la coherencia de la información presentada, siendo su conjunto una matriz coherente de información para el uso digital. El área donde se proyectan estas matrices suele ser rectangular. La representación del píxel en pantalla, al punto de ser accesible a la vista por unidad, forma un área homogénea en cuanto a la variación del color y densidad por pulgada, siendo esta variación nula, y definiendo cada punto sobre la base de la densidad, en lo referente al área.

En las imágenes de mapa de bits, o en los dispositivos gráficos, cada píxel se codifica mediante un conjunto de bits de longitud determinada (la profundidad de color); por ejemplo, puede codificarse un píxel con un byte (8 bits), de manera que cada píxel admite hasta 256 variaciones de color (28 posibilidades binarias), de 0 a 255. En las imágenes llamadas de color verdadero, normalmente se usan tres bytes (24 bits) para definir el color de un píxel; es decir, en total se pueden representar unos 224 colores, esto es 16.777.216 variaciones de color. Una imagen en la que se utilicen 32 bits para representar un píxel tiene la misma cantidad de colores que la de 24 bits, ya que los otros 8 bits son usados para efectos de transparencia.

Para poder visualizar, almacenar y procesar la información numérica representada en cada píxel, se debe conocer, además de la profundidad y brillo del color, el modelo de color que se utiliza. Por ejemplo, el modelo de color RGB (Red-Green-Blue) permite crear un color compuesto por los tres colores primarios según el sistema de mezcla aditiva. De esta forma, según la cantidad de cada uno de ellos que se use en cada píxel será el resultado del color final del mismo. Por ejemplo, el color magenta se logra mezclando el rojo y el azul, sin componente verde (este byte se pone en 0). Las distintas tonalidades del mismo color se logran variando la proporción en que intervienen ambas componentes (se altera el valor de esos dos bytes de color del píxel). En el modelo RGB lo más frecuente es usar 8 bits al representar la proporción de cada una de las tres componentes de color primarias. Así, cuando una de las componentes vale 0, significa que ella no interviene en la mezcla y cuando vale 255 (28 – 1) significa que interviene dando el máximo de ese tono, valores intermedios proveen la intensidad correspondiente.

La mayor parte de los dispositivos que se usan con una computadora (monitor, escáner, etc.) usan el modelo RGB (modelo de reflexión o aditivo), excepto los que aportan tintes, como las impresoras, que suelen usar el modelo CMYK (modelo sustractivo).

6.1. Profundidad de color

Un píxel, comúnmente, se representa con: 8 bits (28 colores), con 24 bits (224 colores, 8 bits por canal de color) o con 48 bits (248 colores); en fotografía avanzada y digitalización de imágenes profesional se utilizan profundidades aún mayores, expresadas siempre en valores de bits/canal de color en lugar de la suma de los tres canales. Los primeros son los más utilizados, reservando el de 8 bits para imágenes de alta calidad pero en tonos de grises, o bien con 256

Page 17: INFORMATICA - sa364b2dc3aaea0ba.jimcontent.com file1 ELABORADO POR : PROF. RANGEL LEÓN C. INFORMATICA 1- INTRODUCCIÓN La informática, también llamada computación en América latina,1

17

ELABORADO POR : PROF. RANGEL LEÓN C.

colores en paleta seleccionada para baja calidad colorimétrica; el de 24 bits es el más común y de alta calidad, se lo utiliza en la mayoría de las imágenes fotográficas.

Múltiplos habituales

Megapíxel

Un megapíxel o megapixel (Mpx) equivale a 1 millón de píxeles, a diferencia de otras medidas usadas en la computación en donde se suele utilizar la base de 1024 para los prefijos, en lugar de 1000, debido a su conveniencia respecto del uso del sistema binario. Usualmente se utiliza esta unidad para expresar la resolución de imagen de cámaras digitales; por ejemplo, una cámara que puede tomar fotografías con una resolución de 2048 × 1536 píxeles se dice que tiene 3,1 megapíxeles (2048 × 1536 = 3.145.728).

La cantidad de megapíxeles que tenga una cámara digital define el tamaño de las fotografías que puede tomar y el tamaño de las impresiones que se pueden realizar; sin embargo, hay que tener en cuenta que la matriz de puntos está siendo distribuida en un área bidimensional y, por tanto, la diferencia de la calidad de la imagen no crece proporcionalmente con la cantidad de megapíxeles que tenga una cámara, al igual que las x de una grabadora de discos compactos.

Las cámaras digitales usan componentes de electrónica fotosensible, como los CCD (del inglés Charge-Coupled Device) o sensores CMOS, que graban niveles de brillo en una base por-píxel. En la mayoría de las cámaras digitales, el CCD está cubierto con un mosaico de filtros de color, teniendo regiones color rojo, verde y azul (RGB) organizadas comúnmente según el filtro de Bayer, así que cada píxel-sensor puede grabar el brillo de un solo color primario. La cámara interpola la información de color de los píxeles vecinos, mediante un proceso llamado interpolación cromática, para crear la imagen final.

Dimensiones de imagen según proporción y cantidad de pixeles

Para saber el número total de píxeles de una cámara, basta multiplicar el ancho de la imagen máxima que puede generar por el alto de la misma -desactivando previamente el zoom digital-; también es posible dividir el número de píxeles de ancho entre el número correspondiente al alto, y conocer la proporción de la imagen obtenida.