Taller de informatica basica no. 1

6
Taller de Informática No. 1 INTRODUCCION La tecnología de la información y las comunicaciones ha logrado tan alto grado de desarrollo que hoy está en todas partes y, si no en todas, en la mayoría de las actividades del ser humano: en la educación, la industria, el comercio, las finanzas, la investigación, etc. Hoy en día, conocer la tecnología y utilizarla ya no constituye ningún privilegio, por el contrario, es una necesidad. El uso de la tecnología es un factor determinante en los niveles de eficiencia, aprendizaje y competitividad tanto a nivel empresarial como personal. INFORMÁTICA:El tratamiento racional, automático y adecuado de la información, por medio del computador, para lo cual se diseñan y desarrollan estructuras y aplicaciones especiales buscando seguridad e integridad. En el contexto de la informática la información constituye un recurso de gran valor y se busca mantenerla y utilizarla de la mejor manera. BREVE HISTORIA DEL DESARROLLO DEL COMPUTADOR Se dice que el antecesor del computador fue el ábaco, del cual se cree que pudo haber tenido su origen hace cinco mil años y por su funcionalidad fue utilizado hasta mediados del siglo pasado en Oriente Medio y Asia como instrumento de cálculo. En nuestro medio, el ábaco, aún se utiliza en las salas de billar. Después del ábaco se hicieron múltiples intentos hasta lograr el computador como hoy lo conocemos. John Napier (1550-1617) un matemático inventó un dispositivo consistente en unos palillos con números impresos que mediante un ingenioso y complicado mecanismo le permitía realizar operaciones de multiplicación y división. Blaise Pascal (1.623-1.662), filósofo francés, en 1642 presentó una máquina que sumaba y restaba, ésta funcionaba con 8 ruedas giratorias, dos para los decimales y seis para los enteros y que podía manejar números entre 000.000 01 y 999.999 99. Leibnitz (1646-1716) en 1672 presentó una máquina que podía, además de sumar y restar, multiplicar, dividir y calcular la raíz cuadrada. Joseph Jacquard (1.752-1.834) utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer. Herman Hollerith, inventó un sistema de computo automático para manipular los datos del censo de Estados Unidos en 1880, su máquina funcionaba con tarjetas perforadas en las que mediante agujeros se representaba el sexo, la edad, la raza etc. Ante las posibilidades comerciales de su máquina Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía la Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto, una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924, fusionó su compañía con otras dos para formar la Internacional Bussines Machines hoy mundialmente conocida como IBM. El 9 de Abril de 1943, John Mauchly y Lieutenant Herman Goidstine recibieron aprobación para adelantar un proyecto de construcción de la primera computadora, llamada ENIAC (ElectronicNumericalintegrator and Computer), su costo total fue de 486.804 dólares. En un test de prueba en febrero de 1946 ENIAC resolvió en 2 horas un problema de física nuclear que previamente habría requerido 100 años de trabajo de un hombre. Lo que caracterizaba al ENIAC como a los ordenadores modernos no era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitía realizar tareas que antes eran imposibles. Entre 1939 y 1944 Howard Aiken de la universidad de Harvard en colaboración con IBM desarrolló el Mark 1 también conocido como calculador Automático de Secuencia Controlada. Este podía multiplicar tres números de 8 dígitos en 1 segundo y operaba con números de hasta 23 dígitos. En 1946 el matemático húngaro John Von Neumann propuso una versión modificada del Eniac a la que le llamó Edvac (ElectronicDiscrete Variable AutomaticComputer) que se construyó en 1952. A diferencia con el ENIAC, esta maquina empleaba aritmética binaria, lo que simplificaba loscircuitos electrónicos de cálculo, y trabajaba con programas almacenados En 1953 IBM fabricó su primer computador para aplicaciones científicas el 701 y seguidamente 702 y el 705, este último fue un sistema revolucionario, el primero en emplear memorias de núcleos de ferrita. Con esta producción y mediante una adecuada estrategia comercial IBM tomo la delantera en las ventas de tecnología en todo el mundo. EL COMPUTADOR Es una maquina electrónica diseñada para la manipulación y procesamiento de datos de datos, capaz de desarrollar complejas operaciones a gran velocidad. Tareas que manualmente requieren días de trabajo, el computador puede hacerlas en solo fracciones de segundo. El computador es una máquina de propósito general, lo que significa que se utiliza en diversos campos de la actividad humana, solo por mencionar algunas, las finanzas, la investigación, edición de imágenes, edición de texto, cálculos matemáticos, administración de pequeñas y grandes bases de datos, entre muchos otros.

Transcript of Taller de informatica basica no. 1

Page 1: Taller de informatica basica no. 1

Taller de Informática No. 1

INTRODUCCION

La tecnología de la información y las comunicaciones ha logrado tan alto grado de desarrollo que hoy está en todas partes y, si no en todas, en la mayoría de las actividades del ser humano: en la educación, la industria, el comercio, las finanzas, la investigación, etc.

Hoy en día, conocer la tecnología y utilizarla ya no constituye ningún privilegio, por el contrario, es una necesidad. El uso de la tecnología es un factor determinante en los niveles de eficiencia, aprendizaje y competitividad tanto a nivel empresarial como personal.

INFORMÁTICA:El tratamiento racional, automático y adecuado de la información, por medio del computador, para lo cual se diseñan y desarrollan estructuras y aplicaciones especiales buscando seguridad e integridad. En el contexto de la informática la información constituye un recurso de gran valor y se busca mantenerla y utilizarla de la mejor manera.

BREVE HISTORIA DEL DESARROLLO DEL COMPUTADOR

Se dice que el antecesor del computador fue el ábaco, del cual se cree que pudo haber tenido su origen hace cinco mil años y por su funcionalidad fue utilizado hasta mediados del siglo pasado en Oriente Medio y Asia como instrumento de cálculo. En nuestro medio, el ábaco, aún se utiliza en las salas de billar.

Después del ábaco se hicieron múltiples intentos hasta lograr el computador como hoy lo conocemos.

John Napier (1550-1617) un matemático inventó un dispositivo consistente en unos palillos con números impresos que mediante un ingenioso y complicado mecanismo le permitía realizar operaciones de multiplicación y división.

Blaise Pascal (1.623-1.662), filósofo francés, en 1642 presentó una máquina que sumaba y restaba, ésta funcionaba con 8 ruedas giratorias, dos para los decimales y seis para los enteros y que podía manejar números entre 000.000 01 y 999.999 99.

Leibnitz (1646-1716) en 1672 presentó una máquina que podía, además de sumar y restar, multiplicar, dividir y calcular la raíz cuadrada.

Joseph Jacquard (1.752-1.834) utilizó un mecanismo de tarjetas perforadas para controlar el dibujo formado por los hilos de las telas confeccionadas por una máquina de tejer.

Herman Hollerith, inventó un sistema de computo automático para manipular los datos del censo de Estados Unidos en 1880, su máquina funcionaba con tarjetas perforadas en las que mediante agujeros se representaba el sexo, la edad, la raza etc. Ante las posibilidades comerciales de su máquina Hollerith dejó las oficinas del censo en 1896 para fundar su propia Compañía la Tabulating Machine Company. En 1900 había desarrollado una máquina que podía clasificar 300 tarjetas por minuto, una perforadora de tarjetas y una máquina de cómputo semiautomática. En 1924, fusionó su compañía con otras dos para formar la Internacional Bussines Machines hoy mundialmente conocida como IBM.

El 9 de Abril de 1943, John Mauchly y Lieutenant Herman Goidstine recibieron aprobación para adelantar un proyecto de construcción de la primera computadora, llamada ENIAC (ElectronicNumericalintegrator and Computer), su costo total fue de 486.804 dólares. En un test de prueba en febrero de 1946 ENIAC resolvió en 2 horas un problema de física nuclear que previamente habría requerido 100 años de trabajo de un hombre. Lo que caracterizaba al ENIAC como a los ordenadores modernos no era simplemente su velocidad de cálculo sino el hecho de que combinando operaciones permitía realizar tareas que antes eran imposibles.

Entre 1939 y 1944 Howard Aiken de la universidad de Harvard en colaboración con IBM desarrolló el Mark 1 también conocido como calculador Automático de Secuencia Controlada. Este podía multiplicar tres números de 8 dígitos en 1 segundo y operaba con números de hasta 23 dígitos.

En 1946 el matemático húngaro John Von Neumann propuso una versión modificada del Eniac a la que le llamó Edvac (ElectronicDiscrete Variable AutomaticComputer) que se construyó en 1952. A diferencia con el ENIAC, esta maquina empleaba aritmética binaria, lo que simplificaba loscircuitos electrónicos de cálculo, y trabajaba con programas almacenados

En 1953 IBM fabricó su primer computador para aplicaciones científicas el 701 y seguidamente 702 y el 705, este último fue un sistema revolucionario, el primero en emplear memorias de núcleos de ferrita. Con esta producción y mediante una adecuada estrategia comercial IBM tomo la delantera en las ventas de tecnología en todo el mundo.

EL COMPUTADOR

Es una maquina electrónica diseñada para la manipulación y procesamiento de datos de datos, capaz de desarrollar complejas operaciones a gran velocidad. Tareas que manualmente requieren días de trabajo, el computador puede hacerlas en solo fracciones de segundo.

El computador es una máquina de propósito general, lo que significa que se utiliza en diversos campos de la actividad humana, solo por mencionar algunas, las finanzas, la investigación, edición de imágenes, edición de texto, cálculos matemáticos, administración de pequeñas y grandes bases de datos, entre muchos otros.

Page 2: Taller de informatica basica no. 1

Para lograr cumplir con sus funciones el computador requiere de dos partes principales, una que es física, tangible, la maquinaria, a la que técnicamente se le llama Hardware y otra que es intangible, pero que está allí y hace que el computador funcione, está formada por los programas y toda la información, esta se llama Software. Tanto el Hardware como el Software se clasifican según la función que desempeñan, como se puede apreciar en la gráfica siguiente:

ORGANIZACIÓN FISICA DEL COMPUTADOR (HARDWARE)

El computador, habiendo sido diseñado para el procesamiento de datos, su organización es similar a la de cualquier otro proceso.

Indiferente de lo que se desee procesar, siempre se tendrán tres elementos importantes, la materia prima, la transformación que es el proceso en sí, y el producto final, es decir la materia prima transformada en un nuevo producto. Así, el computador está conformado por dispositivos de entrada, unidad central de procesamiento, dispositivos de salida y adicionalmente memoria externa o dispositivos de almacenamiento.

Dispositivos de entrada

Estos son, Teclado, Ratón(Mouse), Escáner, Micrófono, entre muchos otros, todos ellos permiten entrar datos al sistema. Los datos son transformados en señaleseléctricas y almacenados ya sea en la memoria central, donde permanecerán disponibles para ser procesados o almacenadosen medios de almacenamiento permanente ya sea en Discos Duros o Memorias USB.

Unidad Central de Procesamiento

Comúnmente se la conoce como CPU, que significa Central ProcessingUnit, pero en el argot profesional se le denomina Procesador, éste es quizá la parte más importante del computador, ya que en el se encuentra la Unidad de Control y la Unidad Aritmético-Lógica, las cuales en constante interacción con la memoria principal (también conocida como memoria interna RAM) permiten manipular y procesar la información, y controlar los demás dispositivos de la unidad computacional y esta dispuesta en una tarjeta donde se compila todo los artilugios que hacen a esta CPU rendir su trabajo conocida como Tarjeta Madre(MotherBoard) .

La Memoria:Esta se clasifica en "Memoria RAM" y "Memoria ROM". La Memoria ROM es una memoria imborrable donde hay grabados una serie de datos necesarios para el arranque del PC o el manejo de los datos y su proceso por parte de las aplicaciones y que siempre permanecerán ahí; en cuanto a la Memoria RAM es otro tipo de memoria que si es grabable, y que consiste en poder acumular datos que iremos necesitando cuando trabajamos, y que se repiten, de esta forma descarga de trabajo al microprocesador, y que al apagarse el Computador los datos depositados en la Memoria RAM desaparecen, por eso es recomendable tener una buena cantidad deMemoria RAM en el PC (hoy día es recomendable un mínimo de 2 Gigas de RAM).

Memoria Extraíble: Aunque su denominación esta mal enfocada, las Memorias Extraíbles no son mas que unidades de almacenamiento ya sean solidas como las Memorias USB o Rigidas(duras) como los Discos Duros Externos

Discos duros: Estos están hechos generalmente de aluminio, giran a una velocidad 10 veces mayor y su capacidad de almacenamiento es muy grande (hoy en día se habla de Terabytes). Un disco duro es un paquete herméticamente cerrado, conformado por varios discos o placas, sus respectivas cabezas de lectura/escritura y la unidad de disco. El disco duro constituye el medio de almacenamiento más importante de un computador, ya que en la actualidad, por los volúmenes de información que se maneja, es muy difícil trabajar sin éste.

CD-ROMo DVD-ROM: disco compacto de solo lectura. Estos discos forman parte de la nueva tecnología para el almacenamiento de información. Esta tecnología consiste en almacenar la información en forma de pozos y planos microscópicos que se forman en la superficie del disco. Un haz de un pequeño láser en el reproductor de CD-ROMo DVD-ROM ilumina la superficie y refleja la información almacenada. Un disco compacto de datos, en la actualidad, almacena 650 y 700 megabytes de información, para los CD-ROM y 4.3 Gigabytes y 8.7 Gigabytes.

Unidad de almacenamiento de información

La parte más pequeña del sistema binario es un 1 o un 0. Se le llama bit y su símbolo es b. Esta palabra viene del inglés y significa poco o pequeño. Esta es la unidad de almacenamiento de información, el resto son múltiplos suyos.

¿dónde empieza y dónde acaba cada número? Bien pues el ordenador lo que hace es leer siempre de ocho en ocho bits. Así sabe donde empieza y donde acaba cada número y si el número es muy grande pues usa 16 bits o más.

Como el ordenador trabaja de ocho en ocho bits lo mejor es definir el byte. Un byte está formado por 8 bits y su símbolo es la B.

El metro es una unidad de longitud. Cuando queremos indicar distancias largas usamos sus múltiplos, por ejemplo el dam, el hm, el km, etc. (se escriben en minúsculas). Así, si te das cuenta, el prefijo kilo quiere decir 1000. Si hablamos de 1 kg, estamos diciendo 1000 gramos. Si hablamos de 1 ks estamos hablando de 1000 segundos. Bien pues en informática vamos a usar también el kilo, pero un poco distinto. Se llama kibi, su símbolo es Ki (ahora la K es mayúscula) y multiplica por 1024 en vez de por 1000. Veamos las equivalencias:

1 b

Page 3: Taller de informatica basica no. 1

1 Kib=1024 b.

1 KiB=1024 B.

Para mayores multiplicaciones usamos el mebi (Mi), el gibi (Gi) y el tebi (Ti), que tan bien multiplican por 1024:

1 MiB=1024 KiB.

1 GiB=1024 MiB.

1 TiB=1024 GiB.

Se leen kibibit(kilobit), kibibyte(kilobyte), mebibyte(Megabyte), gibibyte(Gigabyte) y tebibyte(Terabyte).

¿Y por qué multiplicamos por 1024? La razón es el sistema binario. En el sistema decimal es muy fácil operar con el número 1000. Si multiplico por 1000 sólo tengo que poner tres ceros o mover la coma tres posiciones. Si divido será al revés.Pero en el sistema binario el número 1000 no se escribe de manera sencilla. Su equivalente en sencillez es el número binario 10000000000 y este número se corresponde con el número 1024 en el sistema decimal. Para el ordenador es muy sencillo manejar el número binario 10000000000, así que ésa es la razón de que usemos el prefijo kibi.

Actualmente existe confusión respecto a los símbolos para el bit y el byte puesto que no vienen definidos en ninguna norma ni son parte del SI (Sistema Internacional). Además la B es el símbolo del belio (unidad para medir la intensidad del sonido) y está definido en el SI, así que entra en conflicto con el símbolo del byte.

Por otro lado, los prefijos multiplicativos kibi, mebi, etc., sí están definidos en una norma de 1999 de la Comisión Electrotécnica Internacional (aunque no son parte del SI), pero a fecha de hoy todavía no tienen un amplio uso de tal modo que hay un verdadero galimatías y es habitual ver KB y MB en vez de KiB y MiB. Además los sistemas operativos cuando hablan de MB se refieren a 1024 pero los fabricantes dispositivos de almacenamiento de datos (discos duros, CD, memorias USB, etc.) se refieren a 1000. Por eso un disco duro de 160 GB el sistema operativo te dice que en realidad hay 150 GiB (y esos serán los datos que realmente podrás guardar en él). Dispositivos de salida Permiten presentar los resultados del procesamiento de datos, son el medio por el cual el computador presenta información a los usuarios. Los más comunes son la pantalla y la impresora.

Pantalla o monitor: exhibe las imágenes que elabora de acuerdo con el programa o proceso que se esté ejecutando, puede ser videos, gráficos, fotografías o texto. Es la salida por defecto donde se presentan los mensajes generados por el computador, como errores, solicitud de datos, etc.

Hay dos grandes clasificaciones de los monitores: los monocromáticos que presentan la información en gama de grises y lo policromáticos o monitores a color que pueden utilizar desde 16 colores hasta colores reales. Los monocromáticos son cada vez menos usados, sin embargo aun quedan muchos de este tipo en el mercado.

En los monitores de color existen entre otros tipos, los VGA y los SVGA (superVGA). Estas características determinan la cantidad de colores que pueden reproducir y la resolución o nitidez.

Toda pantalla está formada por puntos de luz llamados pixeles que se iluminan para dar forma a las imágenes y a los caracteres. Cuantos más pixeles tenga una pantalla mejor es su resolución, por eso se habla de pantallas de 640 x 480, de 600x800 y de 1280 x 1024,etc, siendo las últimas las de mayor nitidez.

Impresora: fija sobre el papel la información que se tiene en pantalla, en archivo o el resultado de un proceso. La impresión puede ser en negro o en colores según el tipo de impresora que se tenga.

Hay tres grupos de impresoras: las de matriz de puntos, las de burbuja y las laser. Las impresoras de burbuja, también se llaman de inyección de tinta, estas son silenciosas e imprimen hasta cinco páginas por minuto, la calidad de impresión es muy buena, el costo de la impresora es moderado, sin embargo el costo de la impresión es alto. No son recomendables para trabajo pesado.

Las impresoras láser trabajan como una fotocopiadora y producen imágenes de optima calidad, tienen un bajo nivel de ruido y son las más rápidas, las impresoras son costosas pero la impresión es económica. Son recomendables para trabajos gráficos profesionales.

Hasta el momento se ha centrado la atención en la parte física del computador, ahora se presenta la parte intangible, que al igual que la anterior, también está clasificada según la función que realiza.

Vamos a comenzar explicando que en cualquier PC el hecho de pulsar una tecla (la "a" por ejemplo) o de pulsar sobre el botón izquierdo del ratón, hace que aquel responda de una manera predeterminada y te preguntarás seguramente ¿cómo lo hace?; pues el PC no es más que un intérprete que traduce esa pulsación de la tecla en una señal eléctrica que transmite al corazón de la máquina (veremos esto más adelante), y que este decodifica y entiende que corresponde a dicha letra.

Claro, esto lo hace a través del sistema operativo que deberá existir en cualquier PC ( que no es más que un programa que se carga en el ordenador para que este pueda funcionar ), y del que habrás oído hablar en muchas ocasiones: WindowsXP, Linux, Mac

Page 4: Taller de informatica basica no. 1

Os entre los mas conocidos, es decir el programa que debe tener todo PC para poder funcionar --sin este sistema operativo, el ordenador sería "una caja tonta e inútil"--.

Cuando "enciendes el PC" es decir cuando pulsas el botón que hace llegar la corriente al mismo, lo que ocurre de forma resumida es que enseguida se pone en marcha dicho sistema operativo que es quien toma el mando del PC y tras realizar múltiples comprobaciones, al final nos dará la pantalla de bienvenida y a trabajar.

Todo lo que maneja el ordenador para trabajar son "señales eléctricas", se llama el sistema binario (ya se referencio anteriormente pero por ser una parte importante volveremos a Verlo) que tiene como unidad básica el "bit" pero es tan insignificante que podríamos decir que la unidad básica de información en informática es el " byte " que se compone de 8 bits y que podría ser la representación de la letra "a" que comentábamos.

A continuación viene en este sistema de medida el " Kilobyte " que se suele representar por "Kb" y que en la jerga de los informáticos suele decirse "...el fichero tiene 150 Kas"; pues bien un Kb equivale a 1024 bytes, es decir que en el ejemplo anterior, los 150Kb corresponderían a 1024 x 150 = 153.600 bytes; y vemos a continuación el " Megabyte " que también en jerga informática oiremos como "...la foto esa pesa 2 megas", y que corresponde ni más ni menos que a 1024 Kb, así que si decidimos calcularlo pues: 2 x 1024 x 1024 = 2.097.152 bytes, que ya empiezan a ser cantidades considerables.

Siguiendo con las equivalencias, viene a continuación el " Gigabyte " que se suele denominar "Giga" a secas y que corresponde a 1024 Megas, a continuación existe el " Terabyte " que corresponde a 1024 Gigas, por cierto hoy en día este tamaño esta muy difundido.

EL SOFTWARE

Como se anotó anteriormente, está conformado por toda la información, ya sean instrucciones o datos, que hacen que el computador funcione, sin el concurso de éste el hardware no realizar ninguna función. El software está clasificado en cuatro grupos, según la tarea que realiza.

SISTEMA OPERATIVO

Es un conjunto de programas indispensable para que el computador funcione. Estos se encargan de administrar todos los recursos de la unidad computacional y facilitan la comunicación con el usuario.

El sistema operativo cuenta con programas especializados para diversas tareas, como son la puesta en marcha del equipo, la interpretación decomandos, el manejo de entrada y salida de información a través de los periféricos, acceso a discos, procesamiento de interrupciones, administraciónde memoria y procesador, entre otros.

Algunos sistemas operativos conocidos son Windows, con versiones 95, 98, 2000, Mileniun y NT; DOS; Netware; Unix, Linux, entre otros.

SOFTWARE DE APLICACIÓN

Es un conjunto de programas diferente al software del sistema, éstos se encargan de manipular la información que el usuario necesita procesar, son programas que desarrollan una tarea específica y cuya finalidad es permitirle al usuario realizar su trabajo con facilidad, rapidez, agilidad y precisión. Entre el software de aplicación se tiene varios grupos, como son: procesadores de texto, hoja electrónica, graficadores, bases de datos, agendas, programas de contabilidad, aplicaciones matemáticas, entre otros, algunos ejemplos son: Word, Excel, Acces, Corel.Draw, Foxpro, Trident, etc

LENGUAJES DE PROGRAMACION

En términos coloquiales, son programas que sirven para crear otros programas. Al igual que el lenguaje natural constan de sintaxis, semántica y vocabulario que el computador puede entender y procesar.

Los lenguajes de programación se clasifican en tres categorías: lenguaje de máquina, lenguaje de bajo nivel y lenguaje de alto nivel. En la actualidad se utilizan los últimos, cuyo vocabulario está formado por términos en inglés, como son: C++, Foxpro, Visual Basic, Java, HTML.

DATOS

Esta categoría está conformada por toda la información que el usuario introduce y procesa en el sistema, por ejemplo la información almacenada en las bases de datos, los textos y gráficos.

Software propietario y libre

Un programa es software propietario si cumple estas cuatro condiciones:

No se puede ver su código fuente (su algoritmo).

No se puede modificar su código fuente.

No se puede usar como se quiera.

No se puede compartir ni instalar todas las veces que se quiera.

Page 5: Taller de informatica basica no. 1

Ejemplo:Windows. Un programa es software libre si cumple estas cuatro condiciones:

Se puede ver su código fuente (su algoritmo).

Se puede modificar su código fuente.

Se puede usar como se quiera.

Se puede compartir e instalar todas las veces que se quiera.

Ejemplo: GNU/Linux.Es importante que veas que el dinero no está en estas cuatro condiciones. Así el software propietario puede ser gratis y el software libre puede costar dinero.

Generalmente el software propietario cuesta dinero y sólo se puede instalar en un ordenador. La gente se ríe de esto porque generalmente lo piratea y lo instala en varios ordenadores, así que piensa que le sale gratis. Pero hay que saber que en los centros públicos (ayuntamientos, ministerios, policía, universidades, centros de salud...) el software es legal y se pagan y se cumplen las licencias. Por cada ordenador con el Windows instalado legalmente hay que pagar unos 100 €. ¿Y quién paga eso?

11. Analogías entre el modelo de desarrollo del software libre y el de la ciencia

Te habrás dado cuenta que todo lo que aprendes en el colegio y en el instituto es libre. Nadie pone restricciones al conocimiento. Es más los profesores tratan de que aprendas lo más posible. Nadie pone restricciones a que uses el teorema de Pitágoras todas las veces que quieras, ni a que se lo enseñes a tus amigos, ni a que escribas un libro en el que lo expliques...

Bien pues así es como avanza la ciencia, compartiendo el conocimiento. De esta manera no hay que reinventar la rueda dos veces y entre todos siempre es más fácil avanzar.

Pues el software libre funciona igual, se comparten los conocimientos y se permite mejorar los programas a cualquiera, así se avanza mucho rápido y se consiguen mejores programas.

Por contraposición el software propietario funciona como las patentes, compitiendo.

Las patentes tienen sentido en el campo en el que nacieron, en la industria. Parece lógico que una persona que invente por ejemplo un nuevo motor, obtenga beneficio de su invento. No hay nada de malo en ello.

Pero aplicar las patentes a otros campos es peligroso y tremendamente injusto. Por ejemplo si un investigador inventa una vacuna contra el sida, ¿es justo que la venda en África, donde no hay dinero ni para comer?

El software no es una vacuna, pensarás; pero sí es conocimiento científico. Y con el software se pueden investigar vacunas.

EVALUACION

1. Diga la razón por la cual el sistema de medida del almacenamiento se define de 256, 512, 1024 etc.

2. Que tipo se software se utiliza para crear programas?

3. Cual es la diferencia entre los discos duros y la memorias extraíbles según el texto

4. Cuál considera que es la característica más importante del computador?

5. Si en este momento tuviera que adquirir una impresora, de qué tipo la compraría. Por qué?

6. A qué se debe el acelerado desarrollo de los computadores y el uso generalizado?

7. Describa el primer computador y su costo final.

8. Enumere los principales dispositivos de salida.

9. De las categorías del software estudiadas cuál le parece más importante?

10. Que Programas de Aplicación Conoces y para que sirven

11. Según el texto referencie la diferencia entre memoria ROM y RAM

12. Que sistemas operativos conoces? y cual te parece mejor.

13. Que característica principal considera usted que tiene el desarrollo de Software Libre?

14. De qué manera el computador puede ayudarle en sus actividades diarias?

15. De los inventores y científicos que hicieron sus aportes al desarrollo del computador actual cuál considera de mayor importancia y por qué?

16. Cuales son los formatos de archivos mas utilizados en diseño?

17. Que características tienen los formatos de archivo?

18. Que es compresión?

Page 6: Taller de informatica basica no. 1

19. Con que formato se pueden realizar animaciones?

20. Cual es el formato que no utiliza compresión y para que se utiliza?