MONOGRAFIA

52
WEB 1.0, 2.0, 3.0 La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc. La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta. Web 1.0 se refiere a un estado de la World Wide Web , y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0 . Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.1 Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0 , para comparar los dos y mostrar ejemplos de cada uno. El término Web 2.0 (2004presente) esta comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones en la web, que facilitan el compartir información, la interoperabilidad , el diseño centrado en el usuario o D.C.U. y la colaboración en laWorld Wide Web . Ejemplos de la Web 2.0 son las comunidades web, los servicios web , lasaplicaciones Web , los servicios de red social , los servicios de alojamiento de videos , las wikis ,blogs , mashups y folcsonomías . Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona. La Web 2.0 esta asocia estrechamente con (Tim O'Reilly) , debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web , no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee , quien

description

trabajo 2010

Transcript of MONOGRAFIA

Page 1: MONOGRAFIA

WEB 1.0, 2.0, 3.0 La 'Web 1.0 (1991-2003) es la forma más básica que existe, con navegadores de sólo texto bastante rápidos. Después surgió el HTML que hizo las páginas web más agradables a la vista, así como los primeros navegadores visuales tales como IE, Netscape,explorer (en versiones antiguas), etc. La Web 1.0 es de sólo lectura. El usuario no puede interactuar con el contenido de la página (nada de comentarios, respuestas, citas, etc), estando totalmente limitado a lo que el Webmaster sube a ésta. Web 1.0 se refiere a un estado de la World Wide Web, y cualquier página web diseñada con un estilo anterior del fenómeno de la Web 2.0. Es en general un término que ha sido creado para describir la Web antes del impacto de la fiebre punto com en el 2001, que es visto por muchos como el momento en que el internet dio un giro.1 Es la forma más fácil en el sentido del término Web 1.0 cuando es usada en relación a término Web 2.0, para comparar los dos y mostrar ejemplos de cada uno. El término Web 2.0 (2004–presente) esta comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones en la web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboración en laWorld Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, lasaplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis,blogs, mashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona. La Web 2.0 esta asocia estrechamente con (Tim O'Reilly), debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee , quien

Page 2: MONOGRAFIA

califico al termino como "tan solo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar Web 3.0 es un neologismo que se utiliza para describir la evolución del uso y la interacción en la red a través de diferentes caminos. Ello incluye, la transformación de la red en una base de datos, un movimiento hacia hacer los contenidos accesibles por múltiples aplicacionesnon-browser, el empuje de las tecnologías de inteligencia artificial, la web semántica, la Web Geoespacial, o la Web 3D. Frecuentemente es utilizado por el mercado para promocionar las mejoras respecto a la Web 2.0. El término Web 3.0 apareció por primera vez en 2006 en un artículo de Jeffrey Zeldman, crítico de la Web 2.0 y asociado a tecnologías como AJAX. Actualmente existe un debate considerable en torno a lo que significa Web 3.0, y cual es la definición acertada.

WIKI ¿QUE ES? Un wiki (o una wiki) (del hawaiano wiki, «rápido1 ») es un sitio web cuyas páginas pueden ser editadas por múltiples voluntarios a través delnavegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes (...), esta palabra se convierte en un «enlace web» a la página wiki.

RSS ¿PARA QUE SIRVE? RSS es una forma muy sencilla para que puedas recibir, directamente en tu ordenador o en una página web online (a través de un lector RSS) información actualizada sobre tus páginas web favoritas, sin necesidad de que tengas que visitarlas una a una. Esta información se actualiza automáticamente, sin que tengas que hacer nada. Para recibir las noticias RSS la página deberá tener disponible el servicio RSS y deberás tener un lector Rss. Si existen varias páginas web que te interesan que van actualizando sus contenidos y te gustaría mantenerte informado, un lector RSS te ahorrará

Page 3: MONOGRAFIA

mucho tiempo en esta tarea. Gracias al RSS, no tendrás que visitar cada una de las páginas web que te interesan para ver si han añadido o no algún artículo que te pueda interesar. Estas páginas te informarán a ti (a través de tu lector de RSS). Cuando ingreses a tu Lector RSS (o Rss Reader), estarás automáticamente informado sobre todas las novedades que se han producido en todas las páginas web que has dado de alta. Los sistemas RSS tienen muchas ventajas que vamos a resumir. Gracias al RSS, tendrás reunidas en un mismo lugar y a un solo clic de distancia, toda la información actualizada de las páginas web (Fuentes o canales RSS) que más te interesan. Si todavía no te han quedado claro lo que es el RSS y lo que te puede aportar, puedes leer información adicional sobre para qué sirve el RSS y algunosejemplos ilustrativos. ¿COMO UTILIZARLO? Está es parte de la magia. Es muy fácil, solo tienes que hacer clic en

PODCAST ¿QUE ES? Un podcast es un archivo de audio que baja a la PC mediante link directo o desde la suscripción a un canal RSS. El productor del audio sube el archivo a la web y vía RSS avisa a sus suscriptores que hay nuevo material disponible. Los oyentes a través de un software leen el RSS y si hay nuevo material descargan el archivo mp3 para reproducirlo desde la PC o sincronizarlo contra un reproductor portátil como iPod, Creative Zen o Network Walkman de Sony. AUDACITY ¿QUE ES? Audacity es un programa libre y de código abierto para grabar y editar sonido. Está disponible para Mac OS X, Microsoft Windows, GNU/Linux y otros sistemas operativos.Aprender más sobre Audacity... Consulte también nuestra Wiki y el Foro para obtener más información. CONFERENCIA WEB ¿QUE ES? Una conferencia web es similar a una reunión personal porque permiten a los asistentes interactuar entre sí, participan entre 2 y 20 personas y

Page 4: MONOGRAFIA

pueden compartir documentos y aplicaciones. Las videoconferencias web son reuniones ‘virtuales’ a través de Internet cuyos participantes trabajan en distintas ubicaciones físicas. La sala de reuniones real se sustituye por el escritorio del ordenador del anfitrión de la reunión (la persona que la ha organizado). Cada participante se sienta ante su propio ordenador, donde puede ver todo lo que el presentador va mostrando en su pantalla (función de ‘desktop sharing’ o escritorio compartido). Durante la reunión en línea, el anfitrión puede ceder el papel de presentador a cualquiera de los demás participantes. En esencia, las conferencias web poseen características similares a las reuniones ‘en persona’, porque permiten que los asistentes interactúen entre sí (principio de comunicación ‘de muchos a muchos’).’ En las conferencias web participan entre 2 y 20 personas, pudiendo compartir documentos y aplicaciones. En cambio los seminarios web (webinars) se utilizan básicamente para formación en línea o eventos en línea, como conferencias de prensa, y pueden tener más de 100 participantes. Las soluciones para seminarios web facilitan considerablemente el proceso de invitación y la presentación de información a grandes audiencias (principio de comunicación ‘de uno a muchos’). Las videoconferencias sirven básicamente para transmitir señal de vídeo en directo a los participantes. REDES SOCIALES Una red social o comunidad virtual, en Internet, es un tipo de aplicación web que sirve para conectar a las personas con sus amigos y hacer nuevos amigos en el proceso. Las redes socialesaprovechan vínculos existentes entre personas para hacerse interesantes. Así por ejemplo tienen sentido que existan redes sociales relacionadas con un hobby o actividad, ya que los aficionados a un determinado tema tienden a querer hablar sobre su hobby con otras personas interesadas. Las redes sociales crecen con rapidez gracias al marketing viral(yo invito a mis amigos, que invitan a sus amigos, que invitan a sus amigos….) y ofrecen medio de contacto directo con los interesados en un tema determinado. Algunas redes sociales de las que siempre se habla, por su tamaño o por alguna característica especial:

Page 5: MONOGRAFIA

MySpace es una red social/comunidad virtual un poco caótica. Te ofrece un espacio web que puedes personalizar con videos, fotos, un blog y toda una serie de . Es la red social que han utilizado preferentemente los grupos de música para darse a conocer. WordPress.com funciona como red social de bloggers. Es una gigantesca (+ de 2,6 millones) plataforma de blogs en la que te puedes crear tu blog gratuito y que dispone de varias funciones de relación con otros blogs de la misma plataforma. Facebook – Está en boca de todos. Comenzó como una red social de universitarios . Sus estrategias de marketing viral (y el potencial de crecimiento de la comunidad inicial) la han convertido en la red social generalista más importante del mundo. Las cifras que se manejan con respecto a su valor están por las nubes. Innocentive es una comunidad virtual de científicos a nivel mundial. Las empresas lanzan retos con una recompensa asociada y científicos (y laboratorios) de todo el mundo compiten por las recompensas. El primero que encuentra una solución al problema planteado gana la recompensa. Threadless se fundó en el año 2000 como un negocio de comercialización de camisetas, con la particularidad de que los usuarios podían enviar sus propios diseños. Lo mejores diseños son reconocidos por votación y producidos. Sus autores son remunerdos por ello. En conjunto, Thredless forma una red social que lo mismo es utilizada para seleccionar los diseños que tendrán éxito en el mercado que para estimar las ventas de los productos. Flickr es probablemente la red social de intercambio de fotografías y de aficionados a la fotografía más grande de la red. Cobran por servicios premium y disponen de una activa comunidad que comenta y discute las nuevas fotografías. Youtube es el conocido sistema de reproducción de videos en Internet. Sus características sociales lo convierten en una gigantesca red social en la que la genete se entretiene y , LinkedIn es una red social profesional. Se utiliza especialmente para mantener a los contactos internacionales localizados. Personalmente no le veo mucha más utilidad sobre las funcionalidades de Facebook, por ejemplo. Sunlight Foundation, un puente entre la ciudadanía y la política a través de la tecnología. Se mantiene a base de donaciones.

Page 6: MONOGRAFIA

FastCompany ha rediseñado su sitio web para transformarse en red social de emprendedores. Parte de los contenidos de la edición online de FastCompany son producidos ahora por sus usuarios.

MONITORES

Monitores SED La tecnología SED (Surface conduction Electron emitter Display) reúne casi todas las ventajas de la tecnología CRT y LCD y prácticamente ninguna desventaja, de los monitores conocidos actualmente. Canon comenzó a desarrollar esta tecnología en el año 1986. EN 1999, Toshiba se sumó a Canon, y desde ese entonces están logrando la solución definitiva en materia de pantallas planas para TV y PC : la tecnología SED. Conserva casi el mismo principio de funcionamiento que una pantalla CRT. Utiliza rayos catódicos, pero no solamente tres que son desviados para iluminar cada píxel, sino que emplean ¡miles de ellos! Es decir, tres rayos (RGB) para cada pìxel de la pantalla. Los emisores o cañones de rayos se encuentran a unos pocos centímetros de la rejilla y la pantalla de fósforo; por lo tanto, la profundidad de estas pantallas disminuye hasta casi parecerse a una LCD o de plasma. La pantalla de vidrio tambièn está cerrada al vacío, como en el caso de los CRT, y poseen una diferencia de potencial de 10.000 voltios entre el emisor y el receptor. Todos los rayos de electrones viajan desde sus cañones hasta sus celdas de fósforo, iluminandólas y formando el color deseado. Empleando esta tecnología se evitan los efectos indeseados como los de contraste, ángulo de visión y profundidad de color, ademas de ser mas livianas y portátiles. En definitiva, la calidad de imagen es excelente, los costos son inferiores a los de una pantalla de plasma o LCD, y tienen una profundidad de tan sólo cuatro centímetros. Se espera que esta tecnología salga al mercado dentro de poco, ya que reúne lo mejor de cada uno de los sistemas empleados en las pantallas actuales.

Tecnologia OLED (monitores Ultrafinos) Las pantallas están sufriendo desde hace tiempo un proceso de adelgazamiento que parece no tener fin. Los monitores de plasma y LCD no han acabado aún de sustituir plenamente a los voluminosos televisores de tubo y ya tenemos a la vista la próxima revolución, las ultrafinas pantallas OLED. (Sony empezará a comercializar estas navidades una televisión que no supera los tres milímetros de grosor basada en esta

Page 7: MONOGRAFIA

tecnología.) La tecnología OLED, basada en la emisión de luz a partir de un diodo orgánico que reacciona a una corriente eléctrica, es según los expertos más eficiente, y permite construir pantallas más ligeras y delgadas que las actuales. El problema, por ahora, parece ser la fabricación de monitores de gran tamaño, como los que están disponibles en LCD y plasma. El modelo que Sony empezará a comercializar en navidades en Japón, llamado XEL-1, tendrá un tamaño de 11 pulgadas que se venderá por 200.000 yenes (1.218 euros). Con ella, la compañía japonesa desea recuperar el liderazgo tecnológico del sector. Actualmente es el segundo fabricante de pantallas de cristal líquido por número de ventas, por detrás de la coreana Samsung. Una de las grandes ventajas de las pantallas OLED es que, a diferencia de las pantallas LCD, no necesitan retroiluminación, lo que permite reducir su tamaño aún más. Además ofrecen mejoras en "calidad de imagen, ángulo de visión, tiempo de respuesta y un mayor ratio de contraste," según un informe de la firma DisplaySearch. El mismo estudio señala que el mercado de pantallas de diodos orgánicos emisores de luz (OLED por sus siglas en inglés) está floreciendo y se prevé que sus ventas crezcan un 117 por ciento en el próximo año, a medida que más productos clave como teléfonos móviles adoptan la tecnología. Aún así, el problema del tamaño de la pantalla sigue presente y frenará la extensión de OLED. "No creo que vaya a sustituir al LCD de la noche a la mañana", ha declarado el presidente ejecutivo de Sony, Ryoji Chubachi, que no obstante insiste en el "gran potencial de esta tecnología". Sony no es el único fabricante que trabaja con lo diodos orgánicos aplicados a la televisión. Toshiba ha anunciado que empezará a colocar en las tiendas televisiones OLED en el año 2009.

TECNOLOGIA FED Como si ya hubiera pocas tecnologías para monitores y televisores , a ver contemos ... , primero fue el CRT , luego el LCD , luego el plasma , el OLED , el futuro SED , la láser , y ahora la nueva tecnología FED de Sony . El FED es una tecnología similar a la SED pero utilizando un conjunto de nanotubos de carbono para emitir los electrones necesarios que muevan los puntos de fósforo y así crear la imagen . El monitor presentado por Sony desarrollado con tecnología SED es de 19.2 pulgadas y una resolución de 1280x960 píxeles , una luminosidad de 400cd/m2 y un increible ratio de contraste de 20.000 : 1 . En cierta manera , la tecnología FED podría llegar

Page 8: MONOGRAFIA

a ser como la antigua Trinitron pero con menos consumo y un panel ultra fino como un LCD . Tiene un gran ángulo de visión y ausencia de píxeles muertos . Y además los monitores FED soportarán refrescos de 24 a 240 fotogramas por segundo , ahí es nada , y lo mejor de todo es que serían más baratos que un LCD equivalente ya que incorporan menos componentes . Monitores CRT Los monitores CRT funcionan enviando flujos de electrones a alta velocidad procedentes del cátodo del tubo. El rayo es desviado al ánodo cubierto de un material fosforescente. Cuando los electrones golpean esta superficie, se emite luz. En los monitores CRT, esos puntos de fósforo se agrupan en tres colores: rojo, verde y azul. Este sistema es llamado RGB y permite crear todos los demás colores cuando se combinan. Una máscara de sombra bloquea el camino de los rayos de una manera tal, que permite que cada uno de ellos solo encienda los puntos de color asignados. Ventajas: Permiten reproducir una mayor variedad cromática. Distintas resoluciones se pueden ajustar al monitor. En los monitores de apertura de rejilla no hay moire vertical. Desventajas: Ocupan más espacio (cuanto más fondo, mejor geometría). Los modelos antiguos tienen la pantalla curva. Los campos eléctricos afectan al monitor (la imagen vibra). Para disfrutar de una buena imagen necesitan ajustes por parte del usuario. En los monitores de apertura de rejilla se pueden apreciar (bajo fondo blanco) varias líneas de tensión muy finas que cruzan la pantalla horizontalmente. MONITORES LED - Pantalla LCD pero que en vez de utilizar lámparas fluorescentes utilizan retro iluminación por LED. - Al no utilizar lámparas fluorescentes eliminaría el uso de Mercurio en los monitores, evitando la contaminación.

Page 9: MONOGRAFIA

- Consume menos energía que un LCD (Apple utiliza estas pantallas en sus MacBook Pro y MacBook Air) (hasta un 40%menos) - Presenta mejor contraste en las imágenes proyectadas, también controla mejor el brillo de la imagen para evitar la fatiga en la vista. La ventaja más directa en el uso de luces LEDs para retroiluminar los paneles de televisores LCD es el menor consumo de este tipo de diodos. Son así equipos más eficientes energéticamente y cuya vida útil también es mayor. Pero en la calidad de imagen también hay diferencias. La que más se aprecia a simple vista es el aumento del contraste dinámico en los televisores LED frente a los LCD clásicos. La representación de color también mejora con la tecnología LED.

tecnologia wifi Wi-Fi (Wireless Fidelity) es la tecnología utilizada en una red o conexión inalámbrica, para la comunicación de datos entre equipos situados dentro de una misma área (interior o exterior) de cobertura. Conceptualmente, no existe ninguna diferencia entre una red con cables (cable coaxial, fibra óptica, etc.) y una inalámbrica. La diferencia está en que las redes inalámbricas transmiten y reciben datos a través de ondas electromagnéticas, lo que supone la eliminación del uso de cables y, por tanto, una total flexibilidad en las comunicaciones. De entre todos los tipos de redes inalámbricas, son las redes inalámbricas IEEE 802.11b las que son conocidas como Wi-Fi (Wireless Fidelity), debido a su amplia difusión en el mercado. Los productos y redes Wi-Fi aseguran la compatibilidad efectiva entre equipos, eliminando en los clientes las dudas que puedan surgir a la hora de comprar un nuevo terminal. El Wi-Fi no es, sin embargo, una alternativa a una red convencional, sino que es una nueva tecnología que viene a complementar a aquellas. Ambas redes (inalámbricas y de cables) ofrecen las mismas expectativas de comunicaciones (compartir periféricos, acceso a una base de datos o a ficheros compartidos, acceso a un servidor de correo, navegar a través de Internet, etc.).

Page 10: MONOGRAFIA

En una red inalámbrica cada ordenador dispone de un adaptador de red inalámbrico. Estos adaptadores se conectan enviando y recibiendo ondas de radio a través de un transceptor (transmisor-receptor), que puede situarse en cualquier lugar, interior o exterior, dentro del área de cobertura, sin la preocupación del cableado. Las redes inalámbricas permiten la transmisión de datos a velocidades de 11 Mbps o incluso superiores, lo que proporciona rapidez suficiente para la mayoría de las aplicaciones. Se puede decir que el entorno Wi-Fi es la solución idónea que unifica movilidad y conectividad en la transmisión de datos, ofreciendo una nueva posibilidad de "oficina móvil", se esté donde se esté. LTE (Long Term Evolution) es un nuevo estándar de la norma 3GPP. Definida para unos como una evolución de la norma 3GPP UMTS (3G) para otros un nuevo concepto de arquitectura evolutiva (4G). De hecho LTE será la clave para el despegue del internet móvil, servicios como la transmisión de datos a más de 300 metros y videos de alta definición, gracias a la tecnología OFDMA serán de uso corriente en la fase madura del sistema. La novedad de LTE es la interfaz radioeléctrica basada en OFDMA para el enlace descendente (DL) y SC-FDMA para el enlace ascendente (UL). La modulación elegida por el estándar 3GPP hace que las diferentes tecnologías de antenas (MIMO) tengan una mayor facilidad de implementación, esto favorece según el medio de hasta cuadruplicar la eficacia de transmisión de datos. Las mejoras a investigar son, por ejemplo, el aumento de la eficiencia, la reducción de los costes, la ampliación y mejora de los servicios ya prestados y una mayor integración con los ya protocolos existentes. inmunizar una pc ¿por que ? COMO INMUNIZAR LA PC ESET NOD32 Antivirus El NOD32 es uno de los mejores softwares antivirus y antiespías. Cuenta

Page 11: MONOGRAFIA

con una excelente protección en tiempo real. Es decir, si yo ingreso a un sitio no seguro o por ejemplo le doy click a esos links con virus que se mandan automáticamente por MSN o por mail, el NOD32 los detecta al instante y lejos está tu PC de poder infectarse. Es liviano, puede tardar unos segundos en cargarse cuando se inicia Windows, pero luego queda como tray icon (abajo a la derecha, al lado de la hora) y no molesta más. Se actualiza sólo y no necesita mantenimiento. Eso sí, se actualiza SÍ Y SÓLO SÍ si tenés usuario y contraseña válidos. Pueden ser los que te da NOD32 como TRIAL, o los pagos. Al no poderse solucionar el problema con el usuario y contraseña no válidos durante un lapso de 30 días, el antivirus fuera de servicio, inhabilitado, capút!. Así que es mejor que te consigas algún usuario y contraseña o algún famoso FIX. Kaspersky Se han hecho pruebas y se ha demostrado que es mejor que el NOD32 pero en mi opinión está casi al mismo nivel. Lo he notado más pesado en computadoras de mesa comunes que el NOD32 eso hace que le saque un par de puntos. Pero su efectividad es una de las mejores, la protección en tiempo real es efectiva como el anterior antivirus, pero su motor de búsqueda y eliminación/reparación de archivos infectados es excelente. En la Web se lo cree el mejor antivirus ya que tiene una detección y heurística superior a la de otros antivirus como el ya mencionado NOD. En conclusión, ambos son muy buenos, aunque pagos, pero dan muy buenos resultados. Recomiendo probar ambos antes de sacar conclusiones. Ambos menúes son fáciles de navegar, simples y configurables en las opciones avanzadas. La desición está en el usuario que lo use. FREEWARES Avast! Antivirus Avast! Antivirus Home

Page 12: MONOGRAFIA

Sólo FREE para uso personal, la versión Home ofrece una amplia variedad de protecciones, ya sean en tiempo real, como en mails, scanners y demás. Su última versión, 4.8, como se muestra en la imagen, es una excelente opción si estás buscando protección FREEWARE, que se actualize sólo, sea ligero, que quede en la Traybar molestar y que sea completito, completito. Si estás cansado del AVG, que siempre detecta virus y nunca hace nada, ésta puede ser tu mejor elección. Y olvidate de esas falsos alarmas. Se puede descargar del siguiente sitio: http://avast.softonic.com Avira AntiVir Free En la versión Free de Avira, nos podrá impactar la simpleza del mismo. Es considerado, también, uno de los mejores antivirus, con la mejor heurística y detección que se pueda encontrar. Sus actualizaciones son seguidas y las mismas que en la versión pro, es decir, la misma eficiencia y detección. En cuanto a detección es notablemente más eficiente que el avast… pero Avira es un antivirus, no tiene protección antiespías ni tampoco de correo electrónico (Windows live Mail u Outlook Exrpess), sí te protege a los webmails como Gmail, Hotmail, Yahoo!, ya que de eso se encarga la protección en tiempo real. Se puede descargar de aquí:http://download.cnet.com/Avira-AntiVir-Personal-Free-Antivirus/3000-2239_4-10322935.html?part=dl-10322935&subj=dl&tag=button&cdlPid=11012914 Si instalás Avira, es recomendable instalar alguno o ambos de los antiespías que apareceran a continuación, ambos GRATIS. ANTI-ESPÍAS Para tener tu computadora inmunizada y libre de todos esos bichos que te entran por internet a través de las cookies, aplicaciones Active X y demás recomiendo instalar estos dos programas antiespías que en 5 minutos los

Page 13: MONOGRAFIA

tenés configurados para inmunizar la PC. Spybot Search & Destroy:http://www.safer-networking.org/es/download/index.html Antiespías con motor de búsqueda incluído. Una vez actualizado, inmunizás el sistema y te olvidás. Actualizarlo cada tanto es recomendable. Spywareblaster:http://www.javacoolsoftware.com/sbdownload_free.html Antiespías que previene de todos los accesos y direcciones que están infectados. Instalación en segundos, una vez habilitadas las protecciones (Internet Exporer, Cookies y Mozilla Firefox), queda ya inmunizada. También es recomendable actualizarlo cada tanto. Con ambos antiespías que ya está comprobado que no producen inconvenientes entre sí, sumado a alguno de los antivirus detallados anteriormente, la computadora queda inmunizada y protegida en su totalidad.

que son los navegadore? Los Exploradores o Navegadores son softwares que buscan y muestran páginas Web. Con ellos no sólo podemos ver textos sinó también gráficos y trabajar con hipertextos los que en su mayoría están en lenguaje HTML. Navegar básicamente consiste en pasar de una página a otra mediante enlaces ( o también llamadoslinks) para movernos libremente en la Web. Internet es una amplia red de servidores interconectados y los exploradores son las herramientas que nos permiten ingresar a la vasta autopista de información. Los navegadores de la actualidad posibilitan experimentar la visualizacion de videos, música, gráficos, animaciones. hipervínculos y obviamente texto. Todo ello en los más variados formatos y protocolos. En los servidores se guardan las páginas y archivos, y mediante un protocolo conocido (como por ejemplo HTTP o FTP) los navegadores se comunican con un servidor posibilitando la visualización de los sitios web.

Page 14: MONOGRAFIA

El navegador web es posiblemente el software más importante de tu equipo. Pasas una gran parte de tu tiempo conectado a Internet en el navegador. Cuando realizas búsquedas, chateas, envías mensajes de correo electrónico, realizas compras, accedes a tu banco online, lees las noticias y ves vídeos online, a menudo lo haces a través de un navegador. En conclusión podemos decir que la función de los Navegadores de Internet es es descargar los archivos de documento y mostrarlos en pantalla. Aquí les presentamos la lista de los mejores Navegadores Web:

Mozilla Firefox

Por la sencillez, estabilidad y el gran

número de posibilidades que ofrece Mozilla

Firefox se convierte en el mejor navegador

que existe. Hay gran variedad de skins para

variar su apariencia y es posible añadirle

"applets" para configurar distintos estilos.

El uso de pestañas sin dudas constituye una

gran innovación, que luego fué copiada en

versiones posteriores de otros exploradores

de Internet.

Lo bueno también radica en que se trata de

un navegador decódigo abierto (es decir

que su código de fuente es liberado o

disponible libremente). Por

ser multiplataforma puede soportar

distintos sistemas operativos lo que

permite adaptar su funcionamiento a la

plataforma en la que es ejecutado.

Este premiado navegador de Mozilla es

anunciado como el más rápido y el mas

Page 15: MONOGRAFIA

seguro que permite una completa

personalización para adaptarlo a nuestros

gustos cuando exploramos la Web.

Google Chrome

Gogle Chrome es un navegador web

desarrollado porGoogle y compilado con

base en componentes de código abierto. La

ventana del navegador de Chrome es

funcional, clara y sencilla. Está disponible

gratuitamente bajo condiciones de servicio

específicas. Chrome también incluye

funciones que están diseñadas para un uso

eficaz y sencillo. Por ejemplo, puedes

realizar búsquedas y desplazarte en el

mismo cuadro y organizar pestañas cuando

lo desees, de forma rápida y sencilla.

Gogle Chrome es un navegador realmente

veloz si lo comparamos con el resto. Está

diseñado para ser rápido de todas las

formas posibles: se inicia rápidamente

desde el escritorio, carga las páginas web

de forma instantánea y ejecuta aplicaciones

web complejas a gran velocidad.

Gogle Chrome incluye un modo de navegar

de Incógnito (similar a la Navegación

privada de Safari y Firefox o el

modoInPrivate de Internet Explorer 8) que

permite navegar por Internet con total

Page 16: MONOGRAFIA

privacidad, ya que no registra ninguna

actividad y borra de los archivos

temporales las cookies utilizadas. Cuando

se activa una de estas ventanas "nada de lo

que ocurre en esa ventana saldrá de su

computadora".

Smartphone El teléfono inteligente (Smartphone en inglés) es un término comercial para denominar a un teléfono móvil con características similares a las de un ordenador personal. Casi todos los teléfonos inteligentes son móviles que soportan completamente un cliente de correo electrónico con la funcionalidad completa de un organizador personal. Una característica importante de casi todos los teléfonos inteligentes es que permiten la instalación de programas para incrementar el procesamiento de datos y la conectividad. Estas aplicaciones pueden ser desarrolladas por el fabricante del dispositivo, por el operador o por un tercero. El término "Inteligente" hace referencia a cualquier interfaz, como un teclado QWERTY en miniatura, una pantalla táctil, o simplemente el sistema operativo móvil que posee, diferenciando su uso mediante una exclusiva disposición de los menúes, teclas, atajos, etc. El completo soporte al correo electrónico parece ser una característica indispensable encontrada en todos los modelos existentes y anunciados en 2007, 2008, 2009 y 2010. Casi todos los teléfonos inteligentes también permiten al usuario instalar programas adicionales, normalmente inclusive desde terceros, pero algunos vendedores gustan de tildar a sus teléfonos como inteligentes aun cuando no tienen esa característica. Algunos ejemplos de teléfonos denominados inteligentes son: Serie MOTO Q de Motorola, Nokia series E y series N, BlackBerry, iPhone y Nexus One. Entre otras características comunes está la función multitarea, el acceso a Internet via WiFi, a los programas de agenda, a una cámara digital integrada, administración de contactos, acelerometros y algunos programas de navegación así como ocasionalmente la habilidad de leer documentos de negocios en variedad de formatos como PDF y Microsoft Office.

¿Cual comprar?

Page 17: MONOGRAFIA

Como suele ocurrir, la dispersa oferta de celulares tiende a converger. Si no es por unificación de criterios o estándares, se hace por oferta de servicios. Los smartphones no hacen la diferencia en este sentido. Si bien para los más especialistas, o detallistas, hay distancia entre un iPhone y un celular con Android, al ojo del consumidor promedio, puede que no haya tanta. Acá te traemos una breve con equipos recomendados. ¿Tenés algunos de los equipos que acá mostramos? Contanos tu experiencia. Si ya sos de los que está pensando más en los que vienen, sumá a la lista los smartphones que vos recomendarías. iPhone 3GS Empecemos por el primer smartphone. Si bien estrictamente hablando alguien puede discutir si el iPhone fue el primer smartphone (no podemos dejar de tener en cuenta la serie N de Nokia) claramente fue el que sentó las bases para el segmento que hoy se conoce de esa manera. La verdad es que si bien pionero, en el último año Apple quedó un poco retrasado en el desarrollo mobile y con la versión 3GS y la actualización del iOS (el sistema operativo del teléfono, lo que hace q corra aplicaciones cual computadora de escritorio) vuelve a competir mano a mano con cualquiera. Las principales ventajas: pesa sólo 135 gms y tiene una pantalla de 3.5 pulgadas con multitouch(reconoce más de un toque en la pantalla al mismo tiempo, idea para realizar operaciones más complejas que sólo elegir un contacto en una lista). Tiene Wi-Fi, GPS, cámara de 3 megapíxeles y una batería que con una duración estimada de 5 horas de 3G o 300 horas en stand by. El iOS 4, tras la actualización de principios de este año, permite al teléfono correr múltiples aplicaciones al mismo tiempo (algo que se le viene reclamando a Apple) y otras tareas básicas como cortar y pegar entre aplicaciones. Tema aparte es el iPhone4 y las dudas que todavía generan los problemas con la antena y la recepción de señal. La verdad es que a esta altura, y por lo oneroso del equipo, no vale la pena arriesgarse y apostar por el que funciona.

Page 18: MONOGRAFIA

Software libre El software libre (en inglés free software, esta denominación también se confunde a veces con gratis por el doble sentido delinglés free en castellano) es la denominación del software que respeta la libertad de los usuarios sobre su producto adquirido y, por tanto, una vez obtenido puede ser usado, copiado, estudiado, cambiado y redistribuido libremente. Según la Free Software Foundation, el software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, modificar el software y distribuirlo modificado. El software libre suele estar disponible gratuitamente, o al precio de costo de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por lo tanto no hay que asociar software libre a "software gratuito" (denominado usualmentefreeware), ya que, conservando su carácter de libre, puede ser distribuido comercialmente ("software comercial"). Análogamente, el "software gratis" o "gratuito" incluye en ocasiones el código fuente; no obstante, este tipo de software no es libre en el mismo sentido que el software libre, a menos que se garanticen los derechos de modificación y redistribución de dichas versiones modificadas del programa. Tampoco debe confundirse software libre con "software de dominio público". Éste último es aquel software que no requiere de licencia, pues sus derechos de explotación son para toda la humanidad, porque pertenece a todos por igual. Cualquiera puede hacer uso de él, siempre con fines legales y consignando su autoría original. Este software sería aquel cuyo autor lo dona a la humanidad o cuyos derechos de autorhan expirado, tras un plazo contado desde la muerte de este, habitualmente 70 años. Si un autor condiciona su uso bajo una licencia, por muy débil que sea, ya no es del dominio público. Los 10 top libres - OpenOffice.org - Gimp - Audacity - Mozilla Firefox - Kompozer

Page 19: MONOGRAFIA

- Inkscape - JClic - 7-Zip - Thunderbird - Ubuntu 9.1

Comjponentes de un pc

Fuente de poder No es un componente sofisticado sus elementos son: un transformador y un rectificador. Sirve para recibir la corriente eléctrica alterna y convertirla en corriente directa de dos voltajes que requieren los circuitos de la pc. Además, la fuente tiene un abanico que no solo sirve para enfriar la fuente de poder sino todo el espacio interior de la computadora. La fuente de poder recibe corriente eléctrica y la procesa y entrega mediante tres tipos de conectores: conectores a la tarjeta madre conectores para la alimentación de unidades de diskette conectores para alimentación de unidades de disco duro y unidades láser.

Page 20: MONOGRAFIA

Tarjeta madre ES la principal tarjeta de circuito impreso de computadora. Es la más grande y contiene montada sobre sí al chip microprocesador, las ranuras de bus para conexión de tarjetas adicionales y los módulos de memoria. Elementos y propiedades de la tarjeta madre Sockets para microprocesadores Chipset Canales DMA BIOS Interfaz IDE Interfaz ATAPI Sockets de memoria Sockets para tarjeta de video Bus del sistemas Bus MCA PS/2 Bus USB Puertos IEEE Puertos Serie Puertos Paralelo Bus Es el sistema de contactos estandar que permite alta flexibilidad de expansión porque acepta tarjetas adicionales de cualquier proveedor. También la función de la tarjeta puede ser cualquiera. Un conector de Bus, llamado también ranura de Bus, es un módulo de contactos hembra alineados donde se inserta una tarjeta adicionable que tiene contactos a lo largo de su borde. Microprocesador Es el componente principal de la PC. El fabricante más conocido es INTEL y AMD (la competencia) que aspira a superar a los primeros. El microprocesador contiene, en un chip de circuito integrado, millones de componentes electrónicos y es responsable de ejecutar las funciones inteligentes de la computadora. Cada año se aumenta su diseño aumentando ante todo su rapidez de operación que se mide en Gigaherts (GHz). Memoria Es un conjunto de chips donde se almacena en forma temporal una copia de aquella parte de los datos contenidos en el disco duro que el usuario

Page 21: MONOGRAFIA

necesita para el trabajo que está haciendo en el momento. Si la memoria es grande, la computadora tiene a la mano todos los datos que necesita para armar la imágen de la pantalla y para las funciones no visibles al usuario si es insuficiente para los datos requeridos, la PC necesita recurrir al disco contínuamente. Eso causa lentitud sensible porque la rápidez de acceso a la memoria es cientos de veces mayor que al disco. La memoria se borra cada vez que se apaga la computadora. Tarjeta de sonido La función de sonido suele venir integrada en la tarjeta madre de las PC. muestra en el exterior un conector hembra de tres contactos escalonados en una sola para donde se conectan las bocinas. Interfaz de entrada y salida (I/O) Es otra función de la tarjeta madre, sirve para conectar al CPU con componentes externos mediante conectores de dos tipos, llamados puertos: puertos paralelo (LPT) y puerto serie (COM). El puerto paralelo se utiliza para conectar la impresora y puede usarse para unidades de disco externas y otras cosas. El puerto serie sirve para el mouse, modem externo, cámara y otros accesorios. Disco duro Es el dispositivo de almecenamiento de datos durarero. Consiste en discos giratorios apilados, de material sensible al magnetismo y cabezas de lectura y escritura. El disco viene enecerrado herméticamente en una caja sellada, porque es necesario que trabaje sin ninguna partícula de polvo por lo que sus partes móviles no se ven. Tarjeta de video Su propósito es enviar a la pantalla los datos que crean la imágen, para que el usuario pueda conocer y controlar lo que hace la PC. Las tarjetas de video han evolucionado aumentando su rapidez en la creación de imágen y para hacre posible presentar texto y gráficos.

MICROPROCESADORES Intel Intel: la marca que más vende y la más conocida gracias a sus procesadores Pentium. Tienen dos posibles sockets: 478 y 775. El primero de ellos está pasado de moda y desapareciendo, así que nos centraremos

Page 22: MONOGRAFIA

en el segundo. Actualmente distribuye, dentro del nuevo socket 775, los siguientes modelos: Intel Celeron D, la gama baja y con un rendimiento muchísimo peor de lo que se espera de los GHz que tienen, pues tienen muy poca memoria caché para poder ser tan baratos. Además, son sólo de 32 bits. Actualmente de 2'533 a 3'333 GHz. Hay de dos tipos, núcleo Prescott con 256 Kb de caché y núcleo Cedar Mill, con 512 Kb. Los segundos son mejores. Intel Pentium 4, la gama media. Actualmente todos poseen extensiones EMT 64, por lo que son micros de 64 bits. Es importante que te des cuenta que ya no indican el nº de GHz, sino un modelo. Por tanto, es muy importante que averigües la velocidad real del micro. Existen dos cores: Prescott: de 531 / 3'0 GHz hasta 541 / 3'2 GHz, con 1024 kB de caché Cedar Mill: de 631 / 3'0 GHz hasta 661 / 3'6 GHz, con 2048 kB de caché. Es evidente que los segundos son mejores, los que empiezan por "600". Intel Pentium D, la gama alta. Similares a los anteriores pero de doble core. Es decir, que es como si estuvieras comprando dos micros y los colocaras en el mismo espacio, duplicando (idealmente) el rendimiento. Sólo se aprovechan al 100% si el software está optimizado, pero son muy recomendables dada la facilidad con que permiten trabajar con varios programas a la vez. Fíjate bien en los precios porque hay Pentium D por el mismo dinero que un Pentium 4 de los mismos GHz (de 3'2 a 3'6 GHz) por lo que estarías comprando el doble por el mismo dinero. También son micros de 64 bits. Existen dos cores: Smithfield: 805 y 2'666 GHz. Sólo 1024 Kb de caché por core. Muy malos, dado que tienen sólo 533 MHz de bus. Presler, de 915 / 2'8 GHz hasta 960 / 3'6 GHz. 2048 kB de caché por core y 800 MHz de bus. Uno de estos es buena compra, así que asegúrate que empiece por "900". Intel Core 2 Duo, la gama más alta. También de doble core y 64 bits, pero emplean una arquitectura nueva (arquitectura core), que es la base para los futuros micros de 4 y 8 cores en adelante. Aunque van a una velocidad de GHz menor, su rendimiento es muchísimo más alto que los anteriores, por lo que son mucho más rápidos que los Pentium D. Existen dos cores: Allendale, E6300 / 1'866 GHz y E6400 / 2'133 GHZ, con 1024 kB de caché por core y 1066 MHz de bus. Son buena compra, pero no son los mejores Core 2 Duo. Conroe: E6600 / 2'4 GHz y E6700 / 2'6 GHz, con 2048 kB de caché por core y 1066 MHz. Los más recomendables si el prespuesto te lo pemite.

Page 23: MONOGRAFIA

Conroe XE: X6800EE / 2'93 GHz, con 2048 kB de caché por core y 1066 MHz. La versión más extrema de Intel. Actualmente el micro más rápido de Intel para ordenadores de sobremesa (no servidores ni portátiles). Es caro (más de 1.000 euros) y su rendimiento no es mucho mayor que el E6700 que cuesta la mitad. Que cada uno valore si le merece la pena. La elección del microprocesador depende del uso que se le vaya a dar. Si sólo vamos a usarlo para aplicaciones de ofimática (procesador de textos, hojas de cálculo y programas relativamente sencillos y con poco uso de memoria) los Celeron nos valdrán, ya que el uso de memoria es bastante reducido. Pero ojo, que son de 32 bits, algo que, si bien hoy día no está desaprovechado por la falta de software optimizado a 64 bits, está muy anticuado. Sin embargo, un ordenador como regalo para una familia, sobretodo para los hijos que aunque digan que no, van a jugar, los Celeron se quedan bajos. Son necesarios micros más potentes, es decir, los Pentium 4. Especialmente sabiendo que el nuevo sistema operativo de Microsoft, el Windows Vista, está a la vuelta de la esquina, y que requerirá un ordenador potente para moverlo. AMD AMD: es el rival más directo que tiene Intel. Los micros son exactamente igual de compatibles, y usando el ordenador no notaremos en ningún momento diferencias entre tener un Intel o un AMD. Al igual que ocurre con Intel, AMD también fabrica diferentes gamas de microprocesadores: los Sempron, al nivel que los Celeron son los de peor calidad, pero que sin embargo si el uso del ordenador es básico (como ya dijimos antes, ofimática, navegar por internet y poco más) un Sempron nos ayudará a ésta tarea a la perfección. Sino, podemos ascender de calidad y comprar los otros modelos superiores, los Athlon64 (con 64 bits, como dice el nombre) o los Athlon 64 X2, que son los de doble core de AMD. Algo importante en AMD es su denominación de velocidad teórica, marcada con un XXXX+ que no representa su velocidad en GHz. Por ejemplo, un Athlon64 3200+ con 512 kB de caché, va realmente a 2 GHz. Eso no implica que sean lentos, todo lo contrario, se supone que ese 2 GHz equivale a un Pentium4 a 3,2 GHz (de ahí el 3200+). Normalmente suele ser un poco pretencioso, y equivale realmente a un Pentium 4 2'8 ó 3 GHz. Por ello el valor acabado en el sigmo + sirve para comparar los Athlon entre sí, pero no demasiado válido para compararlos con los Pentium 4.

Page 24: MONOGRAFIA

Hoy día existen hasta cuatro sockets de AMD. Los dos más antiguos, el socket A/462 y el socket 754, y hoy día no son nada recomendables, No por que no hayan tenido sus buenos tiempos con micros rápidos, sino porque hoy día venden micros muy lentos para ellos, así que los descartamos. Así que nos quedamos con el socket 939 y el nuevo socket AM2. La diferencia está en que el primero emplea memoria ram DDR y el segundo DDR2, como la de los Pentium4. Los socket 939 son más antiguos, pero hoy día están totalmente vigentes, igualan en rendimiento a los AM2, y además son el algunos casos (concretamente los modelos más rápidos) mucho más baratos. Intentaremos centrarnos en ambos. Recuerda que los Sempron64, Athlon64 y Athlon 64 X2, como dice el nombre, son todos de 64 bits. Athlon Sempron64 con socket AM2. La alternativa teóricamente más económica, muy poco recomendable, con sólo 128 y 256 kB de caché y velocidades de 2800+ hasta 3600+. Son igual de caros que los Athlon64 Socket 939 Venice del siguiente apartado y mucho peores, por lo que comprarlos es tirar el dinero. Athlon 64 con Socket 939: aquí tenemos hasta 4 cores: Venice y Manchester. En este caso recomendamos los primeros, que son algo más baratos y similares en rendimiento que los segundos. Dentro de los Venice tenemos desde 3000+ hasta 3800+. Los Manchester son el modelo doble core pero con uno de ellos desactivado. Al igual que los Venice, tienen 512 kB de caché. Existen otras dos variantes con núcleos San Diego y Toledo, ambos 3700+ y con 1024 kB de caché. Son los mejores Athlon 64 de socket 939 con diferencia, pues tienen más memoria caché, por lo que son los mejores athlon64 939. Athlon 64 con Socket AM2. En este caso tenemos sólo un núcleo, Orleans, con velocidades entre 3200+ y 3800+, con 512 kB de caché. No existen diferencias importantes frente al Venice del Socket 939, salvo la intrínseca al socket (como ya hemos comentado, memoria RAM DDR para el 939, DDR2 para el AM2). Athlon 64 X2 con Socket 939. Al igual que en los Intel, también tenemos esta opción con doble core de AMD, es decir, dos micros en en el mismo espacio. Tenemos dos núcleos: Manchester, con velocidades de 3800+ hasta 4600+. Con 512 kB de caché por core. No son malos, pero tampoco los mejores. Toledo, con velocidades de 4400+ hasta 4800+. Con 1024 kB. Son los mejores doble core para socket 939.

Page 25: MONOGRAFIA

Athlon 64 X2 con Socket AM2. Tenemos un núcleo, Windsor, con velocidades desde 3600+ hasta 5200+, Ojo que tienen cachés de distintas velocidades, entre 256 y 1025 kB. Por ejemplo, el 4200+ a 2,2 GHz y 512 kB, el 4400+ a 2,4 GHz y 1024 kB. Ambos van a la misma velocidad real y, sólo por el aumento de caché, la velocidad "teórica" es mayor. Lo mismo pasa con los dos modelos más exclusivos, el 5000+ a 2,6 GHz con 512 kB y el 5200+ a 2,6 GHz con 1024 kB. Athlon 64 FX-62 con Socket AM2. Es el más alto de gama de AMD, doble core, 2'8 GHz de velocidad y 1024 kB de caché por core. Es muy caro (más de 800 euros) y no va mucho más rápido que un Athlon 64 X2 5200+ que cuesta la mitad. Una de sus ventajas es que tiene desbloqueado el multiplicador y es muy apto para técnicas de overclocking (forzar el micro a que funcione más rápido de su velocidad teórica). Por ello, es recomendable sólo a usuarios expertos que, además, tengan o quieran gastarse tal cifra de dinero en un micro. Dentro de AMD, la mejor opción relación calidad/precio, hoy por hoy, es el socket 939, ya que, como hemos dicho, son más baratos que los AM2 e igual de rápidos. Además, la memoria DDR que necesitan es más barata que la DDR2. .

?TIPOS DE COMPUTADORAS? Ahora el uso de la computadora es muy común, tanto en empresas, negocios y algunos hogares. Pero cuando personas relacionadas con las antes mencionadas interactúan con la computadora la mayoría de las veces solo piensan que todas las computadoras son del mismo tipo. Además que quieren tener mas información acerca de las computadoras y no saben ?los tipos de computadoras que existen? y esto es una limitante para que las personas, que interactúan con ellas, sepan acerca de la computación Las computadoras se clasifican en súper computadoras, macro computadoras o mainframes, mini computadoras y micro computadoras o PC.

Page 26: MONOGRAFIA

Las clasificaciones contienen un cierto tipo de computadoras con características especificas. Supercomputadoras Una supercomputadora es le tipo de computadora más potente y más rápido que existe en un momento dado. Estas maquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea especifica. Un ejemplo de súper computadora es una computadora que se utiliza para el manejo de un grupo de maquinas ensambladoras de productos metálicos. Macrocomputadoras o mainframes Las macro computadoras son también conocidas como mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. De alguna las mainframes son más poderosos que las súper computadoras porque soportan mas programas simultáneamente. Pero las súper computadoras pueden ejecutar un solo programa más rápido que mainframe. En el pasado las mainframes ocupaban cuartos completos hasta pisos enteros de algún edificio, hoy en día, un mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada. Mini computadoras En 1960 surgió la mini computadora, una versión más pequeña de la macrocomputadora. Al ser orientada a tareas especificas, no necesitaba de todos los periféricos que necesita un mainframe, y esto ayudo a reducir

Page 27: MONOGRAFIA

el precio y costo de mantenimiento. Las mini computadoras, en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una mini computadora, es un sistema multiproceso (varios procesos) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, y otras aplicaciones. Micro computadoras o PC Las microcomputadoras o computadoras personales (PC) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es una computadora en un chip, o sea un circuito integrado independiente. Las PC son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares.

La historia de Apple Una empresa alabada por su innovadora, con un verdadero culto de sus usuarios. Ha tenido grandes éxitos y nos ha enseñado con sus fracasos. Hoy lidera el negocio de la música digital y sigue sorprendiendo.

Hablar de Apple computers nos remonta al inicio de la computadora personal, nos hace ver como una empresa ha sido líder en equipo destinado a aplicaciones de desarrollo gráfico y con gran auge en el campo de la producción de Video. Y finalmente, es hablar de una empresa que ha revolucionado a la industria musical con su popular iPod rompiendo paradigmas y sorprendiendo en cada conferencia en la que Steve Jobs se hace presente.

Page 28: MONOGRAFIA

Comienzos Steve Wozniak nacido en 1950, era totalmente diferente a los chicos de su edad y le gustaba la electrónica. A los trece años obtuvo un premio científico por construir su propia máquina de restar y sumar, con transistores que le regaló un ingeniero de Fairchild, "Llegué a interesarme en la electrónica gracias a él", diría mas tarde el "Woz". En 1968, a la temprana edad de dieciocho años, se dirigió a un colegio en Colorado, finalmente se trasladó a California, para seguir en la Universidad de Berkeley, de Ingeniería y Ciencias de la Computación.

Wosniak conoció a Steve Jobs quien era cinco años menor que él; Jobs se había criado en Mountain View, y sus padres adoptivos, no conocían muy bien sobre la alta tecnología. Después de que la familia de Jobs se mudó a Los Altos, Woz lo conoció un poco más a través de un amigo en común, justo antes de que Jobs cumpliera los catorce años. Aunque compartían su interés por los ordenadores, diferían en su forma de ser. Woz era una persona que llevaba sus ideas a la práctica, en cambio Jobs parecía ver a la electrónica como un medio para llegar a un fin. Como diría Woz, "ganar no me resulta tan importante como correr detrás de la pelota" refiriéndose al tenis. Woz, no tenía ambición y Jobs no tenía otra cosa en su cabeza que ella. Wozniak y Jobs no tenían tanta pasión por el colegio, no les resultaba interesante el estilo académico y por ello, verán foto de ambos con barba, pantalones gastados y sandalias. En esa época, Jobs tomo un trabajo en Atari, mientras que Wozniak había tomado una licencia en Berkeley para ir a trabajar a Hewlett-Packard, en el diseño de calculadoras. Atari era una nueva empresa en Sunnyvale que fabricaba videojuegos. Jobs fue reclutado por Atari, simplemente porque se presentó un día por allí. Al Alcorn el cofundador de Atari diría, "El director de personal me viene a ver y me dice, que tenía un hippie que parecía haber venido de las montañas, el tipo me pregunta…–¿Llamo a la policía?–". Alcorn quedó intrigado y optó por reclutarlo.

Page 29: MONOGRAFIA

Lo mejor que Jobs trajo a Atari fue a Woz, al que ya le había sido encargado un trabajo en Atari, después de demostrar su propia variante del Pong a Bushnell y Alcorn. Woz terminó siendo responsable del Pong para un sólo jugador que quería Bushnell. Se llamó BreakOut. Durante cuatro noches Wozniak desarrolló BreakOut y Jobs lo ensambló. Mientras que asistía a una exposición de ordenadores en San Francisco, Wozniak descubrió una pequeña firma fabricante de semiconductores que estaba vendiendo microprocesadores a $20. No era un chip de Intel pero la 6205 de MOS Technology, era más que suficiente para lo que tenía en mente. Al fin construyó un ordenador, aunque no estaba totalmente ensamblado. A pesar de su aspecto de producto sin terminar, proponía una mejora sobre la Altair, ya que utilizaba menos componentes. De esta manera Woz, asombró a sus amigos en el Homebrew Club. Pero como era de esperar en esta historia, a Woz solamente le gustaba eso, no contaba con el espíritu de ‘ambición’ que sí tenía Jobs, que vio este ‘asombro’ de otra manera, si un par de aficionados quedaban asombrados, ¿qué podría pasar con un mercado más grande? Jobs comprendió intuitivamente el significado de lo que Gordón Moore había reconocido una década atrás: debido a la miniaturización, los chips se harían más baratos y quedarían necesariamente al alcance de todo el mundo.

Page 30: MONOGRAFIA

Jobs pensó: ¿Qué pasaría si Wozniak pudiese ser persuadido a fabricar su ordenador en grandes cantidades? continuaría siendo Woz el ingeniero, y Jobs el vendedor. Corrían los comienzos de 1976, Jobs tenía veintiún años y Woz veintiséis. Ambos consideraban la idea de comenzar una empresa: Woz vendió su calculadora HP-65 y Jobs, su ómnibus VW. De qué manera se pusieron de acuerdo en "Apple Computer", depende de cuál versión de la historia usted acepte. Pudo haber sido un buen recuerdo de Jobs en sus días de huerto en Oregón o su intermitente dieta en base a frutas. Inclusive "Apple" podría haber sido simplemente una manera de crear un nombre con un buen sonido, absolutamente americano, en una industria de la alta tecnología no conocida por irradiar calidez. El logotipo original de Apple era poco imaginativo, mostrando a alguien debajo de un manzano, pero la empresa salió con la amigable manzana del arco iris, que ha permanecido como la marca mas conocida en el universo de la computación. 1976, Apple I La primera máquina de Apple denominada “Apple I” se vendió por 666,66 dólares. La Apple I se podía obtener en negocios informáticos o por correo. La empresa distribuidora estaba establecida en el garage de Jobs en 2066 Crist Drive de Los Altos. Woz y Jobs vendieron una cifra de 175 unidades. Pero la propuesta no le intereso a Hewlett-Packard ni a la empresa Atari quienes se negaron a respaldar a Apple tampoco lo estuvo Intel.

Page 31: MONOGRAFIA

Cuando Jobs visitó a Moore, éste descalificó a su máquina diciendo simplemente que era otro dispositivo dónde albergar un semiconductor. Ni tampoco la eminencia gris del valle, Bob Noyce tuvo el interés por respaldar a la Apple I. A lo largo de la última mitad de 1976 Wozniak estuvo preparando una computadora con mejoras técnicas. La nueva propuesta era la “Apple II” con sólo cinco kilogramos y medio de peso, teclado, diseño más elegante, fuente de alimentación y un disco flexible para almacenar los datos. La máquina se vendía totalmente ensamblada, con un estuche de color crema, que tenía el logotipo Apple II, en su parte superior. Jobs estableció el precio de la “Apple II” en 1.298 dólares, aunque la “Apple II” estaba en su proceso de terminación, Jobs salió a buscar inversionistas, seguro de sí mismo sabía que su falta de recursos y de experiencia se interponía a su intención de crear una empresa real. Dos de sus primeros empleados fueron estudiantes de escuela secundaria. Refuerzos Jobs reclutó a Regis McKeena, que en ése momento representaba a Intel y era considerado uno de los agentes publicitarios más famosos del valle. Al principio no quiso, pero Jobs siguió insistiendo y logró convencer a Regis, quien respondió con el logotipo de Apple tal como lo conocemos hoy, con el mordisco incluido y con colores del arco iris. McKenna y Alcorn de Atari le presentaron a Jobs y a Don Valentine, un capitalista de riesgo que rechazó la oferta de invertir en Apple y éste lo derivó a Mike Markkula. Éste aportó $91 mil y a cambio de un tercio de la compañía, escribió los primeros programas para la “Apple II”. Con un adulto presente en la empresa Apple fue legitimada, en 1977. Se convirtió formalmente en una corporación y se mudó del garage de Jobs a una pequeña oficina de Cupertino. Jobs se retiró de Atari y Woz de HP, resignados a tener que ganarse la vida fabricando y vendiendo ordenadores. 1978, la Apple II

Page 32: MONOGRAFIA

A comienzos de 1978 y a un año de haber sido declarada como corporación, Apple ya estaba generando ganancias. La empresa obtuvo más de $2 millones y Markkula, siguió buscando inversionistas. Las ventas se duplicaron y quintuplicaron al año siguiente. Apple ingresó en la revista Fortune 500, y Jobs lo declararon como la persona más joven en llegar a millonario en la lista Fortune 400. El proyecto que Steve Wozniak había diseñado, vendió más de 300.000 unidades para fines de 1981, (cinco millones a lo largo de diecisiete años). Con la potencia de la ENIAC, la Apple II se vendía por sólo 1,298 dólares. Durante una década Apple solamente alcanzó los 1,000 millones de dólares, una proeza que Xerox había logrado luego de haber lanzado su primera fotocopiadora en 1959. A medida que la Apple II se hacía conocer, más estudiantes escribían software para ella. Y a esto le quiero agregar lo siguiente, un hardware podrá ser de última generación, con el chip más rápido pero si no tiene programas interesantes (software), el brillo se vuelve opaco, un ejemplo es lo que le pasó a Atari con su consola llamada Jaguar, la primera máquina de 64Bits que hubo en la historia de los video juegos y fracasó porque sus juegos no eran originales ni divertidos, de igual manera lo sufrió Sega con su modelo Saturn, una máquina estupenda pero con juegos muy mediocres. Pero esto es otra historia y volvamos a Apple. Entre 1978 y 1979 existían alrededor de cien programas para la Apple II. Si bien el software era bueno, no eran tan brillantes como el fenómeno del momento VisiCalc, una planilla de cálculo electrónica, diseñada por dos estudiantes de Harvard. La planilla permitía al usuario realizar fórmulas complejas para la contabilidad. Si uno modificaba el valor de un número, el programa se acomodaba a ese cambio, haciendo cálculos internos. Tal tipo de aritmética hubiera resultado absurda a mano, pero VisiCalc, lo realizaba en sólo segundos. Doce días antes de la navidad de 1980, "los dos steves" embolsaron grandes sumas de dinero, al estar Apple en la cotización en bolsa. Fracasos

Page 33: MONOGRAFIA

Tal vez, se preguntarán, ¿bueno, Apple tuvo muchos éxitos, pero, algún fracaso? sí Apple, en el mismo momento en que la International Bussiness Machines (IBM) se hallaba desarrollando el Proyecto Ajedrez tal como se conoce a la IBM PC, había sacado al mercado la Apple III, que suponía un avance en cuanto a la arquitectura de la Apple II, además, incorporaba un disco rígido. Aunque la Apple III tuvo que ser retirada debido a que era técnicamente un desastre. Otro fracaso fue cuando Apple se resistía a bajar los precios de la Mac y no licenciar su sistema operativo a otras empresas. Grave error, para una compañía que suponía -pienso que con buen fundamento- que tenía un producto superior, este tipo de arrogancia era natural y hasta podría haber tenido sentido. El fracaso corporativo de Apple, la condujo a tener una participación del 20 por ciento en 1983 a llegar a sólo la mitad en el período de dos años. Obviamente la elección de la estrategia era equívoca. ¿Publicidad agresiva a mí? Luego de que IBM sacase a la luz su IBM PC, hubo una confusión en el mercado, la pregunta era ¿qué pretendía IBM con esto?, obviamente introducirse en el mercado de las microcomputadoras. "El ingreso de IBM acabó con cualquier duda respecto a que la informática personal constituyera un negocio serio", decía un aviso publicado en esa época en The New York Times, no obstante, Jobs debía responder y lo hizo. "Bienvenida IBM, en serio". Expresaba un aviso colocado por Jobs, en The Wall Street Journal. Apple tuvo su propio aviso destacado, durante el super bowl de 1984, con una duración de sesenta segundos, se pasó una sola vez por la televisión nacional, y fue considerado uno de los avisos publicitarios más efectivos que jamás se haya difundido. El escenario constaba de gente vestida de gris y cabeza calva en un gran salón, que escuchaban con indiferencia a su líder, que aparecía proyectado en una pantalla gigante. Una mujer vestida de los colores del arco iris, ingresaba bruscamente con un martillo antisistema, y se lo arrojaba al líder rompiendo la pantalla, y los trabajadores eran liberados, y de repente…Pantalla negra y una frase con un sonido que decía: "El próximo 24 de enero Apple introducirá su Macintosh, y usted comprenderá porqué 1984, no va a ser como 1984". Ello llevaba a suposiciones, de que el líder era IBM, y Apple representaba el individualismo, así como también Apple, dejaba saber a todo el mundo de que estaba realmente comprometida con la industria de la computación y no era un mero fabricante de cajas registradoras.

Page 34: MONOGRAFIA

Recompensas Un par de años después la revista Time mostró a Jobs sentado en el piso de su sala, con las piernas cruzadas y descalzo. El objetivo era mostrar al joven potentado llevando una vida simple. Jobs y Markkula, poseían 155 millones de dólares en acciones. En cambio Wozniak, podría haber tenido una parte igual pero anteriormente había cedido una parte de sus acciones a su familia y a unos cinco ingenieros de Apple que consideró que los habían dejado injustamente de lado en la repartición de las ganancias. Multitudes de empleados de Apple se hicieron millonarios y los que respaldaron financieramente a Apple fueron ‘recompensados’, Arthur Rock, una empresa de capitales de riesgo, observó cómo la cifra de $57.60 se elevó a $14,1 millones, y los Rockefeller, embolsaron alrededor de seis veces esa cifra. Piratas de Silicon Valley

Que los piratas eran personas que se dedicaban a sabotear barcos llenos de oros y diamantes, es una historia mas que conocida, los piratas de Apple, actuaron sobre una confiada Xerox, que abrió sus puertas para mostrar lo que había diseñado, y Jobs, ’saboteó’ sus inventos, robó sus ideas y los introdujo en su nueva Mac, de nuevo, todo gracias a su visión comercial. La Macintosh, se vendió primeramente en 2,495 dólares, fue el punto emocional más alto de la empresa. Elegante y amigable, la Mac tenía mas potencia que la Apple I y II. Si tenemos que destacar algo de la Mac fue que introdujo la GUI, Interfaz Gráfica de Usuario. Obviamente no fue un desarrollo de Apple, sino que como todo en esa época fue diseñado y desarrollado en los laboratorios de Xerox PARC en Palo Alto, California. El PARC como todo el mundo lo conocía, tenía como misión mantener el control de Xerox en el mercado de las fotocopiadoras. En Xerox estaban interesados en realizar eventuales operaciones con Apple y contactaron a Jobs, que solicito un recorrido por su planta. Era como que caperucita roja, hubiera mostrado su casa al lobo feroz. Tres semanas antes de la navidad

Page 35: MONOGRAFIA

de 1979, Xerox le abrió sus puertas. Jobs cuyo único objetivo fue constatar que una GUI era posible y además una década antes de que cualquier ordenador lo hiciera. Aún así, la Mac fue una computadora adelantada a su época y ese error de Jobs, le costó caro. A quién se le pudiese ocurrir que las computadoras debían ser fáciles de usar. Como todo en este mundo, tiene que tener su tiempo de adaptación y la Mac no lo tuvo. La Norteamérica corporativa, así como negocios, empresas, multinacionales, etc. Eligieron al IBM PC, no solamente por ser de IBM, sino también porque era feo y lento, tenía el aspecto, y actuaba de la manera como se suponía que debía actuar un ordenador. Chismes, chismes y más chismes Muchos chismes de Jobs y Wozniak, existieron en el valle. Uno de ellos hace referencia al juego BreakOut ¿recuerdan? parece que Jobs, le dijo a Wozniak que Nolan Bushnell, le había pagado por sus servicios 700 dólares. Lo que en realidad supuso para Wozniak un total de 350 dólares. Aunque en realidad Bushnell le había pagado 7,000 dólares. Lo que produjo en 1998 cuando Wozniak se enteró, un derrame de lágrimas y una frase "Oh, me lo hizo de nuevo". Steve Wozniak deja Apple En 1981, había chocado su pequeño avión practicando aterrizaje en el aeropuerto local y necesitó cinco semanas para recuperarse de la amnesia. Luego de eso se dio cuenta que tenía una vida por delante después de Apple. Luego de las súplicas de Jobs para que se quedara, Woz regresó a Berkeley, para obtener finalmente su diploma como una cuestión de orgullo. Nunca más formó parte de algún equipo de ingeniería de Apple, aún guardando su placa de Empleado N°1. Steve Wozniak siempre había amado a Apple, pero con el tiempo llegó a tener más acciones de Microsoft. Pirata al agua En Apple quizás lo peor que hizo Jobs fue la forma en que administró el proyecto Macintosh. Escogió con sumo cuidado un equipo de ingeniería y adquirió un edificio exclusivo para el proyecto con una bandera con una calavera con tibias cruzadas (con el logotipo de Apple, en donde debería estar el ojo), uno de los dichos de Jobs, era "Mejor es ser pirata que ingresar a la marina". Los programadores seleccionados recibían jugos de naranjas exprimidos cada mañana y muchas otras atenciones por parte de su líder. Cuando la Mac no tuvo el impacto que se suponía tendría, Jobs como un barquero fue obligado a caminar por la tabla.

Page 36: MONOGRAFIA

Alguien dijo: "agua azucarada" Era 1983 y Markkula junto con Jobs habían recurrido a un excelente profesional de marketing para que dirigiera la compañía. Su nombre, John Sculley, un ejecutivo de primer nivel de Pepsi. Jobs se dio cuenta que a los veintiocho años de edad, no tenía el temperamento para dirigir a Apple hacia Wall Street, y decidió consultar con Markkula, por una posible contratación. Como lo recuerda Sculley, Jobs al presentarlo ante la compañía, se dirigió a él diciendo: -"¿Desea pasarse el resto de su vida vendiendo agua azucarada o quiere tener una oportunidad de hacer historia?". Esta imagen es la que uno ve cuando mira la película Silicon Valley Pirates. Aunque no todo fueron flores para Apple; Jobs seguía haciendo de las suyas, se comenta que en un día de campo, reclutó al equipo de la Macintosh, y a los "demás", los hacía pelear entre ellos, en forma de competencia, las peleas terminaban mal. Sculley así como Markkula, decidieron un tiempo después que Steve Jobs, dejara Apple. El precio de las acciones de Apple, había bajado de sesenta y cinco dólares al lanzamiento de la Macintosh, a solamente veinte en la primavera de 1985. El porqué del dominio de IBM

En los doce años que siguieron, con Jobs en el exilio, Apple siguió adelante, desempeñándose bastante bien en una era dominada por IBM y sus "clones". Estas computadoras no eran para nada especiales. A cambio del hardware de la Apple, la IBM PC tenía una arquitectura abierta, o sea que su forma de operar se podía copiar y cualquiera que sepa de computadoras podía hacer una sin que IBM lo obligara a pagar por derechos. ¿Porque? Debido a que IBM no tenía ese "sistema operativo", el privilegio lo poseía Microsoft. De la misma manera que el microprocesador es el cerebro de la máquina, el sistema operativo es como un sistema nervioso central. Haciendo que se encendiese y apagase, organizando archivos, exhibiendo comandos en la pantalla del monitor, etc. Todo lo que IBM realmente proveía era el "paquete". Dada la arquitectura abierta de IBM, empresas importantes comenzaron a fabricar la suya, una de ellas, muy conocida Compaq. IBM tenía razón, en que esto permitía a su máquina establecer un estándar para la industria, lo cual tenía ventajas, una de ellas, era

Page 37: MONOGRAFIA

asegurarle a IBM el desempeño de un papel central en la determinación de las percepciones del mercado y las prestaciones de la siguiente generación de equipos. Apple no pudo llegar a eso, no solamente se disipó su participación en el mercado, al rehusarse a bajar los precios de la Mac, tampoco licenció el sistema operativo propio de la Mac a otras empresas a cambio de la percepción de derechos. Si uno quería una máquina Apple, tenía que comprársela a Apple. Renuncias, renuncias Comenzando en 1981, el primero en renunciar fue Woz, luego Sculley determina que Jobs no tenía sentido para dirigir Apple. Resultado Jobs abandona Apple. En 1993 con una fuerte caída en la rentabilidad de Apple, Sculley se vio obligado a renunciar. Siendo reemplazado por Michael ‘Diesel’ Spindler. El significado de diesel, nunca lo he podido conocer, así que estimado lector, si usted lo sabe, envíemelo por favor. Spindler se mantuvo hasta 1996, luego de su renuncia, Gil Amelio pasó a ser el CEO. A fines de 1996 Apple mantenía pérdidas de miles de millones, moral baja y una participación en el mercado del 3 ó 4 por ciento. En una tapa que publicó el Bussiness Week, aparecía "La caída de un icono norteamericano". Mucho tiempo había transcurrido desde los días en el garage de Jobs. Enfrentado a la crisis de Apple, Amelio emprendió acciones encaminadas a lograr que la posición financiera de la empresa le permitiese, por lo menos, tener algún futuro. A fines de 1996 tuvo la brillante idea de volver al pasado y de traer de nuevo a alguien llamado Steve Jobs. En el verano de 1997, el que salió por las puertas giratorias de la entrada de Apple, fue Amelio. En el tiempo transcurrido desde entonces, ha dispuesto un cambio radical de objetivos para la empresa tratando de mantener su rentabilidad positiva a través de un año. El corazón de la nueva Apple era el iMac. Un ordenador y monitor integrados, de aspecto muy adelantado a ésta época. El iMac venía de colores translúcidos y turquesa. Sus líneas curvas hacia que la Mac de 1984 pareciese chatarra y fuera de siglo. El precio era de 1,299.00 dólares tratándose de una Apple, era barato. A principios de 1999, debido a fuertes ventas del iMac, que ya venía con nuevos colores, la participación en el mercado de Apple, llegó al 10 por ciento y el precio de sus acciones llegó al nivel más alto en muchos años. Tras haber logrado reflotar Apple, Jobs podía haber sido perdonado por regodearse. Alentado por sus empleados, en un balcón dentro de Apple, gritó "Aún tenemos un alma".

Page 38: MONOGRAFIA

Desafortunadamente su empresa soñada había perdido la guerra hacía mucho y ninguna victoria moral lograría modificar ese hecho. La compañía de sus desvelos no lograría jamás recuperarse del todo. Jobs había realmente "puesto una marca en el universo", como lo había prometido hacía mucho tiempo. Los nuevos modelos de Apple y su evolución Luego de todo esto nos encontramos con una nueva generación de dispositivos y nuevas propuestas creadas por Apple: iMac Es el nombre de la línea de ordenadores de Apple Computer diseñados por Jonathan Ive dirigida al mercado doméstico. Estos ordenadores tienen en común la integración del monitor con la CPU y un diseño fresco e innovador, además de otros detalles como la ausencia de disquetera y la presencia de puertos USB y Firewire (este último a partir del iMac G3 DV 350). Mac G3 Es el único iMac que incorpora un monitor CRT, de este modelo existen 16 versiones (o revisiones) que van desde el iMac original (con procesador G3 de 233 MHz y una unidad óptica de CD-ROM) hasta la última con procesador G3 de 700 MHz y una unidad de DVD-CDRW). El iMac G3 fue el primer Macintosh en prescindir de disquetera e incluir puertos USB y el único hasta la fecha en estar disponible en una amplia gama de colores. iMac G4 El iMac G4 fue uno de los primeros ordenadores en incluir como opción una unidad grabadora de DVD, también fue pionero en la incorporación de una pantalla de LCD, la CPU estaba integrada en su base con forma de peana semiesférica. El iMac G4 estuvo disponible con monitores de LCD desde 15" hasta 20", con procesadores G4 desde 700 MHz hasta 1250 MHz en su última versión. iMac G5 El iMac G5 integra la CPU con el monitor, haciendo de él uno de los ordenadores más compactos del mundo. Tiene un procesador G5 de 64 bits y está disponible con pantallas de 17" y 20". Otra de las diferencias de este modelo sobre sus predecesores es la forma mucho más cómoda de acceso a su interior y la presencia de una entrada y salida de audio digital. Power Mac G5 Es la quinta y más reciente generación de ordenadores Power Mac de

Page 39: MONOGRAFIA

Apple Computer. Cada ordenador tiene un procesador G5 a 1.8 GHz o dos procesadores G5 a 2.0, 2.3 o 2.7 GHz de velocidad de procesamiento. Cada procesador tiene dos vías de 32 bits unidireccionales con lo que el ordenador tiene una tecnología de 64 bits o lo que es lo mismo una transmisión de datos de 20 GBs por segundo. A esto se le añaden hasta 8 gigabytes de memoria RAM. Así el G5 puede soportar hasta 216 instrucciones al mismo tiempo, obteniendo un rendimiento mucho mejor que cualquier PC compatible con Windows de las mismas características. Aunque la compañía Apple afirmaba en el lanzamiento de este producto que se trataba del ordenador personal más rápido del mundo, este aspecto ha sido criticado por otras fuentes. Una configuración más compacta del mismo ordenador fue lanzada bajo el nombre de Xserve G5 para el mercado de los servidores de cálculo. Recientemente se ha lanzado el imac G5, una versión compacta para el mercado doméstico con un único procesador G5 y con unas posibilidades de expansión más limitadas. Apple y el mundo de la música. Luego de sus interesantes modelos de computadoras portátiles y de escritorios, Apple sorprendió nuevamente cuando se introdujo al mundo de la música. Con iTunes, su tienda en línea para descargar música legal por $0.99 por canción junto a la combinación del iPod, Apple está haciendo más dinero que cualquier otra empresa en la industria de la música digital. El popular iTunes

Es un programa de ordenador creado por Apple Computer con el fin de reproducir, organizar y comprar música (es también el nombre común de iTunes Music Store). Es compatible con ordenadores con Mac OS X, Windows 2000 o Windows XP como sistema operativo. Algunas versiones tempranas de iTunes también fncionan con Mac OS 9. El reproductor se ha ganado la reputación de sencillez y buena organización, y se ha convertido en el favorito de los usuarios de iPod.

Page 40: MONOGRAFIA

iTunes es un sistema basado en SoundJam MP, una popular aplicación de MP3, creada por la compañía Casady & Greene. Apple compró los derechos de SoundJam MP y pronto estrenó la primera versión de iTunes, que era muy similar a SoundJam MP. Para la gran mayoría, iTunes ha sobrepasado claramente a todos los otros reproductores de MP3 de Macintosh, y también a los de Windows. La cultura iPod

El iPod es un reproductor de música digital con disco duro o memoria flash, creado por Apple Computer. Puede reproducir archivos MP3, WAV, AAC/M4A, AIFF y Apple Lossless. La capacidad del disco duro es de hasta 60 GB (hasta 15.000 canciones, 25.000 fotos, 150 horas de vídeo y soporte para Podcasting en el Modelo 5G). Hasta ahora se han desarrollado cinco versiones del iPod original, la edición especial U2 (que es negro, incluye grabado láser de los integrantes del grupo, merchandising oficial y pantalla a color), el iPod mini de 4 GB y 6 GB, el iPod nano (blanco y negro, pantalla a color, memoria flash de 2 GB y 4 GB) y el iPod shuffle (blanco, sin pantalla, memoria flash de 512 MB o 1 GB). Los modelos de iPod disponibles son: Ipod 5G (En dos modelos de 30 Gb y 60 Gb): puede albergar hasta 15.000 canciones, 25.000 fotos o más de 150 horas de vídeo. iPod (de disco duro) (de 20 GB o 60 GB) (ipod 4G) iPod U2 Special Edition (de disco duro) (de 20 GB) (Firmado láser de los integrantes del grupo U2, incluye merchandising oficial) iPod mini (de disco duro) (de 4 o 6 GB) iPod shuffle (de memoria flash y sin pantalla) (de 512 MB o 1 GB) iPod nano (de memoria flash y pantalla a color) (de 2 o 4 GB, en colores blanco o negro) este reproductor sustituye al iPod mini. A finales de junio de 2005 Apple Computer integró el iPod original con el iPod photo. Ahora todos los modelos blancos tienen pantalla a color y capacidad para almacenar y reproducir música y fotografías. Actualmente hay dos modelos, con capacidades de 20 GB y 60 GB. El iPod U2 también se ha actualizado con pantalla a color.

Page 41: MONOGRAFIA

El 12 de octubre del 2005 Apple Computer sacó el Ipod 5G, que presenta una pantalla en color de 2,5 pulgadas, capaz de mostrar portadas de álbumes y fotografías, así como de reproducir imágenes de vídeos musicales, podcasts en vídeo, películas domésticas y programas de televisión. ¿Qué depara para el futuro de Apple? Los rumores para esta empresa están en cada esquina. Apple ha logrado reinventarse y ser un icono en el mundo de la computación. Apple se ha posicionado como una empresa con computadoras de gran diseño y gran potencia para diseñadores y productores de video. Sin embargo, se espera que en los próximos años, Apple busque recuperar a los usuarios comunes de escritorio con modelos más económicos de sus computadoras. Ya se han anunciado próximos modelos en computadoras con procesadores Intel y se rumora cualquier tipo de mejoras a los iPod en cuanto a diseño, capacidad y características. También se rumora de expandir el iTunes a la telefonía celular y seguir en la conquista del mundo de la música y el video. Tal vez lo más interesantes es que Apple se sigue reinventando, lanzando muy interesantes productos y en busca de crecer en los mercados que menos nos imaginamo

Historia de Microsoft Todo el mundo relacionado con la informática conoce de esta empresa. Algunas la idolatran y otros la odian. A continuación su historia.

Page 42: MONOGRAFIA

La compañía fue fundada en 1975 por William H. Gates III y Paul Allen. Ambos se habían conocido durante su época de estudiantes por su afición común a programar con la computadora PDP-10 de Digital Equipment Corporation. En ese año, la revista Popular Electronics dedicó su portada y un artículo al Altair 8800, la primera computadora personal. El artículo animó a Gates y Allen a desarrollar la primera versión del lenguaje de programación BASIC para el equipo Altair. Le compraron la licencia de este software a Micro Instrumentation and Telemetry Systems (MITS), la empresa fabricante del Altair, y fundaron Microsoft (originalmente Micro-soft) en Albuquerque, Nuevo México, con el objeto de desarrollar versiones de BASIC para otras compañías del sector. Apple Computer, fabricante del equipo Apple II, Commodore, fabricante del PET, y Tandy Corporation, fabricante del equipo Radio Shack TRS-80, todas ellas compañías creadas por aquel entonces, fueron los primeros clientes de Microsoft. En 1977 Microsoft lanzó al mercado su segundo producto, Microsoft FORTRAN, otro lenguaje

Page 43: MONOGRAFIA

de programación, y pronto sacó versiones del lenguaje BASIC para los microprocesadores 8080 y 8086. MS-DOS En 1979 Gates y Allen trasladaron la compañía a Bellevue, Washington, muy cerca de Seattle, la ciudad donde ambos nacieron. El traslado a Redmond, muy próximo a Bellevue, se produjo en 1986. En 1980 IBM contrató a Microsoft para escribir el sistema operativo del IBM PC, que saldría al mercado al año siguiente. Presionada por el poco tiempo disponible, Microsoft compró QDOS (Quick and Dirty Operating System) a Tim Paterson, un programador de Seattle, por 50.000 dólares y le cambió el nombre a MS-DOS. El contrato firmado con IBM permitía a Microsoft vender este sistema operativo a otras compañías. En 1984 Microsoft había otorgado licencias de MS-DOS a 200 fabricantes de equipos informáticos y, así, este sistema operativo se convirtió en el más utilizado para PC, lo que permitió a Microsoft crecer vertiginosamente en la década de 1980. Software para aplicaciones A medida que las ventas de MS-DOS se disparaban, Microsoft empezó a desarrollar una serie de aplicaciones para PC con fines comerciales. En 1982 salió al mercado Multiplan, un programa de hoja de cálculo, y el año siguiente se puso a la venta el procesador de textos denominado Microsoft Word. En 1984 Microsoft fue una de las primeras compañías del sector que se dedicó a desarrollar aplicaciones para Macintosh, una computadora personal creada por la compañía Apple Computer. En un principio, Microsoft obtuvo grandes éxitos de venta de programas para Macintosh como Word, Excel y Works (un grupo de aplicaciones integradas en un paquete). No obstante, Multiplan para MS-DOS fue casi totalmente sustituido por la famosa hoja de cálculo de Lotus Development Corporation, Lotus 1-2-3. Windows En 1985 Microsoft lanzó Windows, un sistema operativo que ampliaba las prestaciones de MS-DOS e incorporaba por primera vez una interfaz gráfica de usuario. Windows 2.0, que salió a la venta en 1987, mejoraba el rendimiento y ofrecía un nuevo aspecto visual. Tres años más tarde apareció una nueva versión, Windows 3.0, a la que siguieron Windows 3.1 y 3.11. Estas versiones, que ya venían preinstaladas en la mayoría de los equipos, se convirtieron rápidamente en los sistemas operativos más utilizados de todo el mundo. En 1990 Microsoft pasó a ser la empresa líder de programas informáticos y alcanzó unas ventas anuales de más de mil millones de dólares.

Page 44: MONOGRAFIA

Cuando Microsoft se encontraba en la cima del mercado de los programas para PC, la compañía fue acusada de ejercer prácticas empresariales monopolísticas. En 1990, la Comisión Federal de Comercio estadounidense (FTC, siglas en inglés) comenzó a investigar a Microsoft por supuestas prácticas contrarias a la libre competencia, pero fue incapaz de dictar sentencia y cerró el caso. El Departamento de Justicia estadounidense continuó la investigación. En 1991 Microsoft e IBM finalizaron una década de colaboración cuando decidieron seguir caminos diferentes en la siguiente generación de sistemas operativos para ordenadores personales. IBM continuó con un antiguo proyecto en común con Microsoft, un sistema operativo denominado OS/2 (que salió al mercado en 1987), mientras Microsoft decidió desarrollar su sistema operativo gráfico Windows. En 1993 Apple perdió un juicio contra Microsoft al que acusaba de violación de las leyes de derechos de autor por haber copiado ilegalmente el diseño de la interfaz gráfica de Macintosh. El fallo fue más adelante confirmado por un tribunal de apelación. Windows NT, un sistema operativo diseñado para entornos empresariales, fue lanzado en 1993. Al año siguiente, la compañía y el Departamento de Justicia firmaron un acuerdo en el que se pedía a Microsoft que modificase la forma de vender y conceder licencias para sus sistemas operativos a los fabricantes de computadoras. En 1995 la compañía lanzó Windows 95, un entorno multitarea con interfaz simplificada y con otras funciones mejoradas. A las siete semanas de su lanzamiento se habían vendido siete millones de copias. Mejoras en sus productos Microsoft empezó a operar en el campo de los medios de comunicación y creó The Microsoft Network en 1995 y MSNBC un año después. Además, en 1996 Microsoft presentó Windows CE, un sistema operativo para computadoras de bolsillo. En 1997 Microsoft pagó 425 millones de dólares por la adquisición de WebTV Networks, un fabricante de dispositivos de bajo costo para conectar televisiones a Internet. Ese mismo año Microsoft invirtió mil millones de dólares en Comcast Corporation, un operador estadounidense de televisión por cable, como parte de su política de extender la disponibilidad de conexiones de alta velocidad a Internet. A finales de 1997 el Departamento de Justicia acusó a Microsoft de violar el acuerdo de 1994 al obligar a los fabricantes de computadoras que instalaban Windows 95 a la inclusión de Internet Explorer, un programa para navegar por Internet. El gobierno sostuvo que la compañía se estaba

Page 45: MONOGRAFIA

aprovechando de su posición en el mercado de los sistemas operativos para obtener el control de los exploradores de Internet. Microsoft afirmó que debía disponer del derecho de mejorar la funcionalidad de Windows integrando en el sistema operativo funciones relacionadas con Internet. Por otra parte, a finales de 1997, la compañía Sun Microsystems demandó a Microsoft, alegando que había incumplido el contrato por el que se le permitía utilizar el lenguaje de programación universal JAVA, de Sun, al introducir mejoras sólo para Windows. En noviembre de 1998 un tribunal dictó sentencia en contra de Microsoft por un mandamiento presentado por Sun ese mismo año. Dicho mandamiento obligaba a Microsoft a revisar su software para cumplir los estándares de compatibilidad con JAVA. Microsoft apeló la sentencia. A principios de 1998 Microsoft llegó a un acuerdo temporal con el Departamento de Justicia que permitía a los fabricantes de PC ofrecer una versión de Windows 95 sin acceso a Internet Explorer. No obstante, en mayo de1998 el Departamento de Justicia y veinte estados de Estados Unidos presentaron demandas contra Microsoft por supuestas prácticas monopolísticas y por abusar de posición dominante en el mercado para hundir a la competencia. Estas demandas obligaron a Microsoft a vender Windows sin Internet Explorer o a incluir Navigator, el explorador de Web de Netscape Communications Corporation, la competencia. Las demandas también obligaron a modificar algunos contratos y la política de precios. En junio de 1998 Microsoft lanzó Windows 98, que incluye funciones integradas para acceso a Internet. Al mes siguiente Bill Gates nombró presidente de la compañía a Steve Ballmer, hasta entonces vicepresidente ejecutivo, y éste se hizo cargo de la supervisión de las actividades empresariales cotidianas de Microsoft. El juicio contra Microsoft por haber violado las leyes antimonopolio comenzó en octubre de 1998. Ejecutivos de Netscape, Sun y otras muchas compañías de software y hardware testificaron acerca de sus contratos empresariales con Microsoft. En noviembre de 1999 el juez del tribunal federal, tras escuchar a los testigos convocados, expuso sus conclusiones y declaró que Microsoft poseía un monopolio en el mercado de sistemas operativos. En abril de 2000, el juez hizo pública la sentencia contra la compañía por haber violado las leyes antimonopolio al emplear tácticas que entorpecían la competitividad. Microsoft recurrió el fallo. En 1999 Microsoft pagó 5.000 millones de dólares a la compañía de telecomunicaciones AT&T Corp. para utilizar su sistema operativo Windows CE en dispositivos diseñados para ofrecer a los consumidores

Page 46: MONOGRAFIA

servicios integrados de televisión por cable, teléfono y acceso rápido a Internet. Además, ese mismo año, la compañía lanzó Windows 2000, la versión más actualizada del sistema operativo Windows NT. En enero de 2000 Bill Gates traspasó su cargo de presidente ejecutivo (CEO) a Ballmer, un cambio que le ha permitido a aquél centrarse en el desarrollo de nuevos productos y tecnologías. Windows 2000 Una vez probadas por Microsoft las nuevas características de Plug and Play en la serie W9X, y una vez probada la estabilidad de núcleo de Windows NT, Microsoft considera que ha llegado el momento de integrar todo en un único sistema operativo. Inicialmente, Windows 2000 se gestó como el sucesor y el integrador de todos los Windows. La idea original pasaba por incorporar en Windows 2000 las ‘features’ de PnP y resto de subsistemas probados y experimentados en la serie de Windows al consumo (9X). A lo largo de la fase beta de W2000, Microsoft se replanteó la posicion anterior, entiendo que correctamente, ya que el mercado no estaba preparado todavía para una transición completa a núcleo NT, y por tanto, el producto final que salió al mercado, siguió siendo un NT puro (mejorado en muchísimas características). En este impass, fué cuando Microsoft desarrolló simultaneamente Windows ME como sucesor último de la serie de 16 bits. De paso, sirvió para probar tecnologías (System Restore, soporte básico a nuevos dispositivos como por ejemplo uPnP y USB 2.0) las cuales deberían integrarse en los próximos sistemas operativos. Por su parte, Windows 2000, no solo integró las nuevas tecnologías de soporte a hardware (PnP) realmente completo, sino que además integró y mejoró las funcionalidades definidas por las normas ACPI. Las características ACPI no son de Microsoft, sino que es un estandar de mercado en cuya definición, participaron entre otros Compaq, Intel y Microsoft, y a las cuales los fabricantes de placas madre, llegaron al acuerdo de poner como fecha el 1 de Diciembre de 1998 para que todas sus nuevas placas madre se ajustasen a dicha normativa. La experiencia nos ha demostrado posteriormente que esto no ha sido verdad y que muchas de las actuales placas madre, dejan mucho que desear con respecto al cumplimiento de dicha norma. Pero en la actualidad, al menos los grandes fabricantes, se ajustan bastante bien a las características ACPI.

Page 47: MONOGRAFIA

Otra de las grandes innovaciones en Windows 2000 fue el desarrollo del Active Directory. Realmente, la idea tampoco fue de Microsoft, sino que fue una implantación mejorada del servicio de Directorio de Novel. Los servicios basados en la nueva filosofía del Directorio Activo, se ajustan más de cara al mundo real a la estrucutra de una organización. Bajo mi punto de vista, la implementación no fue del todo completa (quizá las prisas por sacar el producto al mercado). Dicha implementación ha sido corregida (y mejorada) en las versiones de Windows .NET que están en la actualidad en fase de pruebas. En este punto de la historia, es cuando ya es necesario abandonar definitivamente los desarrollos en 16 bits y plantearse seriamente la integración en un único sistema operativo. Las tecnologías básicas ya estaban probadas y funcionando, por lo que Microsoft se embarcó en el proyecto que originalmente fue llamado Whistler. Windows XP y .NET La evolución final de W2000 y la integración con algunos de los subsistemas probados con éxito en Windows ME, así como la corrección de errores de W2000, ha sido Windows XP. Evidentemente, Microsoft, para hacer que el gran público de consumo aceptase este sistema operativo, debía ofrecer un producto de características extraordinarias ya que algo se iba a perder: parte (poca) del software antiguo que accedía directamente al hardware, no podía funcionar en un sistema operativo con nucleo NT. La apuesta de cambio, pasó por el desarrollo de una nueva "imagen". Realmente al principio, dicha imagen "choca". Pero el cambio se asume rápidamente y la imagen del escritorio, así como sus nuevos efectos visuales se aceptan pronto. Igualmente, había que dar nuevas funcionalidades que hiciesen que el usuario domestico se sintiese más a gusto con Windows XP. Entre ellas, una mejora de la capacidad multimedia, capacidad de grabación básica de CD’s, cortafuegos personal, soporte de voz (para versiones USA) y otras decenas de funcionalidades que hiciesen a XP un producto apetecible. Pero no todo van a ser alabanzas. Hay una cosa que por el momento no me gusta. El desarrollo de Whistler ha desembocado en dos versiones con el mismo nucleo: la serie XP y la serie .NET. Esta última, está todavía en fase de desarrollo y corresponde a las versiones servidoras de XP (es decir, la evolución de W2000 Server, Advanced Server y Datacenter, en cuatro versiones .NET: Server Web, Standard Web, Enterprise Web y Datacenter).

Page 48: MONOGRAFIA

Por tanto, aparentemente, Microsoft ha decidido desintegrar de nuevo su aparente integración de Windows al sacar al mercado dos caminos totalmente diferentes del sistema operativo. Aunque es verdad que están orientados a segmentos diferentes del mercado, a nivel personal no me gusta la idea de esta separación. Evidentemente, y sirva esto como crítica constructiva, espero que Microsoft no utilice este nuevo software del sistema (Windows XP) para experimentar las posteriores implementaciones en la rama alta del mercado (.NET). Actualmente entre batallas legales, nuevos mercados y emprendimientos, Microsoft es una de las empresas más conocidas y que se mantienen con un puesto privilegiado en la bolsa. El futuro seguramente nos traerá muchas más noticias de esta empresa. Windows Vista y Windows Live Actualmente se está trabajando en el desarrollo de la proxima versión del sistema operativo de esta empresa que se denominará Windows Vista. Más información sobre Windows Vista: Lo que nos espera con Windows Vista Confirmado, la próxima versión será Windows Vista El código de Windows Vista en 12 meses Y también han existido declaraciones de Bill Gates con respecto a Windows Live, una propuesta que impulsando el web 2.0 va a convertir importantes aplicaciones de Microsoft en servicios a través del web. Diferencias entre notebook y netbook: Si bien ya para muchos está claro que las netbooks son equipos ultraportátiles pensados para navegar y trabajar con aplicaciones básicas, marcar las diferencias con sus hermanas mayores no viene mal. La mejor definición que podría dar sobre la diferencia entre una netbook y una notebook es que las netbooks son para consumir contenido y las notebooks para producirlo. Entonces, con una netbook podremos sólo usar algunas aplicaciones al mismo tiempo debido al poco poder que tiene el procesador más difundido entre estos equipos, el Intel Atom. Nada de juegos modernos, algo que sí podremos hacer con una notebook dotada de una buena placa. Ojo, sí se pueden utilizar algunos programas “pesados”, pero el manejo de ellos no será el mismo que en una notebook. Otra diferencia pasa por el tamaño de la pantalla, que en las netbooks va desde las 7” hasta las 12”. Si bien podemos encontrar notebooks con pantallas de 12”, desde mi punto de vista la definición de netbook viene

Page 49: MONOGRAFIA

dada por el procesador que utiliza la portátil, es decir, por su capacidad de procesar tareas. En cuanto a la capacidad del disco, en un principio las netbooks se presentaron con unidades pequeñas de tipo SSD. Ahora, en cambio, vienen con hasta 160GB de capacidad en unidades rígidas, es decir, los discos tradicionales. El sistema operativo que utilizan la mayoría de las netbooks es el Windows XP, aunque existe una gran cantidad de distribuciones Linux dando vueltas. Sin embargo, dada la masividad que adquirieron las netbooks, el XP es el SO favorito de los fabricantes para acercar al usuario final. Actualmente, el Windows 7 también está siendo empleado como sistema operativo en las netbooks y corre a la perfección debido a lo “liviano” que resulta frente al Vista. Las netbook no poseen unidades de DVD y dado el pequeño tamaño de sus pantallas, quizás no sean ideales para personas mayores. Sin embargo, pueden ser perfectamente conectadas a un monitor externo, lo cual ahorrará espacio y cablerío en un hogar. La duración de las baterías de las netbooks es otro límite de estas portátiles. No suelen superar las 3 horas, aunque existen modelos que permiten agregar baterías con mayor capacidad y por ende mayor autonomía. Hablamos de que muchas de las netbooks actuales pueden entregar hasta 8 horas o más de uso sin necesidad de recargar la batería. Muchas netbooks están siendo ofrecidas por Movistar, Claro y Personal. En algunos casos será necesario adquirir el módem 3G y en otros no ya que vienen equipados con un módem interno para ese tipo de conexiones. Si te ofrecen un plan, antes consultá bien los límites de navegación. Pese a lo anterior, me animo a decir que una netbook será útil para la gran mayoría de los usuarios de computadoras, que sólo desean un dispositivo desde el cual mantenerse conectados con sus amigos y familiares, navegar por internet, subir fotos a la web… En este post un usuario te cuenta con lujo de detalles cómo es su netbook Olivetti y otros tantos intercambian experiencias sobre otras netbooks en los comentarios. Ampliamente recomendable si pensás comprarte una. La comparación del video a continuación está hecha en base a una laptop Toshiba y una Acer Aspire One. Tamaño de la pantalla, espacio en disco, procesador, sistemas operativos… todo muy claro en este video de

Page 50: MONOGRAFIA

ComputerTV.

HTML 5 Que es?: HTML 5 (HyperText Markup Language, versión 5) es la quinta revisión importante del lenguaje básico de laWorld Wide Web, HTML. HTML 5 especifica dos variantes de sintaxis para HTML: un «clásico» HTML (text/html), la variante conocida como HTML5 y una variante XHTML conocida como sintaxis XHTML5 que deberá ser servida como XML (XHTML) (application/xhtml+xml).1 , 2 Esta es la primera vez que HTML y XHTML se han desarrollado en paralelo. ¿Television digital que es? La televisión digital (o DTV, de sus siglas en inglés: Digital TV) se refiere al conjunto de tecnologías de transmisión y recepción de imagen y sonido, a través de señales digitales. En contraste con la televisión tradicional, que codifica los datos de manera analógica, la televisión digital codifica sus señales de forma binaria, habilitando así la posibilidad de crear vías de retorno entre consumidor y productor de contenidos, abriendo la posibilidad de crear aplicaciones interactivas, y la capacidad de transmitir varias señales en un mismo canal asignado, gracias a la diversidad de formatos existentes. Un sistema integro de televisión digital, incorpora los siguientes actores: Cámaras de video digitales, que trabajan a resoluciónes mucho más altas que las cámaras analógicas. Transmisión digital Display digital, de alta resolución (Ej: LCDs, Plasmas)

atube catcher: Con aTube Catcher (antes llamadoYoutube Catcher) puedes descargar vídeos de tus portales favoritos (YouTube, Dailymotion, MySpace, Stage6 y Google) y convertirlos a otros formatos. . Para descargar vídeos con aTube Catcher sólo tienes que preocuparte de

Page 51: MONOGRAFIA

pegar la dirección del vídeo en el campo correcto y seleccionar el formato que quieres utilizar. Así de sencillo. Y si lo que quieres es convertir un vídeo en formato FLV, el proceso es muy parecido. Basta con seleccionar el vídeo, definir el formato e iniciar el proceso de conversión. En pocos segundos, aTube Catcher tendrá listo tu vídeo listo para verlo en cualquier reproductor multimedia. Además, aTube Catcher incluye opciones avanzadas para personalizar el proceso de conversión. Opciones para definir la calidad y resolución del vídeo, el formato de la ventana (4:3 o panorámico), el ratio de imágenes, los canales de audio, los codecs utilizados, los hercios del muestreo, entre otras posibilidades. En definitiva, aTube Catcher es una excelente solución para descargar vídeos de YouTube (entre otros) y visualizarlos tantas veces como quieras y desde donde quieras.

Que son creative commons : Creative Commons es una organización no gubernamental sin ánimo de lucro que desarrolla planes para ayudar a reducir las barreras legales de la creatividad, por medio de nueva legislación y nuevas tecnologías.

Mejor pc para jugar Procesador: AMD Athlon 64 4000+( core San Diego) o un AMD Athlon 64 FX-55, aunque si no tienes limite de presupuesto yo esperaria unos meses y me pillaria el FX-57 Placa base:Cualquiera que tenga socket 939( para poder soportar los procesadores que te he nombrado antes) con chipset nvidia nforce4 SLI. Importante que soporte tecnologia SLI para poder montar dos targetas nvidia. Te recomiendo una ASUS,GIGABYTE o DFI LANPARTY Fuente de alimentacion:Muy imoprtante!! QUE sea potente( a partir de 500W) fiable y buena( asique no te vayas a lo baratos y gastate bastante en ella ya que si por cualquier cosa se te fastidia te llevaria medio PC por delante) Targeta grafica:Si solo vas a tener una te recomiendo una Geforce 9400 ultra o la reciente 9800 tambien de Nvidia. Si quieres aprovechar la tecnologia SLI DE la Placa base te recomiendo dos Geforce 6800GT o dos Geforce 7800 Memoria: como minimo 1GB DDR PC3200(400Mhz) o sino 4GB del mismo tipo de memoria

Page 52: MONOGRAFIA

Disco duro:La capacidad de este es eleccion tuya pero el HD te aconsejo que sea Serial ATA Targeta sonido: QUE soporte 7.1 Lectores: Lector DVD y regrabadora DVD

Mejor pc para trabajar UNO: Define el uso que le quieres dar y la importancia que tiene para tus actividades diarias Si necesitas estar conectado en todo momento y lugar, por trabajo o requerimientos personales, la mejor opcin es una laptop o computadora porttil, permitindote estar conectado en todo momento para cumplir con tu trabajo o tareas personales.En cambio, si pasas mucho tiempo en casa, lo mejor es una desktop o computadora de escritorio; existen diseos sper pequeos y delgados que casi no ocupan espacio y vienen en colores muy atractivos. DOS: Identifica cules son tus necesidades de cmputo Para este tipo de usuarios existen computadoras con caractersticas especficas y es sper importante que compres la que mejor se adapte a tus actividades. TRES: Asegrate de que tenga el mejor cerebro El procesador es lo mismo que el motor de un automvil; en consecuencia, tener la computadora ms elegante o llamativa no ser til si no cuenta con el mejor cerebro. CUATRO: chale un vistazo a la memoria Si utilizas varios programas al mismo tiempo, necesitars de 1 o 2 GB en RAM para no tener que esperar mucho tiempo a que corra una aplicacin. Y en disco duro, debido a la gran cantidad de informacin que puedas manejar en el da a da, lo recomendable es que tenga por lo menos 80 GB. CINCO: Selecciona los mejores accesorios Los hay de todo tipo, tamao y colores: teclados a prueba de derrame de lquidos, de hule, con altavoz incluido o botones multimedia, el mouse puede ser inalmbrico, redondo, rectangular, mini, ptico, de laser o bluetooth. Adems de las bocinas, la barra de descanso, los audfonos, las diademas en fin… la idea es que al estar frente a tu computadora tengas todos los accesorios que necesites, que te ayudan a sentirte cmodo, y que cubran tus necesidades de cmputo.