revista 2a

47
Nano-litografía (1999) Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son, sin la técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la nanotecnología. Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales con el fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del uso de un microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano capas, y nano tubos son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada en 1999 por Chad Mirkin de la universidad del noroeste ha permitido a los tableros de circuitos ser mas pequeños. Esto, a su vez ha permitido el desarrollo de computadoras tan pequeñas que podrían ser usadas en otra tecnología de nano escala como la materia programable. Hecho: nano tipografía ha tenido sus inicios en la invención del microscopio en 1590.

description

traduccion de revista

Transcript of revista 2a

Page 1: revista 2a

Nano-litografía (1999)

Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son,

sin la técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la

nanotecnología.

Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales

con el fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del

uso de un microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano

capas, y nano tubos son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada

en 1999 por Chad Mirkin de la universidad del noroeste ha permitido a los tableros de circuitos

ser mas pequeños. Esto, a su vez ha permitido el desarrollo de computadoras tan pequeñas que

podrían ser usadas en otra tecnología de nano escala como la materia programable.

Hecho: nano tipografía ha tenido sus inicios en la invención del microscopio en 1590.

Page 2: revista 2a
Page 3: revista 2a

2. Nanotubos de Carbono

En 1991 el físico Japonés Sumio Lijuma descubrió los nanotubos de carbono, considerado uno de

los más importantes descubrimientos en la historia de los físicos.

Los nanotubos pueden ser construidos por un método de evaporación en arco, en el cual una

corriente de 50 amp pasa en medio de dos electrodos de grafito en helio. Los resultados son

notables a la medida de 3 a 30 nanómetros en diámetro.

Una de la más impresionante propiedad de los nanotubos de carbono es su fuerza. Su resistencia a

la presión es 5 veces que la del metal, y su fuerza de tensión está 50 veces arriba que la del metal.

Los nanotubos de carbono pueden ser también usados como semiconductores. Algo de la

conductividad de los nanotubos es más grande que la del cobre, por ejemplo.

Científicos e ingenieros están buscando maneras de usar los nanotubos en la construcción

industrial tanto como en aplicaciones aeroespaciales.

Hoy en día, las pantallas de páneles planos y algunos microscopios y aparatos sensibles incorporan

nanotubos de carbono. En el futuro muchos artículos diarios desde los chips de las computadoras

de los hogares hasta las baterías de los autos podrían ser hechos de nanotubos de carbono.

Page 4: revista 2a
Page 5: revista 2a

El ancho mundo de la web a cambiado vidas desde siempre conectando computadoras a través del

mundo, de esta manera haciendo toda la información y su contenido al alcance para todos.

Además el termino ancho mundo de la web e internet son usados como intercambiables, pero no

son lo mismo. El internet es el sistema que conecta las redes de información esa es la red. Es

posible tener internet sin la red pero la red no puede existir sin el internet.

El internet empezó en 1962 como ARPANET, una red de dos computadoras adquiridas por el

ejército de estados unidos. La red creció con mas de un millón de computadoras para 1992. En

1990 el científico británico Tim Berners –lee invento la web, eso es el primer buscador de web y

paginas web con el cual accedes vía internet, paginas web con hipertexto- texto desplazado en un

monitor con hiperconectores a otros documentos-

Page 6: revista 2a

(4) Buckyball (1985)

Tan temprano como 1965, científicos predijeron la existencia teórica de una molécula

hecha de átomos de carbono y forma múltiples de cilindro o esfera.

Pero 20 años mas tarde que Richard smalley…

El material también presenta una resistencia a la tracción increíble, prometiendo nuevas

posibilidades en el diseño de la arquitectura, la ingeniería y las aeronaves.

En 1991 el descubrimiento del investigador japonés de una versión alargada de la

buckyball finalmente llamado nanotubo, impulsó la revolución de la nanotecnología del

siglo 21.

Page 7: revista 2a

Localizado a 12,000 millas debajo de la tierra y navegando a la velocidad de

7,000 millas por hora, el satélite basado en el sistema de navegación se puso

Page 8: revista 2a

en marcha en 1978 por el departamento de defensa de Estados Unidos de

América con propósitos militares. Poco después las manifacturas del equipo

de GPS reconocieron que el mercado de masas mas potencial y clamado

utilizado para la aplicación civil. El departamento de defensa cumplió con su

solicitud en 1980.

GPS, el cual es muy exacto trabaja en principio de triangulación, en la

posición del objeto dado (una persona en un auto, por ejemplo) es

determinada la distancia del objeto por cuatro satélites en la red con la cual

divisada es comunicando. La red del GPS esta compuesta por 24 satélites,

tres es espera en caso de una falla, y cada satélite hace dos revoluciones

completas alrededor del mundo todos los días.

¿Entonces como se ve el futuro de un GPS? para estar seguro la red

continuara a ser mas exacta proporcionar información cada vez de grano

fino en una ubicación dada. Conductores todavía deben de quitar la

vista al camino para poder observar el GPS, pero eso cambiara. Una

compañía llamada Virtual Solid esta trabajando en una solución

llamada Virtual cable, la cual esta diseñada para construir parabrisas

en los carros. Una Línea roja que parece seguir el paisaje del

conductor a su destino.

Page 9: revista 2a
Page 10: revista 2a

6. La Computadora Personal (1997)

De acuerdo a la compañía Nielsen, en 2008, más del 80 porciento de las familias de E.U tenían una

computadora en casa, y de estas, cerca del 90 porciento tenían acceso a internet. Ya sea uno de

los primeros modelos –como el Commodore PET (Muy popular en las escuelas en la década de

1970). La Apple II (Uno de los primeros microcomputadores de producción masiva) y la IBM PC

(Diseñada para reemplazar los primeros dos dispositivos en los hogares)- O lo ultimo y lo mejor en

maquinas, todas las computadoras tienen los mismos componentes básicos. Una computadora

esta construida con una tarjeta madre (Mother Board), un procesador, una unidad central d

procesamiento (CPU), memoria, controladores, un ventilador y cables. Agregados a la

computadora están los periféricos: el ratón, teclado, monitos, bocinas, impresora, escáner y mas.

Estos componentes trabajan juntos para correr software: el sistema operativo y programas

adicionales, tales como el procesador de textos, las hojas de cálculo, o un programa editor de

fotografías.

Con la computadora personal, la tecnología de la computación ha llegado a estar disponible al

público en general. Las computadoras han dejado de ser grandes, o piezas de equipos demasiado

costosos solo grandes corporaciones o agencias gubernamentales pueden pagar o computadoras

que solo los científicos pudieran operar. Este significante desarrollo ha permitido el nacimiento de

nuevas industrias, ah cambiado el como la gente se comunica e irrevocablemente ha alterado su

trabajo y vidas personales.

Page 11: revista 2a

7. Aumento de realidad

Page 12: revista 2a

A diferencia de la realidad virtual, cual esta basado en un ambiente generado por computadora, el

aumento de realidad esta diseñado para aumentar el mundo real, con la superpresentasion en

audio, visual , y otros elementos de tus sentidos.

El invetigador de Boeing Tom Caulled fue el primero en acuñar el término de aumento de reallidad

en 1990 para descrevir la exposion degital usadad por los electricistas de las aerolineas, cual

combina graficas virtuales con la realidad fisica. Pero el concepto es mucho más antigo que eso. En

la pelicula Quien engaño al conejo Roger de 1988, es un buen ejemplo the esta tecnologia- and

originalmente antes en una vercion simple en las demostrasiones de las flechas amarillas de los

anunciadores de la television en los juego de futbol americano cuando analizaban las jugadas.

El aumento de realidad actualmente esta dirigido al desarrollo de consumo de electronicos porque

esta es usada en las aplicasiones the smart-phones. Una aplicasion llamada Layar usa la camara de

un cellular y las capasidades de un GPS para obtener la informasion de los alrrededores de una

area. Layar entoses muestra la informasion de siertos sitios sercanos, como restaurantes o cines,

entoses aparece informasion de estos en la pantalla del celular. Apunta el celular hacia un

edificion y Layr te dira si en ese edificion estan contratando o localisa edificios historicos en la

enciclopedia en linea Wikipedia.

Hay algunas limitasiones para el aumento de realidad que actualmente existen; el sistema GPS

tiene solo un rango de 30 pasos, las pantallas de cellular son pequeñas, y hat tambien unos

unentendimientos en las clausulas de privacidad, espesialmente la tecnologia afecta mas y mas

nuestras vidas. Sin enbargo, el futoro de estas tecnologia es brillante, con ambision pronto sera

usado para los video juego, la educasion, sewguridad, medicina, negosion

Page 13: revista 2a

8

Aprende más

Como subtítulos en una página,

realmente puede proporcionar

antecedentes y explicaciones, tales

como una biografía del arquitecto

Frank Gehry cuando visitó sus edificios

firmados.

Oriente y navegar

Los sistemas de posición global permite

marcar geográficamente la ubicación

de las personas notifica en momentos y

luego los alrededores de las parcelas y

los senderos.

Haz decisiones

Considera opciones y haz decisiones

virtualmente. Aquí, galerías son

representadas por imágenes de

museos conservados, como Richard

Serra’s “La materia del tiempo”.

(Illustrado)

Usa un teléfono

inteligente para

visualizar entradas

conectadas a un lugar

actual, tales como el

museo Guggenheim

Bilbao, y puedes

descargar información.

Page 14: revista 2a

9. Electrónicos moleculares!!

ELECTRÓNICOS MOLECULARES ( 1974 )

Como su nombre implica los electrónicos moleculares se refieren a los componentes moleculares para crear dispositivos electrónicos Desde que los químicos Mark Ratner and Ari aviram crearon el primer

dispositivo electrónico molecular rectificado en 1974 el cual convirtió alternando corriente. Los científicos han continuado con su avance y entendimiento ellos mismos, de la ciencia y su aplicación potencial. Muchos investigadores han trabajado para reemplazar semiconductores en todas sus aplicaciones con los interruptores moleculares electronicos. Algunas compañías están preparadas insertar interruptores en las computadoras y en dispositivos electrónicos manufacturados. Un ejemplo es en Huntsville, Alabama basada en la compañía llamada CALMEC el cual ah creado un dispositivo molecular, este dispositivo puede ser usado en semiconductores electrónicos el cual permiten que sea miniturizada la tecnología mas de lo que es en día.

Page 15: revista 2a
Page 16: revista 2a

11. Internet (1969)

Un mapa del uso del Internet muestra la densidad de conexiones en Norte América y Europa.

Gracias al Internet, más aspectos de la vida se mueven “en línea” como nunca antes. Lo que

comenzó como una colaboración entre academia, gobierno e industria en los últimos años de los

60´s y los primeros de los 70´s, se ha visto envuelto en una vasta información de infraestructura.

El internet funciona gracias a solo unas cuantas tecnologías. La primera de ellas es el paquete de

“switch”, que contiene la información en unidades especialmente formateadas o paquetes, que

están dirigidos desde la fuente al destinatario vía red de trabajo y enrutadores. Cada paquete

contiene la información de la dirección que identifica al remitente y al destinatario. Usando estas

direcciones, la red de trabajo y los enrutadores determinan la mejor manera de transferir el paquete

entre ambos puntos en el camino para su llegada.

En un segundo plano, el Internet está basado en un concepto clave conocido como arquitectura de

red de trabajo abierta. En este sentido, esto es lo que hace que el Internet sea Internet Con este

concepto, diferentes proveedores pueden usar cualquier red de trabajo individual que ellos quieran,

y la red de trabajo funciona junta a través de esta arquitectura. De esta manera, las redes de

trabajo actúan de manera semejante en una unión que ofrece un servicio de principio a fin.

Una tercera tecnología importante es el protocolo de control de transmisión /protocolo de Internet o

TCP/IP. Esto es lo que hace posible una arquitectura de red de trabajo. Se piensa de esto como el

sistema básico de comunicación del lenguaje de Internet. TCP transforma un mensaje o

documento en paquetes más pequeños que son transmitidos a través del Internet y el IP lee la

dirección de cada paquete de manera que obtiene el correcto destino. Cada computadora en la red

checa esta dirección para determinar de donde es el mensaje.

Hecho: Se estima que arriba de 2 billones de personas en el mundo ingresaron a Internet en el

2011.

Page 17: revista 2a
Page 18: revista 2a

El poder de la información

NANOTECNOLOGIA

(1959) Por el año 1959 el objetivo de crear dispositivos mas inteligentes estaba

en las mentes de científicos y investigadores, y ellos hicieron algunos

progresos. Por ejemplo, inventores desarrollaron motores que eran sobre

el tamaño de un dedo.

Richard Feynman, profesor de física del instituto de tecnología de

california , ambicionaba en extremo hacer grandes avances. En la noche

del 29 de diciembre de 1959, el dio su nuevo famoso discurso de

nanotecnología en el evento para la sociedad de físicos americanos. En su

discurso, titulado “hay un montón de espacio en la parte inferior”el

describió la habilidad para escribir la enciclopedia británica entera en la

cabeza de un código usando herramientas y maquinas del tamaño de un

átomo.

La visión de nanotecnología de Feynman consideraba que tiene muchas

aplicaciones. El basaba sus revolucionarias ideas en el hecho de que cada

célula viva de un organismo contenía toda la información genética

necesaria para crear ese organismo.

Esta fue la evidencia de la que almaceno mas cantidades de información

por minuto de objetos como fuera posible

Page 19: revista 2a

CIRCUITOS INTEGRADOS

Los circuitos integrados (iCs) son encontrados en casi todos los electrónicos usados hoy en día, desde los celulares hasta los equipos de televisión. Un circuito e electrónico complejo. Cada CI contiene un diodo, un transistor, y un capacitor. Estos componentes trabajan juntos para regular el fluido de electricidad atreves de dispositivo. Pero los circuitos integrados tienen desventajas. Todas las conexiones deben permanecer intactas o el dispositivo n trabajare y la rapidez es definitivamente un factor. Si los componentes del CI son muy largos o los cables de conexión de los componentes son largos, por ejemplo, l dispositivo es lento e inefectivo.

Page 20: revista 2a

En 1958, los americanos Jack Kilby y Robert Noyce separadamente resolvieron este problema usando el mismo material para instruir ambos, el circuito integrado y el chip colocado.

Los cable4s y componentes no tan largos tienen que ser ensamblados manualmente. Estos circuitos pueden ser hechos más pequeños y el proceso manual puede ser automático. (Para demostrar solo que tan pequeños estos pueden ser, consideran esto: el Ci original tenía un solo transistor tres resistores y un capacitor y era del tamaño del dedo meñique de n adulto. Hoy en día un Ci más pequeño que un penique puede sostenes 125 millones de transistores.)

En 1961 el primer circuito integrado comercialmente disponibles fue integrado fue introducido y los productores de computadoras inmediatamente vieron la ventaja que ofrecían. En 1968 Noyce fundo INTEL, la compañía que introdujo el microprocesor el cual tomo un CI un paso adelante para posicionar la unidad de proceso central de la computadora memoria y controles de entada y salida con un pequeño chip.

Page 21: revista 2a
Page 22: revista 2a

14. COMPUTACION EN LAS NUBES

EN EL PASADO, COMPUTAR ERA TOMADO EN UNA INTRAESTRUCTURA FISICA: RUTAS, ENLACE DE DATOS, HARDWARE Y SERVIDORES. ESTOS OBJETOS AUN NO DESAPARECEN- Y NO PARECE QUE VAYAN A DESAPARECER AL MISMO TIEMPO- PERO EL PROCESO DE ENTREGA DE FUENTES Y SERVICIOS SE TRANSFORMA EN UN MODELO EN DONDE EL INTERNET ES USADO PARA ALMACENAR LAS APLICACIONES NECESARIAS.

UN INMEDIATO BENEFICIO DE ESTE MODELO ES UN COSTO MENOS ELEVADO. POR EJEMPLO, LAS COMPAÑIAS NO COMPRARIAN LICENCIAS DE SOFTWARE INDIVIDUALES A CADA EMPLEADO. CON ´´COMPUTACION EN LAS NUBES´´, UNA SIMPLE APLICACIÓN DARIA A MULTIPLES USUARIOS UN ACCESO REMOTO A SOFTWARE. LA DIRECCION DE UN SERVIDOR, COMO GMAIL DE GOOGLE, ES UN EJEMPLO DE COMPUTACDION EN LAS NUBES.

PARA ENTENDER EL CONCEPTO DE COMPUTACION EN LAS NUBES, AYUDA A PENSAR EN LOS TERMINOS DE LAS CAPAS. LOS PRINCIPIOS DE UN PROCESO QUE ES VISTO E INTERACTUADO POR LOS USUARIOS CON- LA CUENTA DE FACEBOOK, POR EJEMPLO. EL FINAL DE UN PROCESO CONSISTE EN LA ARQUITECTURA DE QUE CORRE LA INTERFASE DEL SOFTWARE Y EL HARDWARE HACIA EL PRIMER PROCESO. PORQUE LAS COMPUTADORAS SON ESTABLECIDAS EN UNA RED, LAS APLICACIONES PUEDEN TOMAR VENTAJA DE TODAS LAS COMBINACIONES DE CABLEADO COMO SI ESTUVIERAN CONECTADAS A UNA MAQUINA EN PARTICULAR.

MIENTRAS HAY VENTAJAS DE ESTE MODELO, NO EXISTE SIN INCONVENIENTES. PRIVACIDAD Y SEGURIDAD SON DOS DE LAS MÁS GRANDES PREOCUPACIONES. DESPUES DE TODO, LA COMPAÑÍA PERMITE IMPORTANTE, DATOS POTENTEMENTE SENCIBLES QUE ESTAN EN LINEA, DONDE EN TEORIA, NADIE PUEDE ACCESAR A ELLOS. LAS COMOPAÑIAS QUE PROVEEN SERVICIOS DE ‘’ COMPUTACION EN LAS NUBES’’, SIN EMBARGO, SON ALTAMENTE MOTIVADAS PARA GARANTIZAR SU PRIVACIDAD Y SEGURIDAD- SU REPUTACION ESTA ESTANCADA. UNA AUTENTICACION DEL SISTEMA DE SEUDONIMOS Y CONTRASEÑAS U OTRAS AUTORIZACIONES PARA LOS EMPLEADOS AYUDARIA A ASEGURAR LA PRIVACIDAD.

· 3 LAS APLICACIONES DE COMPUTACION EN LAS NUBES, POR DEFINICION, EN LAS REDES DE TODO EL MUNDO. · 6 LA COMPUTADORA PERSONAL ES EL SIGNIFICADO POR EL CUAL LA MAYORIA DE GENTE ACCESA A LA NUBE. · 8 LA CLAVE PUBLICA CRIPTOGRAFICA ENLAZA EL CIFRADO ELECTRONICO TRANSMITIDO PARA LA INFORMACION PRIVADA. · 11 EL INTERNET ES LA FUNDACION DE COMPUTACION EN LAS NUBES QUE PERMITE A LOS USUARIOS A CORRER APLICACIONES EN OTRAS COMPUTADORAS TANTO COMO EN CASA. · 19 UNA GRAN ESCALA DE UNA RED ELECTRICA SUMINISTRADA ES NECESARIO PARA EL USO DE LA INFRAESTRUCTURA DE COMPUTACION EN LAS NUBES.

Page 23: revista 2a
Page 24: revista 2a

EL PODER DE LA INFORMACION

15 INFORMACION TEORICA (1948)

Page 25: revista 2a

La información teórica fue originada en 1948 por el americano Claude

Shanon un ingeniero matemático: La teoría de comunicación

matemática; esta teoría permitió que la información en un mensaje

estuviera cuantificada, usualmente los bits de data que representan

uno de los dos estados; encendido o apagado, esto también dictamina

como para encode y transmitir información en presencia del ruido que

puede interrumpir un mensaje en transición.

En el corazón de Shannon la teoría es un concepto desacertado. Lo

más desacertado ahí es considerar que es la señal. Muchos bits de

información fueron requeridos para hacer segura la transmisión de la

información esencial. Shannon llamo a esto como incertainty-based

medida de información de entrada. El matematico permitió que una

seña puede ser extensa-reducida por una simple forma , para eliminar

interferencias o ruidos, para transmitir un mensaje limpio. Y solo el

mensaje. Aunque esto es siempre una posibilidad de error en la

transmisión. La aplicación de la información de esta teoría

enormemente minimiza las posibilidades.

La teoría via código, es un importante offshoot importante de teoría,

los ingenieros estudian

Page 26: revista 2a
Page 27: revista 2a

Transistor

Page 28: revista 2a

Un transistor es un tipo de semiconductor sin un cual un dispositivo moderno electrónico

incluyendo computadoras no podrían funcionar. Aunque hay demasiada variación de tipos de

transistores, todos contienen una pieza solida de material semiconductor, con al menos tres

terminales que pueden ser conectadas al circuito externo. Esta tecnología transfiere cuando, a

traviesa un material que normalmente tiene una resistencia alta (en otras palabras un resistor) por

lo tanto es un resistor transferente, reducido al transistor.

Antes de la introducción al transistor las computadoras operan por los tubos de vacío, los cuales

son caros y difíciles para producir. Lo más potente de las computadoras contiene miles de estos, el

por qué, de las antiguas computadoras, llenaban un cuarto entero. En 1947 el físico americano

John bardeen y Walter Brattain en el laboratorio Bell, observaron que cuando contactos eléctricos

eran aplicados a un cristal de germanio el poder que generaba era más fuerte que el poder usado,

el físico americano, William Shockley vio el potencial en esto, sobre los siguientes meses el grupo

trabajo en expandir su conocimiento de semiconductores. En 1956 los tres hombres ganaron la

medalla del premio Nobel en física por inventar el transistor.

Esto es porque el transistor es muy importante entre otros beneficios puede ser, producido

fácilmente usando un proceso automático para un costo relativamente bajo. En adición el

transistor puede ser producido solo o más comúnmente integrado en paquetes de circuitos con

otros componentes para producir circuitos electrónicos completos. Y los transistores son versátiles

el cual es que ellos son usados en prácticamente en todo dispositivo electrónico conocido hoy.

Yesenia Saldaña Cuahquentzi, Eribey Pérez Gutiérrez

Page 29: revista 2a
Page 30: revista 2a

17. Satélites de Comunicación.

Aunque la mayoría lo conoce como un prolífico autor de ciencia ficción, Arthur

C. Clarke hizo una contribución significante a las tecnologías de la

comunicación. En octubre de el esquematizó su concepto de satélites de

comunicación geoestacionario en un documento titulado “Relevancia

Extraterrestre - ¿Pueden las estaciones espaciales dar cobertura de radio

mundial?” Aunque Clarke no fue el primero en llegar con la teoría, el fue el

primero en popularizarla.

El termino geoestacionario se refiere a la posición de la orbita del satélite

alrededor de la Tierra. La orbita de un satélite “geosynchronus” se repiten

regularmente a través de puntos específicos. Cuando esa orbita regular yace

cerca del Ecuador y es circular, es llamado: geoestacionario

Las ventajas de los satélites geoestacionarios son muchas. Recibiendo y

transmitiendo antenas al suelo no es necesario enviar satélites porque no…… en

sus orbitas. Las antenas no enviadas son mas baratas que las antenas enviadas,

así que el costo de operación como un sistema, son reducidos. Las desventajas:

Porque los satélites están tan altos, las señales de radio tardan un poco para ser

recibidas y transmitidas, resultando en un pequeño pero significante retraso. En

adición, estos satélites tienen cobertura geográfica incompleta porque las

estaciones terrestres a mayor una mayor altura mas o menos 60º de latitud

tienen dificultad …..a elevaciones bajas.

Independientemente de las desventajas, no se puede negar que las

comunicaciones satelitales han revolucionado áreas como las comunicaciones

globales, radiodifusión televisiva y predicciones de clima, y tienen defensa

importante y aplicaciones de inteligencia.

Page 31: revista 2a

18. Ondas de Radio.

El físico escoses James Clerk Maxwell fue uno de los primeros científicos en especular sobre la

naturaleza del electromagnetismo. Las ecuaciones que el formulo describen el comportamiento de

los campos eléctricos y magnéticos, así como la importancia de sus interacciones. Maxwell postulo

que los campos eléctricos y magnéticos viajan a través de de espacio vacío, en forma de ondas, a

Page 32: revista 2a

una velocidad constante. También propuso que las ondas de luz y las ondas de radio son dos

formas de de radiación electromagnética.

En 1888. El físico alemán Heinrich Hertz se convirtió en la primera persona en demostrar

satisfactoriamente la teoría de Maxwell al probar la existencia de las ondas de radio. Hertz lo logro

al construir un dispositivo que pudo detectar altas e intensas frecuencias de ondas de radio.

Publico su trabajo en un libro llamado Ondas Eléctricas: Siendo búsquedas en la propagación de

acciones eléctricas finitas a través del espacio. Estos experimentos expandieron en gran cantidad

el campo de transmisiones electromagnéticas, y otros científicos en la rama eventualmente

apoyaron la teoría de de Hertz de la recepción de la antena.

Hertz también encontró que las ondas de radio pueden transmitirse a través de diferentes

maneras y ser reflejadas por otras. Este descubrimiento ayudo a la invención del radar. El incluso

implemento la manera de comunicarnos inalámbricamente, sin embargo el nunca reconoció la

importancia de sus experimentos.

En reconocimiento a sus contribuciones, el diseño de hertz ha sido una parte oficial del sistema

métrico internacional desde 1933. Es el término usado para las terminaciones

Page 33: revista 2a
Page 34: revista 2a

19. Gran Escala Eléctrica en la Red

(1880)

El inventor Thomas Edison fue la primera persona que dispuso e

implemento la generación de poder eléctrico y la distribución a casas,

negocios y fabricas, una llave “Hito” en el desarrollo del moderno mundo

de la industrialización. Edison patento este sistema en 1980 en lugar de

capitalizar en su invención de la lámpara eléctrica, él no era nada, sino

un sagaz hombre de negocios. El 17 de Diciembre de 1880 él encontró

la compañía de iluminación “Edison”, sede en la calle “Pearl” en la

ciudad de Nueva York. El 4 de Septiembre de 1882, Edison conmuto en

su estación “Pearl”, generando estaciones con sistemas de poder de

distribución eléctrica, las cuales previeron 110 volteos de corriente

directa a cerca de 60 clientes en Lower Manhattan.

Aunque Edison perdió la entonces llamada “Guerra de Corrientes” eso

permitió como consecuencia que la corriente alterna fuera el sistema a

través del cual se distribuyera la energía eléctrica. Su sistema de

distribución es aun importante por pocas razones. El valor comercial fue

establecido como tal y eso ayudo a simular avances en el campo de la

ingeniería eléctrica, ya que la gente comenzó a ver al campo como una

ocupación valiosa. Por ejemplo, el ingeniero eléctrico Americano

Charles Proteus Steinmetz a través de su trabajo en corrientes alternas,

hizo posible la expansión de la industria eléctrica en Estados Unidos

formulando teorías Matemáticas para ingenieros quienes estuvieron

diseñando motores eléctricos para el uso de la industria.

Hecho: El sistema de poder eléctrico en Estados Unidos, es

el más grande en el mundo.

Fransue Alberto Angulo Terova y Luz María Cruz Sanchez 2A

Page 35: revista 2a
Page 36: revista 2a

20. Boolean Logic

Las operaciones computarizadas están basadas en una sola cosa:

Determinar si n portal o un interruptor está abierto o cerrado y generalmente se

representa por los números o y 1. Esta es la esencia de la lógica de Boolean, la

razón fundamental de La computación moderna. Esta idea posteriormente fue

denominada por el matemático ingles George Bool, quien definió un sistema

lógico algebraico en 1854. La motivación de Boole para crear esta teoría fue que

creía que los simbolos de operaciones matemáticas podían ser separados de

esas cantidades y podrían ser distintos objetos de cálculo.

Aproximadamente un año después Claude Shannon demostró que los circuitos

eléctricos con relaciones eran modelos perfectos de la lógica de Boolean fue un

hecho que incremento el desarrollo de la computadora eletrica. Las

computadoras usan la lógica de Bolean para decidir si la relaciin es cierta o falsa.

Hay tres portales básicos AND, OR y NOT. La operación And dice que si todas la

entradas están abiertas la salida también estarlo. La operación OR dice que si

alguna entrada está abierta la salida estará abierta. La operación NOT dice que

la salida debe estar abierta opuestamente a la entrada.

Materia programable

La materia programable la cual fue la primera introducida por

Massachusetts instituto de tecnología (MIT) los

investigadores Tommaso Tofoli y Norman Margolus en el tratado

de 1991, es rápidamente convertido en realidad, albeit

relativamente a pequeña escala.

La materia programable es materia que puede simular o formar

diferentes objetos como un resultado de su propio uso puesto

dentro de nuestras computaciones. Algunas materias

programables son diseñadas para crear diferentes formas,

mientras que otra materia, tal como las células biológicas

sinteticas, es programado para trabajar como un interruptor

genérico que encienda las señales de otras células, para

cambiar las propiedades como el color o la forma. El

potenmcial de los beneficios y aplicaciones de la materia

programablen en particular la posibilidad del uso de este

para interpretar información procesanda y otras formas de la

Page 37: revista 2a

informática, muchos de los éxitos son creados en las

investigaciones del mundo.

Desde la publicación del tratado de Toffoli y Margolus´s

ellos predijeron que han trabajado mucho para desempeñar su

potencial.

En 2008 por ejemplo, la corporación de intel anuncio que

estas investigaciones han sido usadas para materia

programable para desarrollar prototipos tempranamente de un

dispositivo de teléfono celular en la escala de centimetro y

milímetro. En 2009 la agencia de proyectos de la defensa de

investigaciones avanzadas de estados unidos. El departamento

de la defensa reporto que 5 equipos diferentes de

investigadores de la universidad de Harvard . MIT. Y la

universidad de Cornell fue haciendo progresos en la

inestigacion de materia programable. En el 2010 estor equipos

encabezados por Daniela Rus de MIT, anuncio este suceso en la

creación de estas hojas de origami. La agencia de la defensa

avanzada en la investigación de proyectos espera por

conceptos de futuras aplicaciones , por ejemplo : un soldado

equipado con luces fuertes de materia programable que puede

ser moderno . justamente acerca algo que ella o el necesita.

Page 38: revista 2a

21. materia programable

Page 39: revista 2a

miércoles, 30 de enero de 2013

traduccion

Materia programable

La materia programable la cual fue la primera introducida por

Massachusetts instituto de tecnología (MIT) los

investigadores Tommaso Tofoli y Norman Margolus en el tratado

de 1991, es rápidamente convertido en realidad, albeit

relativamente a pequeña escala.

La materia programable es materia que puede simular o formar

diferentes objetos como un resultado de su propio uso puesto

dentro de nuestras computaciones. Algunas materias

programables son diseñadas para crear diferentes formas,

mientras que otra materia, tal como las células biológicas

sinteticas, es programado para trabajar como un interruptor

genérico que encienda las señales de otras células, para

cambiar las propiedades como el color o la forma. El

potenmcial de los beneficios y aplicaciones de la materia

programablen en particular la posibilidad del uso de este

para interpretar información procesanda y otras formas de la

informática, muchos de los éxitos son creados en las

investigaciones del mundo.

Desde la publicación del tratado de Toffoli y Margolus´s

ellos predijeron que han trabajado mucho para desempeñar su

potencial.

En 2008 por ejemplo, la corporación de intel anuncio que

estas investigaciones han sido usadas para materia

programable para desarrollar prototipos tempranamente de un

dispositivo de teléfono celular en la escala de centimetro y

milímetro. En 2009 la agencia de proyectos de la defensa de

investigaciones avanzadas de estados unidos. El departamento

de la defensa reporto que 5 equipos diferentes de

investigadores de la universidad de Harvard . MIT. Y la

universidad de Cornell fue haciendo progresos en la

inestigacion de materia programable. En el 2010 estor equipos

encabezados por Daniela Rus de MIT, anuncio este suceso en la

creación de estas hojas de origami. La agencia de la defensa

avanzada en la investigación de proyectos espera por

conceptos de futuras aplicaciones , por ejemplo : un soldado

equipado con luces fuertes de materia programable que puede

ser moderno . justamente acerca algo que ella o el necesita.

Page 40: revista 2a

21.1 DIFERENCIA DEL MOTOR (1822)

Charles Babbage, un matemático inglés, filósofo, inventor, e ingeniero mecánico, realizó en 1822

que un tipo de máquina pudiera programarse con el uso de tarjetas de papel que almacena la

información en columnas conteniendo patrones de agujeros perforados. Babbage observó que

una persona podría programar un conjunto de instrucciones a modo de perforar las tarjetas, y la

máquina automáticamente podría guardar esas instrucciones. El propósito de usar el motor de

diferencia de Babagge era calcular varias funciones matemáticas, tal como logaritmos. Aunque

nunca fue completado, es considerado uno de los primeros propósitos generales de las

computadoras digitales.

Page 41: revista 2a
Page 42: revista 2a

21.2 CUANDO SE DESPLIEGA

El prototipo del lente telescopio es no medir más de 15 pies de ancho.

Desplegado a 300 pies de ancho.

Programado los motores para despegar el telescopio a 300 pies de ancho cuando

ha sido puesto en marcha en el espacio, el gran lente enfoca la luz en el espejo del lente ocular

orbitando a través de media milla de distancia.

Plegado de 10 a 15 pies de ancho.

úmeros binarios/ Código binario (1697)

En 1670 un filósofo y matemático alemán Gottfied Wilhelm Leibniz, cuyo logro

incluye la invención de cálculos y algunos avances importantes en matemáticas,

lógica y ciencia, invento una maquina aritmética que podía multiplicar así como

sumar.

Leibniz también vio como su máquina podía ser alterada para usar un sistema

binario de calculación, un concepto que es el corazón de la computación digital.

En el sistema de Leibniz el término binario se refiere a un sistema de números por

lo cual todos los valores son expresados con los números 1 y 0. El sistema binario

puede ser mejor entendido contrastándolo con la base 10 del sistema de hoy, el

cual expresa números usando 0 a 9.

En la base 10, el numero 367, por ejemplo, representa 3 x 100 + 6 x 10 + 7 x 1.

Cada posición en la numeración 367 representa un poder de 10 comenzando con

cero e incrementando de derecha a izquierda. En el binario, o sistema base 2,

cada posición representa un poder de dos.

Entonces, en binario, 1101 representa 1 x 2 ³ + 1 x 2 ² + 0 x 2 + 1 x 2 º el cual es

equivalente a 8 + 4 + 0 + 1 o 13.

Page 43: revista 2a
Page 44: revista 2a

Números binarios/ Código binario (1697)

En 1670 un filósofo y matemático alemán Gottfied Wilhelm Leibniz, cuyo logro

incluye la invención de cálculos y algunos avances importantes en matemáticas,

lógica y ciencia, invento una maquina aritmética que podía multiplicar así como

sumar.

Leibniz también vio como su máquina podía ser alterada para usar un sistema

binario de calculación, un concepto que es el corazón de la computación digital.

En el sistema de Leibniz el término binario se refiere a un sistema de números por

lo cual todos los valores son expresados con los números 1 y 0. El sistema binario

puede ser mejor entendido contrastándolo con la base 10 del sistema de hoy, el

cual expresa números usando 0 a 9.

En la base 10, el numero 367, por ejemplo, representa 3 x 100 + 6 x 10 + 7 x 1.

Cada posición en la numeración 367 representa un poder de 10 comenzando con

cero e incrementando de derecha a izquierda. En el binario, o sistema base 2,

cada posición representa un poder de dos.

Entonces, en binario, 1101 representa 1 x 2 ³ + 1 x 2 ² + 0 x 2 + 1 x 2 º el cual es

equivalente a 8 + 4 + 0 + 1 o 13.

Page 45: revista 2a
Page 46: revista 2a

24. EL PODER DE LA INFORMACION

Page 47: revista 2a

SISTEMA NUMERICO MODERNO

El sistema numérico Hinduarábico cual el sistema numérico moderno es basado fue

probablemente desarrollado en el siglo nueve por matemáticos de india, adoptado por el

matemático de Persia AI-Khwarizmi y el matemático Árabe AI-Kindi y difundido por el oeste del

mundo a mitad de la edad media.

Las características del sistema numérico moderno son el concepto del valor de lugar y el valor

decimal. El sistema de valor de lugar indica que el valor de cada digito en un número multidigital

depende de su posición. Tomar el número 279, por ejemplo. De acuerdo al sistema del valor de

lugar el 2 representa cientos, el 7 representa decenas, y el 9 representa unidades. Así el número

aparece como 279. Mientras tanto la relación del sistema decimal presenta números en

incremento de diez. En otras palabras, cada valor de lugar es diez veces el valor del lugar anterior.

El sistema decimal permite a los matemáticos transformar aritmética con números grandes que

podrían ser de lo contrario extremadamente manipulados.

Las computadoras hacen uso del sistema numérico posicional. Desde una computadora usas

pequeñas cantidades de memoria, algunos números son muy largos o muy cortos para ser

representados. Que es donde un punto flotante viene. El numero decimal puede flotar relativo a.