Palabra 112
-
Upload
eduardoesc -
Category
Documents
-
view
246 -
download
4
description
Transcript of Palabra 112
PALABRA 112 Un espacio libre para todos
CONTENIDO
Ilustración ............................................................................................................................ 2
Evolución de Android ...................................................................................................... 8
Desigualdad social .......................................................................................................... 14
Nuevas tecnologias 2010-2014 ...................................................................................... 24
Tecnologías de la información y comunicación ........................................................ 33
Reciclado de platico pet, vidrio y papel ....................................................................... 1
Tecnología en la educación. ........................................................................................ 16
Inteligencia artificial ........................................................................................................ 30
Tecnologias Futuras Grafeno ......................................................................................... 35
Eduación Universitaria .................................................................................................... 41
Astronomía ....................................................................................................................... 44
Linea de tiempo .............................................................................................................. 47
ILUSTRACIÓN
Existen diversas técnicas para
emplearse a la hora de ilustrar
de manera digital.
Como bien es sabido, se utiliza
una tableta para realizar dichos
trabajos y a pesar de parecer
tan fácil su uso, la aplicación,
colocación y manipulación de
colores, texturas y formas no
siempre es tan fácil de
conseguir.
Los trabajos de ilustración comienzan con el material más simple como es el
papel, la realización de storyboards o pequeños bocetos sobre la idea que se
quiere plasmar en el trabajo digital.
Un storyboard o guión gráfico es un conjunto de ilustraciones mostradas en
secuencia con el objetivo de servir de guía para entender una historia, pre
visualizar una animación o seguir la estructura de una película antes de
realizarse o filmarse. Es el modo
que consituye el modo habitual
de preproducción en la
industria fílmica.
La primera tableta gráfica parecida a la tableta
contemporánea y usada para el reconocimiento
de escritura a mano por un ordenador fue la
Stylator en 1957.
Actualmente la tableta digitalizadora consiste
en una superficie plana sobre la que el
usuario puede dibujar una imagen utilizando
el estilete (lapicero) que viene junto a la
tablet. La imagen no aparece en la tableta
sino que se muestra en la pantalla de la
computadora.
Es por eso que éste tipo de
proyectos merecen un gran
reconocimiento y pasión, pues
no está tan apartado de las
raíces artísticas, ni de las
técnicas clásicas, los medios
electrónicos sólo son utilizados
para perfeccionar el trabajo.
Existe la fusión de dos materias
importantes, el arte y la
tecnología, sin dejar a un lado la
ciencia, el funcionamiento del
espacio, el tiempo, el mundo
que nos rodea para poder
aplicarlo a la hora de crear vida en un dibujo, sino lograr movimiento y con éste
movimiento, un impacto
visual.
Flapjack storyboard – “All hands on
deck”
http://seanszeles.blogspot.mx
Flapjack storyboard- “I wanna be a real
http://seanszeles.blogspot.mx
Flapjack Ilustration- “Mr foot”
http://www.fotolog.com/bearequiem
En los últimos años la ilustración digital se ha convertido en una forma de arte
emergente que utilizando las técnicas de la pintura tradicional y, mediante la
aplicación de herramientas digitales (ordenadores, tabletas y programas
informáticos), ha conseguido representar sus obras directamente sobre la
pantalla del ordenador.
En la actualidad, el término digital ha irrumpido con fuerza en nuestra sociedad,
afianzándose en el panorama artístico como un nuevo lenguaje de expresión.
La tecnología digital ha puesto en manos del artista nuevas herramientas que
no ha dudado en utilizar bajo su particular disciplina de expresión y creatividad.
Adoptándolas como punto de partida para expresar sentimientos e ideas, es
decir, la base de cualquier actividad intelectual, las ha convertido en el medio
de transmisión cultural más vanguardista.
La ilustración científica ha experimentado numerosas transformaciones a lo
largo de su historia, utilizando en cada momento las nuevas técnicas a su
disposición para alcanzar su máximo desarrollo. Este nuevo lenguaje digital,
aplicado a la ilustración científica, tiene su origen en dos conceptos ancestrales:
por una parte la tradición de los grabados botánicos y por otra su meticulosidad
y precisión.
A lo largo de los siglos, la reproducción fiel y precisa de las imágenes ha
constituido, quizás, la principal herramienta de transmisión cultural, convirtiendo
las ilustraciones en el instrumento primordial para el sustento del desarrollo de los
conocimientos científicos de tipo descriptivo. Por tanto, las técnicas de
reproducción han evolucionado acompañando el desarrollo de las ciencias
descriptivas y ofreciendo mayor calidad a medida que estas requerían nuevos
procedimientos que reflejaran mejor el desarrollo alcanzado.
Si analizamos las diferentes técnicas de reproducción, utilizadas a lo largo de los
tiempos, en la ilustración botánica de Blunt, W. & Stearn(1994) llamada “The Art
of Botanical Illustration”, veremos que su lógica evolución siempre ha ido
acompañada del desarrollo de la nuevas tecnologías.
1.Boceto base inspirado en muñecas Japonesas.2.Foto-montaje cutre para pre visualizar un
acabado. 3.Prueba de color. 4. Dándole forma definitiva. / * Autor: Oscar M. Martin / *
http://www.academiac10.com/
Así, las xilografías que monopolizaron la reproducción de la mayoría de los libros,
textos e imágenes durante los siglos XV, XVI y XVII, fueron sustituidas por la
calcografía, a medida que el avance del conocimiento científico requería
nuevas técnicas de reproducción, capaces de superar la calidad de la
xilografía. Finalmente la litografía consolidó su hegemonía como método de
reproducción en los años siguientes.
Es indudable que la tecnología digital aporta una serie de características
comunes a todos los medios tradicionales de producción de imágenes,
mostrándonos una realidad alejada del concepto revolucionario que a primera
vista pudiera desprender. Sin embargo, aunque su existencia se basa en
propuestas planteadas por otras artes, no es menos cierto, que su naturaleza la
separa radicalmente de todas ellas, asistiendo de esta manera, a una
reinterpretación de las formas artísticas tradicionales.
En este contexto, en
septiembre del año 2000,
La Real Calcografía,
institución creada en 1789
y estrechamente ligada a
las expediciones científicas
españolas de los siglos XVIII
y XIX alrededor del mundo,
impulsa la formación del
Centro de Investigación y
Desarrollo de la Estampa
Digital, con un claro
propósito: por una parte
incorporar el arte digital al
mundo tradicional de la
imagen impresa; en
segundo lugar realizar una
amplia labor de
investigación y difusión de
la estampa digital; y por
último, dar cobertura
técnica y teórica a los
artistas para el
conocimiento y uso de
estas nuevas formas de
expresión.
Mis ilustraciones digitales son, por tanto, el resultado de aplicar este medio
digital. No se trata pues de fotografías manipuladas, sino que son el fruto de
dieciocho años de experiencia como ilustrador científico asociado, entre otros,
al proyecto Flora Ibérica del Real Jardín Botánico de Madrid. Todos los pasos
desde el primer boceto hasta el resultado final han sido creados manualmente,
utilizando para ello herramientas digitales. Así, hoy en día, a los perfiles del artista
botánico tradicional, hay
que añadir aquellos que
permiten utilizar
ordenadores, tabletas
digitales y programas informáticos de dibujo. Herramientas, al fin y al cabo, no
muy distintas de las utilizadas a lo largo de la historia de la reproducción
botánica y empleadas para un fin común, describir y descubrir la esencia
científica y artística de las plantas.
El arte es el resultado de un proceso creativo, original y único en el que el artista
se relaciona
estrechamente con distintos materiales y medios.
El medio digital se convierte pues, en un nuevo recurso para conseguir plasmar
el resultado final. Sin embargo, el encuentro entre el artista y su herramienta
Epitafios II (2010), ilustración digital
http://conejobelga.blogspot.mx/
“Morgana” de League of Legends- Art Spotlight
digital no garantiza el resultado final de la obra sin un conocimiento previo de
las técnicas clásicas de dibujo y pintura.
Las obras creadas digitalmente forman parte de un medio más en el amplio
ámbito del arte. Por lo tanto, considero este medio digital, plenamente válido en
los tiempos que corren, a la vez que un perfecto nexo de unión entre ciencia,
arte y tecnología.
EVOLUCIÓN DE ANDROID
Android es el sistema operativo
diseñado para dispositivos móviles
con pantalla táctil, este sistema
operativo fue inicialmente creado
por Android, Inc. pero fue
respaldado económicamente por
Google, quien en el 2005 compró
la compañía y presentó en el 2007
este sistema operativo. Un año
después se lanzó al comercio el
primer móvil HTC Dream o también
conocido como "T-Mobile G1" con
el sistema operativo Android.
Apple Pie
La primera
versión de
Android
fue la 1.0
conocida
con el nombre de Apple Pie (tarta de manzana).
Fue creada en el HTC Dream el 22 de octubre
de 2008, este dispositivo incluyó la primera versión
de Android Market, Navegador web, soporte
para mensajes de texto SMS y MMS, llamada,
aplicación para tomar fotos y otras aplicaciones de Google. Android 1.0 ofreció
desde sus inicios el soporte para WiFi y Bluetooth, y el sistema de notificaciones
que aparecen en la barra
de estado, con la posibilidad de configurar alertas por ringtons, LED o vibración.
Banana Bread
Android se actualizó a 1.1 el 9 de febrero de 2009
llamada Banana Bread, llegó solo para los dispositivos T-
Mobile G1 y entre sus novedades se encontraban el
soporte para marquesina en diseños de sistemas, la
posibilidad de guardar los archivos adjuntos en los
mensajes, y las reseñas al buscar negocios en los mapas.
Cupcake
La actualización de Android llegó a
1.5 el 30 de abril de 2009 conocida
como Cupcake, esta actualización le
dio más novedades a Android,
introduciendo el teclado virtual y la
creación de widgets. Se incluyeron
otras funciones demandadas por los
usuarios como copiar y pegar en el
navegador, la grabación de vídeo y reproducción en
formatos MPEG-4 y 3GP, transiciones animadas entre las
pantallas, la opción de auto-rotación y auto-sincronización.
Donut
Android 1.6 solo fue una pequeña
actualización conocida como Donut,
entre sus actualizaciones destacaron el
cuadro de búsqueda mejorado, cámara
y aplicación de galería, y un renovada
Android Market.
Eclair
Fue lanzado
el 26 de octubre del 2009, la
actualización de Android
2.0 Eclair sorprendió con su integración social
permitiendo sincronizar los contactos de Facebook y
Twitter, que le permitió a sus usuarios tener todos sus
contactos de las redes sociales en un solo lugar, las
imágenes de los contactos eran sacadas de una red
social, permitiendo que prácticamente ninguno
quedara con la foto en blanco.
En la interfaz de usuario, también se realizaron mejoras que estuviero
básicamente en las animaciones, en las transiciones y su fluidez general.
También se incorporaron funciones nuevas para la cámara, como el zoom
digital, modo de escena, balance de blancos, efectos de color, y el enfoque
macro. Por otro lado, el teclado virtual de Android fue mejorado con el soporte
multitouch, y el diccionario de sugerencias ampliado, que incluía los nombres de
nuestros contactos.
El navegador de Android recibió una actualización, que refinó el aspecto
general, sorprendiendo con la nueva función doble toque para el zoom, lo que
permitía ampliar la foto y una de las mayores novedades de Android 2.0 fue
Google Maps que recibió el servicio de navegación GPS gratuito.
Froyo
Fue puesto en el mercado el 20 de mayo de 2010. Android 2.2 Froyo empezó a
ser la competencia de iOS 4 de Apple, dándole a los terminales Android un
notable incremento de la velocidad de todo el sistema, tanto en sus
aplicaciones como en la navegación de Internet. Android 2.2 incluyó la
posibilidad de compartir la conexión 3G a través del wifi del teléfono con otros
dispositivos, con la posibilidad de convertir tu móvil en un Hotspot*. Otras
características fueron incluidas como la opción para mover las aplicaciones a
las tarjeta microSD, una pantalla de inicio y nuevos widgets.
*El "Hotspot" o I"nternet Tethering", es la forma en la que puedes compartir
Internet, por medio de Wi-fi, desde tu celular hacia otros dispositivos con
capacidad de conectarse a la red Wi-fi
Gingerbread
El 6 de diciembre de 2010 Google
presentó de forma oficial Android
2.3 Gingerbread, incorporó una gran
cantidad de novedades y se preparó para la
llegada de los smartphones de doble núcleo. Una
de las características más notables fue el
nuevo teclado virtual que simplificó la
entrada de texto y permitió una edición más
rápida.
Android 2.3 incorporó funciones que permitían
manejar el dispositivo con la voz en lo que se
denomino Voice Actions*. Esta
función permitió enviar mensajes, realizar
llamadas, localizar lugares con el GPS, realizar búsquedas convencionales,
escuchar música, mandar e-mails, etc.
*Controlador de voz
Honeycomb
El 22 de febrero de 2011
Google lanza la actualización de Android
3.0 Honeycomb y su correspondiente SDK,
algo que tendría poca vida debido al alto
costo que supone mantener dos
plataformas
separadas. Honeycomb llegó por primera vez en las tablets Motorola Xoom y sus
principales características fueron una renovada interfaz de usuario con una
nueva barra de sistema en la parte inferior de la pantalla que permitía el acceso
rápido a notificaciones, estados y botones de navegación suavizados y el
Action Bar que permitía el acceso a opciones contextuales, navegación,
widgets y otros tipos de contenido desde la parte superior, la actualización de
Honeycomb también trajo un teclado re-diseñado para pantallas de gran
tamaño y se simplificó la función multitarea con una opción que permitió
acceder a las aplicaciones recientes que se mostraban en una lista con
imágenes para reconocerlas fácilmente.
Ice Cream Sandwich
El 19 de octubre de 2011 Android nos
sorprendió con una nueva actualización a
4.0 Ice Cream Sandwich. Significando un
importante paso en la evolución de
Android que no solo vio renovada casi por
completo su interfaz de usuario con el
nuevo diseño Holo, sino que volvió a
integrar el sistema operativo en sus
versiones para Tablets y Smartphones.
La nueva interfaz de usuario se mostró
como la evolución y perfeccionamiento
de las ideas de Android 3.0, además las
aplicaciones ahora incluyeron una nueva
sección para mostrar los widgets de forma
separada donde son listados de forma similar a las aplicaciones,y se simplifico la
posibilidad de crear carpetas, con estilo de arrastrar y soltar.
Google incluyó algunas mejoras que hoy usamos a diario, como la posibilidad
de acceder a las aplicaciones directamente desde la pantalla de bloqueo y
Google Chrome como navegador por defecto que permitió abrir hasta a 15
pestañas.
Otras aplicaciones mejoradas fueron la cámara que ya no mostró retardo en el
obturador y permitió realizar ajustes sobre el time-lapse, seleccionar el modo
panorámico y hacer zoom durante la grabación de vídeo que ahora ascendía
a los 1080p para dispositivos con Android.
Jelly Bean
El 27 de junio de 2012 se actualiza
Android a 4.1 Jelly Bean, el objetivo
primordial de Android Jelly Bean fue
mejorar la estabilidad, funcionalidad y
rendimiento de la interfaz de usuario,
para lo cual se implementó el núcleo
de linux 3.0.31 y una serie de mejoras,
Google mejoró notablemente la barra
de notificaciones, una de las
características que distinguió a
Android desde sus inicios.
Esta, ahora ofreció una mayor
integración ya que permite realizar
más acciones, como realizar llamadas
o acceder a diferentes opciones y
mostrar información proveniente de
las aplicaciones que lanzan la
notificación.
Los widgets fueron desde los inicios de Android una de sus características
distintivas y en esta actualización recibieron cierta atención, ya que se ajustan
automáticamente al tamaño de la pantalla si son demasiado grandes para
caber en ella.
Desigualdad social
La sociedad está formada por personas que a pesar de tener semejanzas no
son iguales entre sí. Ninguna persona es una fotocopia de otra, cada ser
humano es único e irrepetible.
A nivel social, hay factores que marcan diferencias
entre personas, tal es el caso del factor
económico, el cual condiciona de una forma
notable la comodidad de un ser humano creando
desigualdades sociales.
“La desigualdad vuelve más probable la violencia
social, crea las condiciones para que aumente la
cantidad de delitos, lo que no equivale a afirmar
que cada sujeto en situación de desigualdad
social corre directo a delinquir. La existencia de
determinados contextos vuelve más probable una
consecuencia, pero no la determina. La relación
entre la desigualdad y la violencia social es probabilística.”
Las desigualdades sociales no deben producir indiferencia sino ser motivo de
implicación social para apostar por el cambio. Muestran que el mundo social
está lleno de matices por lo que cada situación sólo puede comprenderse de
verdad en un contexto determinado. Por otra parte, nunca existen dos
situaciones que sean cien por cien iguales, siempre existen matices concretos
que pueden ser el principio de una desigualdad de cantidad o de calidad.
(Kreimer, 2010)
FORMAS DE DESIGUALDAD
Desigualdad económica
La desigualdad económica se contempla como la distribución desigual de
bienes y servicios; ésta se da cuando dos individuos efectúan el mismo trabajo,
pero la ganancia monetaria no es igual para ambos. Esto viene dado por varias
razones. Para Hunt y Colander (Hunt & Colander, 2010) el factor más importante
son las diferencias en las ganancias de los individuos. Estas diferencias se basan
en parte a la ocupación y a las cualidades personales de las personas
involucradas. El factor más básico que determina las variaciones de ingreso
entre los grupos ocupacionales es la demanda y la oferta. Las ocupaciones que
requieren actitudes especiales y mucha capacitación tienen sueldos altos, las
ocupaciones que son clasificadas como trabajos comunes y que todas las
personas pueden ejercer con poco entrenamiento o escasa capacidad tienden
a pagar menos. Lo que hace la desigualdad económica en sí es estratificar o
crear clases o niveles en la sociedad, es decir, ricos/clase media/pobres. Uno de
los productos de la estratificación se ve en el sistema capitalista, jefe/empleado
En el año 2006 se llevó a cabo una investigación (M, Roazzi, & Roazzi, 2010) para
aclarar la controversia que existía sobre cuán consciente estaba la juventud
acerca del problema de la desigualdad económica, y para los investigadores
demostrar el aumento en desigualdades económicas de la últimas dos décadas
dentro de una sociedad globalizada. Los jóvenes entrevistados demostraron
que cada trabajador debía tener un salario más equitativo. Ésta y otras
investigaciones han podido corroborar el entendimiento de niños y
adolescentes sumergidos en una estratificación social en diferentes países,
mostrando que están conscientes de las diferencias en salario y estatus social
dentro de las distintas profesiones. Además se indica que es más marcada la
conciencia acerca de estas diferencias de salarios en los jóvenes de clase
media y alta, que en los de clase baja. A raíz de investigaciones como estas, se
define que existen en la sociedad grandes prejuicios acerca de la riqueza y la
pobreza y que la juventud ha internalizado esas divisiones socio-económicas
que caracterizan a nuestra sociedad, todas causadas por la disparidad de
ingresos.
Desigualdad entre sexos
Uno de los factores centrales en la construcción de desigualdades ha sido la
discriminación sexual. Se han estructurado distinciones sociales y culturales entre
hombres mujeres para convertir las diferencias biológicas del sexo en jerarquías
de poder, estatus e ingresos. También se puede definir como el reparto de
tareas, empleos y profesiones en base al género femenino o masculino, esta
práctica, que era común en la sociedad, solo se empezó a cuestionar hace
veinte años. (Margaret & Chantal, 2010)
La sociedad salarial no es una sociedad de igualdad, hay una gran diferencia
entre el ingreso que genera un hombre y el ingreso que genera una mujer y
hasta en el acceso a bienes sociales que tienen cada uno como por ejemplo en
la educación y en la cultura. El feminismo lucha contra el dominio del hombre
en algunas facetas sociales lo que antes era normal o natural y que se veía con
obviedad. Esto no es solo la lucha por igualdad en ciertas áreas de la sociedad
sino que también es la liberación psicológica de las mujeres. Esto significa que
estas jugaran un rol más importante en la sociedad actual.
Desigualdad jurídica
La desigualdad jurídica es discriminación legal, es decir, en un tribunal sobre
algún individuo. Esto ya sea por motivos económicos ya que las personas que
gocen con mayor poder monetario las leyes sean más flexibles o tengan más
oportunidad de salir absuelto. También se da por motivos raciales y/o
procedencia es decir color de piel o país. Esto lo que quiere decir es que si a un
tribunal va un individuo de tez blanca y un individuo de tez negra, culpados por
el mismo delito se le debería dar el mismo trato o condena. También si a un
tribunal va un individuo inmigrante de otro país acusando a alguien nacido en el
país que se hace la acusación se le trate igual que si fuese viceversa.
Desigualdad informativa y educativa
La desigualdad informativa muchas veces es causada por la falta de
conocimientos o educación formal, así como la falta de acceso a fuentes de
información adecuada. En algunos países se negó sistemáticamente el acceso
de las mujeres a la universidad durante el siglo XIX, incluso se les prohibió ejercer
como docentes en la universidad en la mayor parte de Europa hasta principios
del siglo XX.
Mucho más modernamente el fenómeno sociológico de la brecha digital de
ciertas comunidades dificulta su acceso a las tecnologías informáticas
convencionales, que es fuente de desventajas en el acceso a empleos bien
remunerados por parte de miembros de ciertas comunidades.
DESIGUALDAD EN MÉXICO
La desigualdad en México esta en la discriminación de género, étnica y de
lugar de residencia. Al igual que en muchos países, las mujeres reciben un salario
menor que el los varones aun cuando desempeñen el mismo trabajo con
iguales requisitos educativos y horarios. También esta el trabajo doméstico y de
cuidado, asignado a las mujeres, no sea bien pagado .Las jóvenes indígenas, se
encuentra desprotegido por el Estado y sujetas a bajos salarios. Incluso aquellos
trabajos que se consideran una extensión de las tareas de desarrollo y cuidado
de los seres humanos, como las de educación y salud, en las que se registra una
elevada participación femenina, reciben salarios menores. (H. Goldthorpe, 2012)
En cuanto a la discriminación étnica, la población indígena también percibe
menores ingresos y se ve obligada a
desempeñar trabajos mal pagados, sobre
todo en las actividades de campo y de
construcción. Con frecuencia viven en
pueblos pequeños y alejados, sin acceso a
servicios de salud, educación y agua
potable. Una gran parte de los hogares
pobres es de origen indígena, y las regiones
de mayor pobresa son sierras y desiertos
donde habitan comunidades indígenas.
También existe una gran desigualdad con el lugar de residencia y trabajo. Los
salarios de la zona sur del país son más bajos que los que se pagan en el norte o
en las grandes ciudades. Del mismo modo, los salarios de los trabajadores rurales
son inferiores a los de los trabajadores urbanos. Durante muchos años los salarios
mínimos se fijaron según regiones y según si el trabajo era urbano o rural.
Todo esto define en clases sociales. La clase alta es la que tiene los ingresos mas
altos y está formado migrantes blancos europeos o de U.S.A , en su mayoría
católica. La clase media está integrada por población blanca y mestiza,
mientras que la clase social más baja está integrada por población de origen
indígena.
La clase alta se ocupa en actividades de tipo empresarial (dueños o empleados
de empresas industriales y de servicios legales, contables y financieros); las
clases medias están integradas por las personas que se dedican a la política, a
la prestación de servicios profesionales, investigadores y maestros de educación
media y superior. Finalmente, los integrantes de las clases bajas trabajan en el
servicio doméstico, en actividades de campo y artesanales y en los trabajos de
baja calificación en la industria, la construcción, los servicios y el comercio
informal.
CONCLUSIÓN
La desigualdad es un
medio de presión por el
cual los miembros de las
altas esferas o estratos
sociales impiden que las
personas que están en
las esferas bajas puedan
subir. Esto hablando de
cualquier tema es decir
política, ambiental,
economía, cultural y
educativa entre otras
muchas. Que los
hombres no son iguales
es sólo una verdad a
medias, la otra mitad es
que lo son. La interconexión de las diferentes dimensiones de la desigualdad es
una alternativa para comprender la complejidad de este fenómeno. También
muestra que el combate contra la desigualdad tiene que articular acciones en
los tres ámbitos: en el aspecto micro social, en el nivel intermedio y en el ámbito
macro social. Resulta incoherente que la igualdad ante la ley y la igualdad de
oportunidades son ideales democráticos fuertemente protegidos, pero al
momento de la acción son los más olvidado.
“nuevas innovaciones que podría cambiar el mundo"
Desde 2001, el MIT Technology Review ha publicado su lista de las innovaciones
tecnológicas que de seguro en el futuro tendrán un gran impacto en la
sociedad. Los editores seleccionan cada artículo basado en su potencial para
cambiar el mundo. Años anteriores listas incluyen la epigenética, redes de
sensores inalámbricas, computación grid , fabricación aditiva , relojes
inteligentes y móviles en 3-D .
Drones agrícolas
Los agricultores han comenzado a utilizar aviones no tripulados agrícolas
adornadas con cámaras para mejorar el tratamiento de sus cultivos. Los aviones
no tripulados permiten a los agricultores una perspectiva única que las
imágenes de satélite utilizado anteriormente - no podía proporcionar. Ayudan a
exponer cuestiones con el tratamiento de riego, la variación del suelo, y las
plantas en dificultades a un costo mucho más bajo que métodos como la
proyección de imagen de los cultivos con una aeronave tripulada. El éxito de los
aviones no tripulados es posible gracias a los avances tecnológicos en módulos
GPS , radios digitales , y pequeños sensores MEMS . Juntos, estos avances
permiten a los agricultores para lograr una mayor precisión a su oficio con el fin
de obtener mayores recompensas
Ultraprivate Smartphones
Como la preocupación por la privacidad personal crecen, sobre todo en
términos de la nueva tecnología, una empresa con sede en Maryland busca
ofrecer una alternativa. Silencioso Circule, en cripta las llamadas de los clientes
de voz, mensajes de texto y archivos adjuntos .
Cifrado impide espías potenciales de la escucha de las llamadas telefónicas y
protege metadatos. Silencioso Círculo tiene grandes planes para el futuro ,
incluyendo un teléfono inteligente seguro llamado blackphone. Blackphone
utilizará herramientas de cifrado utilizados actualmente por Silenciosa Circle, así
como otro software que ayudará a los datos seguros
Mapeo Cerebral
Los neurólogos han trabajado durante décadas para comprender mejor cómo
funciona el cerebro. Los recientes avances en la tecnología de mapeo cerebral
han hecho esa tarea ambiciosa fácil. Un equipo internacional de investigadores
del Human Brain Project ha creado un atlas tres dimensiones del cerebro. La
resolución de los mapas es cincuenta veces mejor que los esfuerzos anteriores.
Los atlas creadores cosen digitalmente a miles de cortes transversales del
cerebro. El mapa muestra los detalles de hasta 20 micrómetros de tamaño el
tamaño estimado de muchas células humanas. Si bien esto es un gran avance,
los científicos aún tratan de crear un mapa que muestra los detalles en 1 o 2
micrómetros, en lugar de 20.
Fichas neuromórficos
Muchas empresas de todo el mundo están trabajando hacia borrando los límites
entre los sistemas biológicos y creaciones hechas por el hombre. Qualcomm
está dando pasos importantes en el desarrollo de sistema de inteligencia
artificial con el uso de Neuromorphic Chips. Estos chips se mezclan neurología en
tecnologías tradicionales como los chips de teléfonos inteligentes. Qualcomm
ya está probando fichas en pequeños robots que permiten a las máquinas para
realizar tareas que normalmente requieren un ordenador personalizado. Los
chips pueden procesar los datos sensoriales a través de la vista y el sonido con el
fin de responder de maneras que no están programados de forma explícita. Por
ejemplo, los chips podrían anticipar las necesidades del usuario
Robots ágiles
Tomando un solo paso requiere equilibrio, la coordinación, la fuerza y dirección.
Cada uno de estos factores ha presentado desafíos únicos para los ingenieros
de diseño de robots que pueden caminar. Ingrese Boston Dynamics que han
experimentado con el " equilibrio dinámico ", una función que permite a los
robots para mantener el equilibrio mientras camina. Recientemente, han creado
con éxito un robot que puede caminar por terreno irregular e inestable.
Esta nueva innovación abre las puertas para una mayor utilización de robots en
las operaciones de emergencia o ayudar a las personas mayores y con
discapacidad con los quehaceres y tareas diarias. Mientras que la tecnología
todavía está en la etapa de desarrollo, Boston Dynamics sabe que los robots
tienen que caminar, antes de que puedan ejecutar .
Tecnologías: El Caso De Los Videojuegos”
Desde nuestro interés como Psicopedagogos abrimos esta línea de
investigación para comprender como el sujeto aprendiente organiza sus
comportamientos e identificaciones y que estrategias comunicativas se ponen
en juego ante los relatos electrónicos por las incidencias que tienen en el ámbito
de la
Abordamos el aprendizaje a través de los objetos tecnológicos, en este caso
“los videojuegos”, analizándolos desde el macro discurso sociocultural que
mueve al mundo más allá de los muros de la escuela. Definimos el problema de
investigación expresando que los videojuegos intervienen en la configuración
del espacio lúdico y en la construcción de relatos homogeneizando
identificaciones y configurando modalidades de aprendizaje que generan una
micro cultura de prácticas y significados ajenos a la que propone la cultura
escolar. Nos posicionamos en los aportes de la teoría crítica para fundamentar
la intervención educativa demostrando que las nuevas tecnologías configuran
espacios de poder y de autoridad en el entramado organizacional de las
instituciones.
Tecnologías en la Docencia Universitaria”
Se presenta una aplicación de las llamadas píldoras del conocimiento en el
marco de las nuevas tecnologías en la docencia universitaria, desarrolladas en
la Universidad de Vigo, España. Se analiza el concepto de píldora del
conocimiento y se presenta una sobre el tema de equilibrio químico de interés
en Ingeniería Química y estudios afines. Las píldoras creadas tienen igual
formato, y se basan en la definición de Poli media, técnica muy valorada en
desarrollos de nuevas tecnologías para la enseñanza ya que permite que el
ponente interactúe con la presentación. El objetivo último de las píldoras y en
particular de la discutida en este trabajo es mejorar el proceso de aprendizaje
del alumno y facilitar la integración de las materias, todo esto en el marco del
Espacio Europeo de Educación Superior. Se analiza finalmente la cantidad de
accesos de dichas píldoras en el tiempo y se concluye sobre las ventajas de su
uso como tecnología
METODOLOGÍA
Para llevar a cabo este estudio se realizó una Píldora de Conocimiento centrada
en el Equilibrio Químico, tema fundamental para el alumnado de la asignatura.
Dicha píldora fue grabada en unas instalaciones pertenecientes a la Universidad
de Vigo y diseñadas para dicho fin. La elaboración de las píldoras se basa en la
tecnología Poli media (Turró et al., 2009) que permite, mediante la
técnica Chroma Key (Chaplin, 1993), la combinación sincronizada de una
imagen generada por ordenador con la imagen y sonido del docente en un
único video. El producto final es un video de alta resolución (1280*768) que
contiene al docente, su voz, la imagen existente en la pantalla del ordenador
que ha utilizado durante su presentación e, incluso, los movimientos del puntero
de ratón que se han producido a lo largo de la misma.
El acceso a las píldoras desarrolladas en la Universidad de Vigo es libre. La
píldora de conocimiento se divide en varias partes para facilitar la comprensión
por parte del alumno. En primer lugar el profesor hace una breve introducción
del contenido de la totalidad de la píldora para, a continuación explicar cada
uno de los conceptos necesarios para la comprensión del tema.
RESULTADOS Y DISCUSIÓN
El objetivo del uso de las píldoras de conocimiento es que los alumnos entiendan
los principios en lugar de memorizar los hechos. Las píldoras permiten la
utilización de varios recursos como imágenes, gráficos, esquemas, que captan
la atención del alumno y presentan la ventaja de que el alumno puede
utilizarlas siempre que lo necesite y las veces que le sean necesarias. Debe
tenerse en cuenta que las píldoras tienen una corta duración, por lo que se
utilizan para que el alumno adquiera un conocimiento previo sobre el Equilibrio
Químico necesarios para la resolución de problemas. Esta píldora se utiliza para
dar la parte teórica del tema de Equilibrio Químico, con lo cual, el docente una
vez que el alumno haya visto la píldora, empleará la clase presencial para, en
primer lugar, aclarar las dudas que hayan surgido sobre los conceptos vistos en
la píldora, pasando posteriormente a la resolución de ejercicios sobre el tema.
Nuevas tecnologias 2010-2014
El integro de la tecnología digital.
(Galindo Rubio, 2010)
La televisión digital, En la etapa previa de paso del sistema analógico al digital
ya se comenzó a configurar el sistema digital de transmisión de televisión digital,
gracias fundamentalmente a la difusión satelizaría de señal comprimida en
MPEG-2 de la señal de vídeo, que se estableció por una simple cuestión de
rentabilidad, por un "mejor” aprovechamiento del espectro de frecuencias.
Ley de Moore: lo digital dobla la utilización del espectro y reduce a la mitad el
costé" (Vannuchi, 1993:323) vialidades a hipotéticos operadores nacionales,
sufrían una colonización vía satélite de otras emisoras que con carácter
transnacional emitían en abierto sobre sus territorios" (Fandiño, 2001:41 ),
continuó hasta hace apenas un lustro cuando la aparición de nuevos
desarrollos de compresión, como MPEG-4 y, sobre todo, una nueva tecnología,
el DVB-T {Digital Video Broadcast - Terrestrita) o TDT {Televisión Digital Terrestre) en
castellano, hicieron acto de presencia. A partir de aquí, el desarrollo de la HDTV
{Televisión de Alta Definición), el crecimiento del ancho de banda disponible
ofertado por las operadoras de servicios de datos y telefonía móvil y el esperado
trasvase del cine al formato digital junto con los experimentales visionados
estereoscópicos en tres dimensiones, configuran el espectro del avance
tecnológico en estos primeros diez años de milenio en el ámbito de la difusión
profesional de productos audiovisuales.
Televisión Digital Terrestre (TDT) La mayoría de los países europeos están llevando
a cabo el proceso de conversión definitiva de la difusión de la señal de
televisión al sistema digital. Este proceso, denominado popularmente como
"apagón analógico", y que en España ha tenido lugar en abril de 2010, suprime
las emisiones analógicas para dar paso, mediante el sistema de difusión terrestre
de la señal digital, a lo que hoy se conoce como televisión digital.
Este proceso, que por su envergadura está realizándose paulatinamente, está
basado en una tecnología capacitada para difundir señal de televisión
comprimida en el estándar MPEG-2, al igual que la televisión digital por satélite,
pero con la diferencia de que se utilizaría el sistema actual de antenas terrestres
para su diseminación.
Este sistema se denomina OFDM {Ortogonal Frequency División Multiplexing) y
permite aumentar considerablemente el rendimiento del espacio radioeléctrico
necesario para emitir hasta en cuatro veces. De tal forma, que si antes de la TDT
se
recibían de forma analógica, aproximadamente, ocho o diez canales de
televisión en cada hogar, ahora el número ha aumentado hasta unos 35 o 40,
utilizando el mismo ancho de banda.
En definitiva, la TDT es la tecnología puente hacia la consolidación definitiva de
la tecnología audiovisual digital en lo que a difusión de contenidos se refiere. Si
bien es previsible que, al menos durante unos años perviva en nuestros hogares,
también es factible que acabe desapareciendo en detrimento de otras
tecnologías de difusión más eficaces como la fibra óptica Televisión de Alta
Definición Precisamente la consolidación de las emisiones en alta definición, tras
años y años de experimentación y de desencuentros entre productoras,
gobiernos y canales de televisión, ha de ser uno de los motivos por los que la TDT
sea una tecnología transitoria.
Los intentos por desarrollar una tecnología eficaz de difusión de televisión de
Alta Definición vienen de hace casi treinta años. Desde el desarrollo japonés del
MUSE (Fresquet, 2006:28), que luego se utilizó para algunas emisiones de los
juegos olímpicos de Barcelona de 1992, el proyecto Eureka-95, el PAL-Plus,
nacido en1994 y que utilizaba monitores de tubo en formato panorámico, hasta
el desarrollo del MPEG-3 (Koenen, 2002), creado para desarrollar la HDTV, han
ido sucediéndose intentos más o menos creativos en el terreno de la Alta
Definición. Todos estos ensayos, sin embargo, se han ido topando con un mismo
problema: el elevado coste de las emisiones en HDTV, derivado de pasar de 5
MHz de ancho de banda en el sistema PAL a 30 MHz en Alta Definición.
No va a ser hasta finales de la primera década de dos mil, cuando este
problema parezca vislumbrar su solución. Esta va a venir auspiciada de la
irrupción de un nuevo desarrollo del estándar de compresión MPEG-4\ el H-264
(1440xl080i), que permite la inclusión de canales de Alta Definición en un
espacio similar al que ocupa la SDTV {Standar Definition TV). En España, ya se
van dando experiencias de emisión de HDTV. Concretamente TVC y Canal han
tenido el honroso mérito de permitir que, al menos algunos usuarios, comiencen
a rentabilizar los monitores de formato panorámico que se han popularizado y
que hasta ahora sólo recibían televisión en norma PAL. Más recientemente, en
agosto de 2010, TVE y Telecinco se han sumado a los operadores que ofertan
contenidos en Alta Definición.
Evolución del sistema operativo para dispositivos móviles Android.
El primer teléfono con Android de Google como ya se había mencionado, fue el
HTC G1, no hay mucho que ver cuando se estrenó en octubre de 2008, con su
punto más bajo para un teclado, con su mentón prominente y extraño e incluso
se pensó en aquel entonces que pudo ser el único teléfono de Google. Sin
embargo, el G1 inició una avalancha Android que jamás hubieran
imaginado.Mientras que Ortiz D (2012) dice que el sistema operativo ha
avanzado rápido hasta el 2012, ahora el sistema operativo para dispositivos
móviles Android cuenta en ser el sistema operativo con más del 50 por ciento de
la cuota de mercado mundial, de acuerdo con la firma de investigación
Canalys, con un porcentaje altísimo de 85% en Corea del Sur y del 71 por ciento
en el país de Taiwán. Las ventas del iPhone siguen siendo fuertes, y Windows
Phone hoy solo representa una sombra, más que una amenaza.
Hay consecuencias de un crecimiento acelerado, y en el caso de Google, ha
sido la fragmentación: demasiadas versiones del sistema operativo disponible en
el mismo tiempo. La mayoría de los modelos ahora seden entre Android 2.3 o
mejor conocido como Gingbread, que será sustituido por el ice Cream
sándwich o también conocido como Android 4, junto con la tabletas con
Android conocido como Honeycomb.
ICS está listo para cambiar todo lo que la fragmentación ocasiono,
conquistando toda la solución para las pantallas de Android grandes y
pequeños en un solo sistema como lo es la versión 4.0. Siempre en busca de una
porción del mercado aún mayor, ya que pronosticadores están compartiendo
las noticias de lo que está por venir respecto a nuevos celulares con Android 4, a
pesar de que los fabricantes y las compañías aún están actualizando los
dispositivos existentes en algunos casos con gingbread o Android 2.3.
Siempre es bueno tener un poco de perspectiva, y teniendo en cuenta que,
aquí está una mirada a los hitos del sistema operativo Android de Google,
desde sus humildes orígenes a sus ambiciones actuales de teléfonos inteligentes
y el dominio Tablet casi total del mundo. A continuación cuando se lanzó y que
vario en cada una de las generaciones nuevas del sistema operativo Android
(Ortiz D, 2012).39 Android es un sistema operativo orientado a dispositivos móviles
y que usa una versión modificada del núcleo Linux. Es desarrollado por la Open
Handset Alliance, que aglutina a fabricantes de software y hardware, entre los
que destacan Google, T-Mobile, HTC, Qualcomm y Motorola entre otros.
Android hace parte de los sistemas operativos con interfaz natural de usuario. El
desarrollo de aplicaciones para esta plataforma se realiza mediante SDK, y el
lenguaje de programación Java. Una alternativa es el uso del NDK (Native
Development Kit) de Google para emplear el lenguaje de programación C.
Android1.0
Febrero 2008. Para el lanzamiento del primer dispositivo utilizando el sistema
operativo Android pues no debe haber mucho considerando que en aquel
entonces no había mucho que utilizar, luego surgieron más necesidades que
cumplir, que han sido satisfechas a todos los usuario de Android. El primer
dispositivo contaba con GPS y Bluetooth (pero no Bluetooth estéreo), Multitarea,
Estrecha integración con los servicios de Google como Gmail, Google Maps
(con Street View), y Google Calendar, Aplicaciones: Amazon MP3 Store,
YouTube, Android Market (cerca de 35 aplicaciones en el lanzamiento), No
Microsoft Exchange Server, sin cámara de video (Ortiz, D. 2012) ANDROID 1.1
PETIT FOUR En febrero de 2009 llego la primera actualización para Android, unos
tres meses después del lanzamiento del G1.
La versión 1.1 fue dedicada básicamente a reparar errores y a implementar las
actualizaciones “over the air” que hasta ese momento ninguna plataforma
estaba haciendo. (Herraiz g 2012). Android “CUPCAKE” - versión 1.5 Android 1.5
es mejor conocido por su nombre en clave, Cup cake, fue la primera versión en
utilizar nombre de postres. Cada versión después de Cup cake ha sido
nombrada con un nombre de postre continuando el orden alfabético.
En esta versión comenzamos a ver algunos cambios en la interfaz de usuario, por
poco que se puedan apreciar, como son los cambios en la barra del buscador y
en la barra del menú, también cambio el logo del navegador. Las primeras
versiones de Android no contaban con un teclado virtual, ya que el G1 disponía
de un teclado físico, en la 1.5 se introdujo el teclado virtual (teclado QWERTY
virtual) coincidiendo con la salida del primer Android con pantalla táctil y sin
teclado físico, el HTC Magic. Desde el principio Google introdujo la posibilidad
de que desarrolladores terceros pudieran crear sus propios teclados virtuales,
algo que al día de hoy sigue diferenciándolo de iOS y Windows Phone. El primer
teclado virtual integrado en Android fue considerado un poco malo, cosa que
provoco que fabricantes como HTC se pusieran manos a la obra para
desarrollar reemplazos del mismo (Herraiz G, 2012).
Dentro de algunas funciones cuenta con universal cuadro de búsqueda
(búsqueda se había limitado a la Web). Renovación Android Market: categorías
de Navegación (aplicaciones, juegos, descargas) y los filtros (Top gratuito, mejor
pagado, Just In). Cámara: Permite alternar entre la cámara y los modos de
vídeo, galería de fotos integrada y una cámara de fotos con mayor eliminación.
SDK amplía el soporte para gestos, posibilidad de voz a texto (Ortiz, D.2012).
Google no se había dado cuenta del potencial de los widgets ya que hasta ese
momento no había colgado el SDK para desarrolladores y había muy poca
variedad. Eso cambio en Cup cake permitiendo que widgets de terceros
estuvieran disponibles para los usuarios. Se aplicaron mejoras en el portapapeles
ya que la plataforma no ofrecía desde el principio la posibilidad de copiar y
pegar en las ventanas del navegador o Gmail. Se integró por primera vez en
esta versión y fue terminada en posteriores
La primera versión de Android no ofrecía la posibilidad de grabar video ni de
reproducción, si no que se integró con la versión 1.5. Los fabricantes
comenzaron
a crear sus propias interfaces para la cámara añadiendo soporte para escenas
adicionales, modos, opciones y la posibilidad del enfoque presionando sobre la
pantalla táctil.
La estereoscopia.
El visionado estereoscópico o "en 3D" parece ser otra de las grandes apuestas
de este sector. La reciente posibilidad de grabar y visionar posteriormente los
contenidos audiovisuales en tres dimensiones mediante técnicas de captura y
reproducción estereoscopias, abre una nueva brecha de negocio tanto para
productores como para exhibidores, que ven en esta tecnología un salto de
calidad que, a priori, será difícil de emular en los hogares.
La técnica, consistente en grabar con cámaras que disponen de dos lentes
colocadas a la misma distancia que los dos ojos en los seres humanos, está
consiguiendo concitar el interés de las grandes productoras. Así, ejecutivos
como Jeffrey Katzemberg, de DreamWorks, no dudan en afirmar que "el cine
será en 3D. Porque una vez demostrado que existe algo mejor, ¿por qué
echarse atrás?". De hecho, en 2010 se van a estrenar once películas en este
formato de la factoría Disney, y ya están previstos otros 6 para 2011. Ha sido sin
duda. Avatar, de James Cameron, la película que ha introducido el
conocimiento generalizado de esta tecnología entre el gran público. Tanta es la
esperanza que se vierte sobre esta tecnología, que se está extendiendo su
desarrollo al mercado de la televisión y a los vídeos juegos. Compañías como
Sony, Samsung, Philips o LG presentan desde el IEA2009 de Berlín monitores
capaces de reproducir productos en 3D, con distintas tecnologías que
conllevan que, en algunos casos, incluso no sea necesario el uso de gafas para
su visionado.
Está tecnología, aún bastante incipiente en su versión televisiva, plantea
problemas de distribución, ya que al ser la imagen estereoscopia, el resultado
de la suma de dos imágenes normales, el fríame resultante soporta un tamaño
de archivo muy superior al tamaño estándar o al de alta definición. Así, ni
siquiera los discos en formato Blu-Ray parecen apropiados para su difusión,
porque no tiene la capacidad suficiente para almacenar una película en Alta
Definición y tres dimensiones. Quizá, el empleo futuro de la ya mencionada fibra
óptica permita la transmisión y distribución correcta de estos productos.
La Red Social.
Facebook es la red social más exitosa, conocida y popular de internet. Es una
herramienta social para conectar personas, descubrir y crear nuevas amistades,
subir fotos y compartir vínculos se paginas externas y videos.
La popularidad de Facebook tiene varias causas, algunas son las siguientes:
La facilidad de compartir contenido, ya sea este links, fotos o videos.
La posibilidad casi sin límites de subir las fotos. La interface sencilla, aun para el
usuario no experimentado en la navegación web. La facilidad de convertirse en
miembro y crear una cuenta. La facilidad que agrega el chat, nunca vista, que
hace que no sea necesaria una herramienta de terceros para comunicarse en
tiempo real. La integración de mensajes y correos electrónicos. Las
recomendaciones de nuevos amigos, muchas veces acertadas. Las exitosas
páginas de fans beneficiosas para negocios, empresas y marcas.
Google+
Es la más nueva y reciente de las redes sociales y ya cuenta con una
inmensidad de miembros. No posee las características de Facebook, ni
pretende imitarlo. Gracias al inmenso protagonismo y poder de Google en
internet, puede llegar a ser una de las redes más grandes y poderosas. Brinda
facilidades para crear redes de amigos y organizarlos en los llamados círculos.
Posibilita subir contenido para compartir de forma sencilla. Se facilita la
publicación de artículos en dicha red mediante el botón +1 que ya aparece en
varias páginas de internet y en la barra de Google en el navegador que la
tenga instalada. Se integra con otros servicios populares de Google como
Gmail, GMaps, Calendario, Docs., etc. Google+ es una red en pleno desarrollo y
llena de nuevas posibilidades. Google+ ha hecho posible y aún está en proceso
de desarrollo, una herramienta única en los sitios sociales de internet, que es
llamada los Hangouts (también conocida como quedadas). Consiste
simplemente en compartir conversaciones en video con los miembros de la red.
Al entrar a tu página y usar el botón necesario, verás los Hangouts que se están
realizando y en los que podemos participar.
Twitter es una red social de microblogging, o sea una red para publicar,
compartir, intercambiar, información, mediante breves comentarios en formato
de texto, con un máximo de 140 caracteres, llamados Twists, que se muestran en
la página principal del usuario. Es la plataforma de comunicación en tiempo
real, más importante que existe en la actualidad. Los usuarios pueden suscribirse
a los Twists de otros, a esto se le llama "seguir" y a los suscriptores se les llaman
"seguidores". Posee un especial atractivo para actualizar el estado rápidamente
desde dispositivos portables como los teléfonos celulares y para compartir
noticias en tiempo real. La principal característica de Twitter es su sencillez,
también la facilidad y diversidad de formas existentes para conectarse a dicha
red y poder comunicarse con otros. Puede ser desde una PC, un portátil, una
tableta, un iPhone u otro Smartphone o hasta desde un teléfono cualquiera,
aunque no tenga acceso a internet, solo que sea capaz de enviar mensajes
SMS. Algunos de sus usuarios se han vuelto tan adictos a esta red, que no
conciben internet sin Twitter.
Un mundo sin pantallas.
Un mundo sin pantallas en el que las imágenes se proyecten sobre el aire y el
vapor de agua, "como si se tratara de un arcoíris". Ese es el sueño del joven ruso
Maxim Kamanin, quien presentó este viernes en Washington su invento, llamado
Displair. Imágenes 1 Foto Todo el mundo entiende que el futuro es sin pantallas,
será con monitores que aparezcan y desaparezcan Kamanin ha desarrollado
una tecnología que, a través de la emisión de vapor, consigue plasmar
imágenes sobre las partículas de agua. Además, el usuario puede interactuar
con ellas como si se tratara de una pantalla táctil. Displair además permite
proyectar imágenes en tres dimensiones sin la necesidad de utilizar lentes
especiales, porque juega con el propio espacio. "Vivimos en un mundo de
basura visual, espacios cubiertos por todas esas pantallas que limitan, que
hacen que nuestra visión sea más limitada y llena de obstáculos", explicó el
joven inventor en 'Demand Solutions', el ciclo de conferencias organizado por el
Banco Interamericano de Desarrollo (BID), que estos días reúne en Washington a
algunas de las mentes más brillantes del mundo. "La gente está tratando de
reducir la influencia de los monitores porque nos restringen, y las pantallas que
se utilizan cada vez son más pequeñas.
Todo el mundo entiende que el futuro es sin pantallas, será con monitores que
aparezcan y desaparezcan en función de si lo necesitamos o no", aseguró el
joven. Kamanin insistió en que Displair resulta un monitor "más natural para el ser
humano", un modelo basado en la naturaleza y que además es "el primer
dispositivo sin monitor, interactivo". Queda mucho para el uso doméstico
"Necesitamos todavía trabajar mucho para ponerlo a disposición de todos los
hogares, pero estamos en el inicio de una nueva etapa de la tecnología para
mostrar la información", aseguró el joven. "Es una imagen que funciona
solamente con el tacto, y la parte más importante del manejo del mismo tiene
que ver con la imagen. Tenemos que sentir la imagen y tener la posibilidad de
manejarla al mismo tiempo. Conectarnos con una emoción", agregó. Displair,
que ya se comercializa en media docena de países y se ha colocado en
algunos aeropuertos, salas de ocio y de conferencias, es un sistema multitáctil
óptico, que permite controlar las imágenes proyectadas sobre las partículas de
agua a baja temperatura.
TECNOLOGÍAS DE LA INFORMACIÓN Y COMUNICACIÓN
La tecnología siempre ha sido parte de la vida del hombre. Desde tiempos prehistóricos, el hombre ha usado su inteligencia para crear tecnologías que le permitan contar con herramientas con las cuales poder hacer mejor sus labores, por ejemplo a través de la creación de lanzas usando piedras las cuales pulir para que quedaran más filosas y con ello poder cazar animales.
La tecnología desde ese momento y motivada por las necesidades del hombre, ha evolucionado de forma acelerada hasta el día de hoy, cuando muchas acciones humanas se hacen con insumos y productos tecnológicos de carácter computacional.
¿Qué son? Las Tecnologías de la Información y la Comunicación (TIC) son todas aquellas herramientas y programas que tratan, administran, sistematizan, transmiten y comparten la información mediante soportes tecnológicos de las cuales se hace la diferencia con tecnologías anteriores que tenían fines similares
La informática, Internet y las telecomunicaciones son las TIC más extendidos, aunque su crecimiento y evolución están haciendo que cada vez surjan más modelos.
Las Tic conforman el conjunto de recursos necesarios para manipular la información, los ordenadores, los programas informáticos para convertirla, almacenarla, administrarla, transmitirla y encontrarla.
Una breve clasificación seria:
*Las Redes, como la telefonía fija, la telefonía móvil, banda ancha, redes de televisión y redes en el hogar.
*Terminales: por ejemplo un ordenador personal y un navegador de Internet.
*Sistemas operativos para ordenadores: telefonía móvil, televisión, reproductores de audio.
*Consolas de juegos.
Y a su vez las Tics nos brindan servicios como por ejemplo por mencionar unos cuantos:
*Correo electrónico: images.jpg
*Búsqueda de información
*Banca online
*Audio y música
*TV y cine
*Comercio electrónico
*Vídeo juegos*Educación
*Servicios móviles etc.
*Correo electrónico
images.jpg
*Búsqueda de información
*Banca online
*Audio y música
*TV y cine
*Comercio electrónico
*Vídeo juegos*Educación
*Servicios móviles etc.
En la actualidad las TIC están en todas partes y en la mayoría de las acciones que realizamos a diario.
El hablar por celular, revisar el correo electrónico, la red social en las que estemos o con la acción de chatear con algún amigo, ya estamos utilizando las nuevas tecnologías.
¿Para que sirven las TICS?
Sirven para facilitar el manejo de la información y el desarrollo de la comunicación. Permiten actuar sobre la información y generar mayor conocimiento e inteligencia. Modifican para bien muchos ámbitos del ser humano como el trabajo, las formas de estudiar, las modalidades para comprar y vender, los tramites el acceso a la salud entre otros.
Otras pequeñas pero significativas desventajas son:
*Distracciones: Los usuarios a veces nos dedicamos a otra cosa en lugar de trabajar.
*Dispersión: La navegación por los llamativos espacios de Internet, hacen que los usuarios se desvíen de los objetivos de la búsqueda.
*Perdidas de tiempo: Muchas veces se pierde el tiempo buscando la información que se necesita: exceso de información disponible, falta de métodos para realizar la búsqueda, dispersión...
*Se requieren equipos que pueden ser costosos.
La importancia de las nuevas tecnologías es que puede potenciar una serie de procesos que hacemos en la vida diaria, pero para ello debemos saber como funcionan y darnos el tiempo de poder estar conscientes de sus potencialidades pero también de sus debilidades.
De esta forma vemos como la tecnología cubre gran parte de la vida del ser humano y contribuye al desarrollo del hombre en el futuro.
RECICLADO DE PLATICO PET, VIDRIO Y PAPEL
A través del tiempo el hombre ha evolucionado en varias formas, en su forma de
vivir, de moverse, de comunicarse, etc. Esta evolución
lleva consigo misma la forma en utilizamos ciertos
materiales, que con el tiempo se ha diversificado su
uso, adaptándolos a más ambientes y por consecuente
se aumenta la cantidad en que se usan.
En este caso los materiales a los que hacemos principal
referencia son el papel, el vidrio y el plástico (PET).
Como se mencionó anteriormente, su uso se ha
intensificado a nuestros días, tanto que se ha vuelto
parte de nuestras vidas cotidianas, ahora los usamos sin
conciencia de su importancia, y al mismo tiempo los
desechamos de igual forma, ignorando el hecho de
que con esas cantidades se contaminan en grandes
proporciones. Es aquí donde debemos corregir nuestra forma de vivir para así,
contribuir no solo a la sustentabilidad del medio ambiente, sino que también
inculcar a nuestra sociedad la cultura del reciclaje continuo, y transmitirla así a
futuras generaciones que esperan un mundo mejor desarrollado y puedan
contribuir con él.
La cultura del reciclaje
La cultura del reciclaje surgió como una propuesta de los ecologistas,
preocupados por salvar el planeta en sí, es aprovechar los recursos al máximo y
evitar que el planeta se llene e basura tanto en ríos como en mantos acuíferos,
que son importantes en zonas rurales. Un ejemplo es la tira de botellas de vidrio en
barrancos que son la causa de incendios en temporadas de calor, el hecho de
solo ayudar a escoger la basura a la hora de tirarla en el carro de basura o
llevarlas a empresas especializadas en el reciclaje de estos a disminuir los
incendios forestales. No podemos concientizar a la gente a reciclar de un día
para otro, si no que tenemos que educar a las personas, familias y jóvenes a que
es bueno reciclar y esto se empieza con la cultura del reciclaje tanto de papel,
plástico y vidrio.
Reciclaje de Papel
¿Por qué reciclar papel?
El papel se hace con diversos materiales como pueden ser: algodón, la paja del
trigo, residuos de caña de azúcar, lino, bambú, cáñamo, madera, etc.
Independientemente de la fuente utilizada, se necesita fibra para hacer papel.
Pero normalmente en la actualidad se fabrica
papel de 2 fuentes principales: madera y
productos reciclados de papel.
Beneficios del reciclaje del papel
Los beneficios del reciclaje de papel son
muchos, entre algunos son:
Reduce las emisiones de gases de efecto
invernadero.
Extiende el suministro de fibra.
Ahorro considerable de espacio en los vertederos.
Reduce el consumo de energía y agua.
Disminuye la cantidad de CO2 que se produce.
¿Cómo reciclan papel?
Las Fábricas de reciclado de papel, combinan el papel con agua en un
contenedor grande que separa las hojas de papel unas de otras y las convierte
como una masa de fibras de papel y agua.
La masa resultante pasa por equipos de separación mecánica incluyen pantallas
finas y gruesas, limpiadores centrífugos, y la dispersión o unidades de amasado
que eliminan en especial tinta, y otros residuos y sustancias tales como arcillas,
tierra, plástico y metales.
La fibra recuperada se puede utilizar para producir nuevos productos de papel
hechos totalmente de fibra recuperada. La fibra sin embargo, no puede ser
reciclada una y otra vez. (Se acepta que la fibra sea reciclada de cinco a siete
veces).
Reciclar papel de forma casera
El papel se puede reciclar de forma casera de diversas maneras como puede ser:
adornos decorativos, hacer hojas de papel, trabajos escolares, papiroflexia, etc.
Aquí hay un caso donde se va a reciclar haciendo hojas de papel, donde el
resultado será una hoja de papel quizás algo difícil de doblar y sin resultados
industriales.
Materiales:
Papel
para
reciclar
(revistas, hojas, etc.)
Recipiente (depende de la cantidad de papel a utilizar)
Licuadora
Gotas de colorante artificial (opcional)
Agua
Bastidor o molde.
Medias
Esponja o trapo seco
Procedimiento:
Poner a remojar el papel en un recipiente con agua durante un día.
Agarrar un poco de papel remojado, después, ponerlo en la licuadora y ponerle 5
gotas de colorante artificial.
Licuamos.
Tomamos el bastidor o el molde y colocamos las medias bien estiradas, esto
servirá de colador.
Presionaremos con la mano o algún objeto para obtener una capa uniforme.
Después, retiramos el exceso de agua con ayuda de la esponja o trapo seco.
Presionamos el papel con la mano o algún objeto para obtener el grosor que
queramos. (Mientras el papel está fresco podemos colocar flores, pétalos u hojas
naturales secas, para decoración)
Por último, retiramos el papel del bastidor y lo dejamos secar en el sol.
Una vez seco ya tenemos nuestra hoja de papel.
Reciclaje de vidrio
En este momento es muy importante hablar sobre el medio ambiente, y con esto
nos referimos al reciclaje del vidrio, antes de entrar más a profundidad sobre el
tema tenemos que explicar que es el vidrio.
El vidrio no es un cristal si no un fluido con una alta viscosidad, compuesta por una
mezcla de óxidos metálicos, que por medio de calor forma un sistema rígido.
El reciclaje del vidrio ha sido practicado por diferentes fábricas alemanas,
japonesas, canadienses, francesas entre muchas más, como el proceso es muy
costoso y esperan que el costo sea pagado por el consumidor.
Ventajas del reciclaje de vidrio
El vidrio es el material ideal para el reciclado
pues tiene diferentes usos y este puede ser
reciclado un 100% cantidad indefinidas de
veces, el uso de este se le puede dar para
hacer vajillas y también para procedimientos
como lo es la creación de tabiques para la
construcción para el asfalto el que pisamos
tanto tu como yo cuando vamos a la BUAP,
así ahorramos materia prima, otro uso que se
le da es a la hora de hacer los hornos como
los de una panadería para hacer una buena
carne, el vidrio y la sal ayuda a acumular en
calor.
El vidrio reciclado requiere 26% menos de
energía que su fabricación desde cero y
reduce en un 20% las emisiones a la
atmósfera de la fabricación, contaminando
un 40% menos de agua 2/3 que la fabricación de vidrio a partir de arena, cal y
sosa.4 Cada tonelada de desechos de vidrio que se recicla evita que 315 kilos de
dióxido de carbono.
El vidrio se puede usar para hacer
hornos para pan o carne, conserva el
calor.
¿Cómo se recicla el vidrio?
El primer paso es la limpieza del mismo, no importa el color del vidrio pues se trata
con decolorantes aquí la importancia que sea blanco es más puro y minimiza el
uso de decolorantes.
Después el vidrio es lavado para quitarle la tierra o grasa que contenga. Una vez
que esté limpio es molido hasta lograr granos muy finos necesarios. El próximo
paso es pasar por unos imanes que le quitan los vestigios de metal que pueda
tener al terminar se funde a una temperatura de 1,600° centígrados en una
proporción de 50% de vidrio reciclado y el otro 50% de material virgen para lograr
los nuevos envases este proceso toma alrededor de 24 horas.
Plástico (PET)
El PET (Tereftalato de Polietileno) es un poliéster, un polímetro termoplástico. Es el
mejor y más resistente plástico para la fabricación botellas, bandejas, flejes y
láminas, ya que sus propiedades físicas y su
capacidad para cumplir diversas especificaciones
técnicas, sin embargo, existen varios factores
implicados en la elaboración y usos del PET que
hacen que se considere como material no
beneficioso para el medio ambiente.
El reciclaje del plástico es fundamental y necesario,
ya que este material tarda cientos de años en
desintegrarse, por lo que su permanencia constante
en ríos, lagunas, mares y rellenos perjudica por
completo al estar presente demasiado tiempo y en
demasiadas cantidades (miles de toneladas).
Hay cuatro maneras de aprovechar los envases de
PET una vez que terminó su vida útil: someterlos a un
reciclado mecánico, a un reciclado químico, a un
reciclado energético empleándolos como fuente de energía o reutilizarlos para
otras cosas.
Reciclado Mecánico
Es el proceso de reciclado más utilizado, el cual consiste en varias etapas de
separación, limpieza y molido. Se puede resumir en los siguientes pasos:
Separar el plástico PET por color. Esto hará que el proceso para hacer un nuevo
producto sea más fácil. Escoger el plástico basándose en color será más simple si
no hay mezcolanzas.
Lavar el plástico PET. Esto eliminará los gérmenes y bacterias que puedan estar
presentes en las botellas.
Aplastar el plástico PET. Esto hace que el plástico sea más fácil de juntar y
transportar.
Separar y seca el plástico PET.
Cortar el plástico PET en pequeños fragmentos. Deben ser de aproximadamente 1
pulgada cuadrada (0.0006 metros cuadrados). Estos fragmentos son llamados
"hojuelas de PET".
Filtra las hojuelas de PET para quietar cualquier remanente de etiquetas y otros
escombros.
Derretir las hojuelas de PET. El tiempo para derretir, estilo y forma dependerá en
qué producto se convertirán Los pasos se repiten dependiendo de lo que se
quiera obtener.
Reciclado Químico
Para el reciclado químico, se han desarrollado
distintos procesos donde principalmente el PET se
deshace o despolimeriza: se separan las
moléculas que lo componen y estas se emplean
para fabricar otra vez PET. Dependiendo de su
pureza, este material puede usarse, incluso, para
el envasado de alimentos.
Reciclado Energético
El PET es un polímero que está formado sólo por
átomos de Carbono, hidrógeno y oxígeno, por lo
cual al ser quemado produce sólo dióxido de
carbono y agua (CO2 + H2O) con
desprendimiento de 6,3 Kcal/Kg. Esto es posible
ya que durante su fabricación no se emplean aditivos ni modificadores, por lo
que su combustión no provoca las emisiones de ningún gas toxico.
Cuando se trata de comunidades pequeñas o medianas, geográficamente
aisladas, las posibilidades de reciclado son limitadas por los volúmenes disponibles
y los costos de transporte hacia centros que dispongan de infraestructura
adecuada. En estos casos el aprovechamiento energético permite dar asistencia
a escuelas, asilos y sectores de menores recursos para complementar su
calefacción, agua caliente, etc. En estos casos las metas son directamente
ambientales y sociales. El beneficio debe medirse en el mejoramiento de la
calidad de vida de toda la comunidad.
Un gramo de PET libera una energía de 22,075 Btu/g similares a las que tienen
otros combustibles derivados del petróleo. Es por ello, que en algunos países
como Italia se viene utilizando en los hornos de las cementeras.
Los procesos químicos más
usados para la
despolimerización de PET son
la metanólisis, la hidrólisis y
sobre todo la glicólisis.
TECNOLOGÍA EN LA EDUCACIÓN.
¿Qué es la tecnología?
La tecnología ha sido relacionada con los aparatos sofisticados que inundan
todos los ambientes de nuestra vida cotidiana, pero no es solo eso sino también se
le designa tecnología al conjunto de conocimientos de orden práctico y
científico que bajo una serie de métodos y procedimientos que tienen el fin de
satisfacer las necesidades y deseos de los seres humanos.
La tecnología es un saber práctico e interdisciplinario desarrollado atreves de la
relación teórico-práctico aplicada a objetos e instrumentos tecnológicos.
(Britland, 2013)
Integración de tecnología en el proceso de enseñanza.
El docente y la tecnología
A través de la experiencia de trabajar con docentes pude constatar que muchos
de ellos no saben usar una computadora ni navegar en internet y mucho menos,
tener un e-mail.
Es este un primer obstáculo en la integración de tecnología al
proceso enseñanza-aprendizaje. Aparentemente podría representar un alto costo
económico la capacitación de estos docentes. Mi sugerencia es que los
docentes formados en áreas tecnológicas capaciten a sus compañeros
en los destinados a la "actualización" y en los periodos inter semestrales.
Con esto no solamente se anula un gasto económico; sino también permite la
interacción entre los mismos docentes.
La educación educativa, en sentido amplio, supone el diseño pedagógico y se
interesa por la estructuración y la presentación de la información con objetivos
educativos.
La tecnología no solo afecta a la esfera de la producción de los artefactos sino
también cambia el entorno de la sociedad, la manera de comunicarse entre sí, es
por esa razón que al igual que los artefactos no orilla a cambiar nuestra forma de
comunicarnos y nos acerca a la adaptación de dichos artefactos a nuestras
vidas cotidianas, por lo cual obliga al sistema educativo a incorporarla en su
desarrollo.
El diseño, la estructuración, la presentación y la optimización de instrumentos
medios y programas de intervención didáctica constituyen el centro de gravedad
de la tecnología educativa.
La importancia de la tecnología en nuestros tiempos en el ámbito educativo.
Un reto para México y toda América Latina ha sido el uso de la ciencia y
principalmente de la tecnología para generar el desarrollo del país, pues nos
encontramos ante un mundo totalmente globalizado donde las competencias ya
sean “laborales o académicas” se extienden a un marco de competencias que
día con día van evolucionando.
Con esto se genera que una estrategia sea la de incluir las tecnologías en la
formación humana con fines educativos, formar a los jóvenes en las
competencias establecidas por la “Globalización”.
Hay que analizar todas las ventajas que nos trae el uso de estas con fines
educativos. Tenemos que ver tanto los aspectos positivos así como los negativos.
Un ejemplo de esto lo tiene Jaime Osorio quien llevó a cabo un análisis sobre la
relación de dependencia entre el capitalismo, el conocimiento y la tecnología.
Todo esto con enfoque a América Latina.
Su hipótesis se basa en la heterogénea independiente de las economías, donde
la única relación que existe entre estás es: “La capacidad de generar
conocimiento”.
Rodrigo Arocena y Judith Sutz,(Autores
de la revista de economía de la
UNAM) sostienen que el problema de
los países en desarrollo no está en la
falta de conocimiento si no que lo
genera la poca participación de
políticas orientadas al avance de la
ciencia, tecnología y aún más
importante a la innovación.
(Barragán, 2014)
Al incluir a las tecnologías en los sistemas educativos, se orienta tanto a
estudiantes como docentes al fácil uso de las herramientas tecnológicas que hoy
se nos ofrecen.
Ante un constante proceso evolutivo se
genera un mayor interés de
aprendizaje en los alumnos, puesto que
la tecnología se auto-complementa
con distintas dinámicas para facilitar la
comprensión de los temas que se
pueden presentar.
Usando las tecnologías en cualquier
materia escolar se produce el que los
docentes se actualicen en diversos
temas “Desconocidos” un claro
ejemplo es con “el uso de las
tecnologías en la educación médica”.
El perfeccionamiento del modo de actuación profesional del docente para la
dirección del proceso pedagógico integrado y desarrollador, constituyente un
compromiso ético para el logro de la educación en Ciencia, Tecnología
y Sociedad en la Educación Médica.
En nuestro país, el papel de la ciencia y la tecnología están en relación directa
con el desarrollo social; esta perspectiva por supuesto, ha permeado
a la Pedagogía, justamente por ser la clave para la democratización, la equidad
y la eficiencia, y más específicamente a la educación superior.
La enfermedad de Huntington
George Huntington (1850-1916) hizo su
contribución a la investigación médica a
sus 22 años, al publicar su reporte sobre una
forma hereditaria de corea. En sus escritos
describió las características esenciales de
la enfermedad: su naturaleza hereditaria, la
tendencia a la locura y el suicidio dando a
conocer que puede ser una grave
enfermedad en la edad adulta.
La enfermedad de Huntington es de interés
en la neuropsiquiatría por su causa y sus
cambios en el comportamiento, la
cognición y el afecto. Se estima una prevalencia entre 5 y 9 por 100.000
habitantes y su inicio es normalmente, entre los 35 y 50 años.
Se sabe que es causada por una mutación resultante en la repetición CAG
(poliglutamina) en la proteína del Huntington, la huntingtina que esta
almacenada en el brazo corto del cromosoma 4.
Por la extensión de las poliglutaminas, se expresa la huntingtina. Su función se
desconoce y, posiblemente, es la responsable del déficit neurotrófico.
La proteína mutante entra en el núcleo, pierde su función antiapoptótica y
genera productos tóxicos. La tasa de formación de fibrinas amiloides aumenta a
medida que las repeticiones poli-Q se expanden de un grado normal a uno
mutante, lo cual lleva a proponer que los procesos de agregación son
fundamentales en la patogénesis de la enfermedad de Huntington.
(Arroyave, P, Riveros, M. 2006)
¿Qué es la enfermedad de
Huntington?
La enfermedad de Huntington es una
enfermedad neurológica
hereditaria. Los síntomas físicos
pueden incluir movimientos involuntarios, gesticulaciones, pérdida del control del
movimiento y alteraciones en la marcha. También se presentan cambios en la
personalidad, acompañados de fallas de memoria y deterioro de las
capacidades intelectuales.
En un inicio, la enfermedad se manifiesta como espasmos musculares leves, falta
de coordinación y algunas veces, con
cambios en la personalidad. A medida que
la enfermedad progresa, el deterioro
intelectual produce alteraciones en el
habla y la memoria.
Con el tiempo, la pérdida de células
nerviosas en varias regiones del cerebro
hace que el paciente con enfermedad de
Huntington presente mayor incapacidad y
dificultad para valerse por sí mismo. Aun
cuando la enfermedad no es mortal, la
condición de debilidad del paciente
produce complicaciones como neumonía,
problemas cardíacos o infecciones que
eventualmente llevan a la muerte.
(Reséndiz, R. 2010)
Síntomas
Los cambios de comportamiento pueden ocurrir antes de los problemas del
movimiento, entre los cuales se pueden incluir:
● Alteraciones del comportamiento
● Alucinaciones
● Irritabilidad
● Cambios de humor
● Agitación o inquietud
● Paranoia
● Psicosis
Los movimientos anormales o inusuales incluyen:
● Los movimientos faciales, incluyendo muecas
● Girar la cabeza para cambiar la posición la vista
● Rápidos, bruscos movimientos, a veces salvajes sacudidas de los
brazos, piernas, cara y otras partes del cuerpo
● Lentos movimientos incontrolados
● Andar inestable
Demencia que empeora de manera progresiva y lentamente, incluyendo:
● Desorientación o confusión
● Pérdida de juicio
● Pérdida de la memoria
● Cambios en la personalidad
● Cambios en el habla
Los síntomas adicionales que pueden estar asociados con esta enfermedad:
● Ansiedad, estrés y tensión
● Dificultad para deglutir
● Problemas del habla
Los síntomas en los niños:
● Rigidez
● Movimientos lentos
● Temblor
(A.D.A.M.,2013)
Tratamiento para la Enfermedad de Huntington
Desde el descubrimiento de la falla genética
causante de la enfermedad de Huntington, se
ha intentado encontrar una cura para la
enfermedad sin que esto haya sido posible.
Actualmente, el tratamiento se dirige al control
de los síntomas que se presentan con la
enfermedad. No hay
evidencia suficiente para
concluir cuál es el
tratamiento de las alteraciones neuropsiquiátricas en
Huntington. Sobre la evidencia disponible, se decide
recomendar: riluzola, olanzapina y amantadita, para el
tratamiento del trastorno de movimiento; inhibidores de la
recaptación de serotonina y mirtazapina, para el tratamiento
de la depresión mayor, y antipsicóticos atípicos, para el
tratamiento de los síntomas psicóticos y las alteraciones
comportamentales. Proponen también psicoterapia,
fisioterapia y terapia del lenguaje como ayudantes.
El origen de la humanidad
Nuestro ADN revela que todos somos una única raza. Los distintos caracteres sólo
son las adaptaciones que nuestros antepasados
desarrollaron al poblar los distintos rincones del planeta.
Todos somos parientes, no tan lejanos.
Nuestra especie, el homo sapiens, nació hace 100.000
años. El homo sapiens fue la especie elegida, la que
sobrevivió y evolucionó. Antes, otras especies parecidas lo
intentaron sin éxito y se extinguieron, como el neanderthal.
También el hombre estuvo a punto de desaparecer en varias ocasiones. Su
inteligencia, creatividad y las mutaciones genéticas le salvaron de la extinción.
Los cambios climáticos provocaron el salto evolutivo de la especie humana.
El estudio de los restos fósiles y los análisis genéticos del ADN nos remotan al origen
del hombre y su evolución. Los restos humanos más antiguos están en Sudáfrica.
Hace 50.000 años, una glaciación estuvo a punto de acabar con la humanidad.
Sólo unos centenares sobrevivieron, cobijados en cuevas de la costa sudafricana.
Se alimentaban de tubérculos y productos del mar.
Pero llegó un momento en que los alimentos escaseaban. Abandonaron Africa y
emprendieron viaje hacia el sudeste asiático. Sorprendentemente, la primera
zona que poblaron fue Australia. En aquella época el nivel del mar estaba muy
bajo y sólo 250 kms de agua separaban Asia de Australia. Continúa siendo un
misterio cómo lograron cruzar, pero es un hecho que lo hicieron. Los restos fósiles
de hace 50.000 años lo confirman.
Hace 45.000 años poblaron Asia central, la India y China. El grupo de la India se
adaptó muy bien y creció rápidamente. El grupo de China, en cambio, quedó
aislado durante muchas generaciones. Desarrolló mutaciones genéticas para
adaptarse mejor a su hábitat. Así nacieron los rasgos asiáticos. Pero el clima volvió
a cambiar y fuertes sequías asolaron Asia. El grupo de Asia central partió hacia
tierras más frías en busca de pastos. Fueron los primeros pobladores de Europa,
hace 40.000 años.
El hombre no llegó a América hasta hace 15.000 años. De nuevo, un cambio
climático fue determinante. Durante la última glaciación, un grupo asiático cruzó
el estrecho de Bering congelado. Al volver a subir el nivel del mar, quedó aislado
en el nuevo continente y desarrolló los rasgos indígenas característicos. Los
cambios climáticos dominan la evolución del ser humano.
Teoría de la evolución por selección natural de Darwin.
Darwin parte de las ideas, del economista Thomas Malthus. Malthus postulaba
que la población crece en forma geométrica y se preguntaba qué sucedería con
el crecimiento de la población humana en un habitat cerrado, como por ejemplo
una isla. La conclusión era que el crecimiento estaría limitado por la cantidad de
alimento, que crece en proporción aritmética. Si la cantidad de alimento es
restringida, debemos suponer que llegará un momento en que existirán más
animales con necesidad de alimentarse que alimento disponible.
Entonces, se producirá una competencia entre los individuos por el alimento, y
algunos individuos resultarán vencedores y los otros
morirán de hambre. De esta idea, Darwin concluye
que sobrevivirán aquellos individuos con
características más favorables, idea conocida como
la "supervivencia del más apto". Sin embargo, hay
que tener en cuenta que, a menudo, se registran
variaciones, hecho que Darwin había observado en
las Galápagos.
Conectando este hecho con la idea de la
supervivencia del más apto, se deduce que
aquellos individuos que poseen las características
más favorables compiten en mejores condiciones y,
al cabo del tiempo, se produce la selección natural;
es decir, los más aptos ocupan todo el habitat y los menos "adaptados"
desaparecen.
Evolución humana.
Nuestra especie es única en muchos aspectos, si la comparamos con las demás
especies que hoy en día viven sobre la Tierra. Sin embargo, como ser vivo
perteneciente al reino de los metazoos, ha surgido a partir
de los mismos procesos biológicos y evolutivos que el resto
de los animales que hoy podemos ver, es decir, según el
neodarwinismo, los cambios en el medio, las mutaciones y
la selección natural modelaron a un conjunto de
poblaciones de primates que se fueron transformando
hasta dar lugar a la cadena de homínidos, de la cual nosotros somos el último
eslabón.
Los primates.
Los pasos evolutivos explicados en la página anterior quedan puestos de
manifiesto con el descubrimiento de fósiles de primates y homínidos que nos
permiten reconstruir su aspecto y sus transformaciones, aunque hay partes aún
oscuras en nuestra historia evolutiva.
La primera prueba de la existencia de primates que se mueven por el suelo la
tenemos en el Aegyptopithecus, una especie de mono que podía andar a cuatro
patas en el suelo y que vivió en lo que hoy es Egipto hace unos 30 millones de
años, cuando estaban desapareciendo las selvas que hasta entonces habían
cubierto toda África.
En el período de hace entre 25 y 5 millones de años va a surgir una nueva línea
evolutiva, la de los homínidos, a partir de un antepasado común al que se ha
llamado Procónsul, a partir del cual se van a diversificar los primates
extendiéndose además por todo el Viejo Mundo (África, Europa y Asia), surgiendo
los antepasados de los gibones, de los orangutanes, de los gorilas y chimpancés, y
de la especie humana. De ese período comprendido entre los 25 y los 5 millones
de años atrás sabemos muy poco respecto a nuestros antepasados, ya que se
han encontrado muy pocos fósiles, pero en ese período se produjo el
afianzamiento de la línea que culminará con los homínidos .
Los homínidos.
El primer homínido como tal lo constituyen unos
fósiles encontrados en Etiopía que se han atribuido
a la especie Ardipithecus ramidus, algo parecido a
un chimpancé que vivió hace unos 4,4 millones de
años en zonas arboladas, alimentándose de hojas y
frutos.
La principal característica de los primeros Homo, el Homo habilis, va a ser la
capacidad de obtener utensilios manipulando ciertas materias primas; no está
claro si este Homo fue el primero en hacerlo, o si los últimos Australopithecus
africanus ya fabricaban herramientas, pero el cerebro de Homo habilis aumentó
considerablemente, iniciando un proceso que acabará con nuestra aparición en
escena.
La especie humana.
En África, en un ambiente radicalmente diferente, surgirá
otra especie, el Homo sapiens, nuestra especie, que en
unos pocos miles de años se extenderá por todos los
continentes, ocupando todos los ecosistemas y
desplazando a las otras especies con que coexistió, tal vez
a H. erectus en Asia,y a H. neanderthalensis en Europa,
cuyo retroceso va a ir a la par que la expansión del H.
sapiens, encontrándose precisamente en el sur de la
península Ibérica los últimos reductos del hombre
de Neanderthal.
Inteligencia artificial
Los primeros pasos hacia la Inteligencia
Artificial fueron dados hace mucho
tiempo por Aristóteles, cuando se dispuso
a explicar y codificar ciertos estilos de
razonamientos deductivos que él llamó
silogismos. Otro intento sería el de Ramón
Llull, místico y poeta catalán, quien
construyó un conjunto de ruedas llamado
"Ars Magna", el cual se suponía iba a ser
una máquina capaz de responder todas
las preguntas.
El primer trabajo sobre la Inteligencia
Artificial (IA), aunque entonces todavía no
existía la disciplina con ese nombre, se
remonta a 1943 con la creación de un modelo de neuronas artificiales por parte
de Warren McCulloch y Walter Pitts.
Alan Turing diseña formalmente una
Maquina Universal en 1963 que demuestra
la viabilidad de un dispositivo físico para
implementar cualquier cómputo
formalmente definido.
El progreso sustancial fue hasta George
Boole [Boole 1854] que comenzó a
desarrollar los fundamentos de la lógica
proposicional.
John McCarthy es el responsable de introducir el término "Inteligencia Artificial" el
cual propuso utilizar el cálculo proposicional como un idioma para representar y
utilizar el conocimiento en un sistema se denominó la "Advice Taker"
En resumen, la Inteligencia Artificial (IA) se refiere a la simulación de procesos
cognitivos por medio de la Computación. En particular los trabajos desarrollados
en el tema abarcan diversas áreas, tales como, la simulación de capacidades
perceptuales y psicomotoras, la comprensión de lenguaje natural y la
construcción de sistemas informáticos de conocimientos determinados.
Actualmente el mundo es testigo de los cambios impresionantes en las
habilidades de las microcomputadoras.
Nos podemos dar cuenta que estamos
sumergidos en un mundo de máquinas.
Máquinas no sólo de “carne y huesos”,
sino que también vienen acompañadas
de sus respectivas “mentes”, tales como:
despertadores, refrigeradores,
calefactores, ventiladores con
termostato, televisores, equipos de
música, microondas, celulares, cámaras
de todo tipo, cajeros automáticos, etc.
Si lo vemos desde el punto de vista de la
industria y los negocios, la presencia de la
Inteligencia Artificial es notoria, por ejemplo, podemos hacer referencia a los
llamados “Sistemas expertos”, sistemas capaces de servir como ayudantes
inteligentes a los especialistas humanos en campos como el análisis químico, el
diagnóstico de fallas mecánicas y las finanzas, por otra parte; podemos darnos
cuenta de la rápida automatización y robotización que están experimentando
muchos procesos Industriales.
En lo que se refiere a la Inteligencia
Artificial, el modelo humano se
encuentra como guía para los trabajos
con las máquinas y por la otra, se
encuentran las computadoras como
modelos que explican los procesos
esenciales para el ser humano.
De esta manera, las aplicaciones de la Inteligencia Artificial se sitúan
principalmente en la simulación de actividades intelectuales del hombre. Es decir,
imitar por medio de máquinas, normalmente electrónicas, tantas actividades
mentales como sea posible, y quizás llegar a mejorar las capacidades humanas
en estos aspectos.
“Para entender un poco la Inteligencia Artificial, podemos imaginar la
construcción de un robot, que llevara la contabilidad de lo que “le gusta” y de lo
que “no le gusta” (en un contador digital) y que actuara en función de su
puntuación, según algunos criterios de programación. Contaría positivo cuando
se recarga, cuando detecta la presencia de algún dispositivo similar o luz, y
contaría negativo en la medida en que se va descargando, que se va
oscureciendo o que acumula tiempo de soledad”. (Hardy, 2010)
Esto se refleja en los conceptos de algunos expertos sobre la Inteligencia Artificial
como una serie de técnicas gracias a las cuales las computadoras pueden
parecer más Inteligentes.
Psicología e Inteligencia Artificial.
La psicología y la Inteligencia Artificial comparten muchos temas de estudio, y los
hallazgos en uno casi siempre han tenido algún impacto en el otro.
(Negrete, 1992)
Escuelas del pensamiento
La Inteligencia Artificial se divide en dos escuelas de pensamiento:
-La inteligencia artificial convencional.
-La inteligencia computacional.
Inteligencia artificial
convencional
-Razonamientos basados en casos:
Ayuda a tomar decisiones mientras se
resuelven ciertos problemas concretos y,
aparte de que son muy importantes,
requieren de un buen funcionamiento.
-Sistemas expertos: Infieren una solución
a través del conocimiento previo del
contexto en que se aplica y ocupa de
ciertas reglas o relaciones.
-Redes bayesianas: Propone soluciones mediante inferencia probabilística.
-Inteligencia artificial basada en comportamientos: esta inteligencia tiene
autonomía y pueden auto-regularse y controlarse para mejorar.
-Smart process management: Facilita la toma de decisiones complejas,
proponiendo una solución a un determinado problema al igual que lo haría un
especialista en la actividad.
Inteligencia artificial computacional
-La Inteligencia Computacional (también conocida como Inteligencia Artificial
subsimbólica-inductiva) implica desarrollo o aprendizaje interactivo (por ejemplo,
modificaciones interactivas de los parámetros en sistemas conexionistas). El
aprendizaje se realiza basándose en datos empíricos.
TECNOLOGIAS FUTURAS GRAFENO
http://estilosdevida.bolsamania.com/wp-content/uploads/2013/11/grafeno1_1.jpg
El descubrimiento del grafeno ha dado lugar a una avalancha de interés internacional
de investigación, y este nuevo material en el campo de la ciencia de los materiales y
la física de la materia condensada ha revelado una gran abundancia de nueva física
y las aplicaciones potenciales.
Gong, J. R. (2011). intechopen. doi:10.5772/20691
El grafeno es un cristal bidimensional consistente en una red hexagonal de átomos de
carbono. Su estructura de bandas a baja energía y en situación de medio llenado
viene descrita por la ecuación de Dirac. sin masa en (2+1) dimensiones. Este hecho
hace que gran parte de las propiedades electrónicas y de transporte que presenta en
este sistema sean diferentes a aquellas que se encuentran en los semiconductores de
baja dimensionalidad usuales. En la realidad, las muestras de grafeno se encuentran
curvadas. Las principales fuentes de curvatura son las fluctuaciones térmicas, los
defectos topológicos y las interacciones con el sustrato. El hecho de encontrarse
curvado hace que el grafeno presente modificaciones en sus propiedades físicas con
respecto a la situación ideal
Fernández, A. C. (Octubre de 2007). e-archivo.uc3m.e.
¿Qué es el Grafeno?
El carbono es uno de los elementos químicos más importantes en la naturaleza. Se
encuentra en todos los seres vivos y, según se distribuyan sus átomos, puede formar
sustancias con distintas características. A partir del carbono se consigue el
grafeno. Este material surge cuando pequeñísimas partículas de carbono se agrupan
de forma muy densa en láminas de dos dimensiones muy finas (tienen el tamaño de
un átomo), y en celdas hexagonales. Para que te hagas una idea, su estructura es
similar a la que resulta de dibujar un panal de abejas en un folio. ¿Por qué en un folio?
Porque es una superficie plana, de dos dimensiones, como el grafeno.
El grafeno se obtiene a partir de una sustancia abundante en la naturaleza, el grafito.
Ésta, forma parte de nuestra vida cotidiana, ya que se emplea para fabricar muy
variados objetos, desde la mina de los lápices hasta algunos ladrillos.
Utilidad del Grafeno
Para poder hacernos una idea de en cuántos campos distintos puede aplicarse el
grafeno, es necesario echar un vistazo a nuestro alrededor y ver todo lo que nos
rodea. Ordenadores, coches, teléfonos móviles y equipos de música son, por
mencionar sólo algunos de ellos, cosas queencontramos frecuentemente en nuestra
vida cotidiana en las que el grafeno se podría llegar a aplicar.
Por sus propiedades, el grafeno puede servir como material en la fabricación de
aviones, satélites espaciales o automóviles, haciéndolos más seguros. También en la
construcción de edificios, pues los convertiría en más resistentes.
Pero, sobre todo, destacan sus aplicaciones en el campo de la electrónica, donde a
través de sucapacidad para almacenar energía puede dotar a las baterías de una
mayor duración y un menor tiempo de carga, establecer conexiones más rápidas e
incluso contribuir a mejorar el medio ambiente sustituyendo a materiales
contaminantes que hoy en día nos vemos obligados a utilizar.
No hay que olvidar su relevancia en el ámbito de la salud. Las prótesis de grafeno
podrían sustituir a las actuales, de diversos materiales. O incluso se podría aplicar para
mejorar el tratamiento de algunas enfermedades.
Por todo esto, no es de extrañar que se diga que su utilidad es prácticamente ilimitada
y que las barreras a su aplicación únicamente son las de la imaginación humana.
http://www.infografeno.com/. (s.f.). infografeno. Obtenido
de http://www.infografeno.com/
Algunos ejemplos del uso del Grafeno:
Electrónica: Podría emplearse en la fabricación de microchips o de transistores,
ambos elementos imprescindibles en prácticamente todos losdispositivos
electrónicos.
Informática: El uso del grafeno permitirá el desarrollo de ordenadores mucho
más rápidos y con un menor consumo eléctrico que los actuales de silicio.
Además, se estima que un disco duro de este compuesto, del mismo tamaño
que uno de los empleados actualmente, podría almacenar hasta mil veces más
información.
Telefonía móvil: Con el grafeno se crearía una nueva generación de dispositivos
adaptados a la fisionomía del ser humano, sin formas ni colores preestablecidos,
con pantallas flexibles, plegables y táctiles. Además, diversos estudios recientes
han comprobado cómo nanocircuitos de grafeno podrían mejorar de manera
significativa la velocidad y calidad de las comunicaciones inalámbricas.
Realmente, este tipo de productos suena casi a ciencia ficción, pues medirían
mil millones de veces menos que un metro.
Sector energético: Es otro de las que cambiarán de manera visible. Por sus
propiedades energéticas, el grafeno permitirá la creación de baterías de larga
duración que apenas tardarán unos segundos en cargarse. Además, las
energías renovables pasarán a un plano más relevante, ya que, entre otros, las
placas solares recubiertas de este material serán mucho más eficientes y
permitirán una forma más ecológica de consumo energético.
Industria del blindaje: La extrema dureza del grafeno, unida a su capacidad de
moldearse y a su ligereza, lo hace un compuesto ideal para ser empleado en
esta industria. Chalecos antibalas, cascos y multitud de elementos de
protección que se emplean por diversos profesionales pasarán a ser mucho más
ligeros y seguros.
Industria automovilística: Su aplicación en el chasis de los vehículos los haría
mucho más resistentes, por lo que el número de muertes en accidente de
circulación anuales se podría reducir drásticamente. Por otra parte, los coches
híbridos se convertirán en una alternativa real en vez de ser relegados a una
representación minoritaria. Baterías de larga duración, con tiempos de carga
mínimos facilitarán que los conductores más reacios a estos vehículos los vean
con otros ojos.
Industria alimentaria: Posibilitará la creación de envases para alimentos más
seguros o recubrimientos para los muebles del hogar que impidan el desarrollo
de bacterias en su superficie.
Desarrollo de la ciencia: La alta reactividad del grafeno con otros elementos
químicos distintos del carbono es una de las características que más atrae la
atención en el campo de la investigación. Ya se han descubierto algunos
derivados del grafeno, como es el caso del grafano, que mediante la adición
de hidrógeno en su estructura molecular da como resultado un nuevo material
aislante.
Propiedades del Grafeno
http://www.quo.es/var/quo/storage/fckeditor/File/grafeno%20infografia%20Quo%2018
1.jpg
Estos son algunos ejemplos de cada propiedad.
Dureza: Se puede definir la dureza de un material como la cantidad de energía
que es capaz de absorber antes de romperse o deformarse. El en caso del
grafeno su dureza se estima en aproximadamente unas 200 veces la del acero,
casi similar a la del diamante. Es decir, que hablamos de un material muy
resistente al desgaste y que puede soportar grandes pesos. Se estima que para
atravesar una lámina de grafeno con un objeto afilado sería necesario
establecer un peso sobre él de aproximadamente cuatro toneladas.
Elasticidad: Al igual que pasa con la dureza, el grafeno presenta una elevada
elasticidad. Esto hace que se pueda aplicar en muy diferentes superficies, de las
cuales aumentará también la durabilidad, ya que al ser elástico tendrá menos
posibilidades de quebrarse.
Flexibilidad: Al tener una elevada elasticidad puede moldearse de diversas
maneras, lo que aumenta enormemente los campos en los que se puede
utilizar.
Conduce muy bien el calor: La conductividad térmica es una propiedad física
que mide la capacidad de un cuerpo de conducir el calor, es decir, de permitir
el paso del calor a través de él. Es elevada en los metales, pero muy baja en el
resto de los materiales, por lo general. La excepción a esto es el grafeno.
EDUACIÓN UNIVERSITARIA
Amigos la educación en México es como una mujer bonita solo está disponible si
tienes mucho dinero o si lo intentas muy duro, somos muchos, tenemos muchos hijos,
no tenemos dinero pero queremos que estudien una universidad, porque obviamente
tener una carrera universitaria te va a sacar de pobre, no es
errónea la idea, bueno si lo es, no siempre te va sacar de
pobre la universidad hace que tengas una mejor
expectativa en tu calidad de vida y no tengas que recurrir
a la penosa necesidad de ser dj o stand opero, es por eso
que decidimos adentrarnos en este mundo de marucha
engargolados y gomichelas que es la educación
universitaria.
Amigos el examen de admisión, tan solo en el año 2014,
217mil jóvenes quisieron entrar a la universidad lográndolo
cerca de 100mil, eso quiere decir que casi la mitad lo logro,
eso ¿suena bien? ¡No! Eso quiero decir que por cada 2
jóvenes que quieren entrar uno lo logra y el otro no, pero el problemas con la
educación universitaria es que todos quieren entrar a la UNAM, porque a la UNAM, ¿es
porque las niñas están bonitas? ¿Es posibilidad de fumar mota en los jardines? ¿O la
posibilidad de fumar mota en los jardines con las niñas del campus? No amigos, todo
mundo es fan de entrar a la UNAM o al Politécnico por el nivel académico.
La triste verdad es que las universidades en México, salvo honrosas excepciones como
Monterrey, Jalisco, Puebla y San Luis tienen un nivel académico muy lamentable, y es
que la UNAM es la reina de rechazar aspirantes, de los 126mil aspirantes que
presentaron un examen para ingresar a un nivel licenciatura a la UNAM solo se
quedaron 11mil que representa 9% eso quiere decir que se quedaron fuera el 91% de
los aspirantes ósea se queda 1 de cada 10, ¿pero es porque nuestros estudiantes están
tan bajos académicamente que les tienen que bajar el nivel para que se puedan
quedar? Si, es la triste verdad. En 44 de las 237 carreras que se ofrecen, el nivel
académico fue tan bajo que al final solamente con que lograran el 60% de los aciertos
se quedaban aun así el 85% de los aspirantes no se quedo, si, que decepción.
Y es que además del nivel académico la UNAM es la mejor opción para muchos
porque es como mi mujer ideal inteligente y barata es que, por que si ustedes no lo
sabían la mitad de la investigación científica que se conduce en este país se lleva a
cabo en este lugar. También que para casi 2/3 de la población mexicana que gana
menos de 8mil peso al mes esta es la opción que les evita vender su páncreas para
que su hijo pueda ir a la universidad ¿por qué? Por que el costo promedio de una
universidad privada va desde los $125,000 MXN hasta los $935,000MXN, de manera que
muchos mexicanos la situación es: “O mandamos a tu hermano a la Ibero o
comemos” pero una pregunta queda en el aire. ¿Qué hacen los aspirantes que
rechazan?, ¿se van a alguna de las otras escuelas para continuar con su sueño de
continuar su educación superior?, ¿Se preparan para tener un mejor desempeño en el
siguiente examen?, ¿Se postulan para diputado?, ¡NO!, salen a marchar y crean
organismos como, Movimiento de Aspirantes Excluidos de la Educación Superior.
Pero para evitar que los estudiantes salgan en cadena nacional, la SEP que como
cada año experimenta con algo diferente no se ha rendido y ofreció a los casi 100mil
aspirantes rechazados 40mil becas para que solamente paguen mil pesos de
colegiatura en universidades privadas, obvio no el Tecnológico de monterrey e Ibero
Americana, de manera que el programa educativo no siempre es el mejor porque
muchos de ellos son rechazados, pero en nuestro país para aquellos que logran vencer
el cruce universitario y son aceptados solamente se gradúa el 25%, que mal que solo
esa cantidad logren terminar, y es que la estadística de la UNAM es contundente, de
100 alumnos que ingresan a la primaria solo 17 van a terminar una licenciatura, es que
entre los jóvenes mexicanos que estudian un nivel profesional al 51% la mantiene un
familiar, el 20% ha tenido que dejar en algún momento sus estudios, el 24% asiste a
alguna universidad particular y el 5% cursa el sistema a distancia.
Por si esto fuera poco nuestro jóvenes escogen
su carrera con las patas(por así decirlo), por
ejemplo en el top 10 de la carreras con mayor
demanda en el país se encuentran: Educación
Docente, Comunicación, Periodismo y
Psicología, las cuales ocupan los lugares 3, 4, 8
y 10 de las carreras peor pagadas del país.
Pero por qué escogemos con las manos
metidas en la cola, ¿Por qué la vocación tiene
que estar peleada con el bienestar
económico? Pero lo más importante que eso
¿Por qué todos escogen carreras en donde no
tienen MATEMATICAS? Porque eso sí, los
Ingenieros Físicos y los Lic. En finanzas están el
top 10 de carreas mejor pagadas del país, de
hecho si eres físico tienes un 100% de
probabilidad de tener una excelente
oportunidad de tener un empleo bien pagado,
¿pero que tienen en común esa carreras? ¡Que
todo es Matemáticas!!
Por todos lados ven matemáticas. Apréndanse esto: “Si les gustan las matemáticas
más vale que les gusten juntar cupones porque les va a ir muy mal en la vida”
Amigos el éxito profesional se ha convertido en el Santo Grial de los mexicanos,
Muchos lo intentan, pocos se lo pueden permitir y una pequeñísima cantidad logra
terminarlo, eso sin olvidar a los casi 12 millones niños que ni siquiera estudian. Has
conciencia aprovecha la oportunidad que tienes ahora, no la desperdicies.
ASTRONOMÍA
Astronomía.
Es la ciencia que se encarga del estudio del
universo, así como de todos sus componentes
como las estrellas, planetas, rocas espaciales,
galaxias, constelaciones, etc.
Se define a la astronomía como la ciencia más
completa de todas por el esquema que utiliza, ya
que es una toma de todas las ciencias tanto
exactas como de humanidades.
La astronomía engloba lo que es la cosmogonía,
física, astrología, etc.
Se observa el estudio de la luz, los fenómenos astrológicos, la teoría del big bang que
fue la creación del universo.
El universo
(astronomia.com, 2010) El Universo es todo, sin excepciones: materia, energía, espacio
y tiempo, todo lo que existe forma parte del Universo. Es muy grande, pero no infinito. Si
lo fuera, habría infinita materia en infinitas estrellas, y no es así. En cuanto a la materia,
el universo es, sobre todo, espacio vacío.
La materia no se distribuye de manera uniforme, sino que se concentra en lugares
concretos: galaxias, estrellas, planetas, etc. Sin embargo, el 90% del Universo es una
masa oscura, que no podemos observar. Por cada millón de átomos de hidrógeno los
10 elementos más abundantes son:
Teoria del BIG BANG.
(sanroma, 2010) Fue una acumulación de
gases, partículas subatómicas y otros
componentes químicos lo que provocó una
gran explosión, lo que dio paso a que se fueran
formando las galaxia, los planetas y
constelaciones.
Los planetas se fueron formando gracias a la ley de la
Símbolo Elemento químico Átomos
H Hidrógeno 1.000.000
He Helio 63.000
O Oxígeno 690
C Carbono 420
atracción entre los objetos solidos que fueron
las rocas que surgieron gracias a la explosión,
este proceso tardó unos millones de años, ya
que también se fueron formando las galaxias y
estrellas.
(georgraphic, s.f.) Esta teoría surgió de la
observación del alejamiento a gran
velocidad de otras galaxias respecto a la
nuestra en todas direcciones, como si
hubieran sido repelidas por una antigua
fuerza explosiva.
Antes del big bang, según los científicos, la inmensidad del universo observable,
incluida toda su materia y radiación, estaba comprimida en una masa densa y
caliente a tan solo unos pocos milímetros de distancia. Este estado casi incomprensible
se especula que existió tan sólo una fracción del primer segundo de tiempo.
Los defensores del big bang sugieren que hace unos 10.000 o 20.000 millones de años,
una onda expansiva masiva permitió que toda la energía y materia conocidas del
universo (incluso el espacio y el tiempo) surgieran a partir de algún tipo de energía
desconocido.
La teoría mantiene que, en un instante (una trillonésima parte de un segundo) tras el
big bang, el universo se expandió con una velocidad incomprensible desde su origen
del tamaño de un guijarro a un alcance astronómico. La expansión aparentemente ha
continuado, pero mucho más despacio, durante los siguientes miles de millones de
años.
Galaxias
(profundo, s.f.) Las galaxias son enormes conjuntos de cientos o miles de millones de
estrellas, todas interaccionando gravitacionalmente y orbitando alrededor de un
centro común. Todas las estrellas visibles a simple vista desde la Tierra pertenecen a
nuestra galaxia, la Vía Láctea. El Sol es solamente una estrella de esta galaxia. Además
de estrellas y planetas, las galaxias contienen cúmulos de estrellas, hidrógeno atómico,
N Nitrógeno 87
Si Silicio 45
Mg Magnesio 40
Ne Neón 37
Fe Hierro 32
S Azufre 16
hidrógeno molecular, moléculas complejas compuestas de hidrógeno, nitrógeno,
carbono y silicio entre otros elementos, y rayos
cósmicos.
Las galaxias adoptan formas determinadas, y
se clasifican según esa forma:
LINEA DE TIEMPO
Historia de México