HOMOTECIA Nº 1 – Año 15 Lunes - UCservicio.bc.uc.edu.ve/homotecia/2017/1-2017.pdf · evidente...

40

Transcript of HOMOTECIA Nº 1 – Año 15 Lunes - UCservicio.bc.uc.edu.ve/homotecia/2017/1-2017.pdf · evidente...

HOMOTECIA Nº 1 – Año 15 Lunes

2017. Con la esperanza de que advengan mejores tiempos, reciban todos un Feliz Año Nuevo. Lo importante y significativo de nuestra condición de humanidad, es que somos libres no solamente para pensar y decidir sino también para desear. Por nuestra parte, nos contenta tanto desde lo personal como desde nuestra condición de ciudadanos, poder seguirlos acompañando; e igualmente desde este inicio de nuestro déciaño de publicación, llegar hasta ustedes. Como la mayoría de las personas a las que contactamos mediante nuestra Revista HOMOTECIA son jóvenes docentes que se inician en el andar de este camino, consideramos procedente dirigir esta primera editorial, como muestra de apoyo y estimulación, a ellos. Con mucha convicción, podemos afirmar que la satisfacción en el trabajo docente se alcanza cuando tratamos siempre de dar lo mejor de nosotros. Para los tiempos que estamos viviendo, es urgente que la sociedad se transforme, siguiendo lo cíclico de un bucle, entre la escuela (la educación) y el hogar (la familia); este hecho es lo que determinará en el futuro la importancia de desempeñarse en la profesión docente. En los jóvenes de hoy, los que son actualmatendidos en las aulas de clase, están latentes factores para ser los futuros líderes de este país. De aquí que su formación deben conseguirla en las instituciones educativas, es decir deben formarse en la educación sistemática y no con vivencias a medias ni sesgadas. El contacto del individuo con el mundo real, repitiendo lo que ya antes hemos referido en más de una oportunidad, es a través de los sentidos, percibrealidad solo lo que se le hace consciente (trozos de realidaddefinámoslos así), sujeto a las limitaciones que afectan a por lo que es imposible que perciban la realidad en su totalidad.en un proceso de transición de vida (niñez, adolescencia, adultez), además de un proceso de avidez por la adquisición destá en otro que es el de aprender a vivir; así la personalidad de cada uno de ellos es permeable. Un mal manejo de esta condición puede producir significativas interferencias en el desarrollo adecuado de su criterio como adulto. Aceptamos como cierto que el aprendizaje fuera de las aulas proporciona vivencias que les permiten recibir lecciones de y para la vida, siendo ejemplo de esto lo que se vive en el hogar y en comunidad, pero son los institutos educativos, que funcionan basados lo universal de la cultura, los lugares en donde deben crecer en y espíritu. Además, se le debe enseñar y concretar que viva siempre en un mundo de verdades. Manejar datos falsos puede provocar que cometa errores o no asimile los datos que son verdaderos. problemas de existencia cuando la información que maneja es verdadera, pues nadie es más infeliz cuando al vivir en un mundo mentiras, al enfrentar la realidad esto lo enfermará física y mentalmenteSi una persona está rodeada de individuos que le mienten, se le está induciendo a cometer errores existenciales y su potencial de logros se le reduce. La información falsa puede surgir de muchas fuentes: académicas, sociales, profesionales, laborales, faltarían más casos por citar. Así vemos a personas intención de inducir a otras a que crean en las ideas que a ellas en particular les convienen... Pero no es de humanos congéneres lo que no se quiere que le hagan a unoelementos van conformando el principio que debe regir el cómo formar a nuestros estudiantes, qué tipo de ciudadano queremos ayudar a construir y de hecho, qué clase de docente se debe ser. En las características de la naturaleza profesional del docente debe estar siempre presente el ser responsable y la dedicación a su labor, pero existen otros valores los cuales también deben ser naturales en su conducta. Siendo para nosotros evidente que en la actualidad la verdad y la justicia ajustadas a intereses particulares, el honor, la honestidad, la sinceridad y la lealtad deben ser valores morales que no se venden, no se rinden y no se entregan. Particularmente,que practique este principio, tiene la virtud de convertir las derrotas en triunfos. Quien no lo practique, la traición y el miedo son los que rondarán su vida y a la larga, los triunfos se convertirán en derrotas. El docente debe ser siempre un ser que merezca el respetejemplo social y de humanidad.

“Ten miedo cada vez que no digas la verdad."

Lunes, 9 de Enero de 2017

2017. Con la esperanza de que advengan mejores tiempos, reciban todos un Feliz Año Nuevo. Lo importante y significativo de nuestra condición

es que somos libres no solamente para pensar y decidir sino también para desear. Por nuestra parte, nos contenta tanto desde lo personal como desde nuestra condición de ciudadanos, poder seguirlos acompañando; e igualmente desde este inicio de nuestro décimo quinto año de publicación, llegar hasta ustedes. Como la mayoría de las personas a las que contactamos mediante nuestra Revista HOMOTECIA son jóvenes docentes que se inician en el andar de este camino,

ial, como muestra de Con mucha convicción, podemos afirmar

que la satisfacción en el trabajo docente se alcanza cuando tratamos siempre de dar lo mejor de nosotros. Para los tiempos que estamos

iedad se transforme, siguiendo lo cíclico de un bucle, entre la escuela (la educación) y el hogar (la familia); este hecho es lo que determinará en el futuro la importancia de desempeñarse en la profesión docente. En los jóvenes de hoy, los que son actualmente atendidos en las aulas de clase, están latentes factores para ser los futuros líderes de este país. De aquí que su formación deben conseguirla

deben formarse en la educación medias ni sesgadas. El contacto del

, repitiendo lo que ya antes hemos referido es a través de los sentidos, percibiendo de la

trozos de realidad, as limitaciones que afectan a cada sentido,

por lo que es imposible que perciban la realidad en su totalidad. Estando en un proceso de transición de vida (niñez, adolescencia, adultez), además de un proceso de avidez por la adquisición de conocimientos se está en otro que es el de aprender a vivir; así la personalidad de cada uno

n mal manejo de esta condición puede producir interferencias en el desarrollo adecuado de su criterio

el aprendizaje fuera de las aulas proporciona vivencias que les permiten recibir lecciones de y para

en el hogar y en la que funcionan basados en

universal de la cultura, los lugares en donde deben crecer en sabiduría Además, se le debe enseñar y concretar que viva siempre en

provocar que cometa verdaderos. Podrá resolver sus

la información que maneja es cuando al vivir en un mundo de

, al enfrentar la realidad esto lo enfermará física y mentalmente. rodeada de individuos que le mienten, se le está

induciendo a cometer errores existenciales y su potencial de alcanzar puede surgir de muchas

laborales, políticas, y personas con la premeditada

de inducir a otras a que crean en las ideas que a ellas en Pero no es de humanos hacer a nuestros

gan a uno. Todos estos elementos van conformando el principio que debe regir el cómo formar a nuestros estudiantes, qué tipo de ciudadano queremos ayudar a construir y de hecho, qué clase de docente se debe ser. En las características de la

esional del docente debe estar siempre presente el ser responsable y la dedicación a su labor, pero existen otros valores los cuales también deben ser naturales en su conducta. Siendo para nosotros evidente que en la actualidad la verdad y la justicia son definidas y

, la nobleza, la deben ser valores morales que no

se venden, no se rinden y no se entregan. Particularmente, el docente te principio, tiene la virtud de convertir las derrotas en

triunfos. Quien no lo practique, la traición y el miedo son los que rondarán su vida y a la larga, los triunfos se convertirán en derrotas. El docente debe ser siempre un ser que merezca el respeto de todos, un

LUDWIG WITTGENSTEIN(1889–1951)

Nació el 26 de abril de 1889 en Viena, Austriade 1951, a los 62 años, Cambridge, Inglaterra.

Ludwig Josef Johann WittgensteinFilósofo que trabajó sobre los fundamentos de la matemática y

de la lógica matemática

El padre de Ludwig Wittgenstein fue Karl Wittgenstein quien era judío, mientras que su madre era católicfue bautizado según la iglesia católica. Sus padres eran muy aficionados a lo musical y Ludwig fue criado en una casa que estaba siempre llena de música, siendo frecuente. Los padres de Ludwig tuvieronaltamente talentosos tanto en lo artístico intelectual. Ludwig fue el menor. Tres eran mujeres: Hermine y Helene y los otros varones: Paul y Ludwig. Era una familia rica que hizo fortuna industria del acero y, llegó a ser una de las familias más adineradas de Austria, lo que permitió a lproporcionar la mejor educación posible

En este momento es conveniente comentar algunas cosasobre los hermanos y hermanas de Ludwig, para comprender en algo el estilo de vida en el cual creció y también por lo que él pasó. Sus hermanosRudolf se suicidaron posteriormente. Paul pianista que perdió un brazo durante la Ravel compuso para él Concerto for the Left Handpara la mano izquierda). Gretl tenía un por el famoso gran pintor austríaco de Klimt. Hermine escribió un importante artículo Wittgenstein, considerada aquí como la referencia cual se toman algunas citas.

Ludwig fue educado en casa hasta que tedad. Al crecer, mostró un interés porcuando alcanzó los diez años hizo un trabajo de coser. En 1903 Wittgenstein comenzó tres años de escolaridad en la Realschule de Linz, Austriespecializada en matemáticas y ciencias naturales. un ambiente considerado altamente culto y entrar escuela llena de niños hijos de gente aquello se convirtió para Wittgenstein y triste. No comprendía a sus condiscípulos y les parecía[16]:

... como seres de otro mundo.

(CONTINÚA EN LA SIGUIENTE PÁGINA)

Reflexiones

“Ten miedo cada vez que no digas la verdad." Raimundo Lulio (EE. UU.)

1

LUDWIG WITTGENSTEIN

Viena, Austria; y murió el 29 de abril de 51, a los 62 años, Cambridge, Inglaterra.

Ludwig Josef Johann Wittgenstein. abajó sobre los fundamentos de la matemática y

lógica matemática.

Karl Wittgenstein quien era judío, mientras que su madre era católica romana. Ludwig

la iglesia católica. Sus padres eran muy musical y Ludwig fue criado en una casa que

estaba siempre llena de música, siendo Brahms un invitado uvieron ocho hijos que eran

artístico como en lo Tres eran mujeres: Gretl,

los otros varones: Hans, Kurt, Rudolf, Era una familia rica que hizo fortuna en la

una de las familias más lo que permitió a los padres

proporcionar la mejor educación posible a sus hijos.

es conveniente comentar algunas cosas de Ludwig, para comprender

en el cual creció Ludwig como creció Sus hermanos Hans, Kurt y

. Paul fue un talentoso pianista que perdió un brazo durante la 1a Guerra Mundial.

Concerto for the Left Hand (Concierto un retrato de ella pintado de Art Nouveau, Gustav

Klimt. Hermine escribió un importante artículo sobre Ludwig considerada aquí como la referencia [16] y de la

casa hasta que tuvo catorce años de por las cosas mecánicas y

diez años hizo un trabajo sobre la máquina de coser. En 1903 Wittgenstein comenzó tres años de

Linz, Austria, escuela en matemáticas y ciencias naturales. Al venir de

un ambiente considerado altamente culto y entrar en una hijos de gente de la clase obrera, Wittgenstein en un momento difícil

No comprendía a sus condiscípulos y les parecían

(CONTINÚA EN LA SIGUIENTE PÁGINA)

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 2 (VIENE DE LA PÁGINA ANTERIOR)

¿Cómo podrían ellos entender al frágil muchacho tímido que hablaba balbuceando, y cuyo padre era uno de los hombres más ricos de Austria? Sin embargo, la escuela permitió a Wittgenstein aumentar su amor por la tecnología y lo hizo tomar la decisión de estudiar ingeniería en la Universidad. En 1906 viajó a Berlín donde comenzó sus estudios en ingeniería mecánica en la Technische Hochschule en Charlottenburg. Con la intención de estudiar un doctorado en ingeniería, Wittgenstein se fue a Inglaterra en 1908 y se registró como estudiante de investigación en un laboratorio de ingeniería de la Universidad de Manchester.

Su primer proyecto consistió en el estudio del comportamiento de los cometas en la atmósfera superior de la tierra. Comenzó entonces un amplio estudio de investigación aeronáutica, esta vez examinando el diseño de una hélice con un pequeño motor de jet en el extremo de cada lámina. En esta época Wittgenstein era más de mentalidad práctica de lo que se pueda suponer, comparando con su trabajo teorico que posteriormente desarrolló. No sólo estudió el diseño teórico de la hélice, sino que la construyó y probó.

Las pruebas de la hélice fueron acertadas, pero al comprender que necesitaba entender más matemáticas para realizar sus investigaciones, comenzó estudios que pronto lo involucraron con los fundamentos de las matemáticas. Bertrand Russell había publicado sus Principles of Mathematics (Principios de las matemáticas) en 1903 y Wittgenstein recurrió a esta obra buscando una mejor comprensión de los fundamentos sobre esta área. Le interesó tanto el trabajo de Russell que decidió que quería aprender más. Wittgenstein viajó a Jena para solicitarle a Frege que le aconsejara sobre el particular y éste le dijo que debía estudiar asesorado por Russell.

Wittgenstein dejó a un lado su investigación sobre aeronáutica en Manchester en 1911 para estudiar lógica matemática con Russell en el Trinity College de Cambridge. Russell no era dado a dejarse impresionar fácilmente por algún estudiante, pero sin duda Wittgenstein lo impresionó mucho. Russell escribió que enseñar a Wittgenstein fue:

... una de las más emocionantes aventuras intelectuales [de mi vida]. ... [En Wittgenstein había] fuego, penetración y pureza intelectual a un grado extraordinario. ... [Él] pronto sabía todo lo que yo tenía que enseñarle.

Russell también escribió [referencia 14]:

Su disposición es la de un artista, intuitivo y de mal humor. Dice que cada mañana comienza su trabajo con esperanza, y todas las noches termina desesperado.

En 1912 Russell se había convencido que Wittgenstein poseía un genio que debía ser orientado hacia la filosofía matemática. Por lo tanto persuadió a Wittgenstein a renunciar a la idea de reanudar su trabajo de matemática aplicada a la aeronáutica.

El primer trabajo que Wittgenstein presentó fue la Sociedad Filosófica de Cambridge en 1912, titulado What is philosophy? (¿Qué es filosofía?) [referencia 12]:

... [este trabajo] muestra que desde el principio Wittgenstein reconoce la importancia de comprender la naturaleza de los problemas filosóficos y de reflexionar sobre los métodos apropiados para abordarlos.

Durante este período en Cambridge, Wittgenstein continuó trabajando sobre los fundamentos de las matemáticas y también sobre lógica matemática. Sin embargo, sufrió depresión y amenazó con suicidarse en varias ocasiones. Encontró a Cambridge el lugar menos ideal para trabajar ya que sentía que los académicos de allí, estaban simplemente alardeando con sus discursos el ser inteligentes, mientras que sus ideas carecían de profundidad. Cuando le dijo a Russel que quería salir de Cambridge e ir a Noruega, Russell trató de disuadirlo [referencia 14]:

Le dije que estaría a oscuras, y dijo que odiaba la luz del día. Le dije que estaría solo, y dijo que se le prostituía la mente hablando con gente inteligente. Le dije que estaba loco, y dijo que Dios lo conservaría sano. (Dios ciertamente lo haría).

Pese a los intentos de Russell para detenerlo, Wittgenstein se fue a Skjolden en Noruega y esto resultó un período muy fructífero durante el cual vivió aislado trabajando en sus ideas sobre la lógica y el lenguaje que formaría la base de su gran obra el Tractatus Logico-Philosophicus. También fue un período cuando volvió a sufrir de depresión. En sus cartas a su hermana Hermine habló de su tormento mental (referencia [16]) y escribió que durante este tiempo vivió:

... en un estado elevado de intensidad intelectual que se inclinaba hacia lo patológico.

Cuando la 1a Guerra Mundial estalló en 1914 Wittgenstein inmediatamente viajó desde Skjolden a Viena para unirse al ejército austríaco. Estaba entusiasmado para alistarse ya que quería enfrentar la muerte [referencia 16]:

Ahora debería tener la oportunidad de ser un ser humano decente, porque estoy de pie cara a cara con la muerte.

Sirvió primero en un barco, en el taller de artillería, pero encontró a sus compañeros muy difíciles puesto que lo trataban con crueldad. En 1916 fue enviado como miembro de un regimiento de bombarderos al frente ruso donde obtuvo numerosas distinciones por su valor. En 1918 fue enviado al norte de Italia conformando un regimiento de artillería y estuvo allí hasta el final de la guerra, convirtiéndose en prisionero de los italianos en la población de Cassino. Durante estos cuatro años de servicio activo Wittgenstein escribió su gran labor en lógica, el Tractatus y el manuscrito fue encontrado en su mochila cuando lo hicieron prisionero. Se le permitió enviar el manuscrito a Russell mientras estuvo detenido en un campo de concentración en Italia.

Después de haber escrito lo que él creía que era su última palabra sobre filosofía, la intención de Wittgenstein era ahora renunciar a su estudio sobre el tema. Liberados de la detención en 1919, regaló la fortuna familiar que había heredado y, al año siguiente, se entrenó como maestro de escuela primaria en Austria. Fue entrenado en los métodos de la corriente reformista de la escuela austríaca, que considera que el objetivo principal de un maestro es despertar la curiosidad en el niño y ayudarlo a desarrollarse como pensador independiente. El movimiento rechaza el método de enseñanza que alentaba a los niños a aprender simplemente repitiendo hechos.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 3

Pero aunque Wittgenstein era un firme creyente en estos principios y trató con gran entusiasmo ofrecer a los niños que él enseñó en la aldea de montaña de Wiener Neustadt, con la mejor educación posible, hubo factores que trabajaron en contra de su éxito. Tal vez la mayor dificultad que enfrentó Wittgenstein fue que aunque regaló la fortuna heredada, no hizo nada para permitir que alguien con su experiencia altamente privilegiada encajara en la cultura de los hijos de los agricultores a los que enseñaba.

Durante este período Wittgenstein fue otra vez desesperadamente infeliz y estuvo nuevamente a punto de suicidarse en varias ocasiones. El hecho que sus alumnos lo apreciaban lo mantuvo en su tarea, pero encontró dificultades en mantener relaciones amistosas con los otros profesores. Finalmente, sintiendo que había fallado como maestro de escuela primaria, renunció al cargo en 1925. Aún no se sentía deseos por volver a la vida académica y realizó numerosos diferentes trabajos. Primero trabajó como asistente de jardinero en el monasterio de Hüsseldorf, cerca de Viena, viviendo en el cobertizo durante tres meses. Luego trabajó como arquitecto durante dos años, ocupado en el diseño y construcción de una mansión para su hermana Gretl cerca de Viena.

Aunque Wittgenstein no deseaba volver a la vida académica durante este período, no estaba completamente alejado del estudio de la lógica matemática, de los fundamentos de las matemáticas y de la filosofía. Se reunió con Ramsey, quien estaba haciendo un estudio especial del Tractatus y había viajado desde Cambridge a Austria en varias ocasiones para discutirlo con él, y también se reunió con los filósofos del Círculo de Viena. Ha habido muchas teorías formuladas para explicar por qué regresó a la vida académica, pero se cree que al participar activamente en las discusiones de estas reuniones, el pudo captar que vendrían problemas con el Tractatus.

En 1929 Wittgenstein regresó a Cambridge, donde presentó el Tractatus como su tesis doctoral. Este trabajo considera la relación del lenguaje en el mundo. Wittgenstein argumentó que las palabras son representaciones de objetos y que las palabras combinadas conducen a proposiciones que son declaraciones acerca de la realidad, o como él dice, imágenes de la realidad. Tales declaraciones, por supuesto, pueden representar una realidad o verdadera o falsa. Reciprocamente, el mundo presentado por Wittgenstein en el Tractatus, consiste en hechos. Estos hechos pueden desglosarse en Estados del asunto, que a su vez puede desglosarse en combinaciones de objetos. Esto es esencialmente una teoría atómica con el mundo construido a partir de objetos simples. Sostiene que existe una biyección (correspondencia uno a uno) entre el lenguaje y el mundo.

En el prefacio de Philosophical Investigations escrito dieciséis años después de regresar a Cambridge, Wittgenstein escribió:

... desde el principio para ocuparme de nuevo de la filosofía, hace 16 años, me he visto obligado a reconocer errores graves cometidos en lo escrito en ese primer libro. Me ayudó a visualizar estos errores - a un grado tal que yo apenas sería capaz de estimar – las críticas hacia mis ideas hechas por Frank Ramsey, con quien discutí en innumerables conversaciones durante los dos últimos años de su vida.

Sin embargo, no fue sino hasta 1953, dos años después de la muerte de Wittgenstein, que fue publicado este segundo gran trabajo, Philosophical Investigations. En este trabajo Wittgenstein estudió [referencia 12]:

... la filosofía del lenguaje y la psicología filosófica. ... la forma del libro es bastante singular. ... primero conseguimos una parte de 693 comentarios distintos, numerados primero, mientras varían en longitud de una línea a varios párrafos, y una segunda parte de catorce secciones, mitad de una página a treinta y seis páginas completas... en vez de presentar argumentos y conclusiones, con claridad estas observaciones reflexionan sobre una amplia gama de temas sin producir alguna vez una declaración clara final en alguno de ellos.

¿Cómo difiere su enfoque en Philosophical Investigations del que presentó en el Tractatus? Está todavía preocupado por el lenguaje, pero en su posterior modo de pensar las palabras no son invariables representaciones de los objetos, sino son diversas. Dibuja una analogía entre las palabras y las herramientas en una caja de herramientas:

... hay un martillo, alicates, una sierra, un destornillador, una regla, un pote de pegamento, clavos y tornillos. La función de las palabras es tan diversa como las funciones de estos objetos.

No era que una palabra tenía un significado, sino más bien tenía un uso. Otro ejemplo que da es una analogía entre las palabras y piezas en un juego de ajedrez. El significado de una pieza de ajedrez no está determinado por su apariencia física, más bien está determinado por las reglas del ajedrez. Del mismo modo el significado de una palabra es su uso regido por reglas.

Después de obtener su doctorado, Wittgenstein fue nombrado profesor en Cambridge y fue nombrado Fellow (Miembro Investigador) del Trinity College. En los años siguientes Wittgenstein realizó allí conferencias sobre la filosofía de las matemáticas, lenguaje y lógica. En 1939 fue nombrado Jefe de la Cátedra de Filosofía en Cambridge. Malcolm, un estudiante de Wittgenstein, escribe en la referencia [10] sobre las conferencias de Wittgenstein, a las que asistió en 1939:

Sus conferencias fueron dadas sin preparación y sin notas. Me dijo una vez que trató de hacer notas para una conferencia pero le disgustó el resultado; los pensamientos le salieron 'rancios', o, como dijo a otro amigo, las palabras parecían 'cadáveres' cuando empezó a leerlas. De los métodos que llegó a utilizar su única preparación para las conferencias, como me dijo, fue pasar unos minutos antes de cada clase, revisando el curso que la investigación había tomado en la sesión anterior. Al principio de la conferencia daba un breve resumen de lo anterior y entonces empezaba a partir de ahí, tratando de avanzar en la investigación con ideas frescas. ... Lo que ocurría en esas reuniones de clase era en gran medida una nueva investigación.

G. H. von Wright fue pupilo de Wittgenstein en Cambridge. Wright escribe en la referencia [10]:

Wittgenstein pensaba que su influencia como profesor era, en conjunto, perjudicial para el desarrollo de las mentes independientes de sus discípulos. Me temo que él tenía razón. Y creo que en parte entiendo que así sea. Debido a la profundidad y la originalidad de su pensamiento, es muy difícil de entender las ideas de Wittgenstein y aún más difícil incorporan su pensamiento al nuestro. Al mismo tiempo la magia de su personalidad y su estilo era de lo más atractivo y convincente. Aprender de Wittgenstein sin llegar a adoptar sus formas de expresión y lemas e incluso imitar su tono de voz, su semblante y sus gestos, era casi imposible.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 4 Hay aquí una sugerencia sobre que Wittgenstein nunca habría encajado como líder de un grupo grande de estudiantes e investigadores. Aunque tuvo estudiantes que producirían importantes trabajos, aun siendo fiel a su forma de pensar, Wittgenstein siempre pareció una figura aislada. Parecía entender las razones de esto cuando escribió:

¿Soy el único que no pudo encontrar una escuela o un filósofo nunca podrá hacer esto? No encontré una escuela porque no quiero realmente ser imitado. Mucho menos por quienes publican artículos en revistas de filosofía.

Wittgenstein permaneció en Cambridge hasta que dimitió en 1947 con excepción del período de la 2a Guerra Mundial durante la cual trabajó como portero en Hospital Guy de Londres. También pasó tiempo trabajando como ayudante de laboratorio en la Enfermería Real Victoria antes de regresar a sus funciones en Cambridge en 1944. Después de tres años en Cambridge se retiró y se trasladó a una cabaña aislada en la costa oeste de Irlanda. Su salud se deterioró y en 1949 le fue diagnosticado un cáncer. Wittgenstein no parecía infeliz por el diagnóstico ya que afirmaba que no deseaba vivir más. Continuó trabajando en sus ideas hasta unos días antes de su muerte, la fuerza y la profundidad de su intelecto disminuyó por la enfermedad.

McGinn, en la referencia [12], da una estimación justa de Wittgenstein:

La fuerza y la originalidad de su pensamiento muestran una mente filosófica única y muchos estarían encantados de llamarlo un genio.

Wittgenstein nunca fue feliz con sus propios escritos y como resultado sólo un trabajo importante, el Tractatus, se publicó mientras estuvo vivo. Posteriormente a su muerte se ha publicado una gran cantidad de material de sus conferencias y notas. De que sus ideas fueran consideradas difíciles de entender, era algo de lo que estaba muy consciente y sintió que de alguna manera no encajaban en el mundo en el que vivía. En su propia opinión, un comentario sobre este particular:

¿Por qué la filosofía es tan complicada? Debería ser totalmente simple. La filosofía desata los nudos en nuestro modo de pensar que de una manera absurda, hemos puesto allí. Para ello deben hacerse movimientos que son tan complicados como estos nudos. Aunque el resultado de la filosofía es simple, su método no puede serlo si se quiere tener éxito. La complejidad de la filosofía no es una complejidad de la materia en sí, sino de nuestra comprensión anudada.

Referencias.-

1. M Black, Biography in Dictionary of Scientific Biography (New York 1970-1990). http://www.encyclopedia.com/topic/Ludwig_Wittgenstein.aspx

2. Biography in Encyclopaedia Britannica. http://www.britannica.com/eb/article-9077298/Ludwig-Wittgenstein

Libros:

3. W W Bartley, Wittgenstein (London, 1974). 4. P Engelmann, Letters from Ludwig Wittgenstein with a Memoir (Oxford, 1967). 5. K T Fann (ed.), Ludwig Wittgenstein: The Man and His Philosophy (1967, reissued 1978). 6. P Frascolla, Wittgenstein's philosophy of mathematics (London, 1994). 7. A Janik and S Toulman, Wittgenstein's Vienna (London, 1973). 8. A Kenny, Wittgenstein (1973, reissued 1976). 9. N Malcolm, Ludwig Wittgenstein: A Memoir 2nd ed. (London, 1984). 10. N Malcolm, Ludwig Wittgenstein : a memoir (London, 1958). 11. M McGinn, Ludwig Wittgenstein and the Philosophical Investigations (London, 1997). 12. B McGuinness, Wittgenstein: A Life: Young Ludwig, 1889-1921 (1988). 13. R Monk, Ludwig Wittgenstein : the duty of genius (London, 1990). 14. D F Pears, Wittgenstein (London, 1971). 15. T Redpath, Wittgenstein' : a Student's Memoir (London, 1990). 16. R Rhees (ed.), Recollections of Wittgenstein (Oxford, 1984).

LUDWIG WITTGENSTEIN

Imágenes obtenidas de:

Versión en español por R. Ascanio H. del artículo de J. J. O'Connor y E. F. Robertson sobre “Ludwig Wittgenstein” (Octubre 2003). FUENTE: MacTutor History of Mathematics. [http://www-history.mcs.st-andrews.ac.uk/Biographies/Wittgenstein.html].

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 5

LLAA EENNSSEEÑÑAANNZZAA DDEE LLAASS CCIIEENNCCIIAASS.. PPrroobblleemmaass yy ppeerrssppeeccttiivvaass.. Por: José López [email protected]

Docente FACE - UC (Nueva versión - Publicado inicialmente en Octubre 2005)

I. REFERENTES EPISTEMOLÓGICOS.

La ciencia que se originó a partir del renacimiento se ha tornado insuficiente debido a las diferentes reflexiones epistemológicas de la actualidad, sobre todo en cuanto a la manera de abordar los avances científicos y tecnológicos, y la creación de los conocimientos particulares desarrollado con el nacimiento de nuevas especialidades científicas (Sociología, Psicología, Biología) y las interrelaciones de éstas con la que ya existían (Física, Matemática). Por una parte el positivismo dando un modelo explicativo basado en la racionalidad total y los empiristas que afirmaban que la racionalidad pura no podía sostener sus fundamentos en ciertas circunstancias de la producción científica y que ésta necesita de experiencia para legitimizarse. Muchas de estas nuevas ciencias adoptaron las bases fundamentales de la Física y la Matemática como ordenamiento lógico.

De allí, siguiendo con gran interés la actividad de la física contemporánea notamos un mérito excepcionalmente preciso basado en el diálogo del investigador provisto de instrumentos precisos y la presunción ambiciosa del matemático que ambiciona informar detalladamente la experiencia.

La física tiene dos vertientes filosóficas o epistemológicas. La primera es el campo del pensamiento que conjuga la matemática con la experiencia y la segunda, se manifiesta cuando el matemático muestra la modificación de la teoría dominante para que pueda asimilar el nuevo hecho a través de la demostración recurrente, que es por consiguiente un carácter importante del racionalismo, ya que esta constituye el fundamento de la memoria racional.

Según Bachelard (1989), el contacto de la experiencia y la matemática se desarrolló con una solidaridad extensiva, la perspectiva teórica sitúa el hecho experimental donde debe estar. Si el hecho está bien asimilado por la teoría se acaban las vacilaciones sobre el lugar que le corresponde en un pensamiento; ya no se trata de un hecho en bruto, sino de un hecho de cultura originando un estatuto racionalista. Desde este momento se establece un diálogo entre el racionalista y el empirista.

Cuando el teórico anuncia la posibilidad de un nuevo fenómeno, el investigador se asoma a esta perspectiva, en el caso que crea que está en la línea de la ciencia moderna. La experiencia asociada de este modo a unas miras teóricas, no tiene nada que ver con la búsqueda ocasional con esas experiencias improvisadas y que no tienen lugar en una ciencia fuertemente constituida como es la física. Ningún físico malgastaría “sus créditos” para construir un instrumento sin destino teórico (Bachelard, 1989). En física, la experiencia improvisada de Claude Bernard no tiene sentido.

Hay que romper con la racionalidad en el vacío, hay que decir no al empirismo desordenado, esas son dos obligaciones filosóficas que funden la estrella y precisa síntesis de la teoría y de la experiencia en la física contemporánea.

No se puede fundamentar las ciencias físicas sin entrar en el diálogo filosófico del racionalista y del investigador (Bachelard, 1989), se puede afirmar “que el físico moderno necesita de dos certezas, la primera es la certeza de que lo real está en contacto directo con la racionalidad, mereciendo por este mismo el nombre real científico, y la segunda la certeza de que los argumentos racionales que afectan a la experiencia son ya momentos de esta experiencia”. (Bachelard, 1989).

Esta doble certeza sólo puede expresarse por una filosofía en dos movimientos, por un diálogo. En esta posición central es donde la dialéctica de la razón y la técnica encuentran precisamente su eficacia. Es necesario también que este racionalismo sea lo suficientemente abierto para recibir nuevas determinaciones de la experiencia, viviendo de cerca esta dialéctica, nos convencemos de la realidad eminente de los campos del pensamiento.

De esta manera, cuando se interpreta sistemáticamente el conocimiento racional como la constitución de ciertas formas, como un simple montaje de fórmulas dispuestas a informar cualquier experiencia, se instruye un formalismo. Este formalismo puede en último extremo recibir los resultados del pensamiento racional, pero no puede realizar todo el trabajo del pensamiento racional. Por otra parte, no se depende siempre del formalismo. Cuando la ciencia se centra en un conjunto de convenciones, una serie de pensamientos más o menos cómodos organizados en el lenguaje claro de los matemáticos, se convierten en la esperanza de la razón. Estas convenciones, esta arbitrariedad a la actividad del sujeto pensante, nos conllevarían al idealismo, que ya no se manifiesta en la epistemología contemporánea, pero que jugó un papel preponderante en las filosofías de la naturaleza a lo largo del siglo XIX, que todavía debe figurar en un examen general de las filosofías de las ciencias.

En otra perspectiva, en vez de esta evanescencia que lleva al idealismo, encontraremos una pasividad progresiva del pensamiento que lleva al realismo, o una concepción de la realidad como sinónimo de la irracionalidad y por consiguiente, al pasar del racionalismo de la experiencia de la física, muy ligado a la teoría, al pasar al positivismo, parece que perdemos inmediatamente todos los principios de la necesidad.

El positivismo no tiene nada de lo que se necesita para decidir niveles de aproximación, para sentir la extraña sensibilidad de racionalidad que dan las aproximaciones de segundo orden, esos conocimientos más aproximados, más discutidos, más coherentes que encontramos en la prueba de las finas experiencias que nos hacen comprender que hay más racionalidad en lo complejo que en lo simple.

En definitiva, la ciencia instruye a la razón. La razón debe obedecer a la ciencia, de esta manera la razón no puede recargar una experiencia inmediata; por el contrario debe equilibrarse con una experiencia mejor estructurada.

Pudiéramos ejemplificar lo anteriormente expuesto con la aritmética, ya que esta ha dado pruebas de eficiencia, de exactitud, de coherencia tan extensas que no podemos pensar en abandonar su organización; pero la aritmética no está basada en la razón, en cambio la doctrina de la razón está basada en la aritmética elemental. Visto así el espíritu del científico debe plegarse a las condiciones del saber, es decir, debe crear en él una estructura correspondiente a la estructura del saber que se corresponda también a las dialécticas del saber.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 6

Todo lo dicho es un acercamiento al acontecer científico de la contemporaneidad basada en los planteamientos de la formación

del espíritu científico de Gaston Bachelard, donde se evidencia que los fundamentos matemáticos como los físicos ocupan un lugar muy importante en el pensamiento de la comunidad científica en general.

El espíritu científico solo puede construirse destruyendo al espíritu no científico. A menudo el científico se confía a una pedagogía fraccionada, cuando el espíritu científico deberá plantearse una reforma subjetiva total.

II. LA ENSEÑANZA DE LA CIENCIA Y LOS DESCUBRIMIENT OS CIENTÍFICOS.

Muy recientemente (Marzo del 2005) se dieron a conocer los trabajos más importantes del momento según la fundación “Polar”, avalados por el Ministerio de Ciencia y Tecnología, donde destacan Pedro Berrizbetia en el área Matemática y Manuel Bautista en el área Física. Berrizbetia, caraqueño de 45 años, ha trabajado durante los últimos 10 años en la teoría de números y la primalidad, conocimientos que son utilizados por la encriptación para diseñar los sistemas de seguridad de datos. Este científico afirma que la sociedad y el estado han relegado la importancia de la ciencia porque su beneficio no es inmediato ni palpable de un día a otro. Determina que la matemática está presente en todo, pero no quiere decir que se tenga claro cuánto se tenga que invertir en la investigación.

Por otra parte, Manuel Bautista, de 36 años, llego a Venezuela de 7 años de edad proveniente de Bogotá, Colombia. El trabajo de Bautista contempla la Física Atómica y espectropía aplicada a la astronomía. El estudio de los espectros permite conocer la composición química, temperatura y dinámica del objeto que se observa. Desarrolló un Software que es usado en la NASA en los telescopios espaciales Chandra y XMM y otros dos, que serán puestos en órbita próximamente.

También, el profesor Nelson Falcón participó en la investigación que se llevó a cabo en el observatorio Astronómico Europeo del Norte, concretamente con el observatorio del Teide, en la Isla de Tenerife, en conjunto con las Universidades de Manchester, Cambridge y Stanford, donde se define a esa masa oscura que predomina en el universo, que hasta hace poco se creía que era vacía como “un plasma, un halo tenue, que inunda al universo y las galaxias” según refirió el científico Falcón.

El estudio intentó establecer y precisar algunos conceptos en relación con el Big Bang (explosión que, según, originó el Universo, sus miles de millones de galaxias que poseen centenares de miles de soles, como el nuestro). “Lo que hicimos fue estudiar las variaciones de la radiación que dio origen al Universo, que se conoce como radiación cósmica de fondo”, acotó Falcón.

Falcón indicó que el estudio de esta radiación permite entender el origen del Universo y admite que esta radiación no es uniforme; pero lo interesante es que según este científico, entre una galaxia y otra, el espacio no está vacío, está lleno de electrones y protones en forma de gas caliente, y los físicos lo llaman a eso un estado de “plasma”.

Vemos claramente con estos ejemplos ilustrados en los párrafos anteriores que el espíritu científico está presente en nuestras universidades. Se nota que las diferentes investigaciones realizadas por estos científicos han impactado de una u otra manera a la comunidad científica en general. La ciencia nos permite conocer muchos espacios del conocimiento a través del esfuerzo de cada uno de estos investigadores; sin embargo la ciencia y el conocimiento debe divulgarse y democratizarse, no debe estar encapsulado, ha de satisfacer una parte de la sociedad, sino a toda ella.

En estos días se está haciendo una revisión de un manuscrito de 16 páginas que data desde 1924 y describe uno de los grandes hallazgos de Albert Einstein: la transformación de los átomos de un gas por medio de temperaturas muy bajas. Ese fenómeno es conocido en la actualidad bajo en nombre de condensación Bose-Einstein. Este importante artículo manuscrito de Einstein fue hallado en los archivos de la Universidad de Leiden, cerca de La Haya. Esto demuestra que a pesar del gran avance de la tecnología informática, muy pocas personas en el mundo conocen esta información; hay que esperar el próximo evento de la convención anual de ASOVAC (Noviembre de 2005), donde con motivo de la celebración del año Internacional de la Física habrá exposiciones de científicos importantes de esta área de la ciencia.

Muchos autores entre ellos Drucker (1995), infieren que los avances científicos se convierten en valor agregado ligado al desarrollo humanístico del hombre en escasos porcentajes, y que estos avances se traducen en beneficio del ciudadano común, por su impacto económico y social. Es allí donde se crean expectativas sobre la finalidad de la ciencia y el conocimiento. Lo que se quiere decir con esto, es que el impacto social de la ciencia y el conocimiento es parte de la realidad que afecta a la humanidad, y esta parte de lo que se conoce como realidad es el que Bachelard no destaca en sus afirmaciones de los fundamentos matemáticos como los físicos que ocupan un lugar muy importante en el pensamiento de la comunidad científica en general y la formación del espíritu científico; pero debe establecerse un dialogo entre el espíritu científico y desarrollo pleno del hombre en todos sus aspectos.

Una faceta de la relación dialógica entre el espíritu científico y el desarrollo pleno del hombre es que las industrias que en los últimos 40 años han pasado a ocupar el centro de la economía son aquéllas cuyo negocio es la producción y distribución del conocimiento, y no la producción y la distribución de objetos. El verdadero producto de la industria farmacéutica es el conocimiento; píldoras y pomadas no son otra cosa que el envase del conocimiento.

Ahí están las industrias de telecomunicaciones y las que producen herramientas y equipos para procesar información, tales como computadores, semiconductores y software. Ahí están los productores y los distribuidores de información (cine, televisión y cintas de video). Los “no negocios” que producen y aplican conocimientos, es decir la educación y el cuidado de la salud, han crecido en todos los negocios basados en conocimiento (Drucker, 1995). Son estas aseveraciones que evidencian de manera real y práctica la existencia de una economía del conocimiento y su productividad, y donde se relacionan los avances y descubrimientos científicos con el desarrollo social-humanístico-cultural del hombre.

De lo anterior, se puede decir que entender cómo se originó el Universo es importante para entender las leyes que lo rigen y nuestro origen en el Universo y como seres humanos, también es importante comprender esa relación entre la ciencia y lo más intimo de las culturas de los hombres, y que esa relación conlleve a crear una civilización mundial que genere soluciones a diferentes problemas ambientales entre otros problemas, como la destrucción de la capa ozono, por ejemplo.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 7

Los venezolanos a pesar de todo no han tomado conciencia del papel que nos toca desempeñar en esta época en cuánto a los

avances de la ciencia, y no está en discusión aquí el desarrollo conceptual de la ciencia y el conocimiento en forma destructiva, ni adoptar una contraposición a los grandes beneficios que ha traído al hombre, sino al aspecto que me quiero referir son las actividades científicas promovidas por el Currículo Educativo, ausentes de nuestras aulas de clases en la Educación Básica en su primera y segunda etapa. En el caso de la capa ozono, los alumnos deben reflexionar sobre las consecuencias de este fenómeno y un espacio para la discusión es el aula de clase de nuestras escuelas.

Uno de los indicadores generadores de esta ausencia en las actividades escolares venezolanas tiene que ver con el hecho que los conocimientos inherentes a ciencia que se manejan desde los primeros niveles educativos, en muchos casos aparecen fraccionados en la práctica educativa escolarizada, contradiciendo la visión integradora planteada en el Currículo Básico Nacional o bien se encuentran descontextualizados de la realidad.

De igual manera y en términos de las limitaciones que tiene la construcción del conocimiento, hoy se está de acuerdo en que ya no es posible pensar que la apropiación del saber por las personas retome los mismos caminos que anduvo el desarrollo de las ciencias. Esto en razón que tanto lo contextual como la problemática que se plantea con los retos económicos y sociales, son muy diferentes a los primeros estadios que sirven de referencia a las construcciones conceptuales sobre las ciencias.

Al respecto, notamos en los alumnos que el dominio de los conocimientos que deben poseer según su nivel de formación escolar (Inicial y Básica), no se hacen fácilmente evidente y sus saberes no se manifiestan de modo instantáneo cuando le son requeridas informaciones respecto a ellos; este impedimento al verlo notoriamente nos conduce a pensar que el conocimiento se trata de algo elaborado con lógica, que responde a una necesidad y a los problemas vivenciados por estos.

De allí que, la construcción de todos los conceptos, incluso de aquellos que hoy son de lo habitual en la interacción humana del educando, ha planteado a menudo problemas casi insuperables, desde cuyo fondo se alega que se convierten en obstáculos para acceder al conocimiento (Bachelard, 1989). Los verdaderos obstáculos no son los procesos constructivos de las concepciones; los sujetos que aprenden, esencialmente traducen dificultades de conceptualización, que aparecerán en numerosos aspectos: cognitivos, del lenguaje o de la operatividad de los conceptos.

Por lo cual, es lamentable que la enseñanza sobre todo en Inicial y Educación Básica se continúe desarrollando descontextualizada, negando el carácter construido de los conceptos de muchas parcelas de la ciencia, Física, Biología, Química (Ciencias Naturales y Tecnología en el CBN) y Matemática. Lo planteado, puede contribuir con las explicaciones necesarias de cómo muchos docentes proporcionan una suma de conocimientos dogmáticos e incoherentes al estar desorganizados, lo que lo convierte en ineficaces.

La carencia de experiencia científica vivenciada por los alumnos los distancia de los conceptos formales de los contenidos conceptuales del CBN, con la operatividad de los conceptos como tales, de tal manera que una práctica educativa de esta forma, impide el aprendizaje significativo en los alumnos y la adquisición del conocimiento. Esto no quiere decir que el conocer sea propuesto a los alumnos en el orden y en las condiciones correspondiente a la historia del desarrollo de la ciencia y a los diferentes descubrimientos científicos, sino que se ofrezcan vías para hacer del conocimiento, que estén ligadas a la evolución de las disciplinas, y se oferten desde la base psicológica constructivista, se difunda atendiendo a las características de una sociedad que se mueve en los avances informacionales y del conocimiento en la cual los saberes no surgen de la contemplación de la naturaleza, sino más bien de los procesos del pensamiento en la elaboración de modelos para comprender, interpretar y explicar la realidad.

III. LA ENSEÑANZA DE LA CIENCIA EN LA EDUCACIÓN BÁS ICA.

Anteriormente se hizo alusión de ciertos elementos que tienen que ver con la enseñanza de la ciencia en la Educación Básica; pero aquí lo desarrollaremos más específicamente, tomando como referente del tema en otras latitudes, a la Educación (enseñanza de las ciencias) en los países de habla hispana.

La educación se ha convertido en los últimos años en uno de los ámbitos prioritarios de la cooperación Iberoamericana. Ello se debe tanto a la conciencia sobre el papel que desempeña la educación en el desarrollo de nuestros pueblos como a la percepción cada vez mayor que en la vertebración y consolidación de una Comunidad Iberoamericana de Naciones, la educación ocupa un rol relevante.

Demostración de este interés creciente por la cooperación educativa iberoamericana han sido las Declaraciones de Guadalajara (1991) y Madrid (1992) de las conferencias de Jefes de Estado y Gobierno, que conceden una gran importancia a la Dimensión Educativa, que desarrolla y concreta los principales ejes de esta colaboración.

Buena parte de que esta cooperación entre los países iberoamericanos es ya un hecho y está dando sus frutos, han sido los numerosos proyectos iniciados durante estos años, aunando los esfuerzos de diversas instituciones. Así el Ministerio de Educación y Ciencia de España (MEC) y la Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura (OEI) han unido sus esfuerzos para desarrollar diversos programas de cooperación educativa de una forma coordinada que la haga más rentable y eficaz.

El programa IBERCIMA de enseñanza de la ciencia en el nivel medio, es un ejemplo de cómo las instituciones que desarrollan sus propios programas, pueden colaborar para el logro de un objetivo común: hacer posible la cooperación educativa y avanzar hacia la Comunidad Iberoamericana.

El objetivo general de este programa es pues, revisar y actualizar los contenidos y metodologías de enseñanza de la ciencia, desarrollando actividades de investigación, formación, elaboración de materiales didácticos y de apoyo docente, de movilización y participación de profesores y estudiantes.

Dentro del análisis realizado bajo los lineamientos del programa IBERCIMA, en diversos países latinoamericanos y de habla hispana (entre ellos Venezuela) en la década de los 90, se han detectado que los estudiantes presentan dificultades a la hora de aprender contenidos inherentes a ciencias, específicamente física, química, biología y matemática en todos los niveles educativos.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 8

Una de las tendencias generales más difundida hoy, consiste en el hincapié en la transmisión de los procesos de pensamiento

propios de las ciencias, más bien que en la mera transferencia de contenidos. Las ciencias son, sobre todo, saber hacer, es una actividad disciplinaria donde el método claramente predomina sobre el contenido. Por ello se concede una gran importancia al estudio de las cuestiones, en buena parte colindante con la psicología cognitiva, que se refieren a los procesos mentales en resolución de problema.

Hay que recalcar que la ciencia con el devenir del tiempo ha pasado por diferentes etapas de discusión sobre los modelos de explicación de sus fundamentos, desde la imperiosa propuesta del Método Científico de Descartes, hasta el nacimiento de otros paradigmas emergentes como lo expone Miguel Martínez Míguelez (1996). La enseñanza de la ciencia también pasa por una discusión profunda en el mundo académico en los últimos años en Venezuela.

Por otra parte, en el marco de la formación de los ciudadanos y en atención a los cambios y transformaciones sociales, un sistema educativo con visión de futuro, utiliza materiales de información vigentes para educar e instruir a las jóvenes generaciones y, en el fondo, incidir sobre el educando para el desarrollo de sus competencias, hábitos, habilidades, capacidades, destrezas y actitudes. De acuerdo al planteamiento referido, se deriva una variedad de factores asociados a los logros de la educación, sus implicaciones y consecuencias, cuestión que amerita la atención de todos los actores involucrados en el proceso educativo.

La practica científica en nuestras aulas de clases reflejan una necesidad de cambio de abordaje en cuanto a la metodología y didáctica como herramientas de aprendizaje, las experiencias científicas se han convertido en una réplica constante de las mismas propuestas, trabajos de investigación, proyectos, etc., años tras año sin aportar soluciones a las diferentes problemáticas situacionales del contextos donde interactúan nuestros alumnos.

Las clases de ciencias se presentan como un sistema cerrado que impide el desarrollo del pensamiento crítico y reflexivo en los estudiantes de bachillerato, muestra de ello es la poca participación de estos en eventos de corte científico reconocido como las convenciones de ASOVAC, donde es escasa la presencia de verdaderos trabajos científicos escolares producto de la enseñanza de las ciencias (física, química, biología y matemática) del sistema escolar concretamente en la primera etapa y segunda etapa de la Educación Básica.

IV. UNA NUEVA VISIÓN DE LA ENSEÑANZA DE LAS CIENCIA S

En la situación de transformación vertiginosa de la civilización en la que nos encontramos, lo verdaderamente eficaz para el desarrollo del pensamiento, y que no se vuelve obsoleto con tanta rapidez, es lo más valioso que podemos proporcionar a nuestros jóvenes. En nuestro mundo científico e intelectual tan rápidamente cambiante vale mucho más hacer acopio de procesos de pensamientos útiles que de contenidos que rápidamente se convierten en lo que Whitehead (1910, Principia Matemática), llamó “Ideas Inertes”, que no son capaces de combinarse con otras para formar soluciones dinámicas, capaces de abordar los problemas presentes en la enseñanza de las ciencias.

En continuación a lo anterior, la globalización de las áreas científicas como física, química, biología y matemática en todos los niveles de los sistemas escolarizados de Venezuela debe tener una visión holística, es decir sistemas abiertos de aprendizaje donde la interdisciplina y la transdisciplina como generación de cambio conceptual en nuestros estudiantes estén presentes. De una didáctica consensuada de esta manera se podría generar ciudadanos capacitados para enfrentar los diversos cambios que tanto requiere la enseñanza de las ciencias.

Estas aseveraciones nacen de la visión creadora basadas en el pensamiento complejo de Edgar Morín (2003), donde las relaciones de los diferentes conocimientos surgidos entre las disciplinas de las ciencias, producen aprendizajes en nuestras aulas de clases, proporcionándoles a los alumnos las herramientas necesarias para la creación de tecnología de punta que se traduzca en desarrollo social y humano.

Por otra parte, se entiende que las ciencias es una parte de la riqueza cultural de la humanidad que debe ser compartida por todos; por eso, los enfoques basados en las teorías constructivistas contenidas en el Currículo Básico Nacional (Ministerio de Educación, 1996), que se desarrolla en la Educación Básica tienen una mayor tendencia a dar más atención al proceso de aprendizaje que a la enseñanza; este enfoque, exige hacer más énfasis en el alumno de manera que se pueda potenciar el desarrollo de sus habilidades y las competencias, facilitándole el acceso al conocimiento científico.

Vivimos en una era de revolución tecnológica que dicta en gran medida la manera en que el ser humano interacciona con su medio ambiente socio-cultural, en nuestra época moderna se presenta un desarrollo vertiginoso, como es la informática, con el uso de estas tecnologías se amplía el campo de la enseñanza y aprendizaje de los alumnos, y la enseñanza de la ciencias no escapa de esto, ya que actualmente es considerada como un recurso valioso, novedoso e interesante que ofrece importantes mecanismos, entre estos, la investigación como una vía para estimular en el alumnado competencias para acceder información y desarrollar el conocimiento amplio en las áreas de ciencias.

Se propone promover una cultura científica básica para la población, que proporcione a los individuos elementos que los ayuden a comprender los problemas que enfrenta la humanidad, a sopesar las alternativas de solución, a tomar posición frente el tipo de desarrollo que la sociedad en la que viven debe impulsar.

La escuela puede tener un papel fundamental en la formación de esta cultura científica básica; sin embargo, diversos estudios muestran la crisis por la que está atravesando la educación científica y la necesidad de una transformación a fondo de esta área.

López y Mota (1991) cuestionan las estrategias que hasta el momento se han utilizado para definir los “procesos científicos en los niños” y propone una nueva estrategia basada en la realización de tareas que evoquen procesos científicos; pero que se inspiren en la práctica pedagógica y tomen en cuenta el desarrollo del pensamiento infantil. Una enseñanza de las ciencias dinámica posee y permite alterar radicalmente de una manera positiva la transformación de la metodología de enseñanza tradicional, porque se presenta como estrategia motivadora y elimina las clases catedráticas donde el docente es el que impone las pautas. El proceso de aprendizaje será transformado de uno pasivo a uno activo.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 9

El uso de las experiencias científicas en el aula permite desarrollar la cognición de los alumnos y por ende el aprendizaje que

permite concebir una abundancia de riquezas intelectuales que bien canalizadas por el docente podrá ayudar en la planificación e implementación de sus clases, así como buscar y acceder a información para propósitos de investigación. Por medio de la utilización de estos recursos innovadores, los educadores podrán planificar actividades variadas que eventualmente desarrollen en los estudiantes una diversidad de destrezas necesarias para ser exitosos en nuestra sociedad moderna. Entre estas podemos mencionar el desarrollo y la obtención de habilidades en el área de investigación, el pensamiento crítico, comunicación y el manejo de la información.

Por lo tanto limitar al estudiantado el conocimiento y manejo de experimentaciones en el área de ciencias significa privar el aprovechamiento y adaptabilidad de estos a la sociedad, lo cual no permitirá que vayan a la par de la evolución de los procesos tecnológicos. La escuela es por excelencia el ente formador del recurso humano y no puede desvincularse del entorno tecnológico-socio-cultural presente, que en definitiva permite la interacción, desarrollo y transformación de la sociedad.

Bibliografía.

� Bachelard, G. (1989). “La formación del espíritu científico”. Colombia: Editorial Siglo Veintiuno.

� Declaraciones de Guadalajara. (1992). “Conferencias de Jefes de Estado y Gobierno”. México.

� Declaraciones de Madrid. (s/f). “Conferencias de Jefes de Estado y Gobierno”. España.

� Drucker, P. (1995). “La sociedad postcapitalista”. Bogota, Colombia: Ediciones Norma.

� López M., A. (1991). “Evocando habilidades científicas mediante actividades prácticas. Problemas y perspectivas”. México: Grupo Editorial Iberoamérica.

� Martínez M., M. (1993). “El paradigma emergente”. Barcelona, España: Ediciones Gedisa.

� Ministerio de Educación (1996). “Currículo Básico Nacional”. Caracas: Ediciones del Ministerio de Educación.

� M.E.C. (1993). “Ministerio de educación y Ciencia de España”. España.-.369

� Morín, E. (2003). “El pensamiento complejo”. Barcelona, España: Ediciones Gedisa.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 10

Aportes al conocimiento

EElleemmeennttooss BBáássiiccooss ddeell CCáállccuulloo DDiiffeerreenncciiaall ((1188))

ÍNDICE.-

Sucesiones y Series Aritméticas. Sucesión Aritmética (SA). Término n-simo (enésimo) y término cualquiera de una sucesión aritmética. Ejercicios resueltos. Series aritméticas finitas. Ejercicios resueltos. Ejercicios propuestos.

SUCESIONES Y SERIES ARITMÉTICAS.

SUCESIÓN ARITMÉTICA (SA).-

Una sucesión: LL ,,,,, 321 naaaa se llama sucesión o progresión aritmética si existe una constante d, llamada diferencia común, tal

que daa nn =− −1 ó daa nn += −1 para cualquier 1>n .

Si 0>d la sucesión es creciente; si 0<d es decreciente.

Ejemplo: { } 03,10,7,4,1 >=⇒= dan L (SA creciente).

Aprovechemos este ejemplo para hacer algunas deducciones. Observen que:

( )

daa

daa

dserdebequeasumesedaa

a

a

a

a

34

331333110

23

321331617

314

1

14

13

12

1

32

+=

+=

+==

=⇒⋅+=+++=

=⇒⋅+=++=+=

=⇒+=

Es decir que si queremos obtener 8

a , procedemos de la siguiente manera: ,718daa += ya que de la estructura de los términos

anteriores se tiene que: .)18(18daa ⋅+ −=

TÉRMINO n-SIMO (ENÉSIMO) Y TÉRMINO CUALQUIERA DE UNA SUCESIÓN ARITMÉTICA.-

Por lo tratado en el aparte anterior, es posible establecer un algoritmo que permita determinar cuál es el término general, na , de una SA:

1ncon,)1(1 >− ⋅+= dnaan

Expresión que podemos extender para un término cualquiera de una SA de la siguiente manera:

Sean pa y qa términos de una SA tal que pq > ; entonces se puede obtener qa a partir de pa , siempre que se conozca a d,

mediante la siguiente expresión:

dpqpq aa ⋅+= − )(

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 11

Ejercicios resueltos.-

1.- Si el primero y el décimo términos de una SA son respectivamente 3 y 30, encontrar el quincuagésimo término de ella.

Solución:

Datos:

30

3

10

1

==

a

a

⇒= ?50a En consecuencia: 50=n

Fórmula a utilizar: dnaan ⋅+= − )1(1

Dato faltante: d

Calculando d:

Adaptando la fórmula

daadpqpq aa 9)(110

+=⇒− ⋅+=

Despejando y obteniendo el valor de d:

339

27

9

330

9110 =⇒==−=

−= d

aad

Calculando :50a

15015034913)150(1

)1(

5050

1

=⇒=⋅+=⋅−+=

− ⋅+=aa

dnaan

2.- Si el tercero y el décimo tercer términos de una progresión aritmética son -5 y 23 respectivamente, encontrar el septuagésimo sexto término de esta progresión:

Solución:

Datos:

23

5

13

3

=−=

a

a

?76 =a En consecuencia: 76=n

Fórmula a utilizar: dpqpq aa ⋅+= − )(

En consecuencia:

76

3 5

aa

aa

p

q

=

−==

Dato faltante: d

Calculando d:

Adaptando la fórmula daadpqpq aa 10)(313

+=⇒− ⋅+=

Despejando y obteniendo el valor de d:

5

14

5

14

10

28

10

523

10313 =⇒==+=−= d

aad

Calculando :76a

5

997

5

997

5

10225

5

14735

5

14)376(

)(

76376=⇒=+−=⋅+−=⋅−+=

− ⋅+=

aaa

dpqpq aa

3.- ¿Cuántos múltiplos de 8 hay entre 15 y 139?

Solución:

Necesitamos establecer una SA en la que el primero y último términos sean múltiplos de ocho (•8 : múltiplo de 8). Pero evidentemente que

15 y 139 no lo son

•≠∧

•≠ 8139815 .

Ahora bien, el siguiente de 15 sí lo es: •

= 816 ; por lo tanto 161 =a .

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 12

¿Cuál es na ? Es el múltiplo de ocho anterior a 139. Existen varias formas para calcularlo pero una de las más prácticas es dividir 139 entre

8 y el cociente multiplicarlo por 8; el resultado es el múltiplo de ocho buscado:

•==⋅⇒+= 8136817

8

317

8

139

De esta manera se obtiene el último término: 136=na .

Este procedimiento se puede aplicar a cualquier problema similar. Sigamos.

Está claro ahora que el número de múltiplos de 8 entre 15 y 139 es el número de términos que conforman la SA con 161 =a y 136=na ,

siendo la diferencia común 8=d : { } 136,,32,24,16 L=na .

Fórmula a utilizar: dnaan ⋅+= − )1(1

Despejando y calculando n :

16168

1281

8

1201

8

1613611 =⇒==+=+−=+

−= n

d

aan n

⇒ Hay 16 múltiplos de 8 entre 15 y 139.

Nota: Si al calcular n resulta un número no entero, este valor se aproxima al entero inmediato que según el caso, será el superior o el

inferior. Además, si este resultado es negativo, hay que revisar el procedimiento porque debe haber un error.

4.- Un cuerpo en Caída Libre recorre aproximadamente 4,9 m en el primer segundo; 14,7 m en el segundo; 24,5 m en el tercer segundo y así sucesivamente. ¿Cuántos metros cae aproximadamente en el segundo 15?

Solución:

Datos:

?

5,24

7,14

9,4

15

3

2

1

====

a

a

a

a

La sucesión es una SA porque:

daaaa ==−=− 8,91223

Calculando 15a :

Fórmula a utilizar: dnaan ⋅+= − )1(1

1,1422,1379,48,99,4 )115(15 =+=⋅+= −a

Recorre aproximadamente 142,1 metros en el segundo 15.

5.- Comprobar que ( ) ( ) ( )222222 , zyzyxxzzyxyx ++∧++++ son términos consecutivos de una sucesión aritmética cuando

zyx ∧, lo son.

Comprobación:

Según el enunciado:

223

222

221

zyzya

xxzza

yxyxa

++=

++=

++=

dxz

dxy

xx

2+=+=

=

De aquí que:

22223

22222

22221

793)2()2)(()(

463)2()2(

33)()(

ddxxdxdxdxdxa

ddxxxdxxdxa

ddxxdxdxxxa

++=++++++=

++=++++=

++=++++=

Si 2312 aaaa −=− , entonces están en sucesión aritmética siendo este resultado el valor de d:

( ) ( )( ) ( ) 22222

23

2222212

33463793

3333463

ddxddxxddxxaa

ddxddxxddxxaa

+=++−++=−

+=++−++=−

Se comprueba, entonces, que ( ) ( ) ( )222222 , zyzyxxzzyxyx ++∧++++ están en sucesión aritmética, siendo su diferencia

aritmética, la cual llamaremos d ′ , igual a 22 33:33 ddxdddx +=′+ .

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 13

6.- Sean las sucesiones aritméticas siguientes: { } { } LL ,8,5,2,12,7,2 =∧= nn ba . Tome 121 términos de cada una de ellas

y determine cuántos términos comunes hay.

Solución:

Se escriben ambas sucesiones mostrando un número significativo de términos, de tal manera que puedan observarse los primeros términos comunes:

{ } L,47,42,37,32,27,22,17,12,7,2=na (SA con 521 =∧= da )

{ } L35,32,29,26,23,20,17,14,11,8,5,2=nb (SA con 321 =∧= da )

Chequeando los términos comunes, podemos formar con ellos una tercera sucesión:

{ } L,32,17,2=nC (SA con 1521 =∧= da )

Ahora se determinan 121a y 121b , que vienen a ser los últimos términos que tomaremos de las sucesiones iniciales:

3623623)1121(26026025)1121(2 121121121121 =⇒=⋅−+=∧=⇒=⋅−+= bbaa

Como 121121 ab < , cabe preguntarse si 121b pertenece a { }na . Si es así, 121b debe cumplir con la característica de todo término que

pertenece a { } { } 5)1(2: ⋅−+=⇒∈∀ maaaa mnmn , donde m, en este caso, nos dará el lugar que ocupa 121b en { }na .

Calculando el valor de m:

735523625)1(2362 =⇒−+=⇒⋅−+= mmm

Esto significa que 73121 ab = , y es el último término común entre { }na y { }nb , es decir que ncab == 73121 .

Ahora conociendo que 362,21 == ncc y 15=d , se puede calcular cuántos términos ( )n hay en { }nc :

2525115

23621)1( 1

1 =⇒=+−

=+−

=⇒− ⋅+= nd

ccndn nccn

Por lo tanto, entre { }na y { }nb hay 25 términos comunes.

7.- Consideren el siguiente sistema de ecuaciones:

=+=+

feydx

cbyax

Comprobar que estando a, b, c, d, e, f en progresión aritmética con diferencia común N no nula, el sistema tiene solución única.

Comprobando:

El sistema tiene solución única cuando yx ∧ tienen cada una un valor único, finito y determinado.

Si a, b, c, d, e, f están en progresión aritmética, entonces:

NafNaeNadNacNabaa 5432 111111 +=+=+=+=+==

Por lo que el sistema lo podemos escribir así:

+=++++=++

=+=+

NayNaxNa

NayNaxa

feydx

cbyax

5)4()3(

2)(

111

111

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 14

Calculando y:

223

6

63

565)434(

)5()65()4()34(

)5()2)(3()4())(3(

)5()4()3(

)2)(3())(3()3(

5)4()3(

2)(

)(

)3(

2

2

22

12

12

12

112

12

12

1

12

12

12

112

12

12

1

11111111

111111

111111

111

111

1

1

=⇒==

=

−−++=−−++

+−++=+−++⇒

+−++=+−++

+−=+−+−++=++++

+=++++=++

⋅−⋅+

yN

Ny

NyN

NaaNNaayNaaNNaa

NaaNNaayNaayNNaa

NaaNaNayNaayNaNa

NaayNaaxNaa

NaNayNaNaxNaa

NayNaxNa

NayNaxa

a

Na

Calculando x:

113

3

33

5686)344(

)56()86()34()4(

)5)(()2)(4()3)(()4(

)5)(()4)(()3)((

)2)(4())(4()4(

5)4()3(

2)(

)(

)4(

2

2

22

21

21

21

21

21

211

21

21

21

21

21

21

211

21

11111111

111111

111111

111

111

1

1

−=⇒−=−=

=−

−−−++=−−−+

++−++=++−+⇒

++−++=++−+

++−=++−++−++=++++

+=++++=++

⋅+−⋅+

xN

Nx

NxN

NNaaNNaaxNNaaNaa

NNaaNNaaxNNaaxNaa

NaNaNaNaxNaNaxaNa

NaNayNaNaxNaNa

NaNayNaNaxNaa

NayNaxNa

NayNaxa

Na

Na

El sistema tiene solución única.

=−=2

1

y

x

SERIES ARITMÉTICAS FINITAS.-

Si { }na es una sucesión o progresión aritmética, entonces nS es una serie aritmética.

Consideremos que la sucesión { } nnnn aaaaaaa ,,,,,, 12321 −−= L es una SA. Entonces la podemos escribir de la siguiente manera:

{ } dnadnadnadadaaan )1(,)2(,)3(,,2,, 111111 −+−+−+++= L

Procedamos ahora a formar la serie de dos formas diferentes, la primera comenzando por el primer término y la segunda por el último:

[ ] [ ] [ ]

[ ] [ ] [ ] 111111

111111

)()2()3()2()1(:

)1()2()3()2()(:

adadadnadnadnaSB

dnadnadnadadaaSA

n

n

++++++−++−++−+=

−++−++−+++++++=

L

L

Si sumamos A y B, nos queda:

[ ] [ ] [ ] [ ] [ ]44444444444444444 344444444444444444 21

L

igualessumandosn

dnadnadnadnadnaSBA n )1(2)1(2)1(2)1(2)1(22: 11111 −++−+++−++−++−+=+

De lo que resulta:

[ ]dnanSn )1(22 1 −+⋅=

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 15

Despejando a nS :

[ ] )()1(22 1 Cdnan

Sn −+⋅=

Pero como dnaan ⋅+= − )1(1 , entonces:

[ ]dnaan

Sn )1(2 11 −++⋅=

Por lo tanto:

)()(2 1 Daan

S nn +⋅=

)(C y )(D corresponden a fórmulas para calcular la suma de los n primeros términos de una SA.

Ejercicios resueltos.-

1.- Encontrar la suma de los primeros cincuenta y dos términos de una sucesión aritmética si el primer término es 23 y d =-2.

Solución:

Datos:

52=n

2

231

−==

d

a

?=nS

Fórmula a utilizar: [ ]dnan

Sn )1(22 1 −+⋅=

Calculando nS :

[ ]

[ ][ ]

1456

1456

)2(514626

)2()152(2322

52

)1(22 1

−=⇒

−==−⋅+⋅=

=−⋅−+⋅⋅=

=−+⋅=

n

n

S

dnan

S

La suma es igual a -1456.

2.- Encontrar la suma de los primeros 26 términos de una SA si el primer término es -7 y la diferencia común es igual 3.

Solución:

Datos:

26=n

3

71

=−=

d

a

?=nS

Fórmula a utilizar: [ ]dnan

Sn )1(22 1 −+⋅=

Calculando nS :

[ ]

[ ][ ]

793

793

3251413

3)126()7(22

26

)1(22 1

=⇒

==⋅+−⋅=

=⋅−+−⋅⋅=

=−+⋅=

n

n

S

dnan

S

La suma es igual a 793.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 16

3.- Encontrar la suma de los números impares entre 51 y 99 inclusive.

Solución:

Datos:

Sucesión: 51, 53, 55,…, 99 (SA con d=2)

?

99

511

===

n

n

S

a

a

Fórmula a utilizar: ( )nn aan

S +⋅= 12

Dato faltante: n

Calculando a n :

Fórmula a utilizar: dnaan ⋅+= − )1(1

Despejando y calculando n :

25252

501

2

481

2

519911 =⇒==+=+−=+−= n

d

aan n

Calculando nS :

( ) ( ) 187518752

150259951

2

25

2 1 =⇒=⋅=+⋅=+⋅= nnn Saan

S

La suma de los impares entre 51 y 99 es 1875.

4.- Encontrar la suma de los números pares entre -22 y 52 inclusive.

Solución:

Datos:

Sucesión: -22, -20, -18,…, 52 (SA con d=2)

?

52

221

==

−=

n

n

S

a

a

Fórmula a utilizar: ( )nn aan

S +⋅= 12

Dato faltante: n

Calculando a n :

Fórmula a utilizar: dnaan ⋅+= − )1(1

Despejando y calculando n :

38382

761

2

741

2

225211 =⇒==+=++=+−= n

d

aan n

Calculando nS :

( ) ( ) 5705702

30385222

2

38

2 1 =⇒=⋅=+−⋅=+⋅= nnn Saan

S

La suma de los pares entre -22 y 52 es 570.

5.- Determina la suma de los primeros cincuenta múltiplos de 3.

Solución:

Datos:

Sucesión: L,15,12,9,6,3,03 =•

(SA con d=3)

?

50

01

===

nS

n

a

Fórmula a utilizar: ( )nn aan

S +⋅= 12

Dato faltante: n

a

Calculando a n

a :

Fórmula a utilizar: dnaan ⋅+= − )1(1

1471470 3)150( =⇒=⋅+= − nn aa

Calculando nS :

( ) ( ) 367536752

147501470

2

50

2 1 =⇒=⋅=+⋅=+⋅= nnn Saan

S

La suma de los primeros cincuenta múltiplos de 3 es 3675.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 17

6.- Determina la suma de los primeros doscientos números naturales que terminan en 7. Solución:

Datos:

Sucesión: L,57,47,37,27,17,7 (SA con d=10)

?

200

71

===

nS

n

a

Fórmula a utilizar: ( )nn aan

S +⋅= 12

Dato faltante: n

a

Calculando a n

a :

Fórmula a utilizar: dnaan ⋅+= − )1(1

997199719901710)1200(7 =⇒= =+=⋅−+ nn aa

Calculando nS :

( ) ( ) 4002004002000042100997172

200

2 1 =⇒=⋅=+⋅=+⋅= nnn Saan

S

La suma de los primeros doscientos números que terminan en 7 es 200400.

7.- ¿Cuántos números de la progresión aritmética 9, 12, 15,… deben sumarse para obtener 306?

Solución:

Datos:

Sucesión: 9, 12, 15,… (SA con d=3)

?

306

91

===

n

S

a

n

Fórmula a utilizar: ( )nn aan

S +⋅= 12

Dato faltante: n

a

Calculando a n

a :

Fórmulas a utilizar: dnaan ⋅+= − )1(1 y ( )nn aa

nS +⋅= 12

( ) [ ] [ ]

[ ]

( ) ( )

números. primeros 12 lossumar deben Se

1212

N17:

01217

02045

0612153

315612

3)1(182

306

)1(22

)1(22

2

11

2

2

2

1111

º2

=⇒

⇒=∉⇒−=

→=−⋅+→=−+

→=−++=

⋅−+⋅=⇒

−+⋅=−++⋅=+⋅=

naceptasen

nporquerechazasenraíces

nn

nn

nn

nn

nn

dnan

dnaan

aan

S

doFactorizan

3porndoSimplifica

gradodeEcuación

nn

8.- Calcular la serie de los números pares entre 1 y 1000000.

Solución:

Datos:

Como 1 y 1000000 no están incluidos, entonces:

?

2

998999

21

====

n

n

S

d

a

a

Fórmula a utilizar: ( )nn aan

S +⋅= 12

Dato faltante: n

Calculando a n :

Fórmula a utilizar: dnaan ⋅+= − )1(1

Despejando y obteniendo el valor de n :

99949999949912

299899911 =⇒=+

−=+

−= n

d

aan n

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 18

Calculando nS :

( ) ( ) 00095099924000950999242

00000019984999989992

2

998499

2 1 =⇒=⋅=+⋅=+⋅= nnn Saan

S

La suma de los números pares entre 1 y 1000000 es igual a 24999950000.

9.- Comprobar que la suma de los primeros números pares mayores que 0 es igual a n(n+1).

Comprobación:

Datos:

Sucesión: L,10,8,6,4,2 (SA con d=2)

?)1(

21

=+==

nnS

a

n

Fórmula a utilizar: ( )nn aan

S +⋅= 12

Dato faltante: n

a

Calculando a n

a :

Fórmula a utilizar: dnaan ⋅+= − )1(1

nnnn nn aa 222222)1(2 =⇒= =−+=⋅−+

Calculando nS :

( ) ( ) )1()1()1(22

2222 1 +=⇒+=+⋅⋅=+⋅=+⋅= nnSnnn

nn

naa

nS nnn

Luego: )1(2108642 +=++++++= nnnSn L (Queda comprobado).

10.- Comprobar que la suma de los primeros números impares mayores que 0 es igual a n2.

Comprobación:

Datos:

Sucesión: L,9,7,5,3,1 (SA con d=2)

?

12

1

==

=

nS

a

n

Fórmula a utilizar: ( )nn aan

S +⋅= 12

Dato faltante: n

a

Calculando a n

a :

Fórmula a utilizar: dnaan ⋅+= − )1(1

12122212)1(1 −−=−+=⋅−+ =⇒= nnnn nn aa

Calculando nS :

( ) ( ) 221 2

2121

22nSnn

nn

naa

nS nnn =⇒=⋅=−+⋅=+⋅=

Luego: 2)12(97531 nnSn =−++++++= L (Queda comprobado).

11.- Un profesional venezolano recibió en el 2013 dos ofertas de trabajo en España. En la primera se le ofreció una remuneración inicial anual por la cantidad de €250000,00 y se le garantizó un aumento de €1200,00 cada año. En la segunda, una remuneración inicial anual por la cantidad de €280000,00 con un aumento de €800 cada año. Si ambas ofertas cubren un periodo de 15 años, ¿cuál oferta le ofrecía mejores beneficios económicos?

Solución:

Un posible criterio a considerar es que seleccione la oferta que le permitirá percibir mayor remuneración en los 15 años.

La primera oferta conforma una SA con 15 y1200,2500001 === nda .

na se puede calcular así: 2668002668001200)115(250000)1(1 =⇒=⋅−+=⋅−+= nn adnaa . Este valor representa el

último sueldo anual después de 15 años.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 19

El total a recibir con esta primera oferta lo obtenemos calculando la suma:

( ) ( ) 38760002668002500002

15

2 1 =+⋅=+⋅= nn aan

S

Es decir que con la primera oferta, al final de los 15 años, recibirá €3876000.

Veamos la segunda oferta. Conforma una SA con 15 y 800,2800001 === nda .

Calculando na : 291200291200800)115(280000)1(1 =⇒=⋅−+=⋅−+= nn adnaa

El total a recibir con esta segunda oferta es: ( ) ( ) 42840002912002800002

15

2 1 =+⋅=+⋅= nn aan

S

Es decir que con la segunda oferta, al final de los 15 años, recibirá €4284000.

Si la persona se ajusta al criterio señalado, seleccionará la segunda oferta.

12.- Un objeto cae al vacío partiendo del reposo y cerca de la superficie de la Tierra. Recorre 16 metros en el primer segundo, 48 en el segundo, 80 en el tercero, etc. a) ¿Qué distancia recorre en el undécimo segundo?, b) ¿qué distancia recorre en los primeros once segundos?, c) ¿qué distancia recorrerá el objeto en t segundos?

Solución:

Debemos formar una sucesión con las distancias recorridas:

{ } L,80,48,16=na (SA con 32161 =∧= da )

a) ¿Qué distancia recorre en el undécimo segundo?

Se pide calcular 11a :

( ) ⇒=⋅−+= 336321111611a Recorre 336 metros en el segundo 11.

b) ¿Qué distancia recorre en los primeros once segundos?

Se pide calcular la suma de los primeros once términos:

( ) ( ) ⇒=+⋅=+⋅= 193636162

11

2 111 naan

S Recorre 1936 metros los primeros once segundos.

c) ¿Qué distancia recorrerá el objeto en t segundos?

Se pide calcular la suma de los primeros t términos:

( ) ( ) [ ] ( ) 21 16323232

232)1(1616

216

22tt

tt

ta

taa

tS ttt =−+⋅=⋅−++⋅=+⋅=+⋅=

⇒ Recorre 216t metros en t segundos.

Ejercicios propuestos.-

I.- Determinar cuáles de las siguientes sucesiones son aritméticas. Encontrar d y agregar dos términos a aquellas que si lo sean:

L

L

L

L

,,,)4

,21,16,11)3

,6,5,6,7)2

,8,4,2)1

43

32

21

−−−

L

L

L

L

,80,48,16)8

,,,)7

,,4,12)6

,7,1,5)5

181

61

21

34

−−

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 20

II.- Sean LL ,,,,, 321 naaaa los términos de una sucesión aritmética. En los siguientes ejercicios propuestos, encontrar las

cantidades que se indican:

??,;28,7)10

??,;117,3)9

?;4,3)8

?;5,7)7

?;11,5)6

?;5,1)5

??,;4,3)4

??,;5,3)3

??,?,;3,18)2

??,?,;4,5)1

2581

101201

101

1521

1121

2121

21221

11151

4321

4321

========

=−=−=======

==========−=

====−=====−=

adaa

adaa

ada

Saa

Saa

Saa

Sada

Sada

aaada

aaada

?;3,12)16

?;55,13)15

??,;,)14

??,;,)13

?;28,24)12

?;22,12)11

1139

1103

191941

261

1

111121

231

1

24241

40401

==−====

========

=−====−=

aaa

aaa

Saaa

Saaa

Saa

Saa

III.- Escribir los términos que faltan de las siguientes sucesiones aritméticas:

{ }{ }{ } .7,4,,2)3

.,,,,,)2

.69,62,,48,41,,27,20)1

2

49

47

443

41

41

63

mxmxamxa

aa

aaa

n

n

n

++−=−−−−=

=

IV.- En una progresión aritmética, el cuarto y el décimo término son 12 y 42, respectivamente. ¿Cuánto vale d? Escriba la progresión

hasta el décimo término.

V.- En una sucesión aritmética, a2 + a8 =52 y a10 - a4 =24. Escribir la sucesión hasta el término diez.

VI.- Completa las siguientes igualdades:

=

=

=−=

=+=

40

140

51

121

?)32()2

?)33()1

k

k

kS

kS

VII.- Responde a las siguientes preguntas:

¿Cuántos múltiplos de 17 hay entre 15 y 2000?

¿Cuántos son los múltiplos de 16 de cuatro cifras?

¿Cuántos múltiplos de 5 hay entre 23 y 301?

¿Cuántos múltiplos de 7 hay entre 10 y 500?

¿Cuántos son los múltiplos de 5 de tres cifras?

¿Cuánto suman los múltiplos de 7 de 24 a 140?

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 21

VIII.- Encontrar:

52)(),20()3()2()1()2

75)(),51()3()2()1()1

−=++++−=++++

xxfsiffff

ttgsigggg

L

L

IX.- Encontrar la suma de todos los números enteros:

1. Pares entre 21 y 135. 2. Impares entre 100 y 500.

X.- Comprobar utilizando las fórmulas referentes a series que la suma de los primeros n números naturales:

1. Impares es n2. 2. Pares es n + n

2.

XI.- Para una sucesión aritmética en la que a1 = -3 y an = an-1 + 3 con n>1, encontrar an en términos de n.

XII.- Para la sucesión del problema anterior, encontrar ∑=

=n

kkn aS

1

en términos de n.

HOMOTECIA Nº 1 – Año 15 Lunes,

HHIISSTTOORRIIAA DD

LLaa QQuuíímmiiccaa ddeell ssiiggllo

Fertilizantes y plaguicidas. Teoría Gaya

La producción de alimentos para una población mundial creciente, problema que se planteaba desde inicios del siglo, demandaba una relos rendimientos agrícolas. Fertilizar adecuadamente las tierras era una exigencia y la reserva natural existente de sadar respuesta a esta necesidad.

Así las cosas, la fijación del nitrógeno atmosférico mediante una adecuada transformación química se erigía como un problema realización. La síntesis del amoníaco, precursor de loschocaba con dificultades prácticas.

El tristemente célebre químico alemán Fritz Haber, iniciador de la guerra química,escala, para obtener poco más de una gota del amoniaco por minuto. Estos resultados experimentales fueron expuestos ante los Badische Anilin und Soda Fabriken (BASF) la mayor empresa de productos químicos de la época.

Los directivos de la BASF comprendieron la significación que tendría la solución del problema del escalado, y confiaron esta tarea a Carl Bosch (1874 – 1940) y Alwin Mittasch (1860 – 1953). Las perspectivas que alentaban el proyecto cubrían un doble abonos y de explosivos nitrogenados.

A lo largo de cuatro años la labor de investigación del equipo encabezado por Bosch y Mittasch abarcó miles de ensayos sintétcatalizadores serían probados. Como resultado, levantarían una industria que producía unas mil veces la producción inicial de Haber, es decir unas cuatro toneladas de amoniaco diariamente. Hoy se produce más de cien mil veces esta cantidad de amoniaco pero el catalizador Mittasch no ha podido ser superado en eficiencia y costo. químico industrial IG Farbenindustrie y su influencia creció hasta sustituir en 1935 nada menos que al entonces veterano, de frente al emergente nazi fascismo, Max Planck (1858 –

Por el desarrollo de una tecnología de alta presión totalmente nueva en la época, Carl Bosch recibiría el premio Nobel de Química en 1931, pero tres hechos ensombrecieron esta distinción: Mittasch, su colega, fue injustamente olvidado; una década antes, el 21 de setiembre de 1921, una horrible explosión de una fábrica de amoníaco en Oppau del Rhin causó 561 muertos y dejó a 7000Alemania de la Primera Guerra Mundial dispuso de la materia prima para la obtención de los explosivos nitrogenados.[1] Fuente Imagen: © The Nobel Foundation

La paradoja del empleo de los fertilizantes nitrogenados viene dada por el impacto negativo que ha tenido su uso sobre el ambiente. Los nitratos de los suelos fertilizados vienen a drenar hacia ríos, lagos y estuarios, promoviendo así el flagelo de la eutroficación que sig"zonas muertas" provocadas por crecimiento explosivo de las algas que sofocan otras especies al reducir el oxígeno disuelto en lasde los niveles requeridos para la mayoría de las especies vivientes en los entornos acuáticos.

Un problema en el orden del día de las necesidades alimentarias del mundo lo era insecticidas que combatieran las plagas causantes de enormes pérdidas al arrasar cosechas enteras de las principales fuentes de la población.

En esta realidad se inserta la polémica página de la síntesis y aplicación de uno de los más potentes insecticidas fabricadostestimonios de que el dicoloro-difenil-tricloroetano fue sinproducto carece de interés hasta que el químico industrial suizo Paul Hermann Müllercontacto que exhibe y luego de cuatro años de intensa labor obtiene la patente industrial en 1940.comercializados a ambos lados del Atlántico al probar su eficaz acción en el combate del tifus, la malaria y en la agricultpremio Nobel de Fisiología o Medicina en 1948. Décadas después se exigía el cese de su aplicación por el impacto global que había provocadecosistemas al reducir dramáticamente la población de insectos

Un segundo hecho que había estremecido la conciencia internacional en los años ochenta fue la catástrofe ocurrida en la plantla Union Carbide en la ciudad india de Bhopal. Durante los tres días que sucedieron a la noche del escape de 40 toneladas de gases letalesmurieron unas ocho mil personas. Unos 150 mil sobrevivientes de la tragedia padecen diferentes enfermedades crónicas resultansustancias tóxicas. Después de cinco años de litigio legal, el gobierno indio aceptó un acuerdo extrajudicial por 470 millonetransnacional de toda responsabilidad civil. Ello significó unaestimado para cubrir los gastos médicos de cinco años. Muchos de los lesionados y aún sus hijos estarán enfermos toda la vidaBhopal se endurecieron las normativas de seguridad química y medioambiental de muchos países. Pero el precio fue muy alto y las víctimas fueron puestas por un país del Tercer Mundo. A fines del pasado siglo, pasados más de 15 años,garantizara: la limpieza del antiguo emplazamiento de la fábrica, como ocurriría si ésta hubiese estado en los Estados Unidoslos supervivientes del escape de los gases letales, y el agua potable a las c

De cualquier forma, al cerrar el siglo los insecticidas aplicados en los campos son mayoritariamente (por encima del 95%) prode toneladas de estas sustancias son administradas a un costo superiormarcado por los desarrollos que se iniciaron en el siglo pasado de los bioinsecticidas. Se ha encontradoconocidas como endotoxinas que exhiben un potente efecto insecticida. El colofón de estas investigaciones y su introducción eel aislamiento y la caracterización del primer gen que determina una proteína insecticida. A partir de este momento se iniciaba la era de obtención de platransgénicas resistentes a insectos que marca en 1996 la entrada en el mercado de las primeras variedades transgénicas de alginsectos. [3]

Lunes, 9 de Enero de 2017

DDEE LLAA QQUUÍÍMMIICCAA ((PPaarrttee IIIIII))

lloo XXXX.. LLaa QQuuíímmiiccaa yy eell MMeeddiioo AAmmbb Por: Rolando Delgado Castillo

FUENTE:

ucción de alimentos para una población mundial creciente, problema que se planteaba desde inicios del siglo, demandaba una relos rendimientos agrícolas. Fertilizar adecuadamente las tierras era una exigencia y la reserva natural existente de sales nitrogenadas no permitía

Así las cosas, la fijación del nitrógeno atmosférico mediante una adecuada transformación química se erigía como un problema realización. La síntesis del amoníaco, precursor de los fertilizantes nitrogenados, mediante la reacción entre el dinitrógeno y el dihidrógeno

El tristemente célebre químico alemán Fritz Haber, iniciador de la guerra química, encontró en la primavera de 1909 las condicionesescala, para obtener poco más de una gota del amoniaco por minuto. Estos resultados experimentales fueron expuestos ante los Badische Anilin und Soda Fabriken (BASF) la mayor empresa de productos químicos de la época.

ctivos de la BASF comprendieron la significación que tendría la solución del problema del escalado, y confiaron esta tarea a 1953). Las perspectivas que alentaban el proyecto cubrían un doble propósito: la producción de

A lo largo de cuatro años la labor de investigación del equipo encabezado por Bosch y Mittasch abarcó miles de ensayos sintétvantarían una industria que producía unas mil veces la producción inicial de Haber, es decir unas

cuatro toneladas de amoniaco diariamente. Hoy se produce más de cien mil veces esta cantidad de amoniaco pero el catalizador do ser superado en eficiencia y costo. Bosch, pocos años después se convertiría en el director de la BASF, luego del complejo

químico industrial IG Farbenindustrie y su influencia creció hasta sustituir en 1935 nada menos que al entonces veterano, de – 1947), al frente del Instituto Kaiser Guillermo de Berlín.

Por el desarrollo de una tecnología de alta presión totalmente nueva en la época, Carl Bosch recibiría el mica en 1931, pero tres hechos ensombrecieron esta distinción: Mittasch, su colega, fue

injustamente olvidado; una década antes, el 21 de setiembre de 1921, una horrible explosión de una fábrica de amoníaco en Oppau del Rhin causó 561 muertos y dejó a 7000 personas sin hogar; gracias a esta tecnología la Alemania de la Primera Guerra Mundial dispuso de la materia prima para la obtención de los explosivos

Fuente Imagen: © The Nobel Foundation

trogenados viene dada por el impacto negativo que ha tenido su uso sobre el ambiente. Los nitratos de los suelos fertilizados vienen a drenar hacia ríos, lagos y estuarios, promoviendo así el flagelo de la eutroficación que sig

s muertas" provocadas por crecimiento explosivo de las algas que sofocan otras especies al reducir el oxígeno disuelto en lasde los niveles requeridos para la mayoría de las especies vivientes en los entornos acuáticos.

el orden del día de las necesidades alimentarias del mundo lo era – y lo sigue siendo aún hoy- encontrar aquellas sustancias insecticidas que combatieran las plagas causantes de enormes pérdidas al arrasar cosechas enteras de las principales fuentes

En esta realidad se inserta la polémica página de la síntesis y aplicación de uno de los más potentes insecticidas fabricados por el hombre: el DDT. Existen los tricloroetano fue sintetizado por primera vez en 1873, por un joven estudiante austríaco, Othmar Zeidler, pero el

producto carece de interés hasta que el químico industrial suizo Paul Hermann Müller (1899 – 1965) descubre en 1936 la fuerte acción insecticida por exhibe y luego de cuatro años de intensa labor obtiene la patente industrial en 1940. Dos productos el Gesarol y el Niocide fueron

comercializados a ambos lados del Atlántico al probar su eficaz acción en el combate del tifus, la malaria y en la agricultura. Müller recibe por este trabajo el de Fisiología o Medicina en 1948. Décadas después se exigía el cese de su aplicación por el impacto global que había provocad

ecosistemas al reducir dramáticamente la población de insectos que se insertan en la cadena alimentaria de diferentes especies.

Un segundo hecho que había estremecido la conciencia internacional en los años ochenta fue la catástrofe ocurrida en la planta de plaguicidas químicosdia de Bhopal. Durante los tres días que sucedieron a la noche del escape de 40 toneladas de gases letales

murieron unas ocho mil personas. Unos 150 mil sobrevivientes de la tragedia padecen diferentes enfermedades crónicas resultansustancias tóxicas. Después de cinco años de litigio legal, el gobierno indio aceptó un acuerdo extrajudicial por 470 millones de dólares que exoneraba a la transnacional de toda responsabilidad civil. Ello significó una indemnización media entre 370 y 533 dólares por persona afectada, escasamente el dinero estimado para cubrir los gastos médicos de cinco años. Muchos de los lesionados y aún sus hijos estarán enfermos toda la vida

ormativas de seguridad química y medioambiental de muchos países. Pero el precio fue muy alto y las víctimas fueron puestas por un país del Tercer Mundo. A fines del pasado siglo, pasados más de 15 años, militantes del movimiento Green Peace reclamaban a garantizara: la limpieza del antiguo emplazamiento de la fábrica, como ocurriría si ésta hubiese estado en los Estados Unidos,

y el agua potable a las comunidades que se ven obligadas a consumir agua subterránea contaminada.

De cualquier forma, al cerrar el siglo los insecticidas aplicados en los campos son mayoritariamente (por encima del 95%) productos químicos. Algo más de 10 millones de estas sustancias son administradas a un costo superior a los mil millones de dólares. No obstante, el futuro de la lucha contra los insectos parece

marcado por los desarrollos que se iniciaron en el siglo pasado de los bioinsecticidas. Se ha encontrado que determinados microorganismos producen ciertas proteínas conocidas como endotoxinas que exhiben un potente efecto insecticida. El colofón de estas investigaciones y su introducción en la práctica agrícola se relacionan con

zación del primer gen que determina una proteína insecticida. A partir de este momento se iniciaba la era de obtención de plala entrada en el mercado de las primeras variedades transgénicas de algodón, patata y maíz, resistentes a

22

))::

bbiieennttee

ucción de alimentos para una población mundial creciente, problema que se planteaba desde inicios del siglo, demandaba una revolución en les nitrogenadas no permitía

Así las cosas, la fijación del nitrógeno atmosférico mediante una adecuada transformación química se erigía como un problema de muy difícil fertilizantes nitrogenados, mediante la reacción entre el dinitrógeno y el dihidrógeno

encontró en la primavera de 1909 las condiciones, en pequeña escala, para obtener poco más de una gota del amoniaco por minuto. Estos resultados experimentales fueron expuestos ante los dirigentes de la

ctivos de la BASF comprendieron la significación que tendría la solución del problema del escalado, y confiaron esta tarea a dos expertos propósito: la producción de

A lo largo de cuatro años la labor de investigación del equipo encabezado por Bosch y Mittasch abarcó miles de ensayos sintéticos, y miles de vantarían una industria que producía unas mil veces la producción inicial de Haber, es decir unas

cuatro toneladas de amoniaco diariamente. Hoy se produce más de cien mil veces esta cantidad de amoniaco pero el catalizador propuesto por Bosch, pocos años después se convertiría en el director de la BASF, luego del complejo

químico industrial IG Farbenindustrie y su influencia creció hasta sustituir en 1935 nada menos que al entonces veterano, de conducta intachable

Por el desarrollo de una tecnología de alta presión totalmente nueva en la época, Carl Bosch recibiría el mica en 1931, pero tres hechos ensombrecieron esta distinción: Mittasch, su colega, fue

injustamente olvidado; una década antes, el 21 de setiembre de 1921, una horrible explosión de una fábrica de personas sin hogar; gracias a esta tecnología la

Alemania de la Primera Guerra Mundial dispuso de la materia prima para la obtención de los explosivos

trogenados viene dada por el impacto negativo que ha tenido su uso sobre el ambiente. Los nitratos de los suelos fertilizados vienen a drenar hacia ríos, lagos y estuarios, promoviendo así el flagelo de la eutroficación que significa la generación de

s muertas" provocadas por crecimiento explosivo de las algas que sofocan otras especies al reducir el oxígeno disuelto en las aguas por debajo

encontrar aquellas sustancias insecticidas que combatieran las plagas causantes de enormes pérdidas al arrasar cosechas enteras de las principales fuentes energéticas nutritivas

por el hombre: el DDT. Existen los tetizado por primera vez en 1873, por un joven estudiante austríaco, Othmar Zeidler, pero el

1965) descubre en 1936 la fuerte acción insecticida por el Gesarol y el Niocide fueron

ura. Müller recibe por este trabajo el de Fisiología o Medicina en 1948. Décadas después se exigía el cese de su aplicación por el impacto global que había provocado en diferentes

que se insertan en la cadena alimentaria de diferentes especies. [2]

a de plaguicidas químicos de dia de Bhopal. Durante los tres días que sucedieron a la noche del escape de 40 toneladas de gases letales se estima que

murieron unas ocho mil personas. Unos 150 mil sobrevivientes de la tragedia padecen diferentes enfermedades crónicas resultantes de las lesiones por las s de dólares que exoneraba a la

n media entre 370 y 533 dólares por persona afectada, escasamente el dinero estimado para cubrir los gastos médicos de cinco años. Muchos de los lesionados y aún sus hijos estarán enfermos toda la vida. Después del accidente de

ormativas de seguridad química y medioambiental de muchos países. Pero el precio fue muy alto y las víctimas fueron puestas militantes del movimiento Green Peace reclamaban a la Dow Chemical que

la rehabilitación médica para omunidades que se ven obligadas a consumir agua subterránea contaminada.

ductos químicos. Algo más de 10 millones a los mil millones de dólares. No obstante, el futuro de la lucha contra los insectos parece

que determinados microorganismos producen ciertas proteínas n la práctica agrícola se relacionan con

zación del primer gen que determina una proteína insecticida. A partir de este momento se iniciaba la era de obtención de plantas odón, patata y maíz, resistentes a

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 23

En 1987 la microbióloga estadounidense de origen ruso Helen Ryaboff-Whiteley de la Universidad de Washington logró por vez primera la clonación del gen para la síntesis de una proteína insecticida específica que existe naturalmente en la bacteria del suelo, Bacillus thurigiensis (Bt). Este resultado sirvió de rampa de lanzamiento para el desarrollo comercial del Bt como agente de control biológico que es ahora usado extensivamente contra una amplia variedad de insectos.

Cuba, país tropical cuyas cosechas sufren importantes pérdidas por el ataque de insectos, ha incluido en su programa nacional de investigaciones en el campo de la Biotecnología las aplicaciones de las técnicas más fiables y seguras para la producción de biopreparados plaguicidas.

Colectivos de diferentes instituciones científicas del país rectoradas por el Centro de Ingeniería Genética y Biotecnología obtienen importantes logros que exponen en diferentes eventos internacionales auspiciados por la Organización Internacional de Control Biológico. [3b]

A pesar del incuestionable valor social que presentan la síntesis industrial de fertilizantes nitrogenados y la producción de insecticidas, la evaluación del impacto que ha venido provocando su empleo irracional, promueve a partir de los años ochenta una corriente de pensamiento relacionada con las nociones de biocompatibilidad, fuentes renovables de recursos, y el desarrollo de una conciencia que reconoce la necesidad apremiante de una actuación más racional de convivencia con el entorno.

En 1969, el investigador británico James Lovelock (1919 - ) formuló una hipótesis subversiva: nuestro planeta actúa como una especie de supe organismo que a través de una red de complejas interacciones entre sus sistemas vivos mantienen las condiciones ideales para la vida. La primera reacción del mundo científico fue admitir con reservas estos postulados que parecían saturados de especulaciones. En cierta forma fueron vistos como el reverso del legado darwinista según el cual la historia de la vida demostraba su necesaria adecuación a las condiciones del entorno físico - químico.

Lovelock se encargó de demostrar, al menos con algunos ejemplos relevantes, que la propia biósfera se ocupa de engendrar, reproducir y regular sus propias condiciones ambientales.

En 1971, detectó ciertas sustancias que actúan como reguladoras del equilibrio térmico y descubrió sus fuentes de emisión. Resulta que durante el verano las algas costeras proliferan, incrementando sus emisiones del dimetilsulfuro (DMS) y estas moléculas actúan como núcleos de condensación para el vapor de agua, lo que eleva la concentración nubosa, oscurece por consiguiente la superficie y provoca el descenso de las temperaturas. Por el contrario el frío del invierno inhibe la multiplicación de las algas en los océanos, reduce sus emisiones, con lo que disminuye la concentración de dimetil sulfuro, se forman menos nubes y comienza una nueva escalada térmica.

Un segundo efecto auto regulador fue avistado por Lovelock. A juzgar por la oxidación en la atmósfera de los óxidos nitrosos y sulfurosos liberados por la descomposición de la materia orgánica, una enorme creciente cantidad de ácidos debieron incrementar la acidez terrestre hasta una acidez comparable con la del vinagre. Sin embargo, los procesos metabólicos de los seres vivos producen como producto de excreción alrededor de mil megatoneladas anuales de amoniaco, compuesto básico que se encarga de neutralizar la acumulación de los ácidos.

El tercer "milagro" en el que se puede entrever la actuación de la madre tierra, es la concentración estacionaria del dioxígeno atmosférico justo a la composición ideal para la vida. La actividad vital de bacterias y algas fotosintéticas durante millones de años fue responsable de la transformación de la atmósfera primitiva reductora en una atmósfera oxidante y del aporte a mares y océanos de un contenido determinado de dioxígeno disuelto. Esto posibilitó a su vez que unos 570 millones de años atrás aparecieran y se desarrollaran formas marinas de vida que obtuvieran energía mediante la respiración. Pero con el paso del tiempo el permanente estado de equilibrio alcanzado en la composición del oxígeno es el resultado de la intervención reguladora de la propia biosfera.

Es sorprendente advertir que una composición de oxígeno en unas unidades porcentuales por encima de la existente pondría en peligro la vida ya que se ha podido comprobar que en una atmósfera con un 25 % de dioxígeno ardería el detritus húmedo de la selva tropical con la excitación correspondiente a un relámpago.

El creador de la hipótesis Gaya (diosa tierra para los griegos), postula ante todo la defensa de los cordones basales de la autorregulación planetaria: el cinturón de selvas tropicales y las plataformas continentales. La alteración drástica de estas zonas de la biosfera constituyen la verdadera amenaza para Gaya, o mejor decir, para Pachamama, la tierra nutricia de la mitología inca que no pare monstruos, ni traiciona al dios-cielo, sino evita heladas y plagas, madura los frutos y asegura la caza...

Un tercer cinturón mostró su sensibilidad a la actividad del hombre, y por sorpresa, este se ubica fuera de los límites de la biosfera escapando del dominio de ésta, pero ejerciendo una notable influencia en su protección: la capa de ozono.

El científico británico James E. Lovelock (1919 - ) se graduó como químico, luego recibió el grado de Doctor en Medicina y una década más tarde defendió su tesis doctoral en Biofísica.

Hacia la mitad de la década de 1950 Lovelock se ocupaba de diseñar una serie de detectores de ionización para su empleo en los cromatógrafos de gases, cuando uno de ellos, el detector de captura electrónica vino a revolucionar las técnicas de análisis de los gases en la atmósfera y con ello condicionó el desarrollo de una conciencia ambiental. Este detector fue patentado en 1957 y aún hoy se cuenta entre los más sensibles métodos para el análisis de aquellas sustancias químicas que constituyen una amenaza para el medio ambiente. Su empleo condujo al descubrimiento de la distribución de los residuos de pesticidas en el ambiente natural que sirvió de base para el libro de Rachel Carson "La Primavera Silenciosa".[3c]

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017

Rachel Carson, la célebre bióloga estadounidense que alertó a la conciencia pública sobre las consecuirreparables para el medio ambiente que se derivan de la aplicación irracional de los pesticidas, con su libro Silent Spring, debió sufrir en la primavera de 1960 el diagnóstico médico sobre un cáncer de mama que la lleva a la muerte prematura cuatro años después. Paralelamente debe enfrentar la campaña en su contra desarrollada porlos intereses monopólicos [4]. De cualquier modo la humanidad debe oponerse a este y otros graves peligros, sin que una firme voluntad política de urgentes transformaci

Fuente Imagen: http://onlineethics.org/spanish/carson/main

La necesidad social de aparición en escena de los plásticos alcanzó tal impacto que algunos han bautizado cierto momento del “era de los plásticos”. A partir de la década del treinta se despegarían una tras otra las invenciones de nuevos polímeros sustentados en rutas sintéticas cuidadosamente proyectadas.

En 1928, la Compañía DuPont tomó una decisión poco común por entoncfundamentales que sería dirigido por el brillante químico estadounidense Wallace Carothers (1896producir controladamente fibras artificiales que con el tiempo competirían por sus propiedades con las fibras extraídas de fuentes naturales. Fueron sintetizados en el laboratorio las poliamidas (nylon) y los poliésteres (dacrón, terylene, etc.)

En otro polo de los materiales poliméricos, los llamados plásticos vinílicos,(1910 – 1985), premio Nobel en 1974, que definieron en lo fundamental las vías para obtener los plásticos que revolucionaron los materiales usados en el transporte, las comunicaciones y la construcción como el polivinilcloruro, los poliacrilatos, poliacetatos, el teflón y otros

Un nuevo período en el campo de las síntesis de polímeros se abre con las investigaciones realizadas paralelamente poZiegler (1898-1973) y el italiano Giulio Natta (1903-1979). El desarrollo de la producción del polietileno a baja presión por Ziegler, y la invención un año después del método para producir el propileno porhicieron compartir en 1963 el premio Nobel de Química

A fines de los setenta, las investigaciones de Hideki Shirakawa, Premio Nobel del 2000 (compartido con colegas estadounidenseposibilidad de una nueva serie de plásticos conductores de la corriente eléctrica,los metales y sus propiedades híbridas los hacen únicos

Los plásticos, caracterizados por su estabilidad química y térmica, no entrañaban un problema de contaminación. Sin embargo, su acumulación en calidad de residuos no degradables planteó un nuevo conflicto que encontrará solución si se garantiza su reciclaje o el desarsusceptibles a la degradación biológica.

La carrera en la síntesis de nuevos polímeros llega hasta hoy impulsada por la conquista del cosmos, la revolución en las comdominio de los biopolímeros para fines médicos, y se orienta hacia la prcon propiedades específicas para la tecnología de punta.

Una generación de plásticos biodegrables, derivados del ácido poliglicólico, relativamente fáciles de hidrolizarse y asimilarse por el organismo fueron desarrollados antes de finalizar el siglo y han representado una revolución, inicialmente, en el ámbito de la medicina. Robert Langer (1949láminas de polímeros de superficie biodegradable que constituyen el soporte para la administración local y lenta de los agentes terapéuticos tóxicos en zonas del cerebro, la próstata y áreas óseas médica Johns Hopkins, Henry Brem (1952

Fuente Imagen: web.mit.edu/langerlab/langer.html

Una curiosa coincidencia de dos aportaciones significativas en el momento en que se produjeron sushumanidad ha tenido que lamentar profundamente se da en el ingeniero mecánico estadounidense, formado de manera autodidacta eThomas Midgley Jr. (1889 – 1944). Este caso representacualquier nueva tecnología que exija el masivo empleo de los productos químicos.

Midgley se enfrentó en la segunda década del siglo a dos problemas planteados por la pujante industria estadounidel transporte demandaba la elevación de la eficiencia de las gasolinas reduciendo la detonación irregular que se producía dufuncionamiento del motor. La idea que guió a Midgley suponía que el empleo dede ensayo y error y luego siguiendo ciertas tendencias en la tabla periódica, encontró en 1921, mientras trabajaba en el laboinvestigaciones de la General Motors, que el plomo tetraetilo een Estados Unidos [5]. Los problemas de su toxicidad no fueron debidamente evaluados y la contaminación se extendió durante más de 60 años, resultando imposible una evaluación objetiva del impacto que pudo causar sobre todo en la población infantil, en la cual el plomo puede causar retrasos en el desarrollo, trastornos de la memoria y problemas en la audición.

Pero debe significarse también que Midgley fue un precursor de laque aún cuando ya estaba “resuelto” el problema número uno del aditivo antidetonante, en el laboratorio de Midgley se continucualidades de las mezclas de alcohol-gasolina. En junio de 1922 en una comunicación a la Sociedad de Ingenieros Automotrices Midgley afirmó: “La escasez y alto costo de la gasolina en países dónde el azúcar se produce y existe una abundancia de fuentes naturales que sirprima para fabricar alcohol hacen pensar en el uso futuro del alcohol como combustible. Conformeuso del benceno y particularmente del alcohol en combustibles comerciales debe hacerse cada vez más extensivo”.

Las investigaciones de Midgley demostraron que el Gasohol o Carburol, término resultante de la contracción de gasolina y alcomezcla de nueve partes de gasolina sin plomo y una parte de alcohol (etanol o metanol)carburador, el ciclo de encendido ni los conductos de combustible, y tiene capacidad antidetonante ligeramente mayor que la g

Un segundo problema se levantaba con las sustancias que semetilo). Entre las cualidades indeseables presentadas por estas sustancias, sobre todo para la expansión de la refrigeración toxicidad e inflamabilidad. No pocos accidentes dramáticos se produjeron por las fugas de las unidades de refrigeración en los hogares, sobre todo en el horario nocturno. Buscando un buen sustituto para estos refrigerantes Midgley desarrolló el tetrafluormetano yfreón).

Año 15 Lunes, 9 de Enero de 2017

Rachel Carson, la célebre bióloga estadounidense que alertó a la conciencia pública sobre las consecuirreparables para el medio ambiente que se derivan de la aplicación irracional de los pesticidas, con su libro Silent Spring, debió sufrir en la primavera de 1960 el diagnóstico médico sobre un cáncer de mama que la lleva a la

o años después. Paralelamente debe enfrentar la campaña en su contra desarrollada porDe cualquier modo la humanidad debe oponerse a este y otros graves peligros, sin

que una firme voluntad política de urgentes transformaciones se advierta en las grandes potencias.

Fuente Imagen: http://onlineethics.org/spanish/carson/main-span.html

La necesidad social de aparición en escena de los plásticos alcanzó tal impacto que algunos han bautizado cierto momento del

A partir de la década del treinta se despegarían una tras otra las invenciones de nuevos polímeros sustentados en rutas

DuPont tomó una decisión poco común por entonces en el mundo de los negocios: abrió un laboratorio para investigaciones brillante químico estadounidense Wallace Carothers (1896–1937). Carothers demostró la posibilidad de

ciales que con el tiempo competirían por sus propiedades con las fibras extraídas de fuentes naturales. Fueron sintetizados en el laboratorio las poliamidas (nylon) y los poliésteres (dacrón, terylene, etc.) [5].

los llamados plásticos vinílicos, se destacaron las investigaciones del equipo dirigido por Paul J. Flory que definieron en lo fundamental las vías para obtener los plásticos que revolucionaron los materiales

y la construcción como el polivinilcloruro, los poliacrilatos, poliacetatos, el teflón y otros

Un nuevo período en el campo de las síntesis de polímeros se abre con las investigaciones realizadas paralelamente po1979). El desarrollo de la producción del polietileno a baja presión por Ziegler, y la invención un

año después del método para producir el propileno por Natta brindaron los dos plásticos más empleados a fines del siglo XX. Estas innovaciones le hicieron compartir en 1963 el premio Nobel de Química [7].

A fines de los setenta, las investigaciones de Hideki Shirakawa, Premio Nobel del 2000 (compartido con colegas estadounidenseposibilidad de una nueva serie de plásticos conductores de la corriente eléctrica, polímeros que tienden un puente entre los materiales plásticos y los metales y sus propiedades híbridas los hacen únicos [8].

or su estabilidad química y térmica, no entrañaban un problema de contaminación. Sin embargo, su acumulación en calidad de residuos no degradables planteó un nuevo conflicto que encontrará solución si se garantiza su reciclaje o el desar

La carrera en la síntesis de nuevos polímeros llega hasta hoy impulsada por la conquista del cosmos, la revolución en las comy se orienta hacia la producción de polímeros biodegradables, conductores, fotopolímeros, y otros

con propiedades específicas para la tecnología de punta.

Una generación de plásticos biodegrables, derivados del ácido poliglicólico, relativamente fáciles de hidrolizarse y milarse por el organismo fueron desarrollados antes de finalizar el siglo y han representado una revolución, inicialmente,

en el ámbito de la medicina. Robert Langer (1949- ), ingeniero químico del Instituto Tecnológico de Massachussets, diseñó polímeros de superficie biodegradable que constituyen el soporte para la administración local y lenta de los

agentes terapéuticos tóxicos en zonas del cerebro, la próstata y áreas óseas [9]. En 1992 el neurocirujano de la institución Henry Brem (1952 - ), implantó en áreas delicadas del cerebro tales discos para tratar el cáncer

Fuente Imagen: web.mit.edu/langerlab/langer.html

Una curiosa coincidencia de dos aportaciones significativas en el momento en que se produjeron sus descubrimientos, y que más tarde la humanidad ha tenido que lamentar profundamente se da en el ingeniero mecánico estadounidense, formado de manera autodidacta e

1944). Este caso representa una referencia obligada para demostrar la necesidad de evaluar el eventual impacto de cualquier nueva tecnología que exija el masivo empleo de los productos químicos.

Midgley se enfrentó en la segunda década del siglo a dos problemas planteados por la pujante industria estadounidense. Pordel transporte demandaba la elevación de la eficiencia de las gasolinas reduciendo la detonación irregular que se producía du

La idea que guió a Midgley suponía que el empleo de ciertos aditivos actuaría como antidetonantes. Primero a prueba de ensayo y error y luego siguiendo ciertas tendencias en la tabla periódica, encontró en 1921, mientras trabajaba en el laboinvestigaciones de la General Motors, que el plomo tetraetilo era un antidetonante ideal. Dos años después era comercializada la gasolina etilada

. Los problemas de su toxicidad no fueron debidamente evaluados y la contaminación se extendió durante más de 60 años, ón objetiva del impacto que pudo causar sobre todo en la población infantil, en la cual el plomo puede causar

retrasos en el desarrollo, trastornos de la memoria y problemas en la audición.

Pero debe significarse también que Midgley fue un precursor de las ideas sobre la importancia del alcohol, como combustible renovable. Se afirma que aún cuando ya estaba “resuelto” el problema número uno del aditivo antidetonante, en el laboratorio de Midgley se continu

En junio de 1922 en una comunicación a la Sociedad de Ingenieros Automotrices Midgley afirmó: “La escasez y alto costo de la gasolina en países dónde el azúcar se produce y existe una abundancia de fuentes naturales que sirprima para fabricar alcohol hacen pensar en el uso futuro del alcohol como combustible. Conforme se vayan agotando las reservas de petróleo, el uso del benceno y particularmente del alcohol en combustibles comerciales debe hacerse cada vez más extensivo”.

Las investigaciones de Midgley demostraron que el Gasohol o Carburol, término resultante de la contracción de gasolina y alcomezcla de nueve partes de gasolina sin plomo y una parte de alcohol (etanol o metanol) puede emplearse en un automóvil sin necesidad de modificar el carburador, el ciclo de encendido ni los conductos de combustible, y tiene capacidad antidetonante ligeramente mayor que la gasolina sin plomo

Un segundo problema se levantaba con las sustancias que se empleaban como refrigerantes en la década del 20 (amoníaco, dióxido de azufre y cloruro de metilo). Entre las cualidades indeseables presentadas por estas sustancias, sobre todo para la expansión de la refrigeración doméstica, se encontraban la

No pocos accidentes dramáticos se produjeron por las fugas de las unidades de refrigeración en los hogares, sobre todo en el Buscando un buen sustituto para estos refrigerantes Midgley desarrolló el tetrafluormetano y el diclorodifluormetano (mas tarde llamado

24

Rachel Carson, la célebre bióloga estadounidense que alertó a la conciencia pública sobre las consecuencias irreparables para el medio ambiente que se derivan de la aplicación irracional de los pesticidas, con su libro Silent Spring, debió sufrir en la primavera de 1960 el diagnóstico médico sobre un cáncer de mama que la lleva a la

o años después. Paralelamente debe enfrentar la campaña en su contra desarrollada por De cualquier modo la humanidad debe oponerse a este y otros graves peligros, sin

se advierta en las grandes potencias.

La necesidad social de aparición en escena de los plásticos alcanzó tal impacto que algunos han bautizado cierto momento del siglo XX como la A partir de la década del treinta se despegarían una tras otra las invenciones de nuevos polímeros sustentados en rutas

es en el mundo de los negocios: abrió un laboratorio para investigaciones Carothers demostró la posibilidad de

ciales que con el tiempo competirían por sus propiedades con las fibras extraídas de fuentes naturales.

se destacaron las investigaciones del equipo dirigido por Paul J. Flory que definieron en lo fundamental las vías para obtener los plásticos que revolucionaron los materiales

y la construcción como el polivinilcloruro, los poliacrilatos, poliacetatos, el teflón y otros [6].

Un nuevo período en el campo de las síntesis de polímeros se abre con las investigaciones realizadas paralelamente por el químico alemán Karl 1979). El desarrollo de la producción del polietileno a baja presión por Ziegler, y la invención un

plásticos más empleados a fines del siglo XX. Estas innovaciones le

A fines de los setenta, las investigaciones de Hideki Shirakawa, Premio Nobel del 2000 (compartido con colegas estadounidenses), anuncian la polímeros que tienden un puente entre los materiales plásticos y

or su estabilidad química y térmica, no entrañaban un problema de contaminación. Sin embargo, su acumulación en calidad de residuos no degradables planteó un nuevo conflicto que encontrará solución si se garantiza su reciclaje o el desarrollo de polímeros

La carrera en la síntesis de nuevos polímeros llega hasta hoy impulsada por la conquista del cosmos, la revolución en las comunicaciones, el oducción de polímeros biodegradables, conductores, fotopolímeros, y otros

Una generación de plásticos biodegrables, derivados del ácido poliglicólico, relativamente fáciles de hidrolizarse y milarse por el organismo fueron desarrollados antes de finalizar el siglo y han representado una revolución, inicialmente,

), ingeniero químico del Instituto Tecnológico de Massachussets, diseñó polímeros de superficie biodegradable que constituyen el soporte para la administración local y lenta de los

neurocirujano de la institución ), implantó en áreas delicadas del cerebro tales discos para tratar el cáncer [10].

descubrimientos, y que más tarde la humanidad ha tenido que lamentar profundamente se da en el ingeniero mecánico estadounidense, formado de manera autodidacta en la química,

para demostrar la necesidad de evaluar el eventual impacto de

dense. Por una parte la actividad del transporte demandaba la elevación de la eficiencia de las gasolinas reduciendo la detonación irregular que se producía durante el

aditivos actuaría como antidetonantes. Primero a prueba de ensayo y error y luego siguiendo ciertas tendencias en la tabla periódica, encontró en 1921, mientras trabajaba en el laboratorio de

ra un antidetonante ideal. Dos años después era comercializada la gasolina etilada . Los problemas de su toxicidad no fueron debidamente evaluados y la contaminación se extendió durante más de 60 años,

ón objetiva del impacto que pudo causar sobre todo en la población infantil, en la cual el plomo puede causar

s ideas sobre la importancia del alcohol, como combustible renovable. Se afirma que aún cuando ya estaba “resuelto” el problema número uno del aditivo antidetonante, en el laboratorio de Midgley se continuó investigando las

En junio de 1922 en una comunicación a la Sociedad de Ingenieros Automotrices Midgley afirmó: “La escasez y alto costo de la gasolina en países dónde el azúcar se produce y existe una abundancia de fuentes naturales que sirven como materia

se vayan agotando las reservas de petróleo, el

Las investigaciones de Midgley demostraron que el Gasohol o Carburol, término resultante de la contracción de gasolina y alcohol, constituido por una en un automóvil sin necesidad de modificar el

asolina sin plomo [6].

empleaban como refrigerantes en la década del 20 (amoníaco, dióxido de azufre y cloruro de doméstica, se encontraban la

No pocos accidentes dramáticos se produjeron por las fugas de las unidades de refrigeración en los hogares, sobre todo en el el diclorodifluormetano (mas tarde llamado

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017

En 1930 Thomas Midgley demostró ante lafreón inhalando profundamente el nuevo gas y exhalando hacia la llama de una vela, la cual se apagó. Quedaba demostrado que el producto no era tóxico ni tampoco inflamable. La generación de los refrigerantes ideales estaba en manos de los fabricantes ellas las de actuar como propulsores de todo tipo de aerosol comercial. Un nuevo peligro se cernía sobre una de las sustancias protectoras que la naturaleza había creado propiciando e

Fuente Imagen: http://www.invent.org/hall_of_fame/193.html

Mientras Midgley evaluaba la utilización de una nueva generación de refrigerantes, un experimentador inglés Gordon Miller Bou1976) en la Universidad de Oxford iniciaba la observación y estudio del ozono atmosférico.ozono que se acumulan en la estratósfera es en sentido estricto un manto difuso del trioxígeno (molécula triatómica del oconcentración en el intervalo de los 300 - 500 Dobson. La unidad Dobson,determinación del ozono atmosférico, representa una molécula por cada 100,5 ppm (partes por millón).

Por entonces sus investigaciones descubrieron que el perfil de la temperatura por encima de la tropausa no era constante comonombre de estratosfera sino que había una región donde la temperatura sustancialmente se incrementaba. Dobson infirió correctamente que la causa del calentamiento de la estratosfera estaba relacionada con la absorción de la radiación solar ultravioleta por el ozonequipo para hacer mediciones de las cantidades de ozono y su variabilidad.

El primer espectrómetro estuvo listo en el verano de 1924 y las mediciones regulares obtenidas a lo largo del 1925 establecieprincipales de la variación estacional del ozono, el máximo en la primavera y el mínimo hacia el otoño, y también demostró la estrechaentre la cantidad de ozono y las condiciones meteorológicas en la alta troposfera y la baja estratosfera.

A fines de 1929, Dobson y sus colaboradores habían extendido una red de equipos que permitióla variación de la cantidad de ozono con la latitud y la estación. Desde inicios de los años 30, Dobson se convirtió en un cipolución atmosférica y desde 1934 bajo su dirección se desarrollaron métodos fiables para las mediciones de los humos y nieblas, materia depositada y dióxido de azufre.

Paralelamente con estos trabajos de medición del ozono en la atmósfera supe1930 en las Memorias de la Sociedad Real Meteorológica británica, la teoría cuantitativa del equilibrio y los cambios del ozoen la atmósfera superior que implicaban la interacción del ozono con la radiación ultravioleta proveniente del astro rey.ozono constituía un escudo protector de la llamada radiación ultravioleta dura se difundía entre la comunidad científica que del planeta.

Después de la II Guerra Mundial, la Comisión Internacional de Ozono, fundada en 1948 por la Unión Internacional de Geodesia yel trabajo internacional sobre el ozono. A fines de 1956, en el Año Internacional de la Geodesifueron distribuidos a través del mundo. El resultado másla variación anual del ozono en la Bahía de Halley en la Acomportamiento en el hemisferio norte.

Gordon Miller Bourne Dobson (1889 vida a la observación y el estudio dehabían extendido una red de equipos que permitióvariación de la cantidad de ozono con la latitud y la estación. Desde inicios de los añoconvirtió en un científico preocupado por la polución atmosférica y desde 1934desarrollaron métodos fiables para las mediciones de los humos y nieblas, materia depositada y dióxido de azufre. Dobson se retiró de la Unpero continuó trabajando sobre el ozono a lo largo de sus años de retiro. Su último artículo fue escrito en 1973, 62 años después de su primera publicación en este campo, y su última obseratmosférico la hizo un día antes de tenermuerte. [7]

Fuente Imagen: www

Cinco años después de formulada la teoría Gaya y a cuatro décadas de los nuevos refrigerantes propuestos por Midgley, los científicos de la Universidad de California, Irvine, F. Sherwood (1927- ) y el mexicano –clorofluocarbonos empleados masivamente como propulsores en todo tipo de “spray” y como refrigerantes, tienen potencial para [13]. Y en efecto, en años recientes, se ha confirmado el enrarecimiento de la capa de ozono en dife

Este adelgazamiento ocasiona un aumento de los niveles de la radiación ultravioleta duraplaneta. Las consecuencias son ya importantes y pueden llegar a ser trágica

La Academia Nacional de Ciencias de los Estados Unidos ha pronosticado que una reducción de un 10% en el ozono estratosféricode incidencia de cáncer en la piel. Las últimas estadísticas revelan que, por ejemplo, en los EEUU seuna población que se encuentra alrededor de los 220 millones de habitantes.

Una excesiva exposición a la radiación ultravioleta se ha relacionado también con el padecimiento de cataratas y otros trastde la aparición de dermatitis alérgica y tóxica. Se ha podido comprobar que el sistema inmunológico se deprime con la exposicalta frecuencia, lo que hace más vulnerable especialmente a niños y per

Por lo que respecta al resto de los seres vivos la incidencia puede ser muy diversa ya que la sensibilidad de las distintas ees uniforme. A título de ejemplo pueden mencionarse que estudios recientes realizados a nivel de laboratorio ponen de manifiesto que especies como el tomate, el maíz, la zanahoria o la remolacha expuestas a esta radiación incrementan la sensibilidad a las plagas. Se pronostifitoplancton será muy afectado lo que trastornará la cadena alimentaria en mares y océanos con efectos ecológicos desastrososreducción de la población disminuirá sensiblemente los rendimientos de la industria pesquerde los mamíferos y puede aniquilar especies como el boquerón, la trucha y otras que son

Año 15 Lunes, 9 de Enero de 2017

En 1930 Thomas Midgley demostró ante la American Chemical Society las seguras propiedades físicas defreón inhalando profundamente el nuevo gas y exhalando hacia la llama de una vela, la cual se apagó. Quedaba demostrado que el producto no era tóxico ni tampoco inflamable. La generación de los refrigerantes ideales estaba en manos de los fabricantes [12]. Nuevas aplicaciones se encontraron para los clorofluorcarbonos, entre ellas las de actuar como propulsores de todo tipo de aerosol comercial. Un nuevo peligro se cernía sobre una de las sustancias protectoras que la naturaleza había creado propiciando el desarrollo de la vida en el planeta.

Fuente Imagen: http://www.invent.org/hall_of_fame/193.html

Mientras Midgley evaluaba la utilización de una nueva generación de refrigerantes, un experimentador inglés Gordon Miller BouUniversidad de Oxford iniciaba la observación y estudio del ozono atmosférico. Hoy sabemos que las tres mil millones de toneladas de

es en sentido estricto un manto difuso del trioxígeno (molécula triatómica del o500 Dobson. La unidad Dobson, propuesta para perpetuar la memoria de este pionero en la

determinación del ozono atmosférico, representa una molécula por cada 109 moléculas, es decir la concentración de ozono es muy baja, entre 03,

Por entonces sus investigaciones descubrieron que el perfil de la temperatura por encima de la tropausa no era constante comoabía una región donde la temperatura sustancialmente se incrementaba. Dobson infirió correctamente que la

causa del calentamiento de la estratosfera estaba relacionada con la absorción de la radiación solar ultravioleta por el ozonequipo para hacer mediciones de las cantidades de ozono y su variabilidad.

El primer espectrómetro estuvo listo en el verano de 1924 y las mediciones regulares obtenidas a lo largo del 1925 establecieestacional del ozono, el máximo en la primavera y el mínimo hacia el otoño, y también demostró la estrecha

entre la cantidad de ozono y las condiciones meteorológicas en la alta troposfera y la baja estratosfera.

s colaboradores habían extendido una red de equipos que permitió establecer las regularidades la variación de la cantidad de ozono con la latitud y la estación. Desde inicios de los años 30, Dobson se convirtió en un ci

bajo su dirección se desarrollaron métodos fiables para las mediciones de los humos y nieblas, materia

Paralelamente con estos trabajos de medición del ozono en la atmósfera superior el geofísico inglés Sydney Chapman (1888 1930 en las Memorias de la Sociedad Real Meteorológica británica, la teoría cuantitativa del equilibrio y los cambios del ozo

la interacción del ozono con la radiación ultravioleta proveniente del astro rey.ozono constituía un escudo protector de la llamada radiación ultravioleta dura se difundía entre la comunidad científica que

Después de la II Guerra Mundial, la Comisión Internacional de Ozono, fundada en 1948 por la Unión Internacional de Geodesia yel trabajo internacional sobre el ozono. A fines de 1956, en el Año Internacional de la Geodesia y Geofísica no menos de 44 nuevos espectrómetros

más interesante devenido de esta política de mediciones sistemáticas fue el descubrimiento de la variación anual del ozono en la Bahía de Halley en la Antártica que mostró un repentino incremento en Noviembre, muy diferente del

Gordon Miller Bourne Dobson (1889 - 1976) fue un experimentador inglés que dedicó buena parte de su vida a la observación y el estudio del ozono atmosférico. A fines de 1929, Dobson y sus colaboradores habían extendido una red de equipos que permitió establecer las regularidades variación de la cantidad de ozono con la latitud y la estación. Desde inicios de los añoconvirtió en un científico preocupado por la polución atmosférica y desde 1934desarrollaron métodos fiables para las mediciones de los humos y nieblas, materia depositada y dióxido de azufre. Dobson se retiró de la Universidad en 1950 como profesor activo y luego en 1956 como asesor, pero continuó trabajando sobre el ozono a lo largo de sus años de retiro. Su último artículo fue escrito en 1973, 62 años después de su primera publicación en este campo, y su última obseratmosférico la hizo un día antes de tener el ataque cardiaco que le provocó, seis semanas después, la

Fuente Imagen: www-atm.physics.ox.ac.uk/user/barnett/ozoneconference/dobson.htm

Gaya y a cuatro décadas de los nuevos refrigerantes propuestos por Midgley, los científicos de la Universidad de – estadounidense Mario Molina (1943- ) determinaron, luego de un exhaustivo estudio, que

clorofluocarbonos empleados masivamente como propulsores en todo tipo de “spray” y como refrigerantes, tienen potencial para . Y en efecto, en años recientes, se ha confirmado el enrarecimiento de la capa de ozono en diferentes latitudes del planeta.

ocasiona un aumento de los niveles de la radiación ultravioleta dura que penetra en la atmósfera e incide sobre la superficie del planeta. Las consecuencias son ya importantes y pueden llegar a ser trágicas.

La Academia Nacional de Ciencias de los Estados Unidos ha pronosticado que una reducción de un 10% en el ozono estratosféricode incidencia de cáncer en la piel. Las últimas estadísticas revelan que, por ejemplo, en los EEUU se ha producido un incremento de 5 000 casos anuales, en una población que se encuentra alrededor de los 220 millones de habitantes.

Una excesiva exposición a la radiación ultravioleta se ha relacionado también con el padecimiento de cataratas y otros trastornos oculares y con el aumento de la aparición de dermatitis alérgica y tóxica. Se ha podido comprobar que el sistema inmunológico se deprime con la exposicalta frecuencia, lo que hace más vulnerable especialmente a niños y personas de la tercera edad a las enfermedades por virus y bacterias.

Por lo que respecta al resto de los seres vivos la incidencia puede ser muy diversa ya que la sensibilidad de las distintas especies a este tipo de radiación no jemplo pueden mencionarse que estudios recientes realizados a nivel de laboratorio ponen de manifiesto que especies como el

tomate, el maíz, la zanahoria o la remolacha expuestas a esta radiación incrementan la sensibilidad a las plagas. Se pronostifitoplancton será muy afectado lo que trastornará la cadena alimentaria en mares y océanos con efectos ecológicos desastrososreducción de la población disminuirá sensiblemente los rendimientos de la industria pesquera. Entre las especies animales, afecta muy seriamente a la visión de los mamíferos y puede aniquilar especies como el boquerón, la trucha y otras que son muy vulnerables en estado larvario.

25

American Chemical Society las seguras propiedades físicas del freón inhalando profundamente el nuevo gas y exhalando hacia la llama de una vela, la cual se apagó. Quedaba demostrado que el producto no era tóxico ni tampoco inflamable. La generación de los refrigerantes ideales

. Nuevas aplicaciones se encontraron para los clorofluorcarbonos, entre ellas las de actuar como propulsores de todo tipo de aerosol comercial. Un nuevo peligro se cernía sobre una

l desarrollo de la vida en el planeta.

Mientras Midgley evaluaba la utilización de una nueva generación de refrigerantes, un experimentador inglés Gordon Miller Bourne Dobson (1889 - Hoy sabemos que las tres mil millones de toneladas de

es en sentido estricto un manto difuso del trioxígeno (molécula triatómica del oxígeno) que alcanza una propuesta para perpetuar la memoria de este pionero en la

ncentración de ozono es muy baja, entre 03, -

Por entonces sus investigaciones descubrieron que el perfil de la temperatura por encima de la tropausa no era constante como sugería el propio abía una región donde la temperatura sustancialmente se incrementaba. Dobson infirió correctamente que la

causa del calentamiento de la estratosfera estaba relacionada con la absorción de la radiación solar ultravioleta por el ozono, y decidió construir un

El primer espectrómetro estuvo listo en el verano de 1924 y las mediciones regulares obtenidas a lo largo del 1925 establecieron las características estacional del ozono, el máximo en la primavera y el mínimo hacia el otoño, y también demostró la estrecha correlación

establecer las regularidades más generales entre la variación de la cantidad de ozono con la latitud y la estación. Desde inicios de los años 30, Dobson se convirtió en un científico preocupado por la

bajo su dirección se desarrollaron métodos fiables para las mediciones de los humos y nieblas, materia

rior el geofísico inglés Sydney Chapman (1888 - 1970) publicaba en 1930 en las Memorias de la Sociedad Real Meteorológica británica, la teoría cuantitativa del equilibrio y los cambios del ozono y el oxígeno atómico

la interacción del ozono con la radiación ultravioleta proveniente del astro rey. La idea de que la capa de ozono constituía un escudo protector de la llamada radiación ultravioleta dura se difundía entre la comunidad científica que estudiaba la atmósfera

Después de la II Guerra Mundial, la Comisión Internacional de Ozono, fundada en 1948 por la Unión Internacional de Geodesia y Geofísica, organizó a y Geofísica no menos de 44 nuevos espectrómetros

interesante devenido de esta política de mediciones sistemáticas fue el descubrimiento de ntártica que mostró un repentino incremento en Noviembre, muy diferente del

1976) fue un experimentador inglés que dedicó buena parte de su A fines de 1929, Dobson y sus colaboradores

establecer las regularidades más generales entre la variación de la cantidad de ozono con la latitud y la estación. Desde inicios de los años 30, Dobson se convirtió en un científico preocupado por la polución atmosférica y desde 1934 bajo su dirección se desarrollaron métodos fiables para las mediciones de los humos y nieblas, materia depositada y dióxido

iversidad en 1950 como profesor activo y luego en 1956 como asesor, pero continuó trabajando sobre el ozono a lo largo de sus años de retiro. Su último artículo fue escrito en 1973, 62 años después de su primera publicación en este campo, y su última observación del ozono

el ataque cardiaco que le provocó, seis semanas después, la

atm.physics.ox.ac.uk/user/barnett/ozoneconference/dobson.htm

Gaya y a cuatro décadas de los nuevos refrigerantes propuestos por Midgley, los científicos de la Universidad de ) determinaron, luego de un exhaustivo estudio, que los

clorofluocarbonos empleados masivamente como propulsores en todo tipo de “spray” y como refrigerantes, tienen potencial para destruir la capa de ozono

que penetra en la atmósfera e incide sobre la superficie del

La Academia Nacional de Ciencias de los Estados Unidos ha pronosticado que una reducción de un 10% en el ozono estratosférico podría provocar un 20% ha producido un incremento de 5 000 casos anuales, en

ornos oculares y con el aumento de la aparición de dermatitis alérgica y tóxica. Se ha podido comprobar que el sistema inmunológico se deprime con la exposición a las radiaciones UV de

sonas de la tercera edad a las enfermedades por virus y bacterias.

species a este tipo de radiación no jemplo pueden mencionarse que estudios recientes realizados a nivel de laboratorio ponen de manifiesto que especies como el

tomate, el maíz, la zanahoria o la remolacha expuestas a esta radiación incrementan la sensibilidad a las plagas. Se pronostica que a largo plazo el fitoplancton será muy afectado lo que trastornará la cadena alimentaria en mares y océanos con efectos ecológicos desastrosos, y a mediano plazo la

Entre las especies animales, afecta muy seriamente a la visión

HOMOTECIA Nº 1 – Año 15 Lunes,

Se ha podido comprobar que diversos materiales empleados en la construcción,plásticos, gomas y cauchos experimentan una notable degradación de sus proradiaciones ultravioletas. [9]

La importancia concedida a estos problemas por la comunidad científica se expresa en el premio Molina y al químico holandés Paul Crutzen (1933- ) en 1995.

Crutzen había señalado que el óxido de nitrógeno podía provocar la degradación de la capa de ozono estratosférico, ya que al mecanismo en cadena, una baja concentración del óxido de nitrógeno se traducía en cuidadosamente controlados sobre el efecto inducido por el NO liberado por las turbinas de los aviones estratosféricos demostde las predicciones de Crutzen y una moratoria fue impuesta sobestratosférica de la atmósfera. Tales naves representaban una conquista de la aviación contemporánea pero su irrupción en unaplaneta quedaba demostrado que significaría un peligro insospechado

El mexicano – estadounidense, Mario J. Molina, Premio durante sus primeros años en Berkeleyalta potencia para producir armas.lo logró. El 28 de junio de 1974 publicó, junto a su asesor F. Sherwood Rowland, en la Revista Nature un primer informe alertando a la comunidad científica y a la opinión pública de los peligros en que se encontraba la capa estratosférica de ozono.

Fuente Imagen: © The Nobel Foundation

El calentamiento global y las lluvias ácidas.

En 1904 el químico – físico sueco Svante Arrhenius pronosticó que las crecientes emisiones industriales de COla concentración de este gas en la atmósfera, provocando un cambio climático global. Según la predicción de Arrhenius este inresultar beneficioso al hacer más uniforme el clima del planeta y estimular el crecimiento de las plantas y la producción de alimentos.

Una opinión discrepante con la optimista visión de Arrhenius aparece a fines de los treinta. El eminente ingeniero termoenergStewart Callendar (1898 – 1964) publica en 1938 el artículo titulado “La producción artificial del dióxido de carbono y su influencia sobre la temperatura”. Este trabajo y los que posteriormente dio a conocer demostraban la correlación existentdel dióxido atmosférico desde los tiempos preindustriales, y la información entonces acopiada por él sobre la tendencia obserde la temperatura.

Los resultados de Callendar no encontraron resonancia en la comunidad científica de la época. Prevalecían las ideas que hacían creer que la inmensa masa de las tres cuartas partes del planeta, el agua de océanos y mares, actuaría como sistema regulador por su capacCO2. Hasta alrededor de los sesenta la mayoría de los científicos confiaban que la actividad humana no podía provocar cambios globales en el cldel planeta [10].

Sin embargo las investigaciones conducidas en la década de los cincuenta por el geofísico estadounidense Rogecolaboración del radio químico de origen austríaco Hans Suess (1909la atmósfera se habían incrementado como resultado de la quema de los combustiblesprevaleciente sobre la actividad reguladora de mares y océanos

En 1977 Revelle encabeza un Panel de la Academia Nacional de Ciencias de los Estados Unidos el cual encuentra que alrededor ddióxido de carbono antropogénico permanece en la atmósfera, las dos terceras partes provenientes de los combustibles fósiles tala de los bosques. Al inicio de los ochenta la escalada en las predicciones se ensombrecen cuando Rerevista estadounidense Scientific American en la que anuncia la posible elevación del nivel del mar como resultado de fusión debe acompañar a la elevación de la temperatura del planeta.

Hans E. Suess (1909Durante la segunda guerra mundial perteneció al grupo de científicos alemanes que les fue asignado explorar las posibilidades para utilizar la energía atómica.científico de la planta de agua pesada en Noruega, que fue destruida por las bombas aliadas en 1943. En 1950 emigró a los Estados Unidos y cinco años después aceptó la invitación del oceanógrafo Roger Revelle de trabajar masas oceánicas. Suess aplicó las técnicas de detección del isótopo radioactivo del carbono abordar este problema. Sus resultados fueron piezas claves para las publicaciones quRevelle se consideran pioneras en la aclaración de la acumulación del COplaneta, responsable de uno de los problemas medioambientales contemporáneos: el calentamiento global. [14]

Fuente Imagen: La Comisión Mundial de la Organización de las Naciones Unidas (ONU) sobre Medio Ambiente y Desarrollo, presidida por la médicHarlem Brundtland (1939 -), recibió el mandato del organismo internacional de analizar lproblemas globales ambientales. Durante tres años esta comisión investigó en diferentes latitudes, y en proceso de consulta permanente espectro de profesionales relacionados con tema tan complejo, arribó a una fórmula de consenso que sirviera de plataforma dinamizadora. El concepto emergente de desarrollo sostenible en el cual se centra el informe Brundtland fue aprobado en 1987 por la Asamblea General derefrendado como principio orientador en la política de cooperación internacional. Sin embargo al considerar que "el Desarrollo sostsatisface las necesidades de las actuales generaciones sin comprometer las de las futuras, atendiendo al equilinecesidades de los más pobres", se incluyen tres ingredientes que aunque formalmente aceptados por la comunidad internacionallos poderosos: la idea de las necesidades, la noción de los límites (capacidad de carga de la biosfera) y el concepto capital de la solidaridad.

En 1988 la Organización Mundial Meteorológica y el Programa Medioambiental de Naciones Unidas fundaron un Panel IntergubernamClimático (IPCC) que señalara la información científica, técnica y socioeconómica para la comprensión del cambio climático, sus impactos potopciones para la adaptación y mitigación de los daños. El IPCC fue el primer esfuerzo internacional a escala internamedioambientales [13].

Año 15 Lunes, 9 de Enero de 2017

Se ha podido comprobar que diversos materiales empleados en la construcción, las comunicaciones, equipos eléctricos, así como fibras artificiales, plásticos, gomas y cauchos experimentan una notable degradación de sus propiedades y un envejecimiento prematuro por exposición a las

La importancia concedida a estos problemas por la comunidad científica se expresa en el premio Nobel otorgado de forma compartida a Sherwood, ) en 1995.

Crutzen había señalado que el óxido de nitrógeno podía provocar la degradación de la capa de ozono estratosférico, ya que al mecanismo en cadena, una baja concentración del óxido de nitrógeno se traducía en un significativo consumo del ozono. Experimentos cuidadosamente controlados sobre el efecto inducido por el NO liberado por las turbinas de los aviones estratosféricos demostde las predicciones de Crutzen y una moratoria fue impuesta sobre los proyectados aviones supersónicos que tienen su corredor aéreo en la capa estratosférica de la atmósfera. Tales naves representaban una conquista de la aviación contemporánea pero su irrupción en una

nificaría un peligro insospechado.

estadounidense, Mario J. Molina, Premio Nobel de Química en 1995, confiesa en su autobiografía que durante sus primeros años en Berkeley sintió un profundo rechazo a la posibilidad de emplear losalta potencia para producir armas. Deseaba por entonces dedicarse a una investigación que fuera útil a la sociedad, y lo logró. El 28 de junio de 1974 publicó, junto a su asesor F. Sherwood Rowland, en la Revista Nature un primer

tando a la comunidad científica y a la opinión pública de los peligros en que se encontraba la capa

Fuente Imagen: © The Nobel Foundation

henius pronosticó que las crecientes emisiones industriales de CO2 determinarían un cambio notable en la concentración de este gas en la atmósfera, provocando un cambio climático global. Según la predicción de Arrhenius este in

ficioso al hacer más uniforme el clima del planeta y estimular el crecimiento de las plantas y la producción de alimentos.

Una opinión discrepante con la optimista visión de Arrhenius aparece a fines de los treinta. El eminente ingeniero termoenerg1964) publica en 1938 el artículo titulado “La producción artificial del dióxido de carbono y su influencia sobre la

temperatura”. Este trabajo y los que posteriormente dio a conocer demostraban la correlación existente entre la elevación de las concentraciones del dióxido atmosférico desde los tiempos preindustriales, y la información entonces acopiada por él sobre la tendencia obser

nancia en la comunidad científica de la época. Prevalecían las ideas que hacían creer que la inmensa masa de las tres cuartas partes del planeta, el agua de océanos y mares, actuaría como sistema regulador por su capac

or de los sesenta la mayoría de los científicos confiaban que la actividad humana no podía provocar cambios globales en el cl

Sin embargo las investigaciones conducidas en la década de los cincuenta por el geofísico estadounidense Roger Revelle (1909de origen austríaco Hans Suess (1909- ) demostraron de manera irrefutable que los niveles de dióxido de carbono en

la atmósfera se habían incrementado como resultado de la quema de los combustibles fósiles y de la tala de los bosques, rechazando la idea prevaleciente sobre la actividad reguladora de mares y océanos [11].

En 1977 Revelle encabeza un Panel de la Academia Nacional de Ciencias de los Estados Unidos el cual encuentra que alrededor ddióxido de carbono antropogénico permanece en la atmósfera, las dos terceras partes provenientes de los combustibles fósiles tala de los bosques. Al inicio de los ochenta la escalada en las predicciones se ensombrecen cuando Revelle publica un artículo en la importante revista estadounidense Scientific American en la que anuncia la posible elevación del nivel del mar como resultado de fusión debe acompañar a la elevación de la temperatura del planeta.[12]

Hans E. Suess (1909- ) recibió su doctorado en Química en la Universidad de Viena en 1935. Durante la segunda guerra mundial perteneció al grupo de científicos alemanes que les fue asignado explorar las posibilidades para utilizar la energía atómica. Suess sirvió entonces como asesor científico de la planta de agua pesada en Noruega, que fue destruida por las bombas aliadas en 1943. En 1950 emigró a los Estados Unidos y cinco años después aceptó la invitación del oceanógrafo Roger Revelle de trabajar en la determinación de los niveles de CO2 que eran absorbidos por las masas oceánicas. Suess aplicó las técnicas de detección del isótopo radioactivo del carbono abordar este problema. Sus resultados fueron piezas claves para las publicaciones qu

se consideran pioneras en la aclaración de la acumulación del COplaneta, responsable de uno de los problemas medioambientales contemporáneos: el calentamiento

Fuente Imagen: www.aip.org/history/climate/Revelle.htm

La Comisión Mundial de la Organización de las Naciones Unidas (ONU) sobre Medio Ambiente y Desarrollo, presidida por la médic), recibió el mandato del organismo internacional de analizar la cuestión del desarrollo de la humanidad en conexión con los

globales ambientales. Durante tres años esta comisión investigó en diferentes latitudes, y en proceso de consulta permanente a tan complejo, arribó a una fórmula de consenso que sirviera de plataforma dinamizadora. El concepto

emergente de desarrollo sostenible en el cual se centra el informe Brundtland fue aprobado en 1987 por la Asamblea General dedado como principio orientador en la política de cooperación internacional. Sin embargo al considerar que "el Desarrollo sost

satisface las necesidades de las actuales generaciones sin comprometer las de las futuras, atendiendo al equilibrio social y ecológico y prioritariamente a las necesidades de los más pobres", se incluyen tres ingredientes que aunque formalmente aceptados por la comunidad internacional

e los límites (capacidad de carga de la biosfera) y el concepto capital de la solidaridad.

En 1988 la Organización Mundial Meteorológica y el Programa Medioambiental de Naciones Unidas fundaron un Panel Intergubernam) que señalara la información científica, técnica y socioeconómica para la comprensión del cambio climático, sus impactos pot

opciones para la adaptación y mitigación de los daños. El IPCC fue el primer esfuerzo internacional a escala internacional

26

las comunicaciones, equipos eléctricos, así como fibras artificiales, piedades y un envejecimiento prematuro por exposición a las

otorgado de forma compartida a Sherwood,

Crutzen había señalado que el óxido de nitrógeno podía provocar la degradación de la capa de ozono estratosférico, ya que al provocar un un significativo consumo del ozono. Experimentos

cuidadosamente controlados sobre el efecto inducido por el NO liberado por las turbinas de los aviones estratosféricos demostraron la veracidad re los proyectados aviones supersónicos que tienen su corredor aéreo en la capa

estratosférica de la atmósfera. Tales naves representaban una conquista de la aviación contemporánea pero su irrupción en una zona virgen del

de Química en 1995, confiesa en su autobiografía que sintió un profundo rechazo a la posibilidad de emplear los láser químicos de

Deseaba por entonces dedicarse a una investigación que fuera útil a la sociedad, y lo logró. El 28 de junio de 1974 publicó, junto a su asesor F. Sherwood Rowland, en la Revista Nature un primer

tando a la comunidad científica y a la opinión pública de los peligros en que se encontraba la capa

determinarían un cambio notable en la concentración de este gas en la atmósfera, provocando un cambio climático global. Según la predicción de Arrhenius este incremento podría

ficioso al hacer más uniforme el clima del planeta y estimular el crecimiento de las plantas y la producción de alimentos.

Una opinión discrepante con la optimista visión de Arrhenius aparece a fines de los treinta. El eminente ingeniero termoenergético británico Guy 1964) publica en 1938 el artículo titulado “La producción artificial del dióxido de carbono y su influencia sobre la

e entre la elevación de las concentraciones del dióxido atmosférico desde los tiempos preindustriales, y la información entonces acopiada por él sobre la tendencia observada de la elevación

nancia en la comunidad científica de la época. Prevalecían las ideas que hacían creer que la inmensa masa de las tres cuartas partes del planeta, el agua de océanos y mares, actuaría como sistema regulador por su capacidad absorbente del

or de los sesenta la mayoría de los científicos confiaban que la actividad humana no podía provocar cambios globales en el clima

r Revelle (1909-1991) con la ) demostraron de manera irrefutable que los niveles de dióxido de carbono en

fósiles y de la tala de los bosques, rechazando la idea

En 1977 Revelle encabeza un Panel de la Academia Nacional de Ciencias de los Estados Unidos el cual encuentra que alrededor de un 40 % del dióxido de carbono antropogénico permanece en la atmósfera, las dos terceras partes provenientes de los combustibles fósiles y una tercera de la

velle publica un artículo en la importante revista estadounidense Scientific American en la que anuncia la posible elevación del nivel del mar como resultado de fusión de los glaciares que

) recibió su doctorado en Química en la Universidad de Viena en 1935. Durante la segunda guerra mundial perteneció al grupo de científicos alemanes que les fue asignado

Suess sirvió entonces como asesor científico de la planta de agua pesada en Noruega, que fue destruida por las bombas aliadas en 1943. En 1950 emigró a los Estados Unidos y cinco años después aceptó la invitación del oceanógrafo

que eran absorbidos por las masas oceánicas. Suess aplicó las técnicas de detección del isótopo radioactivo del carbono - 14 para abordar este problema. Sus resultados fueron piezas claves para las publicaciones que junto a

se consideran pioneras en la aclaración de la acumulación del CO2 en la atmósfera del planeta, responsable de uno de los problemas medioambientales contemporáneos: el calentamiento

La Comisión Mundial de la Organización de las Naciones Unidas (ONU) sobre Medio Ambiente y Desarrollo, presidida por la médica y política noruega Gro a cuestión del desarrollo de la humanidad en conexión con los

globales ambientales. Durante tres años esta comisión investigó en diferentes latitudes, y en proceso de consulta permanente con todo el a tan complejo, arribó a una fórmula de consenso que sirviera de plataforma dinamizadora. El concepto

emergente de desarrollo sostenible en el cual se centra el informe Brundtland fue aprobado en 1987 por la Asamblea General de las Naciones Unidas y dado como principio orientador en la política de cooperación internacional. Sin embargo al considerar que "el Desarrollo sostenible es aquel que

brio social y ecológico y prioritariamente a las necesidades de los más pobres", se incluyen tres ingredientes que aunque formalmente aceptados por la comunidad internacional, son vistos con recelo por

e los límites (capacidad de carga de la biosfera) y el concepto capital de la solidaridad. En 1988 la Organización Mundial Meteorológica y el Programa Medioambiental de Naciones Unidas fundaron un Panel Intergubernamental sobre el Cambio

) que señalara la información científica, técnica y socioeconómica para la comprensión del cambio climático, sus impactos potenciales y las cional para dirigir los temas

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 27

Las predicciones del IPCC proyectan un intervalo de escenarios de las emisiones futuras de gases de invernadero y de precursores de aerosoles basado en estimaciones relativas del crecimiento de la población y económico, el empleo de los suelos, cambios tecnológicos, disponibilidad energética y las proporciones de los combustibles durante el período que media hasta el 2 100.

Para el escenario medio de emisiones pronosticadas por el IPCC, asumiendo el "mejor valor estimado" de la sensibilidad climática e incluyendo los efectos de los futuros incrementos en aerosol, los modelos proyectan un incremento en la temperatura media global relativa de la superficie del aire de alrededor de 2° C para el 2100. La predicción correspondiente para el más alto escenario del IPCC combinado con un alto valor de la sensibilidad climática da un calentamiento de alrededor de 3,5 ° C. Con motivo de la inercia térmica de los océanos, sólo un 50 - 90 % del cambio de temperatura del equilibrio eventual podría haberse realizado para 2 100 y la temperatura podría continuar el incremento más allá del 2 100, aún cuando las concentraciones de los gases de invernadero se estabilizaran para esta fecha.

Se espera un incremento del nivel del mar como resultado de la expansión térmica de los océanos y la fusión de glaciares y placas de hielo. Para el escenario del IPCC, asumiendo los mejores valores de la sensibilidad climática y de la sensibilidad de la fusión del hielo, e incluyendo los efectos de cambios futuros en el aerosol, los modelos predicen una elevación en el nivel del mar de aproximadamente 50 cm desde fines del pasado siglo hasta el 2 100. El nivel del mar podría continuar la elevación a una velocidad similar en los siglos futuros más allá del 2100, aún si las concentraciones de los gases de invernadero estuvieran estabilizadas para esta fecha, y podría continuar aún después del momento en que se alcance una estabilización de la temperatura media global.

Las temperaturas más cálidas conducirán a un ciclo hidrológico más vigoroso, lo cual se traduce en que en algunos lugares sufrirán más severas sequías y/o inundaciones mientras en otros se pronostican sequías y/o inundaciones menos severas. Algunos modelos indican un incremento en la intensidad de las precipitaciones sugiriendo una posibilidad para eventos de precipitaciones extremas. El conocimiento es insuficiente para decir si existirán cambios en la ocurrencia o la distribución geográfica de tormentas severas o ciclones tropicales.

En resumen los expertos coinciden en que la elevación de las temperaturas globales provocará una elevación del nivel del mar, cambios en los regímenes de precipitación y otras condiciones climáticas locales. Los cambios regionales del clima pueden alterar los bosques, el rendimiento en las cosechas, y las fuentes de agua. También puede resultar amenazada la salud humana, dañadas especies de aves, peces y muchos tipos de ecosistemas.

En mayo de 1992, 154 países (incluidos los de la Unión Europea) firmaron el Tratado de las Naciones Unidas para el Cambio Climático (ratificado en marzo de 1994). Los países signatarios se comprometieron a estabilizar, para el final de siglo, los niveles de las emisiones de dióxido de carbono en los valores de 1990.

Apenas un mes más tarde, más de 100 líderes de gobierno participan en el Encuentro de Río conocido como la Cumbre de la Tierra. Allí un consenso fue alcanzado sobre la necesidad de integrar el desarrollo económico a la protección medioambiental en el objetivo de lograr un desarrollo sustentable [15].

En diciembre de 1997, más de 160 naciones asisten a la ciudad de Kyoto para negociar las limitaciones sobre las emisiones de los gases de invernadero por parte de las naciones desarrolladas conforme a los objetivos de la Convención sobre Cambio Climático de 1997. El Protocolo de Kyoto anuncia el compromiso de las naciones poderosas a limitar sus emisiones hasta los niveles emitidos en 1990. Los inicios del nuevo milenio eran testigos de la no ratificación del Protocolo de Kyoto por precisamente dos grandes, que “ven amenazados su desarrollo si no se prevén limitaciones en las cuotas de emisiones de los países en vías de desarrollo”, los Estados Unidos de América y la nueva Rusia [16].

Otro problema ambiental que experimenta el planeta y que fuera advertido ya a fines del pasado siglo es el causado por las precipitaciones ácidas. En 1872, el doctor Robert Angus Smith (1817- 1884) fue el primer climatólogo en el mundo en identificar la lluvia ácida y sus peligros. Smith organizó una campaña para la prohibición del uso de los combustibles que produjeran la niebla conocida como smog. Su libro “Acid Rain: The beginnings of Chemical Climatology” tuvo el valor de representar el inicio de una labor educativa por forjar una conciencia sobre los riesgos de emplear los combustibles responsables de la lluvia ácida [16].

El origen de las lluvias ácidas está directamente relacionado con la actividad industrial. El descenso registrado en el pH de las precipitaciones, que se sitúa entre 5,8 y 6,0, coincide con la revolución industrial, el advenimiento de la máquina de vapor de Watt y un aumento considerable en la combustión de diferentes carbones. Hacia 1955 el promedio del pH de la lluvia se desplaza hacia 5,6 lo que se califica de descenso espectacular y concuerda con el notable aumento de la actividad industrial en el mundo desarrollado de la posguerra.

Los efectos nocivos que la lluvia ácida ocasiona sobre las áreas naturales son muy diversos y dependen del tipo de ecosistemas; así por ejemplo, en ríos y lagos, éste fenómeno ha provocado una acidificación de sus aguas, dañando a plantas y animales que las habitan, y en casos extremos, se produce una aniquilación completa de especies sensibles a la acidez del agua. En áreas como el nordeste estadounidense donde se combina la baja capacidad buffer de los suelos con la prevalescencia de los vientos hacia la región, algunos lagos alcanzan valores de pH inferiores a 5. Uno de los lagos más ácidos de esta región, Little Echo Pond en Franklin, New York, tiene un pH de 4.2. Conviene reconocer que ya a un pH de 5, la mayoría de los huevos de peces no pueden madurar, y por debajo de este nivel de pH, buena parte de los peces adultos no sobreviven. [18]

En los ecosistemas terrestres, los daños ocasionados por la lluvia ácida, afectan principalmente a las plantas, ocasionando en algunas especies sensibles, lesiones y caída de las hojas, sin embargo, usualmente la lluvia ácida no acaba con la vegetación directamente sino que actúa de manera gradual, haciendo más lento su crecimiento y favoreciendo el ataque de plagas y enfermedades.

La lluvia ácida empobrece los suelos, tanto de bosques, como de zonas de cultivo, ya que a su paso por éstos, lava los nutrientes esenciales para el crecimiento de las plantas, al tiempo que libera elementos tóxicos, como el aluminio y el magnesio, que se acumulan en sus tejidos y acaba con microorganismos útiles en los procesos de formación, descomposición y nutrición del suelo.

No se ha demostrado aún que la lluvia ácida ocasione efectos directos nocivos en los seres humanos; para que esto sucediera tendrían que presentarse valores de pH en el agua de lluvia mucho más bajos de los que actualmente se registran. Sin embargo, la lluvia ácida puede tener efectos indirectos sobre la salud, ya que las aguas acidificadas pueden disolver metales y sustancias tóxicas de los suelos, rocas, conductos y tuberías y posteriormente transportarlos hacia los sistemas de agua potable.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 28

La primera noticia alarmante se dio a comienzos de los setenta cuando en Escocia, al norte de la tierra natal del fundador de las ideas sobre las lluvias ácidas, el doctor Robert A. Smith, se reportó precipitaciones con un índice de acidez comparable al del vinagre. El mecanismo de formación de las lluvias ácidas quedó aclarado poco después, en 1975. Las investigaciones realizadas en los glaciares de Groenlandia demuestran inobjetablemente que hace unos 500 años el pH oscilaba entre 6 y 7 (el índice de acidez de una solución neutra se corresponde con un pH de 7), es decir a mediados del milenio anterior la lluvia era sólo ligeramente ácida. La opinión pública ha sido informada.

La voluntad política de los países con la máxima responsabilidad por este grave trastorno de un ciclo de precipitaciones que ha sustentado al planeta durante millones de años está preñada de fariseísmos.

La energía nuclear.

En 1942, un equipo encabezado por el físico italiano Enrico Fermi (1901 - 1954), como parte del proyecto Manhattan para la fabricación de la bomba atómica, inventó en 1942 la manera de controlar la reacción de fisión nuclear para generar energía. La pila atómica de Fermi fue precursora de los reactores termonucleares.

En diciembre de 1951, a seis años del holocausto de Hisroshima y Nagasaki, el primer reactor experimental instalado en una central eléctrica construida en Idaho (E. E. U. U.), produjo energía como llegaría a ser común en todas las plantas de energía atómica, el calor del núcleo haría hervir agua y el vapor impulsaría una turbina.

Al finalizar la centuria, las más de 400 centrales nucleares instaladas en 18 países generaban casi la quinta parte de la producción mundial que se había decuplicado en la segunda mitad del siglo superando la astronómica cifra de 10 billones de Kwh. Francia, líder mundial, producía el 75% de su generación eléctrica en plantas nucleares.

En 1954, los soviéticos abrieron la primera planta electronuclear civil en Obninsk, región de Kaluga a unos 100 kilómetros de Moscú. La planta fue capaz de generar sólo 5 MW de energía eléctrica.

Pero la primera planta electronuclear comercial fue levantada por la compañía Westinghouse en Shippingport, Estados Unidos. Pronto empezaron a funcionar centrales nucleares en todo el mundo.

Dos factores ensombrecieron las optimistas predicciones sobre las ventajas de la energía nuclear: la peligrosidad de los residuos radiactivos y la posibilidad de accidentes nucleares.

Dos factores ensombrecieron las optimistas predicciones sobre las ventajas de la energía nuclear: la peligrosidad de los residuos radiactivos y la posibilidad de accidentes catastróficos.

Por lo menos cuatro accidentes principales han sido registrados en las plantas nucleares. En todos se reporta como causa una combinación de errores humanos (como factor principal) con fallas en el diseño de los equipos. La Organización Internacional de la Energía Atómica (OIEA) ha implantado una escala para categorizar la magnitud de los accidentes (conocida por sus siglas INES) en siete niveles. La categoría máxima está representada por un accidente de consecuencias comparables al ocurrido en la Central de Chernobil instalada en Ucrania (antigua URSS).

Resulta sorprendente que en los diferentes informes sobre la catástrofe se acepte la increíble versión de que se sumaran tantas negligencias para desatar la tragedia. Primero, el equipo que operaba en la planta el día 26 de abril de 1986, se propuso, con la intención de aumentar la seguridad del reactor, realizar un experimento a un régimen de baja potencia, que exigía desconectar el sistema de regulación de la potencia, el sistema de emergencia refrigerante del núcleo y otros sistemas de protección. Segundo, los operadores quedaron responsabilizados con la manipulación de las barras de control del reactor y de las 30 barras de la aleación de acero al boro que debieron permanecer bajadas según establecen como mínimo las reglas de seguridad, sólo quedaron introducidas en el núcleo 8 de ellas. Casi cuatro horas después de iniciada "la experiencia", en la sala de control se dio la señal de alarma de que el reactor experimentaba una subida de potencia extremadamente rápida. Se ordenó bajar de inmediato las barras de moderación pero cumplir el mandato exigió "liberarlas" pues el sistema de descenso no funcionó, y entonces sobrevino la explosión que levantó por los aires el techo de 100 t del reactor provocando un incendio en la planta y lanzando una gigantesca emisión de productos de fisión a la atmósfera.

Las consecuencias del "accidente nuclear" han sido evaluadas de muy diferentes maneras por distintas fuentes. Ha quedado reconocido que 31 personas murieron en el momento del accidente, alrededor de 350.000 personas tuvieron que ser evacuadas de los 155.000 km² afectados, permaneciendo extensas áreas deshabitadas durante muchos años. La radiación se extendió a la mayor parte de Europa, permaneciendo los índices de radiactividad en niveles peligrosos durante varios días. Se estima que se liberó unas 500 veces la radiación de la bomba atómica arrojada en Hiroshima en 1945. En septiembre de 2005, el borrador del informe del Forum de Chernobyl (en el que participan entre otros el OIEA, la OMS y los gobiernos de Bielorrusia, Rusia y Ucrania) se predicen 4000 muertes entre las 600.000 personas que recibieron las mayores dosis de radiación. La versión completa del informe de la OMS, publicado en 2006, incluye la predicción de otras 5000 víctimas en áreas significativamente contaminadas de Bielorrusia, Rusia y Ucrania, con lo que se alcanzarían las 9000 víctimas de cáncer. Esta cifra coincide con la estimación admitida por la Agencia Cubana de Prensa (ACP) que fija entre ocho mil y 10 mil las víctimas, mientras otras 500 mil podrán afectarse por diversos cánceres en los próximos 10 años, muchos de ellos muy lejos del área del accidente.

Al informarse sobre la catástrofe varias naciones ofrecieron ayuda humanitaria inmediata a los afectados, además de realizar promesas a largo plazo, que nunca cumplieron. Solo Cuba ha mantenido desde 1990, sin ningún apoyo financiero de institución internacional alguna, un programa de socorro para las víctimas de este accidente nuclear. El sistema de salud de Cuba ha atendido a 18 153 pequeños de Ucrania y Bielorusia con diversas enfermedades y ha acogido además a 3 427 adultos acompañantes. Más de 300 infantes con padecimientos hematológicos, 136 con tumores y 1 552 con afecciones dermatológicas, han recibido tratamiento. Se han realizado 14 operaciones cardiovasculares y seis trasplantes de médula ósea. Un por ciento alto de los niños de Chernobyl atendidos en Cuba provienen de orfanatos y escuelas para niños sin amparo filial. [19]

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017

La explosión del reactor número 4 de la central nuclear de Chernobil ha quedado como la peor catástrofe ecológica promovida por la energía nuclear. La tragedia fuematerial radioactivo fueron lanzadas a la atmósfera contaminando flora y fauna de grandes extensiones de Bielorrusia, la Federación Rusa y Ucraninorte europeo que experimentaron luego las deposiciones radiactivas.

Esta vez el aplauso no lo merecían hombres de ciencias sino ante todo el cuerpo de bomberos de la planta que con sconducta heroica impidieron la propagación del incendio desatado hacia otras áreas, lo cual podría haber desencadenado un drama incalculable. Entre ellos se cuentan las víctimas inmediatas y en breve plazo de las radiaciones ionizantes. [20]

Si la accidentalidad de las plantas nucleares ha impactado con mayor o menor fuerza a la biosfera, el ruido de la guerra ha tenido unha sido evaluada con suficiente precisión. Una de las primeras explosiones nucleares "de prueba" en 1954, afectaron a la población local, que recibió una dosis corporal total estimada de 1,75alteraciones de diferente intensidad, con enfermedad de inicio temprano y células sanguíneas. La contaminación superficial del organismo por el accidente originó quemaduras y ulceraciones cutáneas enafectados. De acuerdo con estos resultados iniciales las superpotencias trasladaron sus polígonos de prueba para sitios protegidos de extensas zonas desérticas, e incluso llevaron las pruebas al nivel del subsuelo evitando la contaminación atmosférica y las lluvias ratrasladar impulsados por los vientos, residuos radiactivos a miles de kilómetros del lugar de la explosión. De cualquier forma el planeta hsacudida telúrica, y el pulso electromagnético de radiaciones ionizanteslanzadas por los Estados Unidos, el 85 % por las dos grandes superpotencias del siglo (E.U. y la URSS), el 10% en el orden FrBretaña. Cinco pruebas se reparten entre dos países asiáticos envueltos en un litigio en el océano Índico por el régimen sudafricano del apartheid en 1979, para emplear el chantaje en sus relaciones con los veci1992, logrado un Tratado Internacional de no proliferación del arma nuclear, se han silenciado notablemente "los ensayo nucleares". Pero India y Pakistán desoyendo el clamor universal, en 1998 realizaron un par de pruebas por parte en demostración mutua de fuerza. Al grupo de ocho países responsables de esta demencial carrera ha amenazado con sumarse Corea del Norte.

Durante las décadas del 20 al 40 el profesor sueco en físicaimportantes contribuciones al campo de la física clínica. Enrelacionados con el empleo de la radiación en la diagnosis y la terapia.calcular la dosis absorbida para los tumores, nuevos equipos para la irradiación de pacientes, e instde medición de dosis, entre ellos la mundialmente conocida cámara que lleva su nombre.

A este científico se debe la determinación de los efectos biológicos de la radiación ionizante, con particular énfasis en los efectos que las dosis bajas de radHasta su muerte en 1964, Sievert jugó un rol muy activo en la cooperación internacional en el campo de protección y de la medición de las dosis de radiación.aprobó que la unidad para una dosis de radiación ionizante equivalente llevara su nombre (sievert, Sv).

La comunidad científica viene gestando los contornos de una ciencia del Medio Ambiente, que exige del concurso multidisciplicampos que van desde la Ciencias de los Materiales a la Energética pasando por la FísicaBiología Molecular y la Biotecnología, y las Ciencias de la Informática. Será necesario un financpolítica que solucione los problemas globales del hambre, la energía y la contaminación del planeta.

La creciente preocupación de los círculos científicos por el manejo que hacen los políticos de los problede una “Unión de los Científicos Preocupados” que en carta abierta firmada por más de 20 laureados con el premio EEUU de estar manipulando el sistema científico asesor para evitar los contambién apuntan la existencia de evidencias que muestran cómo la administración restringe las declaraciones que los científicaspectos que pudiesen despertar cierta polémica. De este modo, aseguran que se ha censurado por lo menos un estudio sobre el cambio climático, y que se han manipulado los resultados de las emisiones de mercurio por parte de las centrales eléctricas. A escasos doce meslistado de personalidades científicas que apoyan la gestión de esta Unión se ha multiplicado y suman 48 los galardonados con el Nobelexpresado su adhesión a este movimiento de hombres de ciencia comprometidos con los problemas de su tiempo

En suma, la ciencia del siglo XX intervino de manera contradictoria en la época del desarrollo creciente y múltiple de los problemas adesatados por la actividad del hombre.

Proveyó a la agricultura con los fertilizantes nitrogenados requeridos para prodprovocó la contaminación de las aguas y la eutrofización de embalses, ríos, lagos, y mares litorales.

Proporcionó para proteger las cosechas y para desarrollar las campañas sanitarias losagrícolas y erradicaron enfermedades transmisibles y al mismo tiempo promovieron un problema de incalculable impacto ecológic

Suministró productos según la demanda de diferentes tecnologías y nela tierra, produjo una masa impresionante de residuos sólidos no biodegradables, y causó el deterioro del escudo protector esozono.

Descubrió los elementos para el empleo de la energía nuclear y acontecieron dramáticos accidentes que provocaron serios daños radiológicos en la flora, la fauna y la salud humana.

Año 15 Lunes, 9 de Enero de 2017

explosión del reactor número 4 de la central nuclear de Chernobil ha quedado como la peor catástrofe ecológica vida por la energía nuclear. La tragedia fue resultado sobre todo de errores humanos. Enormes cantidades de

material radioactivo fueron lanzadas a la atmósfera contaminando flora y fauna de grandes extensiones de Bielorrusia, la Federación Rusa y Ucrania. Las nubes trasladaron el polvo contaminado hacia vastas regiones del norte europeo que experimentaron luego las deposiciones radiactivas.

Esta vez el aplauso no lo merecían hombres de ciencias sino ante todo el cuerpo de bomberos de la planta que con sconducta heroica impidieron la propagación del incendio desatado hacia otras áreas, lo cual podría haber desencadenado un drama incalculable. Entre ellos se cuentan las víctimas inmediatas y en breve plazo de las

cidentalidad de las plantas nucleares ha impactado con mayor o menor fuerza a la biosfera, el ruido de la guerra ha tenido unha sido evaluada con suficiente precisión. Una de las primeras explosiones nucleares "de prueba" realizada por Estados Unidos en las islas Marshall en 1954, afectaron a la población local, que recibió una dosis corporal total estimada de 1,75 Gy. No se produjeron fallecimientos, pero aparecieron alteraciones de diferente intensidad, con enfermedad de inicio temprano y diarrea en cerca del 10% de la población y un descenso del número de células sanguíneas. La contaminación superficial del organismo por el accidente originó quemaduras y ulceraciones cutáneas en

iales las superpotencias trasladaron sus polígonos de prueba para sitios protegidos de extensas zonas desérticas, e incluso llevaron las pruebas al nivel del subsuelo evitando la contaminación atmosférica y las lluvias ra

lsados por los vientos, residuos radiactivos a miles de kilómetros del lugar de la explosión. De cualquier forma el planeta hsacudida telúrica, y el pulso electromagnético de radiaciones ionizantes provocados por más de dos mil explosiones nulanzadas por los Estados Unidos, el 85 % por las dos grandes superpotencias del siglo (E.U. y la URSS), el 10% en el orden FrBretaña. Cinco pruebas se reparten entre dos países asiáticos envueltos en un litigio histórico: Pakistán y la India. Una bomba atómica fue lanzada en el océano Índico por el régimen sudafricano del apartheid en 1979, para emplear el chantaje en sus relaciones con los veci

liferación del arma nuclear, se han silenciado notablemente "los ensayo nucleares". Pero India y realizaron un par de pruebas por parte en demostración mutua de fuerza. Al grupo de ocho países

esta demencial carrera ha amenazado con sumarse Corea del Norte. [21]

Durante las décadas del 20 al 40 el profesor sueco en física-médica Rolf M. Sievert (1896 importantes contribuciones al campo de la física clínica. En particular a la solución de los problemasrelacionados con el empleo de la radiación en la diagnosis y la terapia. Sievert desarrolló las bases de como calcular la dosis absorbida para los tumores, nuevos equipos para la irradiación de pacientes, e instde medición de dosis, entre ellos la mundialmente conocida cámara que lleva su nombre.

A este científico se debe la determinación de los efectos biológicos de la radiación ionizante, con particular énfasis en los efectos que las dosis bajas de radiación ionizante recibida por los radiólogos en su trabajo diario. Hasta su muerte en 1964, Sievert jugó un rol muy activo en la cooperación internacional en el campo de protección y de la medición de las dosis de radiación. En 1979, la Comisión General daprobó que la unidad para una dosis de radiación ionizante equivalente llevara su nombre (sievert, Sv).

los contornos de una ciencia del Medio Ambiente, que exige del concurso multidisciplicampos que van desde la Ciencias de los Materiales a la Energética pasando por la Física Química de la atmósfera, los océanos yBiología Molecular y la Biotecnología, y las Ciencias de la Informática. Será necesario un financiamiento y el desplazamiento de recursos para una política que solucione los problemas globales del hambre, la energía y la contaminación del planeta.

La creciente preocupación de los círculos científicos por el manejo que hacen los políticos de los problemas medioambientales llevó a la fundación de una “Unión de los Científicos Preocupados” que en carta abierta firmada por más de 20 laureados con el premio NobelEEUU de estar manipulando el sistema científico asesor para evitar los consejos que puedan ser contrarios a sus intereses políticos. Los autores también apuntan la existencia de evidencias que muestran cómo la administración restringe las declaraciones que los científic

émica. De este modo, aseguran que se ha censurado por lo menos un estudio sobre el cambio climático, y que se han manipulado los resultados de las emisiones de mercurio por parte de las centrales eléctricas. A escasos doce mes

de personalidades científicas que apoyan la gestión de esta Unión se ha multiplicado y suman 48 los galardonados con el Nobelexpresado su adhesión a este movimiento de hombres de ciencia comprometidos con los problemas de su tiempo [23].

la ciencia del siglo XX intervino de manera contradictoria en la época del desarrollo creciente y múltiple de los problemas a

Proveyó a la agricultura con los fertilizantes nitrogenados requeridos para producir más alimentos para una población creciente y su uso irracional provocó la contaminación de las aguas y la eutrofización de embalses, ríos, lagos, y mares litorales.

Proporcionó para proteger las cosechas y para desarrollar las campañas sanitarias los productos insecticidas que incrementaron los rendimientos agrícolas y erradicaron enfermedades transmisibles y al mismo tiempo promovieron un problema de incalculable impacto ecológic

Suministró productos según la demanda de diferentes tecnologías y necesidades industriales y generó contaminación atmosférica, de las aguas y de la tierra, produjo una masa impresionante de residuos sólidos no biodegradables, y causó el deterioro del escudo protector es

empleo de la energía nuclear y acontecieron dramáticos accidentes que provocaron serios daños radiológicos en la

29

explosión del reactor número 4 de la central nuclear de Chernobil ha quedado como la peor catástrofe ecológica sobre todo de errores humanos. Enormes cantidades de

material radioactivo fueron lanzadas a la atmósfera contaminando flora y fauna de grandes extensiones de a. Las nubes trasladaron el polvo contaminado hacia vastas regiones del

Esta vez el aplauso no lo merecían hombres de ciencias sino ante todo el cuerpo de bomberos de la planta que con su conducta heroica impidieron la propagación del incendio desatado hacia otras áreas, lo cual podría haber desencadenado un drama incalculable. Entre ellos se cuentan las víctimas inmediatas y en breve plazo de las

cidentalidad de las plantas nucleares ha impactado con mayor o menor fuerza a la biosfera, el ruido de la guerra ha tenido una huella que no dos Unidos en las islas Marshall

Gy. No se produjeron fallecimientos, pero aparecieron diarrea en cerca del 10% de la población y un descenso del número de

células sanguíneas. La contaminación superficial del organismo por el accidente originó quemaduras y ulceraciones cutáneas en el 20% de los iales las superpotencias trasladaron sus polígonos de prueba para sitios protegidos de extensas

zonas desérticas, e incluso llevaron las pruebas al nivel del subsuelo evitando la contaminación atmosférica y las lluvias radiactivas que suelen lsados por los vientos, residuos radiactivos a miles de kilómetros del lugar de la explosión. De cualquier forma el planeta ha sufrido la

provocados por más de dos mil explosiones nucleares, más de la mitad lanzadas por los Estados Unidos, el 85 % por las dos grandes superpotencias del siglo (E.U. y la URSS), el 10% en el orden Francia, China y Gran

histórico: Pakistán y la India. Una bomba atómica fue lanzada en el océano Índico por el régimen sudafricano del apartheid en 1979, para emplear el chantaje en sus relaciones con los vecinos africanos. Desde

liferación del arma nuclear, se han silenciado notablemente "los ensayo nucleares". Pero India y realizaron un par de pruebas por parte en demostración mutua de fuerza. Al grupo de ocho países

Rolf M. Sievert (1896 – 1966) hizo las más particular a la solución de los problemas

Sievert desarrolló las bases de como calcular la dosis absorbida para los tumores, nuevos equipos para la irradiación de pacientes, e instrumentos de medición de dosis, entre ellos la mundialmente conocida cámara que lleva su nombre.

A este científico se debe la determinación de los efectos biológicos de la radiación ionizante, con particular iación ionizante recibida por los radiólogos en su trabajo diario.

Hasta su muerte en 1964, Sievert jugó un rol muy activo en la cooperación internacional en el campo de En 1979, la Comisión General de Pesos y Medidas

aprobó que la unidad para una dosis de radiación ionizante equivalente llevara su nombre (sievert, Sv). [22]

los contornos de una ciencia del Medio Ambiente, que exige del concurso multidisciplinar, abarcando Química de la atmósfera, los océanos y la tierra, la

iamiento y el desplazamiento de recursos para una

mas medioambientales llevó a la fundación Nobel acusó al Gobierno de

sejos que puedan ser contrarios a sus intereses políticos. Los autores también apuntan la existencia de evidencias que muestran cómo la administración restringe las declaraciones que los científicos realicen sobre

émica. De este modo, aseguran que se ha censurado por lo menos un estudio sobre el cambio climático, y que se han manipulado los resultados de las emisiones de mercurio por parte de las centrales eléctricas. A escasos doce meses de su fundación el

de personalidades científicas que apoyan la gestión de esta Unión se ha multiplicado y suman 48 los galardonados con el Nobel que han

la ciencia del siglo XX intervino de manera contradictoria en la época del desarrollo creciente y múltiple de los problemas ambientales

ucir más alimentos para una población creciente y su uso irracional

productos insecticidas que incrementaron los rendimientos agrícolas y erradicaron enfermedades transmisibles y al mismo tiempo promovieron un problema de incalculable impacto ecológico.

cesidades industriales y generó contaminación atmosférica, de las aguas y de la tierra, produjo una masa impresionante de residuos sólidos no biodegradables, y causó el deterioro del escudo protector estratosférico de

empleo de la energía nuclear y acontecieron dramáticos accidentes que provocaron serios daños radiológicos en la

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 30

Un pionero en el combate por preservar al planeta de la contaminación provocada por los ensayos nucleares y el peligro de extinción del género humano por el empleo de las armas nucleares, el único químico que asiste a la Primera Conferencia de científicos nucleares realizada en Pugwash, Nueva Escocia, se llama Paul M. Doty y su larga vida comprometida con la causa de la paz lo lleva ya en el siglo XXI a apoyar la “Unión de los Científicos Preocupados”, movimiento que se levanta por la aplicación de políticas que contribuyan a la solución de los graves problemas ambientales de la época. Desde la década de los cincuenta, Doty torna inseparable su carrera profesional en la Universidad de Harvard, donde a lo largo de más de 40 años funda el Departamento de Bioquímica y el de Biología Molecular, con su intensa actividad por la paz que lo lleva a organizar en 1974 el Centro para la Ciencia y los Asuntos Internacionales. Su fecundo recorrido por la investigación científica lo hace cofundador en 1945 del Journal of Polymer Science y en 1959 aparece entre los patrocinadores del Journal of Molecular Biology. [24]

Fuente Imagen: bcsia.ksg.harvard.edu/person.cfm?item_id=148&ln=full&program =CORE

BIBLIOGRAFÍA:

[1] Nobel e- Museum (2004): Carl Bosch. Nobel Prize 1931 From Nobel Lectures, Chemistry 1922 – 1941. Elsevier Publishing Company, Amsterdam, 1967 nobelprize.org/chemistry/laureates/1931/bosch-bio.html

[2] Nobel e-Museum (2004): Paul Hermann Muller. From Nobel Lectures, Medicine 1942 – 1962. Elsevier Publishing Company, Amsterdam, 1967. http://nobelprize.org/medicine/laureates/1948/muller-bio.html

[3] Carrasco J.F. (1999): Transferencia genética con Agrobacterium tumefaciens. Plantas Transgénicas.Butlletí Centre d’Estudis de la Natura del Barcelonès Nord., IV (3): Sta. Coloma de Gramenet, 1999. http://www.xtec.es/~jcarrasc/transgenicas.htm

[3b] UW (2006): About Helen Ryaboff Whiteley. The Helen Ryaboff Whiteley Center. University of Washington. http://depts.washington.edu/fhl/Whiteley/helen.html

[3c] Comby Bruno (2006): James Lovelock: Author of the GAIA Theory. Professor James Lovelock's Web Site. http://www.ecolo.org/lovelock/lovedeten.htm

[4] Online Ethics Center for Engineering and Science (2002): Rachel Carson: Científica que alerta al público. http://onlineethics.org/spanish/carson/main-span.html

[5] Kovarik W., Hermes M. E. (2001): Fuels and Society B: 1. Charles Kettering, Thomas Midgley and Tetraethyllead. Kennesaw State University. http://chemcases.com/tel/tel-13.htm

[6] National Inventors Hall of Fame(2002): Thomas Midgley. http://www.invent.org/hall_of_fame/193.html

[7] Oxford University (2003): Short Biography of G.M.B. Dobson. http://www-atm.physics.ox.ac.uk/user/barnett/ozoneconference/dobson.htm

[8] Nobel e-Museum (2004): Mario J. Molina, F. Sherwood Rowland; Paul Crutzen. Nobel Prize, 1995. From Les Prix Nobel. The Nobel Prizes, Editor Tore Frängsmyr, [Nobel Foundation], Stockholm. http://nobelprize.org/chemistry/laureates/1995/index.html

[9] UNEP(1998): Environmental Effects of Ozone Depletion. Executive Summary. United Nations Environmental Program (UNEP). http://www.gcrio.org/UNEP1998/UNEP98.html

[10] Fleming James R. (2002): What Role Did G.S. Callendar Play in Reviving the CO2 Theory of Global Climate Change? Presidential Symposium on the History of the Atmospheric Sciences: People, Discoveries, and Technologies. http://ams.confex.com/ams/annual2003/techprogram/paper_58908.htm

[11] Weart Spencer (2005): The Discovery of Global Warming. Center for the History of Physics. American Institute of Physics. http://www.aip.org/history/climate/index.html

[12] Weart, Spencer R. (1997). Global Warming, Cold War, and the Evolution of Research Plans. Historical Studies in the Physical and Biological Sciences 27(2): 319-56. En “Roger Revelle’s Discovery”. American Institute of Physics. http://www.aip.org/history/climate/Revelle.htm

[13] Intergovernmental Panel on Climate Change (1990): Policymakers Summary of the Scientific Assessment of Climate Change. Report to IPCC from Working Group 1, June 1990.

[14] Universidad de California, San Diego(1997): Hans Suess Papers (1875 –1989). Background. http://orpheus.ucsd.edu/speccoll/testing/html/mss0199d.html

[15] PNUMA/ORALC (2001): Declaración de Río de Janeiro sobre el Medio Ambiente y el Desarrollo, 1992. Programa de Naciones Unidas para el Medio Ambiente. Oficina Regional para América Latina y el Caribe. http://www.rolac.unep.mx/docamb/esp/dr1992.htm

[16] United Nations Framework Convention on Climate Change (UNFCCC) (2004): Kyoto Protocol. Versión en español. Contiene una relación de los documentos de la Convención Marco para el Cambio Climático de Naciones Unidas. http://unfccc.int/essential_background/kyoto_protocol/background/items/1351.php

[17] ThinkQuest (1997): Robert Angus Smith. The Enviroment: a Global Challenge. http://library.thinkquest.org/26026/People/robert_angus_smith.html

[18] Gallardo Alfredo, García Lilian (1999): Lluvia ácida. Secretaría de Medio Ambiente. México, Distrito Federal. www.sma.df.gob.mx/bibliov/modules. php?name=Downloads&d_op=getit&lid=72 [19] Ríos Jáuregui Annet (2005): Celebran 15 años de solidaridad humanitaria. Diario Granma. 30 de marzo de 2005. La Habana. http://www.granma.cubaweb.cu/2005/03/30/nacional/articulo08.html

[20] www.chernobyl.info

[21] Geoscience Australia (2005): Query Nuclear Explosions Database. Australian Government. http://www.ga.gov.au/oracle/nukexp_form.jsp

[22] Eklof Anders (2003): Rolf Sievert, the man and the unit. Karolinska Institute. Medical Radiation Physics History. Stockholm. Sweden. http://radfys.ki.se/sievert/Sievert.html

[23] Union of Concerned Scientists (2004): Scientific Integrity in Policymaking. http://www.ucsusa.org/global_environment/rsi/page.cfm?pageID=1642

[24] BCSIA (2003): Paul M. Doty. Director Emeritus, BCSIA; Mallinckrodt Professor of Biochemistry, Emeritus. Belfer Center for Science and International Affairs. John F. Kennedy School of Government. http://bcsia.ksg.harvard.edu/person.cfm?item_id=148&ln=full&program=COREB

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017

CChhaarrlleess GGllooNació el 7 de junio de 1877 en Widenes, y murió el 23 de

localidades en el

GGaannaaddoorr eenn 11991177 ddeell PP(En 1916 el dinero del premio fue retenido

FFííssiiccoo qquuiieenn ddeessccuubbrr iióó llooss rr aayyooss X

Fuente: Wikipedia

Biografía

Barkla estudió en la Universidad de Liverpool. En 1899, Barkla fue al trabajar en el Laboratorio Cavendish bajo las órdenes del científico le llevó a unirse al King's College, Cambridge, donde se unió asu grado de Magister en artes en 1907. Al parecer, no hay información segur(Ph.D.), pero es sabe que grandes físicos como J.J. Thomson (el descubridor del electrón) y Oliver Lodge fueron sus asesores de doctorad

En 1913, después de haber trabajado en las Universidades de Cambridge y Liverpool, y el King's Collegeprofesor de filosofía natural en la Universidad de Edimburgo, cargo que ocupó hasta su muerte. Barkla se casó con Marí1907.

Barkla logró progresos significativos en el desarrollo y perfeccionamiento de la leyes de dispersión de los principios que rigen la transmisión de los rayos X a través de la materia y especialmente los principios de la excitaciónrayos X. Por su descubrimiento de los rayos X característicos de los elementos, Barkla fue galardonado con el 1917. También fue galardonado con la Medalla Hughescon la radiación de rayos X».1

Reconocimientos

En su honor se bautizó al cráter Barkla de la Luna.

Referencias

1. "for his researches in connexion with X-ray radiation".

• M.A. Shampo, R.A. Kyle (1993). «Charles Barkla

Año 15 Lunes, 9 de Enero de 2017

loovveerr BBaarrkkllaa de octubre de 1944, a los 67 años, en Edimburgo, ambas

localidades en el Reino Unido.

PPrreemmiioo NNoobbeell eenn FFííssiiccaa.. (En 1916 el dinero del premio fue retenido y no se concedió en ese año)

XX ccaarr aacctteerr ííssttiiccooss ddee llooss eelleemmeennttooss..

CHARLES GLOVER BARKLA

. En 1899, Barkla fue al Trinity College, Cambridge, gracias una beca de Exposiciones para trabajar en el Laboratorio Cavendish bajo las órdenes del científico Joseph John Thomson. Al final de un año y medio, su amor por la música le llevó a unirse al King's College, Cambridge, donde se unió al coro de la capilla. Completó su licenciatura en artes en 1903, y luego

en artes en 1907. Al parecer, no hay información segura acerca de cuándo o dónde obtuvo un doctorado en Filosofía Thomson (el descubridor del electrón) y Oliver Lodge fueron sus asesores de doctorad

En 1913, después de haber trabajado en las Universidades de Cambridge y Liverpool, y el King's College de Londres, Barkla fue nombrado profesor de filosofía natural en la Universidad de Edimburgo, cargo que ocupó hasta su muerte. Barkla se casó con Marí

Barkla logró progresos significativos en el desarrollo y perfeccionamiento de la leyes de dispersión de rayos X, espectroscopia de rayos Xlos principios que rigen la transmisión de los rayos X a través de la materia y especialmente los principios de la excitación

X característicos de los elementos, Barkla fue galardonado con el Premio Nobel de FísicaMedalla Hughes de la Real Sociedad Británica de ese mismo año «por sus investigaciones en relación

ray radiation". Plantilla:Cite ODNB

M.A. Shampo, R.A. Kyle (1993). «Charles Barkla—Nobel Laureate». Mayo Clinic Proceedings 68 (12): pp.

CHARLES GLOVER BARKLA

Imágenes obtenidas de:

31

CHARLES GLOVER BARKLA

(1877-1944)

, gracias una beca de Exposiciones para un año y medio, su amor por la música

coro de la capilla. Completó su licenciatura en artes en 1903, y luego obtuvo de obtuvo un doctorado en Filosofía

Thomson (el descubridor del electrón) y Oliver Lodge fueron sus asesores de doctorado.

Londres, Barkla fue nombrado profesor de filosofía natural en la Universidad de Edimburgo, cargo que ocupó hasta su muerte. Barkla se casó con María Esther Cowell en

espectroscopia de rayos X, los principios que rigen la transmisión de los rayos X a través de la materia y especialmente los principios de la excitación secundaria de

Premio Nobel de Física en Británica de ese mismo año «por sus investigaciones en relación

pp. 1176. PMID 8246619

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017

FFííssiiccooss eessppaaññoolleess rreessuueellvveenn

iinnffiinniittooss eenn llaass 44 ddiimmeennssi

FUENTE: El Confidencial

TOMADO DE: msn.noticias > 06/10/2016

Un equipo de investigadores del Instituto de Física Corpuscular (IFIC) ha desarrollado un método que resuelve el problema de las dimensiones del espacio-tiempo en las teorías aplicadas al Gran Colisionador de Hadrones (LHC) y que permite mantener así las cuatro dimensiones que estableció Einstein.

El método supone un cambio en cómo se obtienen predicciones teóricas de alta precisión con las que compexperimentales del LHC, simplifica los complejos cálculos para ello y resuelve uno de los problemas principales a los que se enfrentan los físicos de partículas a la hora de trasladar la teoría al experimento.

Según explica el IFIC en un comunicado, las teorías en las que se basan las predicciones con las que se comparan los datos del LHC del CERN, que han dado lugar a descubrimientos como el bosón de Higgs, están mal definidas en las cuatro dimensiones del espacio-tiempo de Einstein.

EVITAR LA APARICIÓN DE INFINITOS.

Para evitar la aparición de infinitos en los cálculos que arrojaban estas teorías se introdujeron nuevas dimensiones en un matemático” que, sin embargo, no se corresponde con lo que se conoce del Universo. Ahora, un grupo de iIFIC, centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universitat de València, ha desarrollado umétodo que evita la aparición de esos infinitos y permite mantener la teoría en las cuatro dimensiones habitualtiempo.

Los resultados se presentaron a principios del mes de agosto en la mayor conferencia de física de partículas del mundo, ICHEP2016 de Chicago, y se han publicado en el “Journal of High Energy Physics

El origen del problema reside en que, desde el punto de vista teórico, se podrían producir partículas en las colisiones del LHC con energía cero, lo que, además, es distinto de no emitir ninguna partícula. Lo mismo ocurre cuando dos partículas se producen exactamente en la misma dirección, que resultan indistinguibles de una sola partícula.

Otro de los problemas deriva de la necesidad de introducir correcciones cuánticas en los cálculos teóricos, lo que requiere extrapolar la validez de estas teorías hasta energías infinitas, jamás alcan

Desde el punto de vista del experimento, estas situaciones resultan difícilmente aceptables y para la teoría, asumirlas conllla aparición de infinitos en las cuatro dimensiones del espacioEinstein en su teoría de la relatividad especial.

MEJORANDO UN “TRUCO” DE 1972

La solución que encontraron en 1972 los premios Nobel Gerardus Hooft y Martinus J.G. Veltman fue alterar las dimensiones del espacio-tiempo con un método, conocido como Regularización Dimensional, para definir la teoría en un espaciomás de cuatro dimensiones.

Los infinitos que surgen en cuatro dimensiones aparecen entonces como contribuciones que dependen de la diferencia de dimensiones con respecto a cuatro, un "truco matemático" para modelar esos infinitos en pasos intermedios de los cálculos para obtener predicciones imposibles de obtener de otro modo.

Sin embargo, un grupo de investigadores del Instituto de Física Corpuscular, lidRodrigo, ha desarrollado un nuevo método que redefine la teoría evitando la aparición de infinitos, y que permite por tanto mantener la teoría en las cuatro dimensiones habituales del espacio

El método se basa en una correspondencia directa establecida entre distintos diagramas que propician la aparición de infinitos y que son utilizados por los físicos para representar las colisiones a muy altas energías entre partículas subatómicas que seproducen en los grandes aceleradores como el LHC.

La relación de correspondencia, desarrollada por los investigadores del IFIC en colaboración con el grupo de la Universidad dFlorencia que dirige Stefano Catani, se conoce con el nombre de teoría eran diferentes pero no desde el punto de vista experimental.

Año 15 Lunes, 9 de Enero de 2017

nn eell pprroobblleemmaa ddee llooss

iioonneess ddee EEiinnsstteeiinn

© Externa

Un equipo de investigadores del Instituto de Física Corpuscular (IFIC) ha desarrollado un método que resuelve el problema de tiempo en las teorías aplicadas al Gran Colisionador de Hadrones (LHC) y que permite mantener

así las cuatro dimensiones que estableció Einstein.

El método supone un cambio en cómo se obtienen predicciones teóricas de alta precisión con las que compexperimentales del LHC, simplifica los complejos cálculos para ello y resuelve uno de los problemas principales a los que se enfrentan los físicos de partículas a la hora de trasladar la teoría al experimento.

ado, las teorías en las que se basan las predicciones con las que se comparan los datos del LHC del CERN, que han dado lugar a descubrimientos como el bosón de Higgs, están mal definidas en las cuatro dimensiones

Para evitar la aparición de infinitos en los cálculos que arrojaban estas teorías se introdujeron nuevas dimensiones en un que, sin embargo, no se corresponde con lo que se conoce del Universo. Ahora, un grupo de i

IFIC, centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universitat de València, ha desarrollado umétodo que evita la aparición de esos infinitos y permite mantener la teoría en las cuatro dimensiones habitual

Los resultados se presentaron a principios del mes de agosto en la mayor conferencia de física de partículas del mundo, ICHEPJournal of High Energy Physics”.

n que, desde el punto de vista teórico, se podrían producir partículas en las colisiones del LHC con energía cero, lo que, además, es distinto de no emitir ninguna partícula. Lo mismo ocurre cuando dos partículas se

ón, que resultan indistinguibles de una sola partícula.

Otro de los problemas deriva de la necesidad de introducir correcciones cuánticas en los cálculos teóricos, lo que requiere extrapolar la validez de estas teorías hasta energías infinitas, jamás alcanzadas en un acelerador de partículas.

Desde el punto de vista del experimento, estas situaciones resultan difícilmente aceptables y para la teoría, asumirlas conllla aparición de infinitos en las cuatro dimensiones del espacio-tiempo, el continuo que une los dos conceptos que estableció

La solución que encontraron en 1972 los premios Nobel Gerardus Hooft y Martinus J.G. Veltman fue alterar las dimensiones on un método, conocido como Regularización Dimensional, para definir la teoría en un espacio

Los infinitos que surgen en cuatro dimensiones aparecen entonces como contribuciones que dependen de la diferencia de nes con respecto a cuatro, un "truco matemático" para modelar esos infinitos en pasos intermedios de los cálculos

para obtener predicciones imposibles de obtener de otro modo.

Sin embargo, un grupo de investigadores del Instituto de Física Corpuscular, liderado por el investigador del CSIC Germán Rodrigo, ha desarrollado un nuevo método que redefine la teoría evitando la aparición de infinitos, y que permite por tanto mantener la teoría en las cuatro dimensiones habituales del espacio-tiempo.

asa en una correspondencia directa establecida entre distintos diagramas que propician la aparición de infinitos y que son utilizados por los físicos para representar las colisiones a muy altas energías entre partículas subatómicas que se

randes aceleradores como el LHC.

La relación de correspondencia, desarrollada por los investigadores del IFIC en colaboración con el grupo de la Universidad dFlorencia que dirige Stefano Catani, se conoce con el nombre de “dualidad loop-tree” y unifica estados cuánticos que para la teoría eran diferentes pero no desde el punto de vista experimental.

32

Un equipo de investigadores del Instituto de Física Corpuscular (IFIC) ha desarrollado un método que resuelve el problema de tiempo en las teorías aplicadas al Gran Colisionador de Hadrones (LHC) y que permite mantener

El método supone un cambio en cómo se obtienen predicciones teóricas de alta precisión con las que comparar datos experimentales del LHC, simplifica los complejos cálculos para ello y resuelve uno de los problemas principales a los que se

ado, las teorías en las que se basan las predicciones con las que se comparan los datos del LHC del CERN, que han dado lugar a descubrimientos como el bosón de Higgs, están mal definidas en las cuatro dimensiones

Para evitar la aparición de infinitos en los cálculos que arrojaban estas teorías se introdujeron nuevas dimensiones en un “truco que, sin embargo, no se corresponde con lo que se conoce del Universo. Ahora, un grupo de investigadores del

IFIC, centro mixto del Consejo Superior de Investigaciones Científicas (CSIC) y la Universitat de València, ha desarrollado un método que evita la aparición de esos infinitos y permite mantener la teoría en las cuatro dimensiones habituales del espacio-

Los resultados se presentaron a principios del mes de agosto en la mayor conferencia de física de partículas del mundo, ICHEP

n que, desde el punto de vista teórico, se podrían producir partículas en las colisiones del LHC con energía cero, lo que, además, es distinto de no emitir ninguna partícula. Lo mismo ocurre cuando dos partículas se

Otro de los problemas deriva de la necesidad de introducir correcciones cuánticas en los cálculos teóricos, lo que requiere zadas en un acelerador de partículas.

Desde el punto de vista del experimento, estas situaciones resultan difícilmente aceptables y para la teoría, asumirlas conlleva ne los dos conceptos que estableció

La solución que encontraron en 1972 los premios Nobel Gerardus Hooft y Martinus J.G. Veltman fue alterar las dimensiones on un método, conocido como Regularización Dimensional, para definir la teoría en un espacio-tiempo de

Los infinitos que surgen en cuatro dimensiones aparecen entonces como contribuciones que dependen de la diferencia de nes con respecto a cuatro, un "truco matemático" para modelar esos infinitos en pasos intermedios de los cálculos

erado por el investigador del CSIC Germán Rodrigo, ha desarrollado un nuevo método que redefine la teoría evitando la aparición de infinitos, y que permite por tanto

asa en una correspondencia directa establecida entre distintos diagramas que propician la aparición de infinitos y que son utilizados por los físicos para representar las colisiones a muy altas energías entre partículas subatómicas que se

La relación de correspondencia, desarrollada por los investigadores del IFIC en colaboración con el grupo de la Universidad de stados cuánticos que para la

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 33

888 dddeee eeennneeerrrooo dddeee 222000111777::: 7755ºº aanniivveerrssaarriioo ddeell nnaattaalliicciioo ddeell ffííssiiccoo SStteepphheenn HHaawwkkiinngg..

STEPHEN WILLIAM HAWKING

(Oxford, Reino Unido, 8 de enero de 1942)

El 8 de enero de 1942, nació en Oxford, Reino Unido, el físico teórico Stephen William Hawking.

A pesar de sus discapacidades físicas y de las progresivas limitaciones impuestas por la enfermedad degenerativa que padece actualmente, Stephen William Hawking es probablemente el físico más conocido entre el gran público desde los tiempos de Einstein. Luchador y triunfador, a lo largo de toda su vida ha logrado sortear la inmensidad de impedimentos que le ha planteado el mal de Lou Gehrig 1, una esclerosis lateral amiotrófica que le aqueja desde que tenía 20 años. Hawking es, sin duda, un caso particular de vitalidad y resistencia frente al infortunio del destino.

Ciertamente, Hawking no sólo es comparable con Albert Einstein por su popularidad: al igual que el formulador de la relatividad, Stephen Hawking se planteó la ambiciosa meta de armonizar la relatividad general y la mecánica cuántica, en busca de una unificación de la física que permitiese dar cuenta tanto del universo como de los fenómenos subatómicos.

En 1971 sugirió la formación, a continuación del big bang, de numerosos objetos denominados «miniagujeros negros», que contendrían alrededor de mil millones de toneladas métricas de masa, pero ocuparían sólo el espacio de un protón, circunstancia que originaría enormes campos gravitatorios, regidos por las leyes de la relatividad.

TODAVÍA NO HABÍAN SEÑALES EVIDENTES DE LA ENFERMEDAD.

1

LOU GEHRIG

Henry Louis "Lou" Gehrig (Nació el 19 de junio de 1903 y murió el 2 de junio de 1941, ambos momentos en Nueva York, EE. UU.). Fue un beisbolista conocido principalmente por el récord de 2.130 juegos consecutivos jugados que se mantuvo por 56 años y su trágico final debido a la enfermedad degenerativa que en Estados Unidos lleva su nombre (medicamente conocida como Esclerosis lateral amiotrófica); pero aparte de estos datos la figura de Gehrig acarrea una impecable carrera como bateador de poder, es considerado el mejor primera base del juego en la historia, es el jugador que fue el más votado en la elección del mejor jugador del siglo XX, el sexto mejor según la revista Sporting News y por su personalidad simple de hombre de familia, se ganó la estima de los fanáticos de los Yankees de Nueva York.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017

FFrriittzz HHNació el 9 de diciembre de 1868 en Breslavia, Polonia

GGaannaaddoorr ddeell PPrreemmiioo NNoobbeePor su desarrollo de la síntesis del amoniaco, importante para fertilizante

(El premio no fue concedido ni en 1916 ni en 1917)

FFUUEENNTTEESS:: BBiiooggrraaffííaass yy

Químico de nacionalidad alemana, conocido por su desarrollo de un método económico de síntesis del amoníaco que permitió la fabricación a gran escala de abonos y fertilizantes nitrogenados. Su descubrimiento le valió el Premio Nobel de Química en 1918.

Fue discípulo de Liebermann y profesor en Karlsruhe y Berlín. Investigó sobre la combustión y la electroquímica. Desde 1906 investigó acerca de la síntesis industrial del amoníaco, llevado a cabo por vía catalítica y a fuerte presión. En 1909, en colaboración con C. Bosch, descubrió un sistema de fijación del nitrógeno atmosférico en gran escala que permite obtener fácilmentehidrógeno con empleo de catalizadores (fundamentalmente hierro), método actualmente conocido como el proceso de Haber-Bosch. A partir de 1913 el amoníaco adquirió importancia en el proceso de fabricación a nivel mundial de abonos nitrogenados.

Hacia 1911 ocupó el cargo del recientemente fundado Instituto Kaiser Wilhelm de Química y Física, en Berlín-Dahlen. Durante la Primera Guerra Mundial participó en el proceso de fabricación de explosivos en Alemania y en el control científico de la guerra química germana, diseñando máscaras de gas y otros medios de defensa contra las armas bélicas de los aliados. En 1933 dimitió del puesto que ocupaba y emigró en protesta contra el antisemitismo. Trabajó en Cambridge y murió mientras vidonde le esperaba una plaza de investigación.

Año 15 Lunes, 9 de Enero de 2017

HHaabbeerr Breslavia, Polonia, y murió el 29 de enero de 1934 en Basilea, Suiza.

eell eenn QQuuíímmiiccaa eenn 11991188.. Por su desarrollo de la síntesis del amoniaco, importante para fertilizantes y explosivos.

(El premio no fue concedido ni en 1916 ni en 1917)

yy VViiddaass -- WWiikkiippeeddiiaa

conocido por su desarrollo de un método económico de síntesis del ó la fabricación a gran escala de abonos y fertilizantes nitrogenados. Su

descubrimiento le valió el Premio Nobel de Química en 1918.

Fue discípulo de Liebermann y profesor en Karlsruhe y Berlín. Investigó sobre la combustión y la 6 investigó acerca de la síntesis industrial del amoníaco, llevado a cabo por vía

catalítica y a fuerte presión. En 1909, en colaboración con C. Bosch, descubrió un sistema de fijación del nitrógeno atmosférico en gran escala que permite obtener fácilmente amoníaco a partir de nitrógeno e hidrógeno con empleo de catalizadores (fundamentalmente hierro), método actualmente conocido como

Bosch. A partir de 1913 el amoníaco adquirió importancia en el proceso de abonos nitrogenados.

Hacia 1911 ocupó el cargo del recientemente fundado Instituto Kaiser Wilhelm de Química y Física, en Dahlen. Durante la Primera Guerra Mundial participó en el proceso de fabricación de explosivos en

ntífico de la guerra química germana, diseñando máscaras de gas y otros medios de defensa contra las armas bélicas de los aliados. En 1933 dimitió del puesto que ocupaba y emigró en protesta contra el antisemitismo. Trabajó en Cambridge y murió mientras vidonde le esperaba una plaza de investigación.

FFRRIITTZZ HHAABBEERR

Imágenes obtenidas de:

34

FFRRIITTZZ HHAABBEERR (1868-1934)

conocido por su desarrollo de un método económico de síntesis del ó la fabricación a gran escala de abonos y fertilizantes nitrogenados. Su

Fue discípulo de Liebermann y profesor en Karlsruhe y Berlín. Investigó sobre la combustión y la 6 investigó acerca de la síntesis industrial del amoníaco, llevado a cabo por vía

catalítica y a fuerte presión. En 1909, en colaboración con C. Bosch, descubrió un sistema de fijación del amoníaco a partir de nitrógeno e

hidrógeno con empleo de catalizadores (fundamentalmente hierro), método actualmente conocido como Bosch. A partir de 1913 el amoníaco adquirió importancia en el proceso de

Hacia 1911 ocupó el cargo del recientemente fundado Instituto Kaiser Wilhelm de Química y Física, en Dahlen. Durante la Primera Guerra Mundial participó en el proceso de fabricación de explosivos en

ntífico de la guerra química germana, diseñando máscaras de gas y otros medios de defensa contra las armas bélicas de los aliados. En 1933 dimitió del puesto que ocupaba y emigró en protesta contra el antisemitismo. Trabajó en Cambridge y murió mientras viajaba a Israel,

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 35

DDeesshhiieelloo ddeessccuubbrr ee llooss ffóóssii lleess mmááss aanntt iigguuooss ddee llaa TTiieerr rr aa

FUENTE: ecoticias.com Tomado de: msn > Miércoles, 05 de Octubre de 2016

EL DERRETIMIENTO DE ALGUNAS DE LAS ZONAS DE “HIELOS ETERNOS” POR EFECTO DEL CALENTAMIENTO GLOBAL PODRÍA EXPONER A LA LUZ MÁS MINERALES Y DAR NUEVAS PAUTAS A LOS CIENTÍFICOS ACERCA DE LA HISTORIA DE LA TIERRA.

Los científicos encuentran los que podrían ser los fósiles más antiguos conocidos hasta la fecha, a consecuencia del deshielo producido por el Calentamiento Global.

Se trata de una roca con estromatolitos, estructuras en capas pequeñas de hace 3,7 millones de años, que son los restos de una comunidad de microbios que vivían allí.

LOS MÁS ANTIGUOS.

La primera evidencia fósil de la vida en la Tierra se ha encontrado entre unas rocas de casi cuatro mil millones de años que quedaron al descubierto al derretirse parte del hielo en Groenlandia, producto del calentamiento global que experimenta nuestro planeta. Los científicos creen que este descubrimiento eleva las posibilidades de que exista o haya existido vida en Marte hace muchos eones atrás, cuando ambos planetas tenían condiciones climáticas similares y el agua del planeta rojo era líquida.

Los expertos encontraron pequeñas jorobas, de entre uno y cuatro centímetros de altura sobre las rocas en el área de Isua situada al sur oeste de Groenlandia, que identificaron como restos de grupos de microbios fósiles, similares a los que se encuentran en la actualidad en los mares y océanos, desde Bermudas hasta Australia.

A diferencia de los huesos de los dinosaurios, en este tipo de fósiles no se conservan los restos de una antigua criatura, sino que son algo así como montículos de minerales que tienen unos pocos centímetros de espesor y que pueden haber sido depositados por algunos microbios, mucho tiempo después de que se formó la Tierra.

UNA NUEVA VISIÓN DE LA HISTORIA.

Si se confirman los primeros datos, estas comunidades fosilizadas de bacterias conocidas como estromatolitos habrían vivido en etapas muy anteriores a las de los encontrados en Australia, que hasta ahora se creían eran la evidencia más temprana de la vida en la Tierra y fuero pre datados con una antigüedad 220 millones de años.

Una explicación muy práctica de qué es lo que sucedió hace miles de años, pide a los interesados que imaginen el fondo del mar, un sitio profundo y apenas habitado hace casi 4 millones de años: allí comenzó la lenta formación de los estromatolitos.

El gobierno de Groenlandia trata de ser optimista ya que el derretimiento de algunas de las zonas de “hielos eternos” por efecto del Calentamiento Global podría exponer a la luz más minerales y dar nuevas pautas a los científicos acerca de la historia de la Tierra.

UN LARGO ESTUDIO.

El profesor Allen Nutman ha estado investigando las antiguas formaciones rocosas en el Cinturón Supercrustal en Isua durante más de 30 años, a sabiendas de que las rocas contienen una firma única de carbono, pero hasta ahora, no estaba claro si el nuevo descubrimiento había sido creado por antiguas formas de vida o cambios en la roca causada por el calor y la presión.

Durante una de sus visitas a la zona hace cuatro años, el equipo encontró un nuevo afloramiento que había quedado a la vista por el derretimiento de la nieve del verano.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de En

SSTTEE

Nació el 27 de Febrero de 1943 en Manhattan, Ciudad de Nueva York y murió el 1º de Mayo de 2011 en New Haven, Connecticut; am

El padre de Steven Orszag, Joseph Orszag era abogado. La familia era judía y originalmente de Hungríaabuelos paternos de Steven, Alex y Regina Orszag. Alex (nacido en 1876) y Regina (naciden 1903 y se establecieron en Manhattan, Nueva York. hijos de Alex y Regina. Joseph se casó con Roscriado en Forest Hills, una zona residencial de Queens, Nueva York, donde asistió a la fue uno de los nueve ganadores del Examen Preliminar Orszag estaba todavía en la escuela secundaria de además, universitarios.

Comienza sus estudios en el Massachusetts Institute of Technology en 1962. A los diecinueve años de edad, viajó rumbo a Inglaterra, donde pColegio Universitario San Juan de la Universidad de Cambridge. de posgrado en la Universidad de Princeton. Su Princeton, pero cuando Orszag comenzó sus estudios de posgrado, Kruskal se conoce como el Laboratorio de Física de Plasma de Princeton. Orszag completó su tesis doctoral de la turbulencia) en tres años y obtuvo su doctorado en 1966. Orszag, en colaboración con su 1966 con el mismo título que su tesis.

Aun antes de comenzar a realizar investigacionesapareció en el New York Times el 25 de agosto de 1963. Reba, hermana de Joel Karp, era hija de Gertrude Herskowitz y JKarp. Steven y Reba se casaron el 21 de junio de 1964; tuvieron tres hijosMarc Orszag. Peter Orszag se graduó de economista y sirvió presupuesto del Presidente Obama.

En 1967 Orszag fue nombrado profesor de matemáticas aplicadas en el Massachusetts Institute of Technology. En el MIT como colega a Carl M. Bender y juntos colaboraron en un curso de posgrado de matemáticas durante siete años[referencia 3]:

[El curso] fue tan popular que muchos estudiantes de Harvard también lo tomaron. Un curso tan bueno como ese realmente no lo ofrecían en Harvard.

Las notas de las lecciones de clase del curso fueron publicadas como libro de teand engineers: Asymptotic Methods and Perturbation TheoryMétodos Asintóticos y Teoría de la Perturbación

Este libro no es el texto habitual de "métodos matemáticos para ingenieros", que podría contener, según el gusto de su autor, casi cualquier tema de nivel elemental o intermedio de análisis, álgebra lineal, análisis numérico, teoría de juegos, teoría de sistemas, análisis funcional, probabilidad, estadística o incluso lógica, generalmente con poca cohesión entre las diferentes partes de la mezcla. Aquí los autores pretenden introducir al alumno de ingeniería o física a la asintótica y al análisis de perturbación, concentrándose específicamente en la obtención de respuestas a problemas que se plantean en la física. ... Este libro contiene una gran cantidad de problemas resueltos y de técnicas para aproximar a soluciones exactas. Es un texto adecuado paadición a la biblioteca de cualquier matemático aplicado que esté practicando su arte para tratar de resolver problemas de física.

Chambers escribe en un informe en La Gaceta Matemática

Año 15 Lunes, 9 de Enero de 2017

EEVVEENN OORRSSZZAAGG

Imágenes obtenidas de:

Nació el 27 de Febrero de 1943 en Manhattan, Ciudad de Nueva York y murió el 1º de Mayo de 2011 en New Haven, Connecticut; am

oseph Orszag era abogado. La familia era judía y originalmente de HungríaAlex y Regina Orszag. Alex (nacido en 1876) y Regina (nacida en 1886) emigraron a Estados Unidos

n, Nueva York. Joseph, nacido en Nueva York el 4 de febrero de 1910, fue el tercero se casó con Rose (nacida el 26 de julio de 1909) y su hijo Steven nació en Manhattan

dencial de Queens, Nueva York, donde asistió a la escuela secundaria dedel Examen Preliminar para Escribanos de la Sociedad de Actuarios. Cuando tomó el examen,

daria de Forest Hills, pero los otros ocho ganadores eran de much

Comienza sus estudios en el Massachusetts Institute of Technology (MIT) en 1959, con sólo dieciséis años, rumbo a Inglaterra, donde permaneció el año académico 1962

Universidad de Cambridge. Al r egresar a los Estados Unidos, comenzó versidad de Princeton. Su tutor de tesis fue Martin David Kruskal quien fue profesor de Astronomía en

Princeton, pero cuando Orszag comenzó sus estudios de posgrado, Kruskal era también miembro del proyecto Matterhorn, que hoy ísica de Plasma de Princeton. Orszag completó su tesis doctoral Theory of Turbulence

doctorado en 1966. Orszag, en colaboración con su tutor de tesis, publicó un libro en

ones en Princeton, se había comprometido con Reba Karp; el anuncio deen el New York Times el 25 de agosto de 1963. Reba, hermana de Joel Karp, era hija de Gertrude Herskowitz y J

Karp. Steven y Reba se casaron el 21 de junio de 1964; tuvieron tres hijos, J. Michael Orszag, Peter Richard Orszag y Jonathan economista y sirvió de consejero al Presidente Clinton, luego como director de

fue nombrado profesor de matemáticas aplicadas en el Massachusetts Institute of Technology. En el MIT Bender y juntos colaboraron en un curso de posgrado de matemáticas durante siete años

[El curso] fue tan popular que muchos estudiantes de Harvard también lo tomaron. Un curso tan bueno como ese

del curso fueron publicadas como libro de texto, Advanced mathematical methods for scientists Asymptotic Methods and Perturbation Theory (Métodos matemáticos avanzados para científicos e ingenieros:

erturbación) (1978). Vadim Komkov escribe en un informe:

Este libro no es el texto habitual de "métodos matemáticos para ingenieros", que podría contener, según el gusto de su autor, casi cualquier tema de nivel elemental o intermedio de análisis, álgebra lineal, análisis numérico, teoría

a de sistemas, análisis funcional, probabilidad, estadística o incluso lógica, generalmente con poca cohesión entre las diferentes partes de la mezcla. Aquí los autores pretenden introducir al alumno de ingeniería o

perturbación, concentrándose específicamente en la obtención de respuestas a problemas que se plantean en la física. ... Este libro contiene una gran cantidad de problemas resueltos y de técnicas para aproximar a soluciones exactas. Es un texto adecuado para un curso de "temas", pero es una valiosa adición a la biblioteca de cualquier matemático aplicado que esté practicando su arte para tratar de resolver

escribe en un informe en La Gaceta Matemática (The Mathematical Gazette) [referencia 1]:

36

Nació el 27 de Febrero de 1943 en Manhattan, Ciudad de Nueva York y murió el 1º de Mayo de 2011 en New Haven, Connecticut; ambas localidades en EE. UU.

oseph Orszag era abogado. La familia era judía y originalmente de Hungría, de donde eran los en 1886) emigraron a Estados Unidos

, nacido en Nueva York el 4 de febrero de 1910, fue el tercero de los el 26 de julio de 1909) y su hijo Steven nació en Manhattan, aunque fue

escuela secundaria de Forest Hills. En 1959 ctuarios. Cuando tomó el examen,

mucha más edad que él y

sólo dieciséis años, obtuvo la licenciatura el año académico 1962-1963 estudiando en el

egresar a los Estados Unidos, comenzó en 1963 sus estudios tesis fue Martin David Kruskal quien fue profesor de Astronomía en

también miembro del proyecto Matterhorn, que hoy Theory of Turbulence (Teoría

de tesis, publicó un libro en

el anuncio del compromiso en el New York Times el 25 de agosto de 1963. Reba, hermana de Joel Karp, era hija de Gertrude Herskowitz y Jack

Michael Orszag, Peter Richard Orszag y Jonathan Presidente Clinton, luego como director de

fue nombrado profesor de matemáticas aplicadas en el Massachusetts Institute of Technology. En el MIT tuvo Bender y juntos colaboraron en un curso de posgrado de matemáticas durante siete años. Bender dijo

[El curso] fue tan popular que muchos estudiantes de Harvard también lo tomaron. Un curso tan bueno como ese

Advanced mathematical methods for scientists avanzados para científicos e ingenieros:

Este libro no es el texto habitual de "métodos matemáticos para ingenieros", que podría contener, según el gusto de su autor, casi cualquier tema de nivel elemental o intermedio de análisis, álgebra lineal, análisis numérico, teoría

a de sistemas, análisis funcional, probabilidad, estadística o incluso lógica, generalmente con poca cohesión entre las diferentes partes de la mezcla. Aquí los autores pretenden introducir al alumno de ingeniería o

perturbación, concentrándose específicamente en la obtención de respuestas a problemas que se plantean en la física. ... Este libro contiene una gran cantidad de problemas resueltos y de

ra un curso de "temas", pero es una valiosa adición a la biblioteca de cualquier matemático aplicado que esté practicando su arte para tratar de resolver

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 37

El título de este volumen es un poco engañoso en lo que los temas discutidos son soluciones analíticas aproximadas de ecuaciones diferenciales ordinarias y ecuaciones de diferencias, y otros temas no son considerados. ... Este es un libro muy bueno. El texto se lee bien y, como dice el eslogan, "este libro hace hincapié más en el cuidado que en el rigor". Hay muchos ejemplos y ejercicios, y un rasgo de bienvenida es la gran cantidad de diagramas que comparan las soluciones aproximadas con las soluciones conocidas de algunos de los problemas discutidos. El lector se divertirá por la cita al principio de cada capítulo de Sherlock Holmes, aunque la importancia exacta no siempre es obvia. El libro se produjo, y seguramente será de gran utilidad para los interesados en estos asuntos. Los autores no esperan que sea un libro similar a otro sobre soluciones aproximadas de ecuaciones diferenciales parciales.

Más de veinte años después de haber sido publicado, el libro fue reimpreso en 1999. A. D. Wood, después de haber revisado la reimpresión, escribe en un informe:

Este es un libro que ha resistido la prueba del tiempo y no puedo sino apoyar las observaciones del revisor original. Está escrito en un estilo fresco y vivaz y los gráficos y tablas, comparando los resultados de métodos exactos y aproximados, fueron avanzados a su tiempo. Tengo una copia del original desde hace más de veinte años, usándola de forma regular y, después que el original dejó de imprimirse, lo prestaba a mis alumnos de investigación. Springer-Verlag ha hecho un gran servicio a los usuarios y a los investigadores, en asintóticas y teoría de la perturbación, al reimprimir este clásico.

Carl Bender habló sobre su antiguo colega del MIT [referencia 3]:

Orszag estaba comprometido con estudiantes de diferentes niveles de talento matemático. Fue trepidante. Había que correr para mantenerse al día con él. Pero también fue cálido, paciente y humilde en momentos inesperados.

En 1984 regresó a la Universidad de Princeton cuando se le dio el cargo de Profesor Hamrick E. Forrest de Ingeniería. Allí permaneció durante catorce años antes de trasladarse a Yale donde fue nombrado en 1998. Fue Profesor Percey F. Smith de Matemáticas en Yale desde el 2000 hasta su muerte en 2011. Antes de examinar brevemente las contribuciones de Orszag, hay que describir el campo en el cual trabajó [referencia 4]:

Comprender los flujos turbulentos es un "gran desafío" comparable a otros problemas científicos prominentes, tales como la estructura a gran escala del universo y la naturaleza de las partículas subatómicas. En contraste con muchos otros grandes retos, el progreso de la teoría básica de la turbulencia se traduce casi inmediatamente en una amplia gama de aplicaciones de ingeniería y los avances tecnológicos que afectan a muchos aspectos de la vida cotidiana. La predicción numérica de flujos de fluidos está en el corazón de entender y modelar la turbulencia. Sin embargo, tales simulaciones de dinámica de los fluidos computacional desafían las capacidades de los algoritmos y las supercomputadoras más rápidas disponibles.

Cuando fue nombrado Profesor de la Cátedra Percey F. Smith, sus logros de investigación fueron descritos como sigue [referencia 7]:

Steven A Orszag, el nuevo Profesor Percey F. Smith de Matemáticas, se especializa en las áreas de dinámica de los fluidos computacional, la teoría de la turbulencia y el análisis numérico. Él es también conocido por su trabajo en matemáticas aplicadas, y su investigación ha tenido un impacto en la aeronáutica, el pronóstico del clima y el chip electrónico de la industria manufacturera. En las áreas de dinámica de los fluidos computacional, alcanzó las primeras simulaciones exitosas por computadora de flujos turbulentos tridimensionales. Él también desarrolló los métodos que proporcionan una teoría fundamental de la turbulencia. Otro interés de investigación primaria ha sido el desarrollo de técnicas para la simulación de procesos, algunas de las cuales se han aplicado ampliamente en toda la industria de fabricación de chip electrónico.

Ya se han dado detalles de su libro Advanced Mathematical Methods for Scientists and Engineers (1978), pero al mismo tiempo también publicó, en colaboración con David Gottlieb, Numerical Analysis of Spectral Methods: Theory and applications (Análisis Numérico de Métodos Espectrales: Teoría y Aplicaciones) (1977). En esto los autores presentan:

... una discusión unificada de la formulación y análisis de métodos especiales de problemas del valor-límite inicial mixto. El foco está en el desarrollo de una nueva teoría matemática que explica por qué y cómo funcionan los métodos espectrales. Al incluirlos, son interesantes extensiones del clásico análisis numérico.

Las contribuciones de Orszag a esta área se evidencian en perspectiva en [referencia 5]:

Los "Métodos espectrales son muy divertidos," observa Michel Deville, profesor de l'École Polytechnique Fédérale de Lausanne, Suiza. "Siempre es un nirvana numérico cuando - por primera vez - se observa que agregar uno o dos polinomios a una base hace que el error para problemas fáciles descienda hasta en un factor de 50 o incluso 100". Los Métodos Espectrales no siempre han llegado para tales elogios. Aunque originarios de principios del siglo XX por el trabajo de Galerkin y Lanczos y puesto en uso limitado por los meteorólogos en la década de 1950, los métodos espectrales entraron por sí mismos como una poderosa herramienta para la computación científica sólo con el advenimiento de la rápida transformada de Fourier. En la década de 1970, en una serie de documentos de referencia, Steven Orszag demostró que podían utilizarse métodos espectrales y los métodos pseudospectrales estrechamente relacionados, para simular la turbulencia incompresible con modos de Fourier N3 a un costo O (N3logN) de operaciones por lapso de tiempo con cero dispersión numérica y disipación. En un cómputo histórico, Orszag y su colega G. S. Patterson emprendieron el primer cálculo de turbulencias isotrópicas homogéneas en laboratorio con números de Reynolds con una discretización pseudospectral de 323. ... En 1977, la monografía de SIAM 'Numerical Analysis of Spectral Methods: Theory and Applications', Gottlieb y Orszag presentaban la primera descripción unificada del campo, con énfasis en el análisis numérico y consideraciones algorítmicas.

HOMOTECIA Nº 1 – Año 15 Lunes, 9 de Enero de 2017 38

Además de estos libros, Orszag fue el editor de un número de libros: Los superordenadores y la dinámica de fluidos (1986) (editor en conjunto con K. Kuwahara y Raúl Méndez); Supercomputación japonesa: Arquitectura, algoritmos y aplicaciones (1988) (editor con Raúl H. Méndez); y Simulación de Remolinos Grandes de Ingeniería Compleja y Flujos Geofísicos (1993) (editor con Boris Galperin). El editor, Cambridge University Press, describe esta última obra como sigue:

... este libro fue el primero en ofrecer una revisión exhaustiva de las simulaciones de remolinos grandes (SRG) - la historia, el estado del arte, y direcciones prometedoras para la investigación. Entre los temas tratados están fundamentos de SRG; SRG de los flujos incompresibles, compresibles y reacción de flujos; SRG de las corrientes atmosféricas, oceánicas y ambientales; y SRG y computación paralela masivamente. El libro surgió de un taller internacional que, por primera vez, reunió a destacados investigadores en ingeniería y Geofísica para discutir avances y aplicaciones de los modelos SRG en sus respectivos campos. Será de valor para cualquiera que tenga interés en el modelado de turbulencia.

Orszag publicó más de 400 artículos en su carrera, así como hacer seis solicitudes exitosas de patente. Entre los honores que recibió por sus aportes se puede mencionar el Premio del Instituto Americano de Aeronáutica y Fluidos Astronáuticos y Plasma dinámicos, recibido en 1986. Fue becario John Simon Guggenheim en 1989 y en 1991 recibió el Premio Otto Laporte de la Sociedad Física Americana. La sociedad de Ciencia de la Ingeniería le otorgó la Medalla G. I. Taylor en 1995. Fue nombrado Autor Citado Altamente en ISI por la página Web ISI del Conocimiento.

Murió de leucemia linfática crónica a la edad de sesenta y ocho. Su colega en Yale, John Wettlaufer, le rindió este homenaje [referencia 2]:

Steve fue pionero en computación de alto rendimiento de matemática aplicada y computacional y más recientemente, nuevos enfoques para la educación matemática. Vastas áreas del paisaje de pensamiento han perdido un pensador brillante y un consejero sabio.

Wettlaufer también rindió homenaje a Orszag [referencia 3]:

Era un matemático increíblemente talentoso. Pero al mismo tiempo probablemente era una de las personas más generosas con las que he trabajado.

Referencias.-

Artículos: 1. Ll G Chambers, Review: Advanced mathematical methods for scientists and engineers, by Carl M Bender and Steven A Orszag, The Mathematical

Gazette 63 (424) (1979), 139-140. 2. In memoriam: Steven Alan Orszag, Yale Daily Bulletin (2 May 2011). 3. J Jung, Former mathematics professor Steven Orszag GS '66 passes away at 68 years old, The Daily Princetonian (6 May 2011). 4. G Em Karniadakis and S A Orszag, Nodes, Modes and Flow Codes. Massively parallel supercomputers seem the best hope for achieving progress

on 'grand challenge' problems such as understanding high-Reynolds-number turbulent flows, Physics Today (March 1993), 34-42. 5. New Perspectives for Spectral and High-Order Methods, SIAM News 37 (10) (2004), 1-3. 6. T Stephenson, Percy F Smith Professor of Mathematics Orszag dies, Yale Daily News (4 May 2011). 7. Steven Orszag appointed the new Percey F Smith Professor of Mathematics, Yale Daily Bulletin 29 (10) (10 November 2002). 8. B Weber, Steven Orszag, Pioneer in Fluid Dynamics Study, Dies at 68, New York Times (7 May 2011). 9. Yale math professor Steven Orszag dies at 68, New Haven Register (2 May 2011).

Versión en español por R. Ascanio H. del artículo en inglés de J. J. O’Connor y E. F. Robertson sobre “Steven Orszag” (Julio 2011). Fuente: MacTutor History of Mathematics [http://www-history.mcs.st-andrews.ac.uk/Biographies/Orszag.html]