Revista Conocimiento 47

68
www.conocimientoenlinea.com Número 47, del 2 al 15 de febrero de 2007 Director Luis Eugenio Todd Ciencia Básica y Ciencia Clínica David Gómez Almaguer Página 17 ¿Qué es la Ciencia? Pedro A. Valdés Sada Página 8 Ciencia Básica, Ciencia Aplicada y Productos Tecnológicos Gilberto Eduardo Salinas Página 12 La Ciencia Básica y la Medicina Salvador Said-Fernández Página 21 Conversión de la Ciencia en desarrollo tecnológico, a través de la industria farmacéutica Mario Álvarez Página 26 Importancia de la Química en la historia de la humanidad Juan Manuel Barbarín Castillo Página 30 Actividad científica escolar Adriana Gómez Página 37 Investigación en Ciencia Básica Ismael Vidales Delgado Página 55 Autores invitados: Gerardo Antonio Castañón Ávila, Juan Lauro Aguirre, Herminia G. Martínez-Rodríguez, Zygmunt Haduch Suski, Patricia Liliana Cerda Pérez, Keith Raniere El gobernador, José Natividad González Parás, con Jean Charest, Premier de Québec, en Davos. LOUIS PASTEUR (1822 - 1895)

Transcript of Revista Conocimiento 47

Page 1: Revista Conocimiento 47

Re ConocimientoJuan Roberto Zavala

Doctor Ricardo Martín Cerda Flores

Con importantes investigaciones en las áreas de genética de poblaciones, genética epidemiológica, epidemiología molecular, evolución molecular, genética forense y estadística, en bioinformática y en genómica, Ricardo Martín Cerda Flores es profesor en las facultades de Ciencias Biológicas y Veterinaria de la UANL y jefe de la

División de Genética del Centro de Investigación Biomédica del Noreste, del IMSS. Es autor de siete capítulos en libros y de 82 artículos científicos. Su doctorado en Ciencias Biológicas es de la Universidad de Texas y de la UANL.

Ha recibido numerosos premios, de los que mencionamos: los años 1986 y 1987 obtuvo el Premio Anual de Genética Humana; en 1987 y 1988 la UANL le otorgó los Premios de Investigación, en las categorías de Ciencias Naturales y Biología, y los años 2003 y 2005 ganó los primeros lugares en investigación, dentro de los Congresos Internacionales de Salud organizados por la Clínica Vitro.

A personajes nuestros en la Ciencia Básica

Ingeniero René Mario Montante Pardo

Destacado investigador en el campo de las matemáticas, especialmente en el área de calculo matricial, René Mario Montante Pardo es creador del “Método Montante”, utilizado mundialmente, con el que se resuelven sistemas de ecuaciones lineales; determinantes; se calcula la inversa de una matriz; se calcula la matriz adjunta y resuelve los problemas de investigación de operaciones,

como el método simples y el simples revisado.

Es ingeniero mecánico y licenciado en matemáticas, ambos grados académicos de la UANL. De 1965 a 2001 fue profesor en la Facultad de Ingeniería Mecánica y Eléctrica, donde se jubiló, y de 1965 a 1973 en la Facultad de Ingeniería Civil, ambas instituciones de la UANL.

Doctor Mauricio Navarro Villalobos

Entusiasta investigador en el campo de la química orgánica, especialmente en síntesis total de productos naturales de relevancia biológica y farmacéutica, Mauricio Navarro Villalobos tiene importantes estudios en ciencias básicas y ha sido investigador asociado en la Universidad Nacional Autónoma de México, en la Universidad de

Illinois y en la Universidad de Yale. Ha sido profesor investigador en el ITESM y actualmente es profesionista de apoyo en esa institución.

Es licenciado en Ciencias Químicas por el ITESM. Tiene una maestría en Ciencias, con especialidad en Síntesis Orgánica y un doctorado PhD en Síntesis Total de Productos Naturales, ambos grados académicos de la Universidad de Yale.

Doctor Enrique Peña Muñoz

Con amplia experiencia en la investigación en el campo de la tribología, mejorando los parámetros que inciden en esta propiedad mecánica, Enrique Peña Muñoz ha realizado también investigación en las áreas de educación, específicamente en la enseñanza de las ciencias. Actualmente es profesor en la UDEM y pertenece a la Academia de Física y Astronomía, de la que fue presidente.

Tiene una maestría y un doctorado en Ciencias de la Ingeniería, ambos grados académicos de la Université de Franche Comté, UFR des Sciences et Techniques, de Besancon, Francia. Es autor de los manuales Prácticas de mecánica clásica y Prácticas de electrónica, publicados en 2003 y 2004 por la UDEM, y de diversos artículos en memorias de congresos y revistas especializadas.

Doctora Rocío Isabel Díaz de la Garza

Con inclinación hacia la ingeniería metabólica vegetal y fotoquímica, y experta en el campo de la producción de ácido fólico en plantas, Rocío Isabel Díaz de la Garza ha sido asistente de investigación de la Universidad de Florida y actualmente es profesora investigadora en el Centro de Biotecnología del ITESM, donde participa en

un proyecto de producción de fármacos en plantas, a través de ingeniería genética.

Es ingeniera química, egresada del Instituto Tecnológico de Ciudad Madero, Tamaulipas, y tiene una maestría en Ciencias, con especialidad en Biotecnología. Su doctorado en Biología Molecular y Celular Vegetal es de la Universidad de Florida. Es autora de dos libros; de numerosos artículos científicos y coautora de las patentes “Uso de los compuestos fenólicos presentes en el aceite esencial de orégano como agente antimicrobiano” y “Materials and Methods for Folate Biofortification in Plants”.

Maestra Perla Elizondo Martínez

Apasionada de la química analítica y de la química inorgánica, Perla Elizondo Martínez ha participado, desde 1991, en la organización de la Olimpiada Nacional de Química y en proyectos para la solución de problemas ambientales. Destaca su participación en la adaptación y validación de técnicas analíticas para la detección de solventes en microambiente y extracción de metales

pesados en medios contaminados. Actualmente es profesora investigadora en la Facultad de Ciencias Químicas de la UANL.

Hizo sus estudios profesionales en la UANL, por la que es química industrial, y tiene una maestría en Ciencias, con especialidad en Química Analítica, de la Facultad de Ciencias Químicas de la misma universidad. Ha realizado estancias de investigación en la Universidad de Santiago de Compostela, España y en la Universidad de Aberdeen, en Escocia.

ww

w.c

on

oci

mie

nto

enli

nea

.com

N

úm

ero 4

7, d

el 2

al

15

de

feb

rero

de

20

07

Director Luis Eugenio Todd

Ciencia Básica y Ciencia ClínicaDavid Gómez AlmaguerPágina 17

¿Qué es la Ciencia?Pedro A. Valdés SadaPágina 8

Ciencia Básica, Ciencia Aplicada y Productos TecnológicosGilberto Eduardo SalinasPágina 12

La Ciencia Básica y la Medicina Salvador Said-FernándezPágina 21

Conversión de la Ciencia en desarrollo tecnológico, a través de la industria farmacéuticaMario ÁlvarezPágina 26

Importancia de la Química en la historia de la humanidadJuan Manuel Barbarín CastilloPágina 30

Actividad científica escolar Adriana GómezPágina 37

Investigación en Ciencia BásicaIsmael Vidales Delgado Página 55

Autores invitados: Gerardo Antonio Castañón Ávila, Juan Lauro Aguirre, Herminia G. Martínez-Rodríguez, Zygmunt Haduch Suski, Patricia Liliana Cerda Pérez, Keith Raniere

El gobernador, José Natividad González Parás, con Jean Charest,

Premier de Québec, en Davos.

LOUIS PASTEUR (1822 - 1895)

Page 2: Revista Conocimiento 47

CONSEJO EDITORIALIngeniero Juan Antonio González AréchigaPresidenteLicenciado Omar Cervantes RodríguezDirector de ComunicaciónSocial del Gobierno del EstadoIngeniero Xavier Lozano MartínezM. C. Silvia Patricia Mora CastroDoctor Mario César Salinas CarmonaDoctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

DIRECTORIOIngeniero Antonio Zárate NegrónDirector del Programa Ciudad Internacional Del ConocimientoDoctor Luis Eugenio ToddDirector General

LA REVISTA CONOCIMIENTO ES EDITADA POR LA COORDINACIÓN DE CIENCIA Y TECNOLOGÍA DE NUEVO LEÓN, Y ABRE SUS PÁGINAS A LAS INSTITUCIONES DE EDUCACIÓN SUPERIOR PARA LA PUBLICACIÓN DE ARTÍCULOS Y NOTICIAS DE CARÁCTER CIENTÍFICO. TELÉFONOS EN LA REDACCIÓN: 83 46 74 99 Y 83 46 73 51 [email protected] REGISTRO SOLICITADO PREVIAMENTE CON EL NOMBRE DE CONOCIMIENTO.

LAS OPINIONES EXPRESADAS EN LOS ARTÍCULOS SON RESPONSABILIDAD EXCLUSIVA DE SUS AUTORES.

Félix Ramos GamiñoDirector EditorialMaestro Rodrigo SotoSecretario EditorialProfesor Ismael Vidales DelgadoEducaciónLicenciado Juan Roberto ZavalaCiencia en FamiliaDoctor Jorge N. Valero GilCiencias Económicas y SocialesDoctor Juan Lauro AguirreCiencias Básicas y del AmbienteIngeniero Gabriel ToddDesarrollo Urbano y SocialDoctor David Gómez AlmaguerCiencias MédicasContador Público José Cárdenas CavazosCiencias Políticas y/o de Administración Pública

Doctora Liliana Patricia Cerda PérezCiencias de la ComunicaciónLicenciados Jorge Pedraza yClaudia OrdazLa Ciencia es CulturaDoctor Óscar Salas FraireEducación Física y DeporteDoctor Mario César SalinasLas Universidades y la CienciaLicenciada Alma TrejoLicenciado Carlos JoloyRedacciónLicenciado Víctor Eduardo Armendáriz RuizDiseñadorArquitecto Rafael Adame DoriaArte GráficoProfesor Oliverio Anaya RodríguezCirculación y Administración

El CECyTE-NL es un sistema que ofrece EL BACHILLERATO BIVALENTE, que otorga a los estudiantes tanto el certificado de preparatoria, como el título de técnico profesional, lo cual les permite incorporarse de inmediato al ámbito laboral, así como continuar preparándose en una escuela de nivel superior.

COLEGIO DE ESTUDIOS CIENTÍFICOS Y TECNOLÓGICOS DE NUEVO LEÓN

¡Magnífica opción educativa

para la juventud!

El único sistema con:11 planteles para bachillerato tecnológico (CECyTE) 8 planteles con bachillerato general (EMSAD)

¡Presente en 19 municipios!

El sistema más amigable, con:Cuotas muy bajas,que incluyen los librosDiferentes tipos de becas en efectivoPréstamos para pequeños emprendedoresActividades artísticas y culturalesSistema semestralTitulación automática

Informes en:Oficinas centrales: Teléfono 81 51 76 00, Ext. 112En los planteles CECyTE: Allende, Apodaca, Aramberri, Cadereyta, La Estanzuela, García, General Escobedo, Linares, Marín, Sabinas Hidalgo, y Salinas Victoria.En los planteles EMSAD: Agualeguas, Bustamante, Iturbide, Lampazos, Los Ramones, Mier y Noriega, Rayones, y Zaragoza.

Page 3: Revista Conocimiento 47

CONSEJO EDITORIALIngeniero Juan Antonio González AréchigaPresidenteLicenciado Omar Cervantes RodríguezDirector de ComunicaciónSocial del Gobierno del EstadoIngeniero Xavier Lozano MartínezM. C. Silvia Patricia Mora CastroDoctor Mario César Salinas CarmonaDoctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

DIRECTORIOIngeniero Antonio Zárate NegrónDirector del Programa Ciudad Internacional Del ConocimientoDoctor Luis Eugenio ToddDirector General

LA REVISTA CONOCIMIENTO ES EDITADA POR LA COORDINACIÓN DE CIENCIA Y TECNOLOGÍA DE NUEVO LEÓN, Y ABRE SUS PÁGINAS A LAS INSTITUCIONES DE EDUCACIÓN SUPERIOR PARA LA PUBLICACIÓN DE ARTÍCULOS Y NOTICIAS DE CARÁCTER CIENTÍFICO. TELÉFONOS EN LA REDACCIÓN: 83 46 74 99 Y 83 46 73 51 [email protected] REGISTRO SOLICITADO PREVIAMENTE CON EL NOMBRE DE CONOCIMIENTO.

LAS OPINIONES EXPRESADAS EN LOS ARTÍCULOS SON RESPONSABILIDAD EXCLUSIVA DE SUS AUTORES.

Félix Ramos GamiñoDirector EditorialMaestro Rodrigo SotoSecretario EditorialProfesor Ismael Vidales DelgadoEducaciónLicenciado Juan Roberto ZavalaCiencia en FamiliaDoctor Jorge N. Valero GilCiencias Económicas y SocialesDoctor Juan Lauro AguirreCiencias Básicas y del AmbienteIngeniero Gabriel ToddDesarrollo Urbano y SocialDoctor David Gómez AlmaguerCiencias MédicasContador Público José Cárdenas CavazosCiencias Políticas y/o de Administración Pública

Doctora Liliana Patricia Cerda PérezCiencias de la ComunicaciónLicenciados Jorge Pedraza yClaudia OrdazLa Ciencia es CulturaDoctor Óscar Salas FraireEducación Física y DeporteDoctor Mario César SalinasLas Universidades y la CienciaLicenciada Alma TrejoLicenciado Carlos JoloyRedacciónLicenciado Víctor Eduardo Armendáriz RuizDiseñadorArquitecto Rafael Adame DoriaArte GráficoProfesor Oliverio Anaya RodríguezCirculación y Administración

El CECyTE-NL es un sistema que ofrece EL BACHILLERATO BIVALENTE, que otorga a los estudiantes tanto el certificado de preparatoria, como el título de técnico profesional, lo cual les permite incorporarse de inmediato al ámbito laboral, así como continuar preparándose en una escuela de nivel superior.

COLEGIO DE ESTUDIOS CIENTÍFICOS Y TECNOLÓGICOS DE NUEVO LEÓN

¡Magnífica opción educativa

para la juventud!

El único sistema con:11 planteles para bachillerato tecnológico (CECyTE) 8 planteles con bachillerato general (EMSAD)

¡Presente en 19 municipios!

El sistema más amigable, con:Cuotas muy bajas,que incluyen los librosDiferentes tipos de becas en efectivoPréstamos para pequeños emprendedoresActividades artísticas y culturalesSistema semestralTitulación automática

Informes en:Oficinas centrales: Teléfono 81 51 76 00, Ext. 112En los planteles CECyTE: Allende, Apodaca, Aramberri, Cadereyta, La Estanzuela, García, General Escobedo, Linares, Marín, Sabinas Hidalgo, y Salinas Victoria.En los planteles EMSAD: Agualeguas, Bustamante, Iturbide, Lampazos, Los Ramones, Mier y Noriega, Rayones, y Zaragoza.

64 CONOCIMIENTO

www.conocimientoenlinea.com

planteó como objetivo el fortalecer las prácticas de enseñanza que emplean los maestros de las asignaturas de Lectura Expresión oral y escrita I y Álgebra del sistema CECyTE-NL, a través del trabajo colegiado y el acompañamiento de expertos y de investigadores, con el fin de propiciar aprendizajes significativos y relevantes en los alumnos.

PARTICIPACIÓN DE MAESTROS Y ALUMNOSEn el desarrollo de este trabajo participaron dos grupos: uno referencial, integrado por los maestros y alumnos de nueve planteles del sistema CECyTE-NL, y el otro experimental, compuesto por maestros y alumnos de dos planteles: “La Estanzuela” y “Marín”. En el primer caso la participación fue solamente en el proceso de evaluación; es decir, en la resolución del mismo examen diseñado para la población experimental; y en el segundo, con la aplicación de las estrategias diseñadas para fortalecer la práctica docente de los maestros (trabajo colegiado, secuencias didácticas y exámenes).

Las estrategias de trabajo colegiado y acompañamiento de expertos se realizaron en dos momentos previos al inicio de las Unidades Dos y Tres de cada curso. El equipo de trabajo realizó la planeación didáctica de los contenidos curriculares a desarrollar en cada unidad, y elaboró los documentos -Secuencias Didácticas- para los alumnos. Estas reuniones fueron asistidas por un experto de la asignatura, quien aclaró las dudas sobre los contenidos y los ejercicios a trabajar en cada momento. Finalmente el colegiado elaboró los exámenes para evaluar los contenidos abordados en cada Unidad.

INFORMACIÓN DE PRIMERA MANOLos momentos de intervención –tra-bajo de campo-, se realizaron a través de las visitas a los dos planteles señalados como experimentales, con el fin de recoger información de manera directa, mediante guías de observación, entrevistas a maestros y alumnos, así como la aplicación de instrumentos y recolección de evidencias empíricas.

El análisis de la información permitió comparar los resultados obtenidos en los dos grupos de población, para posteriormente determinar si se

estableció una relación directa entre las estrategias implementadas y los resultados obtenidos.

LOS PROMEDIOSLa información cuantitativa muestra los siguientes promedios, considerando únicamente el examen: 51.6 en el diagnóstico, 66.9 en la segunda Unidad y 46.5 en la tercera. En la segunda Unidad se registra un avance de 15.3 puntos porcentuales, que los maestros atribuyen entre otras cosas, a que los contenidos fueron revisados ampliamente y no se suspendieron las actividades escolares. El promedio en la tercera Unidad registra una baja de hasta 28 puntos porcentuales respecto a los de la Unidad dos. En opinión de dos maestros responsables de estas asignaturas, se debió a que los contenidos de esta Unidad son más amplios, no presentan una secuencia con los de las Unidades anteriores, y a que no se cumplieron las veinte sesiones frente a grupo.

Respecto a los promedios obtenidos por los nueve planteles que participaron como grupo de referencia, se registra un incremento de 3.3 puntos entre el examen diagnóstico (51.5) y el promedio de las dos Unidades (54.8); mientras que el grupo experimental tuvo un incremento de 4.5 puntos, 50.4 en el diagnóstico y 54.9 en las dos Unidades.

Los planteles del grupo de referencia que presentaron mayor avance son Salinas Victoria y Aramberri, con 5.5 y 5.2 respectivamente. En el grupo experimental fue el plantel de La

Estanzuela el que registró un avance del 7.2, comparado con el de Marín, que registró 1.8.

MEJOR PRÁCTICA DEL DOCENTELa recopilación de información cualitativa nos permitió observar que el trabajo colegiado fortaleció de manera indirecta la práctica del docente, pues mediante el diálogo directo sobre los puntos centrales de cada Unidad, el intercambio de experiencias y la colaboración, se logró una actitud diferente de los docentes ante el grupo, lo que se confirmó al realizar las visitas áulicas.

La elaboración de las dosificaciones para cada Unidad aseguró que la planeación del trabajo docente se estableciera de antemano, sirviendo de guía para el desarrollo de los contenidos del programa, tanto en extensión como en profundidad.

El documento de apoyo para los alumnos –Secuencias Didácticas-, les permitió construir sus aprendizajes de una manera didáctica y relacionada con su entorno. En opinión de maestros y alumnos, el documento facilitó los aprendizajes, pues era más claro y entendible que la Antología de la materia.

Los resultados obtenidos por el grupo experimental y el grupo de referencia muestran que las estrategias empleadas tuvieron una influencia en los resultados obtenidos, mas no se puede afirmar que fueron los únicos factores que los determinaron.

-

EDITORIAL

DESCARTESPienso, luego existo

1596 a 1650

La ciencia, madre generosa que crea el conocimiento para mejorar la calidad de vida del ser humano.

Ésta es la época de la globalización inexorable a la que tenemos que adaptarnos, y aprovechar su im-

pacto para compartir lo bueno que en materia de conocimiento representa la investigación científica y tecnológica mundial.

Mucha gente soslaya la importancia de la investigación, porque tiene una fijación mimética de la circunstancia histórica al libre comercio y adecua la transferencia y la innovación tecnológicas, así como la competiti-vidad, solamente al proceso productivo y a la generación de riqueza material.

Sin embargo, los filósofos contem-poráneos han hecho una llamada de atención, porque si bien la distribución del poder empieza a alterarse con base en las corrientes comerciales de China y de India, pero sobre todo en la nueva sociedad del conocimiento y del desarrollo tecnológico acelerado, los grandes problemas del mundo, entre ellos los de la marginación, la pobreza y las nuevas enfermedades, requieren un tratamiento basado en la investigación científica básica y en la generación de nuevas ideas verdaderamente transformadoras que corrijan esta enorme inequidad social que flagela al mundo.

En la reunión de Davos, por ejemplo, a la que nuestro gobernador fue invitado especialmente, lo cual debería ser un motivo de orgullo para Nuevo León, por la confluencia de líderes mundiales en ese pequeño cantón suizo, se trataron problemas de ciencia imperativos para la solución de las grandes catástrofes que afectan a

muchas áreas del mundo en materias tan diversas como el calentamiento global, la vacunación masiva, el tratamiento de los nuevos padecimientos que empiezan a renacer y el uso de la investigación para transferir conocimientos aprovechando la globalización, generar innovación tecnológica y solucionar los grandes problemas de salud y de una sociedad marginal que afecta a más de la mitad de la población mundial.

En esta edición hacemos un alto en el camino para recoger opiniones sobre

la llamada ciencia básica, que, como dice Federico Mayor Zaragoza: es imperativa para avanzar, porque sin ella no hay nada que aplicar y porque representa la génesis del conocimiento que posteriormente se transfiere a través de la innovación tecnológica para una producción más eficiente y una competitividad que debe generar mayor calidad en el bienestar del ser humano.

Se describe también, en este documento, la participación del gobernador en Davos, que algunos sectores soslayan, porque no se dan cuenta de que un gobernante con formación académica no piensa solamente en la solución de problemas circunstanciales, sino también en la generación de una nueva corriente conceptual verdaderamente transformadora y de cambios en los proyectos de administración pública que sean permanentes, no sólo flor de un día, sino cosecha reiterada de beneficio social.

Ésa es la diferencia entre un político de circunstancia y un estadista con visión del futuro.

Page 4: Revista Conocimiento 47

CONOCIMIENTO 63

www.conocimientoenlinea.com

Adrianna Gómez GalindoEs doctora en Didáctica de las Ciencias Experimentales por la Universidad Autónoma de Barcelona, España. Sus líneas de investigación actuales se enfocan en el desarrollo y análisis de innovación para favorecer la construcción de explicaciones científicas escolares en Educación Básica. Forma parte del equipo de Educación en Ciencias, de la Unidad Monterrey del CINVESTAV.

Zygmunt HaduchNació en Plowce-Sanok, Polonia. Es ingeniero mecánico y tiene una Maestría en Mecánica, por la Universidad Politécnica de Cracovia (PC), en Polonia. Hizo estudios de posgrado en la Facultad de Construcción de Barcos y Máquinas, en Zagreb, ahora Croacia. Su Doctorado en Ciencias Técnicas es de la Universidad PC. Es miembro del Sistema Nacional de Investigadores, nivel III. De 1993 a 2004, recibió de la UDEM once premios en concursos de investigación vinculados a la docencia; en 2000, el Gobierno del Estado de Nuevo León le otorgó dos premios TECNOS.

Pedro A. Valdés SadaEs ingeniero en Química y de Sistemas; licenciado en Astronomía, área en la cual también cuenta con una maestría y un doctorado. Actualmente trabaja como profesor titular en el Departamento de Física y Matemáticas en la Universidad de Monterrey, dónde además de dar clases realiza investigaciones científicas en los campos de Astronomía Planetaria y Astronomía Estelar.

David Gómez AlmaguerEs médico cirujano y partero por la Universidad Autónoma de Nuevo León, y tiene una destacada trayectoria como médico, investigador y docente. Hizo la Residencia en Medicina Interna y tiene la Especialidad en Hematología, por la Universidad Nacional Autónoma de México, ambas realizadas en el Instituto Nacional de Ciencias Médicas y Nutrición Doctor Salvador Zubirán. Desde 1981, ha sido catedrático en la Facultad de Medicina de la UANL y es miembro del Sistema Nacional de Investigadores, nivel II. Actualmente funge como jefe del Servicio de Hematología del Hospital Universitario.

Mario ÁlvarezEs doctor y maestro en Ingeniería Química y Bioquímica, maestro en Ingeniería de Procesos e ingeniero bioquímico. Es profesor investigador de planta de la División de Ingeniería y Arquitectura del Tecnológico de Monterrey, Campus Monterrey, desde 1993, en el Centro de Biotecnología, del cual actualmente es director. Además, es coordinador del Claustro de Profesores de la Maestría en Biotecnología, coordinador de la Maestría en Biotecnología, y del Doctorado en Ciencias de la Ingeniería con especialidad en Biotecnología. Ha publicado 18 artículos científicos en revistas arbitradas internacionales de primer nivel.

Juan Manuel Barbarín CastilloEs ingeniero químico y tiene una Maestría en Ingeniería Sanitaria, ambos grados académicos de la Universidad Autónoma de Nuevo León. Su Doctorado PhD en Termodinámica de Fluidos Densos es de la Universidad de Sheffield, en Inglaterra. Ha sido catedrático en las facultades de Ciencias Químicas, Ingeniería Civil, Ciencias de la Tierra, Ciencias Forestales y Medicina. Ha realizado investigación en las áreas de química e ingeniería ambiental; ciencias de la tierra, fisicoquímica, ingeniería química y evaluación de la calidad del agua.

Salvador Said-FernándezEs médico veterinario zootecnista por la Universidad Veracruzana, maestro y doctor en ciencias con especialidad en biología celular. Es investigador titular C y director del Centro de Investigación Biomédica del Noreste (IMSS). Ha publicado más de 80 artículos en revistas indexadas y diez capítulos en libros. Actualmente es miembro del SNI, nivel II y miembro numerario de la Academia Nacional de Medicina. Sus principales líneas de investigación son la biología celular y molecular de protozoarios parásitos, así como la epidemiología, diagnóstico y control de la tuberculosis pulmonar.

Gilberto E. Salinas GarcíaOriginario de Monterrey, Nuevo León, es ingeniero agrónomo fitotecnista por la Universidad Autónoma de Nuevo León y tiene una Maestría en Ciencias, con especialidad en Genética del Colegio de Posgraduados en Chapingo, Estado de México. En la Universidad de Birmingham, Inglaterra, obtuvo una Maestría en Ciencias, con especialidad en Genética Aplicada y un Doctorado, con especialidad en Biotecnología aplicada al mejoramiento de cultivos. Desde 1980 es profesor investigador en la Facultad de Agronomía de la UANL.

Gerardo Castañón ÁvilaEstudió la carrera de Ingeniería Física en el Tecnológico de Monterrey, es maestro en Física (óptica) y cuenta con una maestría y doctorado en Electrónica e Ingeniería Computacional por la Universidad Estatal de Nueva York. Actualmente, y desde septiembre de 2002, trabaja en el Centro de Electrónica y Telecomunicaciones del ITESM Campus Monterrey.

Autores invitados:

Supervivencia de la Ciencia BásicaNúmero 47, del 2 al 15 de febrero de 2007-01-29

¿Qué es la ciencia?.........................................................................................8

Ciencia básica, Ciencia aplicada y Productos tecnológicos. Sus relaciones no lineales..........................................................................12

Ciencia básica y Ciencia clínica...............................................................17

La Ciencia básica y la Medicina................................................................21

Conversión de la Ciencia en desarrollo tecnológico, a través de la industria farmacéutica.....................................................26

Importancia de la Química en la historia de la humanidad...........................................................................................30

La revolución de los materiales...............................................................34

Comunicaciones ópticas: Tendencias y oportunidades....................39

Actividad científica escolar, con sentido para los alumnos..........................................................................................42 La Física en la nueva era de la triple hélice..........................................45

La Ciencia pura, fuente infinita de generación de conocimiento...........................................................................................49

Ciencia y Arte, una simbiosis perfecta..................................................50

Viaje a la tierra de las ideas......................................................................52

CONTENIDO

Las evaluaciones educativas, tanto nacionales como locales, muestran información preocupante con respecto a las competencias de lectura y pensamiento lógico-matemático en los adolescentes. Por una parte,

señalan que los estudiantes egresan de secundaria con rezagos en el desarrollo de las capacidades de comprensión lectora y de razonamiento matemático, ya que más del 50 por ciento se encuentran por debajo del nivel básico al concluir sus estudios. Por otro lado, los altos índices de reprobación durante el primer semestre del bachillerato, -donde un 49 por ciento reprueba las asignaturas del área de Matemática-, nos lleva a suponer que los estudiantes presentan problemas en su aprendizaje al ingresar a la educación media, en especial, en las asignaturas correspondientes a estas áreas del conocimiento.

Maestra Daría Elizondo Garza

Ante esta realidad, el CECyTE-NL plantea la necesidad de explorar los factores que inciden en el estudiante para el desarrollo de las competencias de expresión oral y escrita, y de pensamiento matemático, así como de conocer los siguien-tes aspectos: ¿cuáles son las competencias de comunicación, de comprensión lectora y de pensamiento lógico matemático que desarrollan los alumnos del bachillerato?; ¿qué factores inciden en el desarrollo de estas competencias?; ¿qué papel juegan las prácticas de enseñanza y de aprendizaje que se dan en el aula? y ¿apoyan los recursos didácticos el desarrollo de estas competencias?

Estas interrogantes fueron la base para el desarrollo de una investigación de tipo exploratorio-descriptivo-participativo que

Page 5: Revista Conocimiento 47

CONOCIMIENTO 63

www.conocimientoenlinea.com

Adrianna Gómez GalindoEs doctora en Didáctica de las Ciencias Experimentales por la Universidad Autónoma de Barcelona, España. Sus líneas de investigación actuales se enfocan en el desarrollo y análisis de innovación para favorecer la construcción de explicaciones científicas escolares en Educación Básica. Forma parte del equipo de Educación en Ciencias, de la Unidad Monterrey del CINVESTAV.

Zygmunt HaduchNació en Plowce-Sanok, Polonia. Es ingeniero mecánico y tiene una Maestría en Mecánica, por la Universidad Politécnica de Cracovia (PC), en Polonia. Hizo estudios de posgrado en la Facultad de Construcción de Barcos y Máquinas, en Zagreb, ahora Croacia. Su Doctorado en Ciencias Técnicas es de la Universidad PC. Es miembro del Sistema Nacional de Investigadores, nivel III. De 1993 a 2004, recibió de la UDEM once premios en concursos de investigación vinculados a la docencia; en 2000, el Gobierno del Estado de Nuevo León le otorgó dos premios TECNOS.

Pedro A. Valdés SadaEs ingeniero en Química y de Sistemas; licenciado en Astronomía, área en la cual también cuenta con una maestría y un doctorado. Actualmente trabaja como profesor titular en el Departamento de Física y Matemáticas en la Universidad de Monterrey, dónde además de dar clases realiza investigaciones científicas en los campos de Astronomía Planetaria y Astronomía Estelar.

David Gómez AlmaguerEs médico cirujano y partero por la Universidad Autónoma de Nuevo León, y tiene una destacada trayectoria como médico, investigador y docente. Hizo la Residencia en Medicina Interna y tiene la Especialidad en Hematología, por la Universidad Nacional Autónoma de México, ambas realizadas en el Instituto Nacional de Ciencias Médicas y Nutrición Doctor Salvador Zubirán. Desde 1981, ha sido catedrático en la Facultad de Medicina de la UANL y es miembro del Sistema Nacional de Investigadores, nivel II. Actualmente funge como jefe del Servicio de Hematología del Hospital Universitario.

Mario ÁlvarezEs doctor y maestro en Ingeniería Química y Bioquímica, maestro en Ingeniería de Procesos e ingeniero bioquímico. Es profesor investigador de planta de la División de Ingeniería y Arquitectura del Tecnológico de Monterrey, Campus Monterrey, desde 1993, en el Centro de Biotecnología, del cual actualmente es director. Además, es coordinador del Claustro de Profesores de la Maestría en Biotecnología, coordinador de la Maestría en Biotecnología, y del Doctorado en Ciencias de la Ingeniería con especialidad en Biotecnología. Ha publicado 18 artículos científicos en revistas arbitradas internacionales de primer nivel.

Juan Manuel Barbarín CastilloEs ingeniero químico y tiene una Maestría en Ingeniería Sanitaria, ambos grados académicos de la Universidad Autónoma de Nuevo León. Su Doctorado PhD en Termodinámica de Fluidos Densos es de la Universidad de Sheffield, en Inglaterra. Ha sido catedrático en las facultades de Ciencias Químicas, Ingeniería Civil, Ciencias de la Tierra, Ciencias Forestales y Medicina. Ha realizado investigación en las áreas de química e ingeniería ambiental; ciencias de la tierra, fisicoquímica, ingeniería química y evaluación de la calidad del agua.

Salvador Said-FernándezEs médico veterinario zootecnista por la Universidad Veracruzana, maestro y doctor en ciencias con especialidad en biología celular. Es investigador titular C y director del Centro de Investigación Biomédica del Noreste (IMSS). Ha publicado más de 80 artículos en revistas indexadas y diez capítulos en libros. Actualmente es miembro del SNI, nivel II y miembro numerario de la Academia Nacional de Medicina. Sus principales líneas de investigación son la biología celular y molecular de protozoarios parásitos, así como la epidemiología, diagnóstico y control de la tuberculosis pulmonar.

Gilberto E. Salinas GarcíaOriginario de Monterrey, Nuevo León, es ingeniero agrónomo fitotecnista por la Universidad Autónoma de Nuevo León y tiene una Maestría en Ciencias, con especialidad en Genética del Colegio de Posgraduados en Chapingo, Estado de México. En la Universidad de Birmingham, Inglaterra, obtuvo una Maestría en Ciencias, con especialidad en Genética Aplicada y un Doctorado, con especialidad en Biotecnología aplicada al mejoramiento de cultivos. Desde 1980 es profesor investigador en la Facultad de Agronomía de la UANL.

Gerardo Castañón ÁvilaEstudió la carrera de Ingeniería Física en el Tecnológico de Monterrey, es maestro en Física (óptica) y cuenta con una maestría y doctorado en Electrónica e Ingeniería Computacional por la Universidad Estatal de Nueva York. Actualmente, y desde septiembre de 2002, trabaja en el Centro de Electrónica y Telecomunicaciones del ITESM Campus Monterrey.

Autores invitados:

Supervivencia de la Ciencia BásicaNúmero 47, del 2 al 15 de febrero de 2007-01-29

¿Qué es la ciencia?.........................................................................................8

Ciencia básica, Ciencia aplicada y Productos tecnológicos. Sus relaciones no lineales..........................................................................12

Ciencia básica y Ciencia clínica...............................................................17

La Ciencia básica y la Medicina................................................................21

Conversión de la Ciencia en desarrollo tecnológico, a través de la industria farmacéutica.....................................................26

Importancia de la Química en la historia de la humanidad...........................................................................................30

La revolución de los materiales...............................................................34

Comunicaciones ópticas: Tendencias y oportunidades....................39

Actividad científica escolar, con sentido para los alumnos..........................................................................................42 La Física en la nueva era de la triple hélice..........................................45

La Ciencia pura, fuente infinita de generación de conocimiento...........................................................................................49

Ciencia y Arte, una simbiosis perfecta..................................................50

Viaje a la tierra de las ideas......................................................................52

CONTENIDO

Las evaluaciones educativas, tanto nacionales como locales, muestran información preocupante con respecto a las competencias de lectura y pensamiento lógico-matemático en los adolescentes. Por una parte,

señalan que los estudiantes egresan de secundaria con rezagos en el desarrollo de las capacidades de comprensión lectora y de razonamiento matemático, ya que más del 50 por ciento se encuentran por debajo del nivel básico al concluir sus estudios. Por otro lado, los altos índices de reprobación durante el primer semestre del bachillerato, -donde un 49 por ciento reprueba las asignaturas del área de Matemática-, nos lleva a suponer que los estudiantes presentan problemas en su aprendizaje al ingresar a la educación media, en especial, en las asignaturas correspondientes a estas áreas del conocimiento.

Maestra Daría Elizondo Garza

Ante esta realidad, el CECyTE-NL plantea la necesidad de explorar los factores que inciden en el estudiante para el desarrollo de las competencias de expresión oral y escrita, y de pensamiento matemático, así como de conocer los siguien-tes aspectos: ¿cuáles son las competencias de comunicación, de comprensión lectora y de pensamiento lógico matemático que desarrollan los alumnos del bachillerato?; ¿qué factores inciden en el desarrollo de estas competencias?; ¿qué papel juegan las prácticas de enseñanza y de aprendizaje que se dan en el aula? y ¿apoyan los recursos didácticos el desarrollo de estas competencias?

Estas interrogantes fueron la base para el desarrollo de una investigación de tipo exploratorio-descriptivo-participativo que

62 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 3

www.conocimientoenlinea.com

Por Carlos Joloy

Por segundo año consecutivo, la Asociación Estatal de Periodistas “José Alvarado Santos” entregó el premio anual “Francisco Cerda

Muñoz” a profesionistas destacados en seis áreas del periodismo. Aprovechando la celebración del día del periodista, el pasado 29 de enero se llevó a cabo la ceremonia de entrega de los galardones en el Teatro Universitario, de la Universidad Autónoma de Nuevo León.

LOS GALARDONADOSJosé Ángel Pequeño, presidente de la asociación y Miguel C. Barragán, presidente del comité de otorgamiento, entregaron los premios a: Félix Cortés Camarillo, de Multimedios Televisión, reconocido como periodista del año; Adriana Flores Rosales, reportera de Milenio, reconocida con el premio de prensa escrita; José Luis Portugal, de Grupo Radio Alegría, con el galardón de periodista de medios electrónicos.

En la categoría de editorialista distinguido se reconoció a Diego Enrique Osorno, de Milenio; Silvino Jaramillo, de El Porvenir, se hizo acreedor al premio de maestro periodista, y en la nueva categoría de periodismo cibernético, el premio fue para Ramón Alberto Garza.

En el evento José Ángel Pequeño comentó que con este tipo de acciones se busca reconocer profesionalmente a los periodistas para estimularlos a alcanzar mejores objetivos. “Por eso es que hemos instituido el premio anual de periodismo ‘Francisco Cerda Muñoz’, para promover y estimular la superación profesional, un reconocimiento a la investigación, al trabajo sobresaliente y especializado del periodismo”.

RECONOCIMIENTO A LA LABOR DE FRANCISCO CERDALuego de entregar los premios, Miguel C. Barragán, presidente del comité de otorgamiento, hizo mención del trabajo

realizado por Francisco Cerda Muñoz que, dijo, ha logrado trascender el tiempo. Gracias a ese trabajo y esas enseñanzas, se otorgó un reconocimiento especial a la familia del desaparecido periodista, como constancia de que la memoria de Cerda Muñoz sigue presente.

El reconocimiento fue recibido por Rogelio Cerda Pérez, secretario general de Gobierno de Nuevo León, e hijo del periodista. Otro premio fue entregado a Miguel C. Barragán, por su labor al frente del Comité de Otorgamiento, que estuvo conformado por Luis Eugenio Todd, Jorge Villegas, Héctor González, Leopoldo Espinosa y Agustín Rodríguez Carranza.

Silvino Jaramillo Osorio fue el encargado de tomar la palabra en representación de los galardonados, y expresó su gratitud por el reconocimiento; mencionó que los periodistas trabajan para servir a la comunidad y que es motivo de mucha alegría cuando la sociedad reconoce el trabajo de los periodistas mediante un premio de este tipo.

“El periodismo no busca premios en su trabajo, sino el fruto de su servicio; el único premio que recibe el periodista por su trabajo es la satisfacción del deber cumplido en el servicio a la comunidad. Para servir trabaja el periodista; ésa es su única preocupación”, explicó.

POR UN PERIODISMO CRÍTICOY COMPROMETIDOPor último, a nombre del comité de otorgamiento, Luis Eugenio Todd, director de la Coordinación de Ciencia y Tecnología del Estado, pronunció un mensaje en el evento, y aprovechó para hacer un llamado a la comunidad de periodistas a que abandone la frivolidad de las relaciones actuales de la sociedad y ejerza un periodismo libre y crítico comprometido con un ideario.

Al entrevistarse, durante su es-tancia en la Cumbre Económica Mundial en Davos, Suiza, del 24 al 28 de enero, con

presidentes y directivos de importantes corporaciones internacionales en los ámbitos de la industria química y de la biotecnología; de los servicios médicos; de la construcción de semiconductores y componentes para la industria electrónica y de la computación, así como con Luis Alberto Moreno, gobernador del Banco Interamericano de Desarrollo (BID), y con Jean Charest, premier de Québec, el gobernador de Nuevo León, José Natividad González Parás, promovió la imagen de Nuevo León, participando en diversas mesas redondas, y explorando las posibilidades de nuevas inversiones para el Estado.

Tal es el caso de las empresas: Microsoft, con la cual se estudia la realización de proyectos importantes para la entidad, tanto en la formación de la industria de tecnologías de información y software, como con programas vinculados con la modernización y digitalización de procesos en la educación; Infosis, importante empresa india en materia de tecnologías de información y software, que explora la posibilidad de invertir en la entidad, y SIEMENS, de Alemania, en un proyecto para el establecimiento en Nuevo León de un Centro de Desarrollo Tecnológico de esa empresa.

REUNIÓN CON EL GOBERNADOR DEL BIDUna de las más importantes reuniones la tuvo el gobernador González Parás el día 26, con el gobernador del Banco Interamericano de Desarrollo, Luis Alberto Moreno, con quien revisó proyectos de procesamiento de desechos sólidos de basura y de financiamiento pa-ra Agua y Drenaje de Monterrey, así como otros recursos internacionales para

impulsar el Proyecto Monterrey Ciudad Internacional del Conocimiento.

En este caso, González Parás confirmó una primera aportación de 100 mil dó-lares, la que posteriormente crecerá, y que se entregará al Instituto de Innovación y Transferencia Tecnológica. “Es un primer apoyo de financiamiento directo no reembolsable, al que habrán de seguir otros para la configuración conceptual y técnica del modelo que Nuevo León ha venido impulsando en materia de Ciudad Internacional de Conocimiento”, dijo.

El gobernador de Nuevo León mencionó que ya se trabaja con funcionarios y asesores del BID, y el equipo de Innova-ción y Transferencia Tecnológica, para que este modelo sea presentado como un esquema ejemplar en Washington, durante la reunión del BID, con dos propósitos: que sea conocido también en otros lados, pero con miras a obtener más apoyos del organismo internacional para el frente de innovación que se realiza en Nuevo León.

Durante su entrevista con Jean Charest, Primer Ministro de Québec, se fortalecieron los vínculos de comunicación con Nuevo León y se habló de que durante el mes de marzo un grupo de empresarios canadienses harán una visita a nuestro Estado, pues están interesados en invertir en el ámbito de los servicios médicos, y en participar en el Forum Universal de las Culturas.

En esta visita, el mandatario estatal participó también en una mesa redonda con los jefes de gobierno de ciudades importantes del mundo, en la cual se discutieron los cambios naturales que sufren las urbes al convertirse en centro de innovación. También participaron en ella: Gavin Mewsom, de San Francisco; Ken Livingstone, alcalde de Londres; Raymund Bachan, ministro de Economía, Innovación, y Relaciones Internacionales de Québec, Canadá, y Valentina Matvinko, gobernadora de San Petesburgo, Federación Rusa, quienes describieron sus respectivas experien-cias al dirigir ciudades de innovación.

A efecto de darles seguimiento y que todas estas acciones se traduzcan en inversiones concretas, en la mayor parte de estos acuerdos y conversaciones, González Parás estuvo acompañado del secretario de Desarrollo Económico, Alejandro Páez.

Page 6: Revista Conocimiento 47

Davos y la Ciencia

Maestro Rodrigo SotoMercadotecnia Social

Estamos en la región de los Alpes de Suiza, en el cantón de los Grisones (único cantón con tres lenguas oficiales: alemán, italiano y romanche) pero esta vez no nos acompaña Hans Castorp, personaje de Thomas Mann en

la novela La Montaña Mágica, para visitar en el sanatorio a su primo Joachim Ziemssen. En esta ocasión, los faros luminosos se encuentran enfocados en la reunión del Foro Económico Mundial.

Este evento congrega a unos dos mil líderes de negocios, políticos, académicos, representantes religiosos y de organizaciones no gubernamentales, entre otros, que forman un complejo grupo de hombres y mujeres poderosos, de alrededor de 100 países, cuyas decisiones se comportan al estilo “efecto mariposa”, pues su sola rúbrica en una política económica tiene un efecto impactante en todo el globo terráqueo.

El precepto de creación del Foro, de acuerdo con su fundador, profesor Klaus Schwab en 1971, es que los negocios no pueden operar en una esfera al vacío (o en una Torre de Marfil), y que todos los grandes retos a que se enfrenta la humanidad deben ser abordados por todos los actores de una sociedad.

Más que un club privado de ricos, el Foro cree que el desarrollo económico ha creado una mejor calidad de vida para millones de individuos y ofrece esperanza de mejora a millones más. El tema central de esta reunión anual número 37 fue “La Ecuación del Cambio de Poder”; es decir, el surgimiento de nuevos actores, en el cual los 100 mil millones de neuronas del cerebro juegan un rol central en esta economía basada en el conocimiento; pero también surgen nuevos agentes que ponen en tela de juicio el desarrollo de los países, como es el caso de los cambios en el medio ambiente con el conocido “Calentamiento Global”, sin olvidar la búsqueda de la equidad de distribución en el ingreso.

A continuación se presenta una síntesis de algunos temas destacados de este evento, obtenidos de www.weforum.org.

CIENCIA, TECNOLOGÍA Y SOCIEDADLos expertos señalan que la tecnología tiende a ser un factor de progreso social, un cambio disruptivo en las economías, y que difícilmente se le puede catalogar en términos de moralidad; simplemente es un medio, herramienta o vehículo sujeto en gran medida al uso que se le da, según la mayoría de los panelistas.

4 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 61

www.conocimientoenlinea.com

o proyección, inicialmente totalmente negra. Conforme inicia su presentación, una línea roja empieza a cortar a través de la oscuridad de la pantalla tras de él, disparándose y cayendo en pronunciado zigzagueo, gradualmente aumentando. El político apunta a la pantalla e indica que la línea fue tomada de una gráfica indicando el aumento en la temperatura de nuestro planeta. Tengo que admitirlo, con el fondo negro y los altibajos pronunciados, ¡la línea roja se veía bastante siniestra! ¿Sabe Ud. lo que significa una línea zigzagueante sin ejes, etiquetas, intervalos de confianza o barras de error? Significa una línea zigzagueante y ya.Cuando le comuniqué a Keith Raniere la declaración del científico sobre el supuesto consenso entre la comunidad científica respecto al calentamiento global, contestó, “Si alguna vez llega a haber consenso entre científicos, es un serio problema. Al momento que un

científico cree que se ha descubierto una respuesta absoluta, él o ella deja de ser un científico.” He de confirmar que esta ha sido mi experiencia de él: aún cuando parece llegar a las conclusiones más lógicas, las somete a más cuestionamientos. Esto es lo que muchas personas típicamente interpretan como el escape del escéptico: cuestionar por cuestionar, ser un abogado del diablo por el afán (o la emoción, para algunos) de serlo. Sin embargo, encuentro que él cuestiona con la intención de refinar su comprensión del tema en cuestión.

Sustituir o falsificar el proceso de la ciencia con su contenido es el acto de destruir a la ciencia misma. Por esto pagamos no sólo con nuestras vidas; pagamos con nuestra libertad de pensamiento y expresión, y la de los demás. Si todos los grandes pensadores del mundo son silenciados, es posible (quizás en alguna futura generación) que alguien quizás vuelva a cuestionar, descubra e impulse el conocimiento prohibido. Sin embargo, hasta que llegue ese momento, si es que llega, cada persona excluida del conocimiento habrá dejado su huella en esta Tierra. Cada uno habrá creado tecnología, erigido estructuras, creado programas educativos, etc., sobre una premisa falsa. De muchas formas, estos efectos son irreversibles; la causa (nuestra forma de pensar) puede ser reversible, pero sólo si estamos dispuestos a transformarla.

Como científicos, mientras más “tengamos la razón”, más necesitamos cuestionar; y cuestionar verdaderamente aniquilando nuestra “razón” asumiendo que estamos “equivocados”. “Tener la razón” o “estar equivocado” en sí es una ceguera al proceso de la ciencia. Es sustituir a la ciencia misma por su contenido o resultados. Este pobre impostor es una flor negando sus raíces. En el caso del calentamiento global, al sentir que “tenemos razón” respecto al tema y atacar a quienes están “equivocados”, hemos destruido nuestro proceso (ciencia) para poder proteger nuestra conclusión (posición). El arte de cuestionar es ciencia; el arte de tomar posiciones, política.

– Keith Raniere

Acerca de Executive Success Programs, Inc.

Executive Success Programs, Inc.MR (ESP) ofrece programas de entrenamiento enfocados en crear consistencia en todas las áreas y ayudar a desarrollar las habilidades prácticas, emocionales e intelectuales que la gente necesita para alcanzar su máximo potencial. Todos los programas de ESP utilizan una tecnología punta con patente en trámite llamada Cuestionamiento Racional MR, una ciencia basada en la creencia que entre más consistentes sean las creencias y patrones de conducta de un individuo, más exitoso será en todo lo que haga. El Cuestionamiento RacionalMR permite a las personas volver a examinar e incorporar percepciones que pueden ser la base de limitaciones autoimpuestas.

Mayores informes: [email protected]

Es un buen ejercicio matinal para un científico investigador descartar una hipótesis favorita todos los días antes de desayunar. Le mantiene

jóven.

– Konrad Lorenz

Irónicamente, quienes abogan por el calentamiento global están creando conciencia sobre una crisis global, sólo que poco tiene que ver con la temperatura de la tierra. Lo que actualmente es presentado como “ciencia” por la maquinaria del calentamiento global es en vez simplemente un vasto conjunto de opiniones impulsadas por motivos personales o políticos. Si logran engañar al público y a la comunidad científica para que crean que la opinión es ciencia, nuestro concepto y entendimiento de la ciencia será reemplazado por un impostor.

Si no hacemos algo al respecto, la humanidad olvidará que el impostor es un impostor y en esa negligencia, daremos el golpe final a la ciencia. Creo que nuestro pensamiento, el intelecto humano, ha facilitado que la humanidad trascendiera una forma más primitiva de condición humana. Hemos dejado atrás la forma más primitiva de vivir en cuevas, para crear sistemas sociales tan complejos como los sistemas que nos maravillan en el cosmos. Hemos hecho esto a través de nuestra ciencia, la cual, en mi opinión, es una de las más puras y más nobles formas de expresión del pensamiento humano.

Adulterar y corromper a la ciencia como proceso y como contenido, lo cual va en aumento en nuestro mundo (particularmente en las campañas acerca del calentamiento global) es una lenta pero definitiva sentencia de muerte para la ciencia en sí. La muerte de la ciencia no es sólo un crimen contra el intelecto humano; es un crimen contra la humanidad.

D.R. © 2006, Executive Success Programs, Inc.MR

Traducido del inglés por Farouk Rojas

Page 7: Revista Conocimiento 47

Davos y la Ciencia

Maestro Rodrigo SotoMercadotecnia Social

Estamos en la región de los Alpes de Suiza, en el cantón de los Grisones (único cantón con tres lenguas oficiales: alemán, italiano y romanche) pero esta vez no nos acompaña Hans Castorp, personaje de Thomas Mann en

la novela La Montaña Mágica, para visitar en el sanatorio a su primo Joachim Ziemssen. En esta ocasión, los faros luminosos se encuentran enfocados en la reunión del Foro Económico Mundial.

Este evento congrega a unos dos mil líderes de negocios, políticos, académicos, representantes religiosos y de organizaciones no gubernamentales, entre otros, que forman un complejo grupo de hombres y mujeres poderosos, de alrededor de 100 países, cuyas decisiones se comportan al estilo “efecto mariposa”, pues su sola rúbrica en una política económica tiene un efecto impactante en todo el globo terráqueo.

El precepto de creación del Foro, de acuerdo con su fundador, profesor Klaus Schwab en 1971, es que los negocios no pueden operar en una esfera al vacío (o en una Torre de Marfil), y que todos los grandes retos a que se enfrenta la humanidad deben ser abordados por todos los actores de una sociedad.

Más que un club privado de ricos, el Foro cree que el desarrollo económico ha creado una mejor calidad de vida para millones de individuos y ofrece esperanza de mejora a millones más. El tema central de esta reunión anual número 37 fue “La Ecuación del Cambio de Poder”; es decir, el surgimiento de nuevos actores, en el cual los 100 mil millones de neuronas del cerebro juegan un rol central en esta economía basada en el conocimiento; pero también surgen nuevos agentes que ponen en tela de juicio el desarrollo de los países, como es el caso de los cambios en el medio ambiente con el conocido “Calentamiento Global”, sin olvidar la búsqueda de la equidad de distribución en el ingreso.

A continuación se presenta una síntesis de algunos temas destacados de este evento, obtenidos de www.weforum.org.

CIENCIA, TECNOLOGÍA Y SOCIEDADLos expertos señalan que la tecnología tiende a ser un factor de progreso social, un cambio disruptivo en las economías, y que difícilmente se le puede catalogar en términos de moralidad; simplemente es un medio, herramienta o vehículo sujeto en gran medida al uso que se le da, según la mayoría de los panelistas.

4 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 61

www.conocimientoenlinea.com

o proyección, inicialmente totalmente negra. Conforme inicia su presentación, una línea roja empieza a cortar a través de la oscuridad de la pantalla tras de él, disparándose y cayendo en pronunciado zigzagueo, gradualmente aumentando. El político apunta a la pantalla e indica que la línea fue tomada de una gráfica indicando el aumento en la temperatura de nuestro planeta. Tengo que admitirlo, con el fondo negro y los altibajos pronunciados, ¡la línea roja se veía bastante siniestra! ¿Sabe Ud. lo que significa una línea zigzagueante sin ejes, etiquetas, intervalos de confianza o barras de error? Significa una línea zigzagueante y ya.Cuando le comuniqué a Keith Raniere la declaración del científico sobre el supuesto consenso entre la comunidad científica respecto al calentamiento global, contestó, “Si alguna vez llega a haber consenso entre científicos, es un serio problema. Al momento que un

científico cree que se ha descubierto una respuesta absoluta, él o ella deja de ser un científico.” He de confirmar que esta ha sido mi experiencia de él: aún cuando parece llegar a las conclusiones más lógicas, las somete a más cuestionamientos. Esto es lo que muchas personas típicamente interpretan como el escape del escéptico: cuestionar por cuestionar, ser un abogado del diablo por el afán (o la emoción, para algunos) de serlo. Sin embargo, encuentro que él cuestiona con la intención de refinar su comprensión del tema en cuestión.

Sustituir o falsificar el proceso de la ciencia con su contenido es el acto de destruir a la ciencia misma. Por esto pagamos no sólo con nuestras vidas; pagamos con nuestra libertad de pensamiento y expresión, y la de los demás. Si todos los grandes pensadores del mundo son silenciados, es posible (quizás en alguna futura generación) que alguien quizás vuelva a cuestionar, descubra e impulse el conocimiento prohibido. Sin embargo, hasta que llegue ese momento, si es que llega, cada persona excluida del conocimiento habrá dejado su huella en esta Tierra. Cada uno habrá creado tecnología, erigido estructuras, creado programas educativos, etc., sobre una premisa falsa. De muchas formas, estos efectos son irreversibles; la causa (nuestra forma de pensar) puede ser reversible, pero sólo si estamos dispuestos a transformarla.

Como científicos, mientras más “tengamos la razón”, más necesitamos cuestionar; y cuestionar verdaderamente aniquilando nuestra “razón” asumiendo que estamos “equivocados”. “Tener la razón” o “estar equivocado” en sí es una ceguera al proceso de la ciencia. Es sustituir a la ciencia misma por su contenido o resultados. Este pobre impostor es una flor negando sus raíces. En el caso del calentamiento global, al sentir que “tenemos razón” respecto al tema y atacar a quienes están “equivocados”, hemos destruido nuestro proceso (ciencia) para poder proteger nuestra conclusión (posición). El arte de cuestionar es ciencia; el arte de tomar posiciones, política.

– Keith Raniere

Acerca de Executive Success Programs, Inc.

Executive Success Programs, Inc.MR (ESP) ofrece programas de entrenamiento enfocados en crear consistencia en todas las áreas y ayudar a desarrollar las habilidades prácticas, emocionales e intelectuales que la gente necesita para alcanzar su máximo potencial. Todos los programas de ESP utilizan una tecnología punta con patente en trámite llamada Cuestionamiento Racional MR, una ciencia basada en la creencia que entre más consistentes sean las creencias y patrones de conducta de un individuo, más exitoso será en todo lo que haga. El Cuestionamiento RacionalMR permite a las personas volver a examinar e incorporar percepciones que pueden ser la base de limitaciones autoimpuestas.

Mayores informes: [email protected]

Es un buen ejercicio matinal para un científico investigador descartar una hipótesis favorita todos los días antes de desayunar. Le mantiene

jóven.

– Konrad Lorenz

Irónicamente, quienes abogan por el calentamiento global están creando conciencia sobre una crisis global, sólo que poco tiene que ver con la temperatura de la tierra. Lo que actualmente es presentado como “ciencia” por la maquinaria del calentamiento global es en vez simplemente un vasto conjunto de opiniones impulsadas por motivos personales o políticos. Si logran engañar al público y a la comunidad científica para que crean que la opinión es ciencia, nuestro concepto y entendimiento de la ciencia será reemplazado por un impostor.

Si no hacemos algo al respecto, la humanidad olvidará que el impostor es un impostor y en esa negligencia, daremos el golpe final a la ciencia. Creo que nuestro pensamiento, el intelecto humano, ha facilitado que la humanidad trascendiera una forma más primitiva de condición humana. Hemos dejado atrás la forma más primitiva de vivir en cuevas, para crear sistemas sociales tan complejos como los sistemas que nos maravillan en el cosmos. Hemos hecho esto a través de nuestra ciencia, la cual, en mi opinión, es una de las más puras y más nobles formas de expresión del pensamiento humano.

Adulterar y corromper a la ciencia como proceso y como contenido, lo cual va en aumento en nuestro mundo (particularmente en las campañas acerca del calentamiento global) es una lenta pero definitiva sentencia de muerte para la ciencia en sí. La muerte de la ciencia no es sólo un crimen contra el intelecto humano; es un crimen contra la humanidad.

D.R. © 2006, Executive Success Programs, Inc.MR

Traducido del inglés por Farouk Rojas

60 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 5

www.conocimientoenlinea.com

En la ciencia, denota Keith Raniere, la exactitud se discute conjuntamente con la precisión: no existe un concepto de exactitud por sí sola.

Lo que descubrí en mi investigación para El problema de los problemas fue que tanto exactitud como precisión hacían mucha falta en la mayoría de la “evidencia científica” que sustentaba cualquiera de las seis conclusiones acerca de calentamiento global. Por ejemplo, la mayoría de los reportes de temperatura climática utilizados para probar que la temperatura de la Tierra está en aumento fueron generados en base a temperaturas tomadas del suelo, las cuales, indican los climatólogos, con frecuencia resultan engañosas. Datos de instrumentos más precisos, como las mediciones satelitales, fueron típicamente omitidos. Esto, podríamos alegar, puede ser simplemente una “cuestión de precisión”. Es similar a decir, “¿A quién le importa si la temperatura de la tierra está aumentando dos décimas

de grado o dos grados al año? ¡El punto es que la temperatura está subiendo!” Dependiendo de la exactitud y precisión con la que medimos, los errores en nuestras mediciones de calentamiento global se multiplican con cada extrapolación: de los datos en bruto, a la interpretación, a la hipótesis, al pronóstico, y así sucesivamente. Es muy posible que el planeta se esté enfriando y, debido a errores en la medición, percibimos que se está calentando. Los modelos, como los que presentaron los proponentes del calentamiento global, están simplemente diseñados para mostrar los efectos de un conjunto de factores bajo ciertos supuestos. En las ciencias computacionales, hay un concepto llamado “GIGO” que representa las siglas en inglés de “basura entra, basura sale” (Garbage In, Garbage Out). GIGO declara que cuando se alimentan datos fallidos a la computadora, la información que emerge también es fallida (nota: tanto “factores” como “supuestos” forman parte de los datos

entrantes). Por lo tanto, si aceptamos los datos sin referencia a la precisión, el “calentamiento global” puede no ser más que un artefacto de la imprecisión.

Precaución lectores: aún hay más. Si consideramos que las variaciones de temperatura de la Tierra sólo han sido registradas desde mediados del siglo XIX (y, por cierto, con variaciones considerables de precisión en los instrumentos de medición) y comparamos esos 150 años con las aproximaciones de las variaciones climáticas durante lo que hemos estimado es la vida total del planeta (actualmente, 4,567 millones de años), los hallazgos prácticamente carecen de significado. Así que lo que observamos como una gran variación (fluctuaciones en nuestros 150 años de datos) en el esquema completo (4,567 millones de años), es en realidad una pequeña variación. Esto trae a la mente una cita de la película Gran Cañón (Grand Canyon, en inglés): “Es un segundo el que hemos estado aquí, la totalidad de nosotros. ¿Y uno de nosotros? Ese pedazo de tiempo es demasiado pequeño para tener nombre. Esas rocas se estaban riendo de mí, lo pude ver. Fue algo realmente gracioso para el Gran Cañón. ¿Sabes cómo se sintió? Me sentí como una pulga que aterriza en el trasero de una vaca que está pastando junto al camino por el que pasas a 120 Km./h.”

Aún si nuestra ciencia fuera lo suficientemente exacta y precisa para medir nuestro supuesto calentamiento global, predecirlo hacia el futuro es un asunto enteramente diferente. Predecir el calentamiento global puede ser tan difícil como predecir la bolsa de valores. ¡Puede incluso ser tan difícil como predecir el clima!

Mientras más entendemos proceso y contenido, más aparente se vuelve cualquier corrupción del proceso o falsificación del contenido. Recientemente, vi otro documental acerca del calentamiento global que recientemente ha recibido mucha atención y también, tristemente, apoyo por parte del público estadounidense. En el film, el mismo político entrevistado en el otro documental aparece impartiendo una conferencia sobre calentamiento global al público de un auditorio. Detrás de él está una gigantesca pantalla de plasma

El poder de la conectividad del mundo es una realidad; “el internet ha probado tener beneficios tanto para los jóvenes como los adultos”, comentó Peter Schwartz, de Global Business Network.

A su vez, la globalización ha permitido, como lo dice Daniel Shapiro, director asociado del Proyecto de Negociación en la Universidad de Harvard, “que la gente te haya leído, haya oído de ti, pero en realidad no te conozca”, para él el mundo virtual se incrementa, pero la conexión humana se pierde. La interacción de los individuos se ha transformado, el mundo de los bits y bytes les permite trasladarse a cualquier parte del mundo, obtener información en segundos, cambiar de identidad o tener una vida alterna en un mundo de fantasía.

Continúa el miedo de que surjan nuevos Big Brothers en el escenario y se teme tanto por la privacidad, anonimato y seguridad de todos los que navegamos en el mundo de los bits y bytes. Es muy difícil controlar el flujo de información, dice Shai Hagáis, presidente del Grupo de Tecnología y Productos y miembro del Comité Ejecutivo, SAP de Alemania.

Aunque, claro, nuestra identificación y conexión con el mundo se ve reducida a los dispositivos electro–mecánicos que usamos

diariamente, como computadoras, celulares, reproductores de música, localizadores, entre diversos más.

En tecnología y sociedad, Agassi identificó tres puntos convergentes en la ecuación del cambio de poder, que son:1. Desplazamiento de la inteligencia individual a la colectiva.2. Nuevos poderes en la demografía.3. Individuos que agregan valor real y virtual.

CIENCIAS ECONÓMICASEl contexto al que se enfrentan los líderes es que existe una gran disparidad entre la distribución del ingreso; tan sólo podemos decir que, en promedio, el 20 por ciento de la población controla el 74 por ciento de los ingresos, y se piensa que en 2015 vamos a tener 700 millones de pobres que viven con menos de un dólar diario, según datos proyectados de Gap Minder.

Sin embargo, “las economías emergentes pueden ser comparadas al Renacimiento o la Revolución Industrial en una escala histórica”, según Eric Pooley, editor de Time. Por su parte, Nouriel Roubini, profesor y director de la Economía Global, dijo que China e India han añadido alrededor de dos mil 200 millones de trabajadores; han presionado a los trabajadores

Page 8: Revista Conocimiento 47

6 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 59

www.conocimientoenlinea.com

Actualmente soy un científico. Me suscribo a la religión de la ciencia, la cual tiene como artículo de fe el no creer en la fe. Esto significa que la ciencia debe cuestionar sus propias raíces. Al principio, esto parece una paradoja irresoluble; un cazador ineludible enjaulando a un zorro imposible de atrapar. Las respuestas o contenido de la ciencia (microorganismos, átomos, fórmulas, planetas y peluquines) no son la ciencia en sí. La ciencia no es contenido; de hecho, la ciencia es independiente del contenido. La ciencia es un proceso.

No puedo decir que he tenido “numerosas” experiencias donde, al observar a otra persona actuar en el mundo, me quedo muda. No me estoy refiriendo a quedarme muda como lo que experimentamos en un momento de asombro, cuando lo que percibimos tanto excede nuestras expectativas de excelencia, belleza o magnificencia, que nos quedamos sin nada más que la enormidad del silencio para empezar a asimilar lo que acabamos de experimentar. A lo que me estoy refiriendo es a quedarse mudo por otra razón: por una especie de shock inspirado por observar a uno o varios miembros de nuestra especie genuinamente sobresalir en el campo de lo absurdo.

Hace unas pocas semanas, una colega me invitó a ver un documental que recién fue transmitido en la televisión por cable estadounidense. El documental presentaba lo que muchos científicos y “expertos” creen son las siete principales amenazas a la seguridad de la humanidad. El calentamiento global, como era de esperarse, fue clasificado como la amenaza número uno. Habiéndome familiarizado de manera más íntima recientemente con el tema al escribir nuestro último artículo, El problema de los problemas, sentía curiosidad de ver cómo una de las principales cadenas de televisión podría presentar el tema.

El documental presentaba a un número de científicos y expertos actualmente trabajando con, o por lo menos expresando opiniones acerca de, calentamiento global. En un punto en particular del documental, resaltaron las siguientes declaraciones de un profesor universitario y la coautora de un libro acerca de cambio climático:

Profesor: Me parece extraordinario que haya alguien que pueda considerar al calentamiento global (al cambio climático) un debate. Claramente no es un debate. Coautora: No hay discusión creíble de

si es calentamiento ni si es debido a la actividad humana. Eso está muy claro.

Profesor: Tiene Ud. a toda la comunidad de ciencias del cambio climático básicamente en un lado, y en el otro lado tiene Ud. a quienes serán para ahora media docena de inconformes que están fingiendo que no está sucediendo.

Momentos después, el reportero entrevistó a un prominente político estadounidense que ha adoptado al calentamiento global como el centro de su plataforma política. El reportero preguntó, “¿Hay alguna duda entre los científicos de que el calentamiento global está ocurriendo, que es peligroso y que los humanos lo están causando?” A esto el político respondió, “No, el debate se acabó.”

Una cosa es ser testigo de que la prensa cometa un error; desafortunadamente, es algo que he llegado a esperar de la mayoría de los reporteros. Sin embargo, es algo extremadamente diferente experimentar a fuentes al parecer respetables derrumbándose, una tras otra, en una hecatombe de tales proporciones. Para cuando oí el último de estos tres enunciados, estaba muda. Después de una breve conversación acerca de mi experiencia con Keith Raniere, empecé a entender la intensidad de mi reacción.

En El problema de los problemas, examiné los principales argumentos acerca de calentamiento global (los llamados “hechos” utilizados para apoyar las siguientes seis conclusiones): 1. el calentamiento global está ocurriendo; 2. es una tendencia que continuará en el futuro; 3. los seres humanos estamos causando el calentamiento global; 4. el calentamiento global aniquilará a la vida en el planeta si no hacemos algo al respecto; 5. podemos hacer algo al respecto; 6. debemos hacer algo al respecto. Entienda que, para el público que nada sospecha, todas

estas parecen ser preocupaciones válidas. Desafortunadamente, quien haya formulado estas conclusiones aparentemente omitió dos pequeños elementos necesarios en cualquier proceso científico: exactitud y precisión.

La exactitud es la condición de ser consistentemente mensurable con lo que llamamos la “realidad”. La precisión es la habilidad para distinguir entre dos o más cosas; por lo tanto, los grados de precisión están determinados por cuantas distinciones pueda uno hacer acerca de una medición en particular. Para entender la diferencia entre exactitud y precisión, Keith Raniere brinda el siguiente ejemplo: suponga, después de pesarse en varias básculas, concluye Ud. que pesa 50 kilos. Si se sube a una báscula que indica que pesa 70 kilos, es posible decir que la báscula es inexacta: no concuerda con mediciones verificadas independientemente. Sin embargo, todas las cosas medidas son exactas dentro de una cierta precisión. Por lo tanto, las básculas que miden su peso en 50 kilos son al parecer exactas entre sí, mientras que la báscula que mide su peso en 70 kilos es exacta dentro de una precisión de 20 kilos. Sin embargo, si las múltiples básculas son sólo precisas en incrementos de 50 kilos, ¡Ud. podría de hecho pesar 70 kilos y todas ellas le indicarían que pesa 50! Ahora bien, si tiene Ud. dos básculas y una mide el peso en incrementos de medio kilo y la otra en incrementos de 50 gramos, es posible decir que la báscula con el mayor grado de distinciones (incrementos de 50 gramos) es más precisa. Por lo tanto, si su peso es de hecho de 50.2 kilos, pero una de las básculas registra su peso en 50 kilos, la báscula que registra 50.2 es más precisa. También , la báscula equipada para hacer distinciones consistentes entre los días en los que está Ud. en su peso “normal” y los días en los que pesa 50 gramos más o menos tiene mayor precisión que la báscula que le indica que pesa consistentemente lo mismo, a pesar de estas fluctuaciones.

menos calificados, y han aumentado la manufactura que también ha empujado el precio de algunos energéticos, como el del petróleo.

Por su lado, el vicepresidente ejecutivo del Banco de China, Min Zhu, dijo que la manufactura agrega valor, pero son los financieros quienes toman las decisiones estratégicas. De ahí la importancia, como sabemos, de la mente–factura sobre la mano–factura.

Las conclusiones de la sesión, señaladas por Kristin J. Forbes, profesora de Economía del MIT fueron:-El flujo del capital privado y la reducción de transparencia de los mercados globales de capital están redistribuyendo el control económico en formas difíciles de detectar. -Estamos presenciando un cambio en el poder económico, debido al surgimiento de un nuevo poder industrial en las economías emergentes.-La globalización económica está contribuyendo al poder de negociación del trabajo al capital y de trabajadores menos calificados y trabajadores mejor calificados.

Sintetizando la mesa económica en palabras de Kristin J. Forbes, tenemos tres puntos:1.Los mercados emergentes como poderes económicos.2. Aumento en la ansiedad debido a la inequidad y la seguridad del empleo, primordialmente en la clase media.3.Crecimiento en los mercados privados de capital.

CIENCIAS FINANCIERASPara Muhtar A. Kent, director y COO (Chief Operation Officer) de Coca Cola, en el futuro se seguirán incorporando consumidores de las economías emergentes a los mercados de los países desarrollados; por lo que es imperativo conocer sus necesidades, deseos y anhelos.

Cristóbal Conde, presidente y CEO (Chief Executive Officer) de Sungard, dice que las opiniones de los directivos no son “dogma de fe”, sino que deben sustentar cada una de sus decisiones con datos duros, confiables y científicamente probados a la hora de tomar decisiones.

GUERRA ENTRE TALENTO Y CAPITALPara Thomas A. Stewart , editor en jefe de Harvard Business Review, “existe una constante guerra entre talento y capital”, situación que se ejemplifica con el poder que tienen los CEO, y la influencia y acceso a la información de toda la sociedad relacionada con la empresa renueva la importancia de la responsabilidad social de toda organización.

Las conclusiones de los panelistas son de que el poder del consumidor, como han señalado expertos mercadólogos, continúa creciendo, y que los nuevos consumidores de los mercados emergentes están transformando y redefiniendo los negocios alrededor del mundo.

Para esta sesión, los tres factores de cambio en los negocios y en las finanzas, vistos desde la perspectiva de Scott J. Freidheim, administrador en jefe de Lehman Brothers en Estados Unidos, fueron:

1. La importancia de los mercados emergentes.2. La responsabilidad social de las empresas y la sustentabilidad.3. Las corporaciones quedan atrás, mayor importancia del consumidor.

CIENCIAS POLÍTICASTres son las variables que deben estar en la mente de todos los tomadores de decisiones en el mundo:1. Las amenazas de terrorismo y guerra.2. Las fuentes de energía y su distribución.3. El surgimiento de un mundo multipolar en donde ciertas naciones están inhibiendo el dominio de Estados Unidos.

La megalomanía y las viejas vendettas de grupos de poder ponen en riesgo el desarrollo de las economías a lo largo del mundo. Los casos concretos son los atentados terroristas, así como las pruebas nucleares que amenazan el crecimiento estable y compartido.

También la ventaja comparativa de ciertos países, al contar con grandes reservas de petróleo, provoca que utilicen políticas intimidantes dentro y fuera de su territorio; los terrenos de negociación se están llevando de acuerdo con la disponibilidad del famoso “oro negro”. De igual forma, India y China, primordialmente, están redistribuyendo el mapa geopolítico y las agendas de negociación de los líderes empresariales. También las comunidades virtuales del internet (blogs) se han congre-gado como nuevas fuerzas críticas del actuar político de las na-ciones. Pei Minxin, director asociado del Programa Chino de la Organización de Paz Internacional Carnegie, consideró que los

Page 9: Revista Conocimiento 47

58 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 7

www.conocimientoenlinea.com

Esto no quiere decir que el enunciado “Plutón es (o no es) un planeta” no sea parte de la ciencia: después de todo, la ciencia sí incluye al cuerpo de conocimientos acumulados a través de la historia de la humanidad. Incluso nuestra creencia de que el mundo era plano y sostenido por tres elefantes y una tortuga (tan ridículo como suena eso ahora) es parte de la ciencia. Sin la referencia de un planeta “plano”, quizás no hubiéramos sido capaces de entender

lo que es un planeta “redondo”. Y ahora, conforme han evolucionado nuestras distinciones acerca de lo “redondo”, podemos decir que la Tierra es un “esferoide oblongo”. “Plano”, “redondo” y “esferoide oblongo” (cada uno “verdadero” en su momento) forman parte de nuestra ciencia y pueden ser entendidos como refinamientos progresivos del mismo tema. Pero lo mismo se puede decir de la mantequilla: hace unos pocos años, los científicos

dijeron que la mantequilla era mala por su alto nivel de colesterol; ahora la margarina, el sustituto de la mantequilla, ha resultado ser igual de mala.

Si Ud. está viendo más allá de los puntos específicos de datos… de plano a redondo a esferoide oblongo a… de “la mantequilla es mala, la margarina es buena” a “la mantequilla es buena, la margarina es mala” a… es posible que esté ya dándose cuenta.

Sin que lo supieran los involucrados, lo que se nos estaba enseñando no era ciencia en lo absoluto. Sin embargo, como un ladrón en la oscuridad de la noche, la experiencia de la ciencia nos tomó por sorpresa y reclamó nuestras mentes como su trofeo.

El segundo recuerdo, tristemente, se adelanta algunos años hasta la secundaria. Un día, al estudiar moluscos en la clase de biología de Miss McIlvain, ella sacó un recipiente de plástico lleno de especimenes suspendidos en un líquido transparente. Casi al final se su presentación, apuntó hacia una pequeña masa obscura y velluda y dijo, “…y esta es la lengua de un fumador crónico.” Sin importar dónde estaba mi mente en ese momento, en un instante fue arrebatada de vuelta. “¡¿Es una qué?!” Sentí escalofríos. Miré a mis compañeros de clase, que parecían sentir la misma repulsión que yo, y después otra vez a mi maestra. Momentos después, Miss McIlvain reía: “No deben creerse todo lo que oyen, aún si se los dice su maestra.” Ese día, aprendí que era posible que el mundo no se acabara si cuestionaba lo que me decían.

Este podría parecer un punto trivial pero, honestamente, ¿a cuántos de nosotros se nos enseña que es bueno cuestionar lo que se nos enseña? Si Ud. es padre de familia o alguna vez ha lidiado con niños, ¿se ha visto recurriendo a la respuesta universal de “¡porque yo digo!”? Tradicionalmente, no se nos enseña cómo pensar; se nos enseña qué pensar: ¡piénselo! Aprender qué pensar es fácil: todo lo que hay que hacer es memorizar y luego repetir el conocimiento en los momentos más apropiados. Pero aprender cómo pensar es completamente diferente: debemos estar dispuestos a salir al mundo y probar nuestras hipótesis; debemos ser lo suficientemente fuertes para fracasar, para estar equivocados; y, sobre todo,

debemos estar dispuestos a adueñarnos del hecho de que, a fin de cuentas, realmente no sabemos nada.

De nuevo, un componente de la ciencia es lo que sabemos; podemos llamar a esto el “contenido” de la ciencia. Más importantemente, la ciencia es un proceso; es una forma de llegar a saber. Con respecto al proceso y contenido de la ciencia, Keith Raniere denota: “La

ciencia es un proceso de conocer; es un proceso a través del cual observamos, cuantificamos y explicamos nuestra percepción de la realidad. Como contenido, la ciencia es conocimiento organizado, donde la organización es consistente y reproducible, por lo tanto verificable.”

¿Qué pasa cuando intentamos definir a la ciencia por completo solamente en base a su contenido? Imagine vivir en Europa del siglo XVII, por los tiempos de Galileo. A través de la ciencia (proceso), llegamos al modelo geocéntrico del universo (contenido): creímos que el sol y los planetas giraban alrededor de la Tierra. En algún momento, científicos, magistrados religiosos y autoridades públicas reemplazaron el proceso de la ciencia con el conocimiento que había sido derivado a través de la ciencia. ¿Cuáles fueron las consecuencias de dicho acto? Lo que vimos fue que cualquier cuestionamiento de la “ciencia” (realmente, el contenido del modelo geocéntrico) podía ser castigado con cárcel, excomunión y, en algunos casos, la muerte. Lo que no vimos, pero seguimos experimentando como repercusiones, fue la destrucción de la exploración científica adicional por miedo al castigo: preguntas que nunca se hicieron, hipótesis que nunca se plantearon, experimentos que nunca se probaron, inventos que nunca se crearon. Las ideas y conceptos gestantes en las mentes de grandes pensadores que fueron silenciados murieron con ellos y, al hacerlo, fueron permanentemente negadas a todas las generaciones por venir.

Soneto a la cienciapor Edgar Allan Poe¡Ciencia! ¡verdadera hija del tiempo tú eres! que alteras todas las cosas con tus escrutadores ojos.¿Por qué devoras así el corazón del poeta, buitre, cuyas alas son obtusas realidades?¿Cómo debería él amarte? o ¿cómo puede juzgarte sabia?Aquel a quien no dejas en su vagar buscar un tesoro en los enjoyados cielos, ¿Aunque se elevara con intrépida ala?¿No has arrebatado a Diana de su carro?¿Ni expulsado a las Hamadríades del bosque para buscar abrigo en alguna feliz estrella?¿No has arrancado a las Náyades de la inundación, al Elfo de la verde hierba, y a mí del sueño de verano bajo el tamarindo?

ciudadanos americanos tienen que considerar fuertemente su postura hacia el resto del mundo; deben ser más sensitivos.

Los tres puntos más relevantes de esta mesa en geopolítica, de acuerdo al director ejecutivo de la Fundación Helen Suzman de Sudáfrica, Raenette Taljaard, fueron:1. Dispersión del poder, pasando de un mundo unipolar hacia uno multipolar.2. Nuevas fuentes de distribución de países, dando lugar a mayores influencias.3. Amenazas por actores no estatales.

CAMBIO CLIMÁTICOAl Gore nos ha ilustrado y tratado de educar con un video didáctico sobre las consecuencias inmediatas del calentamiento global. Más que una campaña política, Gore señala cómo las variaciones de temperatura pueden provocar que millones de personas se conviertan en refugiados al perder su patrimonio, e incluso que muchos de estos millones perezcan ante la reacción de la “madre naturaleza” debido a la acción de nosotros como huéspedes de ella.

El simple cambio en nuestros hábitos diarios puede contribuir fuertemente a reducir las emisiones de gases contaminantes. Tal es el caso de desconectar aparatos eléctricos que no estemos usando, utilizar focos que ahorren energía, usar el auto cuando realmente lo necesitemos, entre muchos otros.

Por el lado industrial, Steve Chu, director del Laboratorio Nacional Lawrence Berkeley, mencionó que “50 por ciento de la energía que usa Estados Unidos puede eventualmente ser renovable”, y también que “la ciencia debe entrar con nuevas

soluciones para el cambio climático, ya sea por medio de combustibles renovables o leyes contra el uso de las emisiones de carbono”.

Para las mesas de negocios y finanzas, geopolítica, economía, ciencia, tecnología y sociedad, se pidió que se evalúen los aspectos que tendrán mayor peso en las economías en los años venideros, y de los mismos cuáles son más apremiantes, debido a que la población no está lista para ellos.

Los resultados fueron el cambio climático y los mercados emergentes como los de mayor impacto en el futuro de las economías y de nueva cuenta el cambio climático aunado a la inequidad como las variables que menos tienen preparación para ser enfrentadas en el transcurso de los años.

CIENCIA Y EDUCACIÓNEn este tema tan relevante y materia prima para el desarrollo de cualquier país, se discutió la creación de un Fondo Global para la Educación, que además de llevar la educación para todos como lo señala el programa Milenio de las Naciones Unidas, centra su preocupación en la mejora de la calidad de la misma.

Los panelistas coincidieron en que la educación debe ser universal y también debe crear ciudadanos globales comprometidos con la sociedad, que actúen con tolerancia y responsabilidad social.

CIENCIA MÉDICALa falta de acceso a los niveles básicos de cuidado médico fue una preocupación en Davos. Existe una clara necesidad de llevar la medicina a los lugares más alejados. La mención fue en el sentido de crear una medicina preventiva y no correctiva, al igual que mejor planeación en la distribución de los asentamientos humanos y la migración de los mismos hacia las ciudades con miras a mejorar la calidad de vida.

La educación de la población va a tener un efecto positivo, a la hora de crearles conciencia en sus hábitos y la relación de los mismos con las enfermedades. Es increíble pensar cómo enfermedades que se pensaba ya erradicadas, puedan dar señales de nuevos brotes en áreas remotas del globo. La investigación científica será de gran ayuda para hacer accesibles a los seres humanos, vacunas para males comunes y que en realidad las medidas sean planeadas y controladas, no sólo para corregir errores.

Para finalizar esta síntesis, Davos y su “Montaña Mágica” más que un espacio de discusión y diálogo debe ser vigilado de cerca para que los participantes en verdad se comprometan con sus propuestas, y que los ricos (por así decirlo) busquen la igualdad o mejorar la calidad de vida de los que menos tienen, así como no olvidar a la clase media, que muchas veces es la que sustenta los engranes de la maquinaria económica, y. por último, no olvidar el tema del planeta, que es nuestro hogar y que un esfuerzo pequeño de cambio de hábitos y cuidado del medio ambiente se va replicando como publicidad de boca en boca. Estamos en el vértice de un nuevo cambio disruptivo; de nosotros depende pasar a la siguiente etapa evolutiva y no quedar en una promesa de la naturaleza.

Page 10: Revista Conocimiento 47

8 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 57

www.conocimientoenlinea.com

Doctor Pedro A. Valdés SadaDepartamento de Física y Matemáticas y Centro de Investigación en Ciencias Planetarias de México, de la Universidad de Monterrey

los minerales; las Matemáticas, que estudian los números, etcétera. De esta manera hemos distribuido la ciencia en diversas disciplinas que se ocupan de estudiar aspectos muy particulares de la naturaleza. También tenemos la impresión general de que hay poca comunicación entre estas disciplinas, y de que sus participantes, los científicos, son genios excéntricos que trabajan aisladamente en laboratorios en los que utilizan procedimientos bastante estrictos y complicados que caen bajo la denominación general del “método científico”.

TODOS NACEMOS SIENDO CIENTÍFICOSPues bien, casi todo lo descrito anteriormente son malas impresiones y exageraciones de lo que es la Ciencia. El origen de la palabra y su significado general son correctos. Pero la Ciencia no se limita a estudiar la naturaleza, ni es practicada solamente por científicos. Todos nosotros somos partícipes de esta actividad humana en casi todo momento de nuestras vidas. Es más, todos nacemos siendo científicos. Somos muy curiosos durante la infancia, y queremos averiguar todo lo posible sobre el mundo

Escrito por Ivy Nevares , conceptos de Keith Raniere

Un pequeño y abarrotado escritorio con lápices y un libro: estas eran mis herramientas de supervivencia en el turbulento mar de imágenes, nombres, diagramas, números, fórmulas y teorías que constituían la clase de ciencias naturales. El maestro, un hombre desaliñado de cuarenta y tantos años, estaba de pie frente a una larga mesa de cubierta oscura y equipada con un lavabo y extrañas mangueras. En el fondo, una pecera burbujeaba ominosa y perpetuamente, con libros en cada flanco y repleta de curiosidades vivientes y resbalosas.

Ciencias naturales de la niñez: un paramecio es un microorganismo con cilios; un átomo consiste de protones, neutrones y electrones; trabajo es igual a fuerza por distancia; hay nueve (¡cuéntenlos!) planetas; el peluquín del Maestro Rogoff se deslizó de su brillosa cabeza, cayendo irrecuperablemente en la pecera perpetuamente burbujeante repleta de guppys. Para los guppys, el cabello falso asemeja algas cuando éste se sumerge en agua; perdón, “H

2O”. Para muchos, las ciencias naturales eran una serie de datos, historias y algunos descubrimientos divertidos para pasar el rato.

Al leer por primera vez los recuerdos de mi mentor, Keith Raniere, los míos no me parecieron tan ricos. Excepto que me podía identificar con la pecera, y podía recordar lo incómodo que eran las mesas del laboratorio de ciencias: elevadas islas de madera, oscuras superficies, un lavabo y lo que parecía un número excesivo de mangueras y palancas. Habiendo leído sus palabras, dos eventos específicos sobresalieron en mi propia historia de la ciencia como los “más memorables” (revelaré el segundo más adelante en este artículo). El primero ocurrió en sexto año de primaria donde, durante un examen sorpresa para el cual no me preparé, intenté convencerme de que podía adivinar la respuesta correcta jugando el siguiente juego mental: leería cada una de las respuestas a las preguntas de opción múltiple en mi cabeza, usando la voz de Miss Mojica; lo que sonara más como algo que Miss Mojica diría, esa sería “la buena”. Después de recibir los resultados de ese examen, jamás volví a jugar ese juego.

Sin importar cuán vagos o bloqueados parezcan estar nuestros recuerdos, todos nos podemos relacionar con estos tipos de experiencias. De niños, se nos enseña a creer que ciertos hechos (ciertos puntos de conocimiento) son “ciencia”. Aprendemos o adoptamos estas cosas ciegamente. Si ocurrió que Ud. era un(a) niño(a) de memoria excepcional, o si era un(a) niño(a) hábil para las adivinanzas (créame, mejoré mis habilidades), entonces lo más probable es que se haya sacado un diez en ciencias naturales. ¿Pero era realmente “ciencia” lo que Ud. estaba aprendiendo?

Si nuestra ciencia está determinada por los hechos científicos que aprendemos, entonces tenemos graves problemas. Considere por un momento a Plutón. Plutón era considerado un planeta de nuestro sistema solar: tanto mi mentor como yo nos encontramos con esto durante nuestra educación básica. Recientemente, Plutón quedó reducido a la condición de planeta enano; un triste evento para quienes nos habíamos encariñado de Plutón. Si el enunciado “Plutón es un planeta” es ciencia, ¿qué le pasa a nuestra ciencia cuando los datos cambian?

¿Qué es una ciencia? Ciencia es una palabra de origen griego que se traduce al español como conocimiento. Hacer ciencia es buscar el conocimiento de algo. Generalmente asociamos el concepto de ciencia con la idea de conocer algo relacionado con el mundo natural que nos rodea. Dicho de otra manera, las ciencias pretenden conocer la naturaleza.

Así, tenemos por ejemplo la ciencia de la Astronomía, que estudia el Universo; la Biología, que estudia los seres vivos; la Geología, que estudia las rocas y

Page 11: Revista Conocimiento 47

56 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 9

www.conocimientoenlinea.com

que nos rodea. Por ejemplo, probamos cosas para saber si son comestibles y golpeamos objetos para estudiar la resistencia de los materiales. Aunque no parezca, todo esto es Ciencia. El niño utiliza las herramientas a su alcance para conocer el ambiente a su alrededor con el propósito de desarrollarse.

EL MÉTODO CIENTÍFICODe adultos hacemos lo mismo casi sin darnos cuenta. ¿Cuántos de nosotros no hemos leído instructivos o preguntado a amigos sobre el funcionamiento de algún equipo electrónico? Otros de nosotros simplemente presionamos los botones secuencialmente, observamos las reacciones, e intentamos nuevas combinaciones, hasta obtener los resultados deseados.

De igual manera, el “método científico” tradicional que nos enseñaron en la escuela como una secuencia cuasi-lineal de etapas (observación, hipótesis, experimentación y conclusiones) es una simplificación de un proceso humano más elegante y rico en otros elementos. Una alternativa más general de la construcción y funcionamiento del método científico puede ser ilustrada con el diagrama de flujo que se presenta a continuación.

(a la ‘Matrix’) ni existe solamente en la mente de las personas. Ésta es la base fundamental de todas las ciencias y cabe enfatizar su importancia de nuevo: el “Mundo Real” existe y se comporta de manera independiente respecto de nuestras percepciones.

Nuestra labor es entender este comportamiento de alguna manera, para así aprovechar ese conocimiento en nuestras vidas. Eso lo logramos a través de la elaboración de un “Modelo”, el cual se puede definir como una simplificación conceptual que posee características similares y se comporta de forma similar al fenómeno que estamos estudiando. Un ejemplo puede ser un modelo a escala de un avión que compramos en una tienda y que ensamblamos con el propósito de poseer una miniatura para exhibición. Muchos modelos son simplemente ideas o secuencias de ideas y no objetos concretos. El modelo no es el objeto del mundo real, sino una aproximación. La idea es tener un modelo lo más parecido posible al fenómeno del mundo real; aunque esto es imposible de lograr, ya que entonces el modelo sería indistinguible del fenómeno. Sería como hacer una persona idéntica a ti en todos los aspectos (físicos y mentales) como un modelo que te representara.

CONEXIÓN ENTRE EL MUNDOREAL Y EL MODELOEn el diagrama hay una flecha de un sentido que conecta al mundo real con el modelo y simboliza el hecho de que no podemos hacer un modelo idéntico al fenómeno del mundo real (en tal caso la flecha sería de dos sentidos). Este proceso de formar un modelo inicial de algún fenómeno natural está repleto de preconceptos y observaciones iniciales por parte del que intenta formar el modelo. Algunas veces los llamamos “prejuicios”, y muchas veces algunos de estos preconceptos son erróneos y es difícil identificarlos y tratar de desecharlos; sobre todo cuando estos preconceptos son modelos que nosotros dábamos como acertados. Un ejemplo clásico me sucedió cuando compré un nuevo teléfono celular. Mi modelo de su funcionamiento se basaba en mi antiguo teléfono y me costó esfuerzo acostumbrarme al nuevo sistema de operación. El antiguo modelo de operación simplemente ya no aplicaba del todo.

¿Cómo podemos mejorar nuestro modelo? En la práctica el método más eficiente de hacer esto es realizando “Observaciones Comparativas” de forma congruente y deliberada para comprobar la veracidad de nuestro modelo. Éstos pueden tomar la forma de experimentos en laboratorios, observaciones, pruebas, cuestionarios, etcétera. La idea general es poner a prueba nuestro modelo comparándolo con lo que sucede en el mundo real. En este paso es crucial el ser cuidadosos y honestos con nosotros mismos.

En ocasiones, nuestro tan querido modelo simplemente no concuerda con las observaciones realizadas, y es común que nos sintamos tentados a ignorar selectivamente los resultados de las observaciones que no apoyan lo que deseamos que suceda. Nuestra capacidad para auto-engañarnos puede ser impresionante, y nuestros sentimientos y añoranzas filtran la información recibida de alguna forma. Simplemente es difícil confesar que a veces estamos equivocados (tenemos un modelo inadecuado), y cambiar de opinión (adoptar un nuevo modelo). Ejemplos de esto abundan. La mayoría de las pseudociencias (parapsicología, OVNIs, astrología, embrujos, todo tipo de adivinación, homeopatía, existencia de espíritus y fantasmas, etcétera) son consecuencia directa de no saber cómo realizar observaciones comparativas honestas para comprobar nuestros modelos y/o de selectivamente ignorar los resultados que contradigan ciertos ideales que desesperadamente deseamos sean verídicos. Toda la evidencia, sin excepción, debe ser cotejada y

Comenzamos con la existencia de un “Mundo Real”; es decir que todo lo que nos rodea existe en verdad, independientemente de nuestras percepciones, y que tiene un comportamiento definido. En este mundo no existen ambigüedades, y continúa existiendo aunque no lo podamos percibir. Cuando un árbol cae en el bosque siempre hace ruido. Si no lo escuchamos es porque estamos muy lejos o no tenemos instrumentos de grabación presentes. En otras palabras, el Universo en que vivimos no es virtual

Esta investigación básica no produce necesariamente resultados relevantes e inmediatos para el tratamiento de un paciente en particular, pero estos conocimientos nuevos son esenciales para producir nuevos descubrimien-tos, generalizaciones razonables, y aplicación a casos concretos de cierto tipo de cáncer.

BENEFICIOS Y APLICACIONESSi miramos el valor de la investigación en ciencia médica, nos resultan perfectamente comprensibles los beneficios y las aplicaciones para pro-ducir curaciones o aliviar el dolor. Cualquiera entendería que la investiga-ción proporcionaría información:-Sobre los factores genéticos y medioambientales que aumentan el riesgo de padecer enfermedades, lo que es útil para su prevención y tratamiento oportunos.-Para idear tratamientos nuevos, con nuevos fármacos que curan o reducen los síntomas de las enfermedades.-Para nuevos procedimientos qui-rúrgicos que mejoren el tratamiento y salven vidas.-Para el desarrollo de dispositivos que mejoren la calidad de vida, como prótesis diversas, audífonos, etcétera.

La investigación no debe ser obra de esfuerzos personales, sino instituciona-les y de políticas de estado; el financiamiento relevante debe provenir del gobierno y los particulares que de hecho lo aportan, pero nadie desconoce que el presupuesto es vergonzosamente insignificante.

RECORTES PRESUPUESTALES A LA INVESTIGACIÓNA esto agreguemos que en ciertos campos del conocimiento, como la educación y las ciencias sociales en general, la investigación es práctica-mente menospreciada o está en manos de pequeños grupos que pocas veces producen información relevante, pues el financiamiento oficial o cuasi, los ha refugiado en el país de las cifras alegres y complacientes, y las noticias con las que nos encontramos a diario no hablan de investigadores ni de investigaciones, sino de recortes presupuestales para la investigación básica.

La Ley de Ciencia y Tecnología, de recien-te aprobación, ya se ve como anciana

con bordón. El texto de esta ley incluye una lista de prioridades para decidir qué actividades científicas y tecnológicas deben ser apoyadas, en el entendido de que las que no aparezcan en el listado, nada tienen que esperar en cuanto a recibir apoyos gubernamentales.

Vista en esta perspectiva la ley, advertimos que orienta los presupuestos únicamente a temas que contribuyan a resolver los problemas del país, pero se olvida que se limita entonces el quehacer investigativo a la investigación aplicada, misma que no existe si antes no se realizó la investigación básica; por ello, las posibilidades de aplicar conocimientos para sacar adelante al país se ven lejanos, y se propicia que una vez más la improvisación, las corazonadas, la petulancia y la arrogancia sean las

bases de las políticas públicas y precipiten la caída libre de México en un precipicio que ya nos resulta familiar.

IMPORTANCIA DE LA INVESTIGACIÓN BÁSICAEs una lástima que los tomadores de decisiones ignoren que la investigación aplicada que reclaman, como solución a los problemas que nos aquejan, tiene sus raíces en la investigación básica o investigación pura. Allí tiene su origen y fortaleza. La investigación aplicada raras veces tiene una sola fuente o una sola línea de trabajo, porque se nutre de conocimientos diversos obtenidos de diversos proyectos de investigación básica.

Por ello ofenden con frecuencia comentarios como: ¿para qué sirve la investigación básica? ¿En qué se va a aplicar? La investigación básica no tiene por que ser útil o aplicable a un requerimiento específico. Su función no es esa; lástima que los funcionarios que otorgan los financiamientos sean tan ignorantes.

¿Cómo pueden entender que los grandes creadores de música, la filosofía, la epistemología y los conocimientos, jamás pensaron en aplicaciones inmediatas? Ésas vinieron gracias a la tecnología, pero el tema es que los políticos, no saben deslindar situaciones tan simples, y niegan el presupuesto lo mismo a la investigación científica que a la tecnología, que es la aplicación de los conocimientos producidos por la investigación básica, fundamental y pura.

Page 12: Revista Conocimiento 47

10 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 55

www.conocimientoenlinea.com

considerada cuidadosa y objetivamente para validar nuestros modelos.

Si nuestro modelo es imperfecto, cosa que invariablemente sucede tarde o temprano, hay que hacer una “Revisión” o adaptación al mismo. Este proceso de remodelación de un modelo (valga la redundancia) es análogo a reparar y/o dar mantenimiento a un automóvil que no funciona del todo bien. Para lograr esto necesitamos de herramientas. En este caso las herramientas son lo que comúnmente denominamos como las Ciencias. A través de los conocimientos y postulados particulares de las diversas ciencias es como nosotros podemos modificar nuestros modelos de los fenómenos naturales que queremos comprender.

Por ejemplo, la Física nos ayuda a entender la naturaleza y comportamiento de los objetos; la Química nos ayuda a comprender las propiedades de la materia y cómo cambian éstas al transformarse de un compuesto a otro, y las Matemáticas nos ayudan a expre-sar los fenómenos de forma numérica, general y concisa (muchas veces pienso que la Matemática es el lenguaje numérico de la Ciencia). En el método científico también se utilizan como herramientas algunas otras disciplinas que comúnmente no se consideran como Ciencias per se. Por ejemplo, el sentido de la estética nos puede ayudar a completar un modelo, y la inspiración nos ayuda a conectar ideas y crear nuevas alternativas. El modificar un modelo puede utilizar una gran diversidad de herramientas mentales a nuestra disposición. El trabajo no termina una vez modificado el modelo para ajustarse a las observaciones comparativas.

El modelo por definición es incompleto. Tal vez funcione lo suficiente como para resolver cierto tipo de problemas, pero eventualmente surgirán observaciones que el modelo no pueda explicar completamente. En tal caso hay que “Renovar” nuestro modelo. Esto no quiere decir que el modelo anterior es incorrec-to ya que funcionó adecuadamente por un tiempo. Simplemente se dice que el modelo anterior estaba ‘incompleto’. En estos casos, el nuevo modelo debe también simplificarse o solucionar los problemas que cubría el modelo anterior.

Sir Isaac Newton, (4 de enero de 1643 – 31 de marzo, 1727) fue un científico, físico, filósofo, alquimista y matemático inglés, autor de los Philosophiae Naturalis Principia Mathematica, más conocidos como “los Principia”, donde describió la Ley de Gravitación Universal y estableció las bases de la Mecánica Clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos científicos destacan los trabajos sobre la naturaleza de la luz y la óptica (que se presentan principalmente en el Opticks) y el desarrollo del cálculo matemático.

Director del Centro de Altos Estudios e Investigación Pedagógica

Profesor Ismael Vidales Delgado

En términos llanos, la investigación en ciencia básica consiste en examinar un tema para aumentar los conocimientos sobre éste.

En este sentido, es un tema inagotable, pues jamás se habrá dicho la última palabra en ningún tema, y, por lo tanto, siempre estaremos en espera de nuevas revelaciones deducidas de la investigación.

La información reunida a partir de la investigación en ciencia básica es fundamental para la aplicación de los nuevos conocimientos, las nuevas revelaciones, en lo que llamaríamos “ciencia aplicada”.

Así es como funciona esto. Por ejemplo, los científicos estudian cierto tipo de células cancerosas para observar cómo se multiplican y crecen, en el laboratorio o en animales.

Page 13: Revista Conocimiento 47

10 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 55

www.conocimientoenlinea.com

considerada cuidadosa y objetivamente para validar nuestros modelos.

Si nuestro modelo es imperfecto, cosa que invariablemente sucede tarde o temprano, hay que hacer una “Revisión” o adaptación al mismo. Este proceso de remodelación de un modelo (valga la redundancia) es análogo a reparar y/o dar mantenimiento a un automóvil que no funciona del todo bien. Para lograr esto necesitamos de herramientas. En este caso las herramientas son lo que comúnmente denominamos como las Ciencias. A través de los conocimientos y postulados particulares de las diversas ciencias es como nosotros podemos modificar nuestros modelos de los fenómenos naturales que queremos comprender.

Por ejemplo, la Física nos ayuda a entender la naturaleza y comportamiento de los objetos; la Química nos ayuda a comprender las propiedades de la materia y cómo cambian éstas al transformarse de un compuesto a otro, y las Matemáticas nos ayudan a expre-sar los fenómenos de forma numérica, general y concisa (muchas veces pienso que la Matemática es el lenguaje numérico de la Ciencia). En el método científico también se utilizan como herramientas algunas otras disciplinas que comúnmente no se consideran como Ciencias per se. Por ejemplo, el sentido de la estética nos puede ayudar a completar un modelo, y la inspiración nos ayuda a conectar ideas y crear nuevas alternativas. El modificar un modelo puede utilizar una gran diversidad de herramientas mentales a nuestra disposición. El trabajo no termina una vez modificado el modelo para ajustarse a las observaciones comparativas.

El modelo por definición es incompleto. Tal vez funcione lo suficiente como para resolver cierto tipo de problemas, pero eventualmente surgirán observaciones que el modelo no pueda explicar completamente. En tal caso hay que “Renovar” nuestro modelo. Esto no quiere decir que el modelo anterior es incorrec-to ya que funcionó adecuadamente por un tiempo. Simplemente se dice que el modelo anterior estaba ‘incompleto’. En estos casos, el nuevo modelo debe también simplificarse o solucionar los problemas que cubría el modelo anterior.

Sir Isaac Newton, (4 de enero de 1643 – 31 de marzo, 1727) fue un científico, físico, filósofo, alquimista y matemático inglés, autor de los Philosophiae Naturalis Principia Mathematica, más conocidos como “los Principia”, donde describió la Ley de Gravitación Universal y estableció las bases de la Mecánica Clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos científicos destacan los trabajos sobre la naturaleza de la luz y la óptica (que se presentan principalmente en el Opticks) y el desarrollo del cálculo matemático.

Director del Centro de Altos Estudios e Investigación Pedagógica

Profesor Ismael Vidales Delgado

En términos llanos, la investigación en ciencia básica consiste en examinar un tema para aumentar los conocimientos sobre éste.

En este sentido, es un tema inagotable, pues jamás se habrá dicho la última palabra en ningún tema, y, por lo tanto, siempre estaremos en espera de nuevas revelaciones deducidas de la investigación.

La información reunida a partir de la investigación en ciencia básica es fundamental para la aplicación de los nuevos conocimientos, las nuevas revelaciones, en lo que llamaríamos “ciencia aplicada”.

Así es como funciona esto. Por ejemplo, los científicos estudian cierto tipo de células cancerosas para observar cómo se multiplican y crecen, en el laboratorio o en animales.

54 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 11

www.conocimientoenlinea.com

Teoría General de la Relatividad. Esto sucedió cuando ciertas observaciones de la variación del punto del perihelio de Mercurio no podían ser explicadas adecuadamente por la gravitación. La teoría General de la Relatividad explica maravillosamente ésta y muchas otras observaciones posteriores.

Además, las ecuaciones de Newton se derivan de la simplificación de la Teoría de la Relatividad cuando las aplicamos a bajas velocidades (comparadas con las de la luz). La razón por la que no se enseña la relatividad en las escuelas es que la gravedad es suficiente para explicar y predecir adecuadamente (hasta los límites de nuestras habilidades de medición) los fenómenos que normalmente estudiamos. No es necesario complicarnos la vida innecesariamente. Incidentalmente, si trabajamos con las ecuaciones de la gravedad, podemos simplificarlas y derivar directamente las Tres Leyes de Kepler del Movimiento Planetario que se utilizaban antes de Newton para predecir la posición de los planetas en el sistema solar. ¿No es maravilloso?

EL MÉTODO CIENTÍFICOAsí, llegamos a la conclusión de que el método científico, visto con nuevos ojos, es en realidad la mejor manera que tenemos de conocer el mundo a nuestro alrededor… de hacer Ciencia. Hay que resaltar que la ciencia es por definición “Ciencia Básica” ya que el fin último es

el conocer algo. La “ciencia aplicada” no existe como tal, aunque la tecnología es el resultado de la aplicación de la ciencia. Esto puede parecer simple semántica, pero no lo es en el fondo. De ahí surge la imperante necesidad de conocer la ciencia para poder aplicarla. Es triste ver cómo el sistema educativo actual, en un afán de graduar ciudadanos con capacidades técnicas, omite el enseñar la ciencia básica y se salta inmediatamente a la resolución de problemas particulares, que generalmente son resueltos entrenando a los alumnos a seguir una serie de secuencias y pasos predeterminados. Indicativo de esto es la eterna pregunta del estudiante: “¿qué formula utilizo para resolver este problema?”. Éste es un síntoma claro de la falta de comprensión de fondo del problema. Es como enseñar a los alumnos a construir una casa sin antes construir cimientos. Puede que la casa se mantenga firme por un tiempo, pero eventualmente se desmorona por falta de apoyo.

No solamente los estudiantes de universidad deben saber de ciencia, sino que el público en general también debe estar versado en los principios básicos de la Ciencia. Esto indudablemente los hace mejores ciudadanos, capaces de tomar decisiones basadas en la consideración objetiva de las evidencias disponibles.

Estos ciudadanos estarían mejor preparados para valorar hechos a su alrededor y las declaraciones de sus semejantes. Serían votantes informados que elegirían gobernantes calificados para representarlos adecuadamente. En un mundo cambiante donde el calentamiento global, la pobreza y las enfermedades son fenómenos que impactan directamente a nuestra civilización, es imprescindible estar informado y ser capaz de valorar esa información para tomar decisiones acertadas. La creación de conocimiento es de vital importancia para el progreso del país. De ahí la necesidad de apoyar a los científicos. La aplicación de ese conocimiento es lo que lleva a los avances tecnológicos y eventualmente la prosperidad económica. Un país que no crea conocimiento se atiene a los altos costos y dependencias involucrados en la importación de tecnología y conocimientos del extranjero.

Un ejemplo clásico de este caso es la teoría de la Gravitación. Cuando Isaac Newton la postuló inicialmente hace más de 400 años, ésta lograba explicar los movimientos de los objetos celestes a la perfección. No fue sino hasta principios del siglo pasado cuando Albert Einstein complementó el Modelo de la Gravitación de Newton con la

Johannes Kepler (Weil der Stadt, Alemania, 27 de diciembre de 1571 - Ratisbona, Alemania, 15 de noviembre de 1630), figura clave en la Revolución Científica, astrónomo y matemático alemán; fundamentalmente conocido por sus leyes sobre el movimiento de los planetas. Fue colaborador de Tycho Brahe.

Mapa del mundo, de Tabulae Rudolphine

de Albert Einstein; el Electromagnetismo, de Maxwell; el Principio de Incertidumbre, de Heisenberg, entre muchos más.

76 PREMIOS NOBEL ALEMANESGracias a ese cuestionamiento natural, los científicos alemanes ostentan alrededor de 76 premios Nobel, 65 de ellos en áreas relacionadas con las ciencias naturales y la medicina.

Tan sólo el Max Planck Gesellschaft (MPG) ha logrado igualar a universidades americanas en la producción de premios Nobel; por ello, los científicos alemanes han tenido la satisfacción de ser los más citados (en ciertos meses) en revistas de ciencia prestigiadas, en áreas como física, química y materiales.

Como comenté anteriormente, Alemania ha comprendido el lugar de los actores que impulsan el desarrollo científico; motivo por el cual las universidades, los institutos de investigación y las compañías forman “clústeres” para compartir su conocimiento y pericia en alguna materia, a la vez que inyectan activos a la economía de los intangibles.

Éstos (intangibles), de acuerdo a “The World in 2007”, de la revista The Economist, aportan más de la mitad de la capitalización del mercado de las compañías que cotizan en la bolsa de Estados Unidos.

Es decir, las compañías buscan el talento en sus contrataciones,

ejemplificado en individuos capacitados fuertemente en áreas del conocimiento, manejo de patentes y el conocido “know–how”. De ahí que la propiedad intelectual sea celosamente protegida en la Tierra de las Ideas.

En el reporte (Invest in Germany) se nos muestra otro

dato muy interesante de la composición de infraestructura

científica en este país: estamos hablando de 257 institutos que

emplean a 70 mil personas que hacen investigación en diferentes y diversas áreas de la ciencia y la tecnología, y que posteriormente patentan sus trabajos.

En síntesis, la estrategia alemana tiene un engrane central llamado:

“coopetition”; es decir, la fusión de la competencia con la cooperación, pues se ha comprendido que la vinculación entre los

actores de la ciencia y tecnología deben unir esfuerzos en el sentido de la creación de valor a

través de la inversión en activos que no podemos ver, ni tocar: los intangibles.

TALENTO Y CAPITAL INTELECTUALTalento y capital intelectual es lo que mueve las divisas de los países; entre otros aspectos, esto es lo que está haciendo que perdamos competitividad ante otros países, como es el caso de la India y China.

Este último es el que nos ha superado como principal socio comercial de Estados Unidos.

En nuestro caso particular, el dinero colocado en educación y sobre todo en educación para la ciencia, así como en investigación básica, no debe ser visto como un gasto, sino como una inversión a largo plazo, pues esta suma de activos intangibles es equivalente al desarrollo regional.

Para terminar, voy a mencionar lo que dice Wikipedia: “la ciencia básica es el corazón de todos los descubrimientos, y el progreso está basado en experimentos controlados”.

Algo de todo esto debemos extrapolar a nuestro modelo económico y de investigación científica y tecnológica.

Bibliografíahttp://www.land-of-ideas.org

Page 14: Revista Conocimiento 47

La ciencia está formada por un cuerpo de conocimientos, ordenados y sistematizados en forma de hipótesis, modelos y leyes científicas,

y por la investigación que genera los nuevos conocimientos que se agregan, o bien que sustituyen, a otros previamente aceptados.

La investigación científica se subdivide en básica y aplicada. Generalmente, la investigación básica o “pura” se asocia a la curiosidad y se conceptualiza como la búsqueda del conocimiento por el simple placer de entender mejor el universo. Esta investigación se considera íntimamente ligada al proceso de descubrimiento. En cambio, la investigación aplicada usa información disponible para solucionar un problema, o bien para desarrollar una aplicación práctica o mejorar un método ya existente.

La discusión sobre la conveniencia de utilizar recursos públicos pa-ra apoyar la investigación básica se ha venido dando por muchos años, particularmente en países en vías

de desarrollo. Esta discusión no es superficial, sino que enfrenta dos concepciones filosóficas; es decir, dos formas de ver cómo se genera la tecnolo-gía. La primera utiliza un “modelo li-neal”, donde la investigación básica lleva a la investigación aplicada, la cual a su vez se convierte en desarrollo industrial y, entonces, en nuevos productos.

El otro modelo es anti-lineal; es decir, se piensa que el avance tecnológico no proviene del conocimiento básico.

REVOLUCIÓN INDUSTRIALLos grandes cambios tecnológicos que ocurrieron durante el siglo XVII, tales como la invención del motor de vapor, las máquinas textiles y los desarrollos de nuevas técnicas metalúrgicas, desencadenaron cambios profundos en la organización social, política y econó-mica de la sociedad occidental. A estos cambios se les denominó “Revolución Industrial”, basada en principios de ingeniería mecánica y en conocimiento científico que estuvieron disponibles mucho antes de la revolución científica que estaba ocurriendo en ese mismo siglo y que trajo como resultado el

Doctor Gilberto Eduardo Salinas GarcíaProfesor investigador del Laboratorio de GenéticaFacultad de Agronomía / UANL

12 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 53

www.conocimientoenlinea.com

con la enseñanza, situación a la que actualmente se apegan las universidades, al asociarse con centros de investigación en ciencia y desarrollo tecnológico, así como con parques de innovación y tecnología.

Por otro lado, de acuerdo a su presentación de país (Invest in Germany), en Alemania, 167 de sus 366 universidades (el país con mayor número en la Unión Europea), están dedicadas a las ciencias, y en ellas la enseñanza hace mucho énfasis en la relevancia práctica. Pero también entienden la importancia de la ciencia básica pura, pues cuentan con alrededor de dos mil millones de euros dedicados a apoyar la investigación en diversas universidades.

CREACIÓN DEL PRIMER KINDERGARTENA su vez, no debemos olvidar que fue Friedrich Frobel quien, en 1840, instituyó el primer “kindergarten”, con el objetivo de que los niños se interesaran en el conocimiento jugando, con el afán de que no perdieran esa capacidad de cuestionarse, de preguntarse el porqué de las cosas. De esta forma entiendo la importancia de la ciencia en la educación básica, la cual va creando la semilla de los futuros ingenieros que todos los países necesitan para sumar a su PIB.

Esta variable es medular, pues gran parte de la escasez de alumnos que estudien ciencias y se gradúen profesionalmente en un grado científico o de ingeniería, se debe a formatos muy estrictos para explicar la ciencia, falta de motivación hacia el estudiante, entre otros factores; en suma, se necesitan innovadoras formas para presentar las ciencias y darles mercado entre los niños y jóvenes.

Los alemanes saben esto y por ello, a pesar de su frialdad, muestran creatividad para enseñar la ciencia y poner sonrisas en sus alumnos al aprenderla. Además, dedican fuertes sumas de dinero a la educación de su población en general, pues este rubro ha crecido 38 por ciento en los últimos siete años.

CENTROS DE INNOVACIÓN E INCUBACIÓNSiguiendo el reporte (Invest in Germany), se comenta que existen 397 centros de innovación e incubación dedicados a atender las necesidades de 12 mil compañías ya establecidas o las conocidas “start ups”, lo que da como resultado que, de acuerdo a datos del reporte, en promedio cada 23 minutos se está registrando una patente alemana en la Oficina de Patentes Europea.

Lo anterior proviene de una gran cultura histórica de investigación científica, sobre todo en el área básica, que después aplica los conocimientos adquiridos para su comercialización.

Ellos están conscientes de la importancia de la búsqueda del conocimiento, por el simple placer de conocer, por el afán de responder preguntas y comprender el mundo que nos rodea.

Aunque muchas veces estas investigaciones no tienen aplicación comercial inmediata, las teorías obtenidas han revolucionado campos como el de la física, con la Relatividad

Page 15: Revista Conocimiento 47

La ciencia está formada por un cuerpo de conocimientos, ordenados y sistematizados en forma de hipótesis, modelos y leyes científicas,

y por la investigación que genera los nuevos conocimientos que se agregan, o bien que sustituyen, a otros previamente aceptados.

La investigación científica se subdivide en básica y aplicada. Generalmente, la investigación básica o “pura” se asocia a la curiosidad y se conceptualiza como la búsqueda del conocimiento por el simple placer de entender mejor el universo. Esta investigación se considera íntimamente ligada al proceso de descubrimiento. En cambio, la investigación aplicada usa información disponible para solucionar un problema, o bien para desarrollar una aplicación práctica o mejorar un método ya existente.

La discusión sobre la conveniencia de utilizar recursos públicos pa-ra apoyar la investigación básica se ha venido dando por muchos años, particularmente en países en vías

de desarrollo. Esta discusión no es superficial, sino que enfrenta dos concepciones filosóficas; es decir, dos formas de ver cómo se genera la tecnolo-gía. La primera utiliza un “modelo li-neal”, donde la investigación básica lleva a la investigación aplicada, la cual a su vez se convierte en desarrollo industrial y, entonces, en nuevos productos.

El otro modelo es anti-lineal; es decir, se piensa que el avance tecnológico no proviene del conocimiento básico.

REVOLUCIÓN INDUSTRIALLos grandes cambios tecnológicos que ocurrieron durante el siglo XVII, tales como la invención del motor de vapor, las máquinas textiles y los desarrollos de nuevas técnicas metalúrgicas, desencadenaron cambios profundos en la organización social, política y econó-mica de la sociedad occidental. A estos cambios se les denominó “Revolución Industrial”, basada en principios de ingeniería mecánica y en conocimiento científico que estuvieron disponibles mucho antes de la revolución científica que estaba ocurriendo en ese mismo siglo y que trajo como resultado el

Doctor Gilberto Eduardo Salinas GarcíaProfesor investigador del Laboratorio de GenéticaFacultad de Agronomía / UANL

12 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 53

www.conocimientoenlinea.com

con la enseñanza, situación a la que actualmente se apegan las universidades, al asociarse con centros de investigación en ciencia y desarrollo tecnológico, así como con parques de innovación y tecnología.

Por otro lado, de acuerdo a su presentación de país (Invest in Germany), en Alemania, 167 de sus 366 universidades (el país con mayor número en la Unión Europea), están dedicadas a las ciencias, y en ellas la enseñanza hace mucho énfasis en la relevancia práctica. Pero también entienden la importancia de la ciencia básica pura, pues cuentan con alrededor de dos mil millones de euros dedicados a apoyar la investigación en diversas universidades.

CREACIÓN DEL PRIMER KINDERGARTENA su vez, no debemos olvidar que fue Friedrich Frobel quien, en 1840, instituyó el primer “kindergarten”, con el objetivo de que los niños se interesaran en el conocimiento jugando, con el afán de que no perdieran esa capacidad de cuestionarse, de preguntarse el porqué de las cosas. De esta forma entiendo la importancia de la ciencia en la educación básica, la cual va creando la semilla de los futuros ingenieros que todos los países necesitan para sumar a su PIB.

Esta variable es medular, pues gran parte de la escasez de alumnos que estudien ciencias y se gradúen profesionalmente en un grado científico o de ingeniería, se debe a formatos muy estrictos para explicar la ciencia, falta de motivación hacia el estudiante, entre otros factores; en suma, se necesitan innovadoras formas para presentar las ciencias y darles mercado entre los niños y jóvenes.

Los alemanes saben esto y por ello, a pesar de su frialdad, muestran creatividad para enseñar la ciencia y poner sonrisas en sus alumnos al aprenderla. Además, dedican fuertes sumas de dinero a la educación de su población en general, pues este rubro ha crecido 38 por ciento en los últimos siete años.

CENTROS DE INNOVACIÓN E INCUBACIÓNSiguiendo el reporte (Invest in Germany), se comenta que existen 397 centros de innovación e incubación dedicados a atender las necesidades de 12 mil compañías ya establecidas o las conocidas “start ups”, lo que da como resultado que, de acuerdo a datos del reporte, en promedio cada 23 minutos se está registrando una patente alemana en la Oficina de Patentes Europea.

Lo anterior proviene de una gran cultura histórica de investigación científica, sobre todo en el área básica, que después aplica los conocimientos adquiridos para su comercialización.

Ellos están conscientes de la importancia de la búsqueda del conocimiento, por el simple placer de conocer, por el afán de responder preguntas y comprender el mundo que nos rodea.

Aunque muchas veces estas investigaciones no tienen aplicación comercial inmediata, las teorías obtenidas han revolucionado campos como el de la física, con la Relatividad

52 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 13

www.conocimientoenlinea.com

establecimiento del cálculo matemático y la mecánica newtoniana; es decir, la Revolución Industrial no se basó en la ciencia básica de su propio tiempo.

Una revolución de alcances aún ma-yores que la industrial, está ocurriendo actualmente en nuestra sociedad. Se inició en la década de 1930 y se le denomina “Revolución Biológica”. Entre sus principales desarrollos están la ingeniería genética y la biotecnología moderna. A diferencia de la Revolución Industrial, el cimiento de esta nueva etapa de cambio acelerado es el conocimiento científico generado por la investigación básica que se desarrolla en ciencias como la química, física y biología, y por avances tecnológicos en la informática, cibernética y electrónica.

De esta forma, la conexión entre Ciencia y Tecnología no es ni lineal, ni anti-lineal; es, más que todo no-lineal. En otras palabras, la investigación moderna exitosa ha demostrado que es resultado de una interacción entre conocimientos básicos, inicialmente no relacionados, tecnología y productos, los cuales forman parte de un tejido fuertemente anudado.

En este ensayo revisaremos la historia de la Biología Molecular, desde la perspectiva de la investigación básica y la interdisciplinariedad que le dio origen, así como de las aplicaciones que surgieron de ella, como la Ingeniería Genética y la biotecnología moderna, con ejemplos de sus aplicaciones en la Agricultura.

HISTORIA DE LA BIOLOGÍA MOLECULARA pesar de su gran importancia actual, el origen de la Biología molecular es recien-te, ya que se remonta a la década de 1930. La fundación de la Biología Molecular es un ejemplo de interdisciplinariedad, ya que en ella trabajaron genetistas, físicos y químicos, alrededor de un problema o interés común: la estructura y función del gen. Aunque a principios del siglo XX se redescubrieron las Leyes de Mendel, no se conocían los mecanismos de duplicación, mutación y expresión de los genes. En 1910, un grupo liderado por Thomas H. Morgan fue el primero en demostrar que los cromosomas eran las unidades que llevan los genes. En 1927, un discípulo de Morgan, Hermann

J. Muller, utilizó por primera vez los rayos X para causar mutaciones en la mosca de la fruta y utilizó esta técnica para investigar el tamaño y la estructura del gen. Para 1936, Muller reconoció que como genetista, estaba limitado para poder explicar las propiedades y funciones fundamentales de los genes, y en un famoso escrito de 1936 concluyó: “el genetista no tiene posibilidad de analizar más allá las propiedades del gen. Aquí el físico, así como el químico, deben intervenir. ¿Quién es voluntario para hacerlo?”.

En la siguiente década, varios físicos de primer nivel pusieron su atención en el

problema biológico de la herencia. Erwin Schroedinger propuso una explicación meramente Física a la estructura del gen: “es un cristal aperiódico”. Max Delbrueck llegó a la biología motivado por una conferencia de su maestro Niels Bohr, en la que este último propuso, a diferencia de Schroedinger, la complementariedad de la Física y la Biología. Delbrueck decidió que la mosca era demasiado compleja, y decidió utilizar un virus que ataca bacterias (fago). Delbrueck y otro físico convertido en biólogo, Salvador Luria, fundaron el “Grupo Fago” a principios de la década de 1940, lo cual marcó un punto muy importante en la fundación

James Watson y Francis Crick descubrieron la estructura del ADN en 1953

En cierta ocasión, el gran Víctor Hugo nos habló del poder que tiene una idea, sobre todo aquélla a la que le ha llegado su tiempo.

Pero, ¿qué mejor que hablar de aquélla que no descanse más en la mente de su creador, sino que sea compartida y aprovechada para el beneficio de la humanidad?

De esto está compuesto el progreso humano: de una consecución de ideas y de nuestra capacidad de asombro e inquisitiva mental que ha derivado en el desarrollo de la mercancía más cara y preciada en la actualidad: el conocimiento.

Ésta es nuestra percepción y aprendizaje en nuestro encuentro con la misma naturaleza.

Tal vez se puede definir como un binomio inseparable entre la investigación básica y la investigación aplicada; es decir, la suma de la ciencia y la tecnología.

Hablar de conocimiento es hablar de un sistema de valor, en donde se genera

Maestro Rodrigo Soto Mercadotecnia Social

riqueza económica y social, soberanía, calidad de vida, entre otros factores; pero, sobre todo se marcan muchas de las ventajas competitivas de un país sobre otro.

INVERSIONES Y GENERACIÓN DE RIQUEZAA pesar de que el mundo está plano, como lo comenta Thomas Friedman, pues la globalización y competitividad han permeado el conocimiento en las sociedades; muchos países se han avocado a la estrategia de contrastar con mayor fuerza su característica única e irrepetible para atraer inversiones y generar riqueza hacia dentro y hacia fuera de su territorio.

Tal es el caso de Alemania, país que aprovecha la percepción que se le tiene, como aquél de poetas y grandes pensadores, aquél de las tres copas del mundo, de científicos como Einstein, de músicos como Beethoven, filósofos como Kant, mentes enciclopédicas como Leibniz, entre otros grandes, para posicionarse y colocarse la etiqueta de “Tierra de las Ideas”, por no decir del conocimiento.

Este concepto pareciera pretencioso, pero si analizamos un poco la historia y el crecimiento científico y económico de este país, nos daremos cuenta de lo interesante que resulta su estrategia. Para ello me basaré en el reporte “Invest in Germany – Land of Ideas”.

SISTEMA EDUCATIVO DUALPrimero, es necesario mencionar que ellos utilizan un “sistema educativo dual”, en donde las instituciones guber-namentales, privadas y de educación se encuentran alineadas en cuanto a las necesidades de la economía. Es decir, las universidades crean perfiles de estudiantes que las mismas empresas van a requerir en su fuerza laboral, en áreas como mecatrónica, tecnologías de información, electrónica, biotecnología, por mencionar algunas.

Claro que este método educativo no es nuevo.

Los alemanes afirman que en 1810 Wilhelm von Humboldt estableció la Universidad de Berlín, primera institución educativa que tuvo como precepto combinar la investigación

Page 16: Revista Conocimiento 47

14 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 51

www.conocimientoenlinea.com

de la Biología Molecular. Este nuevo modelo experimental, el virus, permitió que Alfred Hershey y Martha Chase pudieran agregar evidencia concluyente a lo que previamente, en 1944, Oswald Avery había demostrado en bacterias, que los genes no eran proteínas sino ADN.

EL FENÓMENO HEREDITARIOAunque Delbrueck facilitó la colaboración entre físicos y biólogos, no consideró los aspectos químicos que después vendrían a llenar los huecos en el entendimiento del fenómeno hereditario. Linus Pauling utilizó sus conocimientos de química para estudiar la relación entre los enlaces débiles y la estructura de las macromoléculas (proteínas y ácidos nucleicos). El trabajo teórico y experimental de Pauling con la estabilidad de moléculas grandes, sentó las bases para entender la estructura y función de proteínas y ácidos nucleicos. Adicionalmente, el grupo de Pauling utilizó la técnica de cristalografía de ra-yos X, lo que le permitió, en combinación con el uso de modelos a escala, descubrir la estructura en forma de hélice alfa de las proteínas.

En este punto de la historia aparece por primera vez el término “Biología molecular”, introducido en 1938 por Warren Weaver, cuando escribió: “…y gradualmente está apareciendo una nueva rama de la ciencia –la Biología molecular- la cual está comenzando a descubrir muchos secretos relacionados con las unidades básicas de la célula viviente, en la que están siendo utilizadas técnicas sofisticadas para investigar detalles aún más pequeños de ciertos procesos de la vida”.

El período clásico de la Biología Mole-cular se inició en 1953, cuando James Watson y Francis Crick descubrieron la estructura de doble hélice del ADN. Este hecho marca la coincidencia, en lugar y tiempo, de conocimientos, técnicas y productos tecnológicos diversos: los datos de cristalografía de rayos X del ADN de Maurice Wilkins y Rosalind Franklin, el trabajo teórico de Crick con cristalografía y las técnicas de construcción de modelos a escala iniciadas por Pauling.

A partir del descubrimiento de la estructura del ADN, la Biología

molecular centró su interés en la relación entre la estructura de la doble hélice y los procesos de replicación y funcionamiento de los genes. A partir de este momento se considera al gen como una molécula “informativa”; es decir, la secuencia lineal de bases nitrogenadas en una cadena de DNA provee información codificada para dirigir el orden en que se agregan aminoácidos en una cadena polipeptídica de una proteína en formación. El tratar de descifrar la relación entre la secuencia de bases en el DNA y los aminoácidos en la proteína, desató una competencia entre grupos de investigadores, la cual fructificó cuando, en 1966, Marshall Nirenberg y Har Gobind Khorana dilucidaron el código genético. Por los siguientes 15 años,

pareció que el concepto de gen estaba bien firme, dada la relación lineal entre la estructura del gen y de su producto.

GENES TRASLAPADOSSin embargo, a mediados de la década de 1970, se descubrieron los genes traslapados; es decir, cadenas de aminoácidos que pueden ser sintetiza-das a partir de la misma porción de ácido nucleico, simplemente iniciando la “lectura” del gen a partir de diferentes puntos de la secuencia del ADN. En esa

misma década, se descubrió que los genes de especies superiores están divididos en porciones codificadoras (exones) y otras no codificadoras (intrones). Para hacerlo aún más complicado, en 1978 se descubrió que el reacomodo de los exones podría hacerse en formas alternativas, de tal manera que una misma secuencia de ADN puede dar origen a un sinnúmero de cadenas de aminoácidos. En conjunto, estos descubrimientos hicieron que los biólogos moleculares reconsideraran el concepto de gen.

Aunadas a todos estos avances en el conocimiento biológico producido por la investigación básica, se desarrollaron técnicas y tecnologías que en su momento permitieron el desarrollo de experimentos cruciales para someter a prueba hipótesis científicas. Estas técnicas permitieron la manipulación del material hereditario. Por ejemplo, la recombinación de DNA proveniente de especies diferentes se debió al descubrimiento realizado por Stewart Linn y Werner Arber, de las enzimas de restricción, a fines de la década de 1960, las cuales permiten cortar el ADN en sitios específicos, y de las ligasas que “pegan” los fragmentos de ADN. Con estas herramientas genéticas, en 1973 Herbert Boyer y Stanley Cohen desarrollaron el primer experimento de clonación de ADN recombinante, al insertar ADN dentro de un plásmido y usar este plásmido transgénico para transformar una bacteria. Ese mismo año se identificó el plásmido Ti de la bacteria Agrobacterium tumefasciens, el cual ha sido usado ampliamente para ingeniería genética en plantas. En 1977 se establecieron las técnicas para la secuenciación del ADN; es decir, la identificación del orden de bases nitrogenadas que contiene una porción de ADN. Las técnicas de secuenciación se desarrollaron una vez que la clonación de fragmentos de ADN había sido establecida rutinariamente.

Otra tecnología que ha revolucionado las ciencias biológicas y que surgió de esta mezcla de investigación básica, métodos de laboratorio y productos fue la Reacción en Cadena de la Polimerasa (PCR por sus siglas en inglés) la cual fue concebida por Kary Mullis en 1983, cuando trabajaba en un proyecto para diagnosticar enfermedades, usando la técnica de secuenciación de ácidos

pensamos que todos visten de bata blanca y usan lentes de fondo de botella; tienen aspecto desgarbado o, lo que es peor, tienen cara de Ciro Peraloca; son distraídos y desaliñados.

Nos aferramos a la idea de que el hemisferio cerebral nos condena a un tipo de persona, porque nos han hecho creer que el izquierdo es el del pensamiento convergente y el de las ciencias exactas, y el derecho es el del pensamiento divergente y el de las artes.

¿Acaso la ciencia y el arte están divorciados? ¿No se pueden cultivar ambos hemisferios? ¿Un artista no puede ser científico o viceversa?

Contrariamente a lo que parece, la ciencia no puede estar más unida y relacionada con el arte. Son las matemáticas el principio y la base de toda pieza musical; es la aritmética la que define la métrica en la poesía; el arte de la gastronomía es el resultado de la mezcla de sustancias que armonizan los sabores, nada más parecido a un laboratorio químico.

¿Entonces, la ciencia y el arte están peleados? Pues, aunque lo quisieran, no podrían, porque ambas disciplinas subyacen en principios que se encuentran en constante comunión. ¿Qué un artista no puede ser científico o viceversa?

Pues no sé si influya el que sean científicos, pero existen casos de personajes que primero fueron hombres de ciencia y luego se dedicaron al arte en sus tiempos de ocio, o le dedicaron por entero sus vidas. Albert Einstein -el nóbel físico- irrumpía en

la habitación de su amada tocando el violín; Ernesto Sábato, antes de ser escritor, fue físico, y Luis Buñuel, antes de ser cineasta, estudió para biólogo.

TODO NUESTRO MUNDO ES CIENCIA¿Qué seríamos nosotros sin la ciencia? Nada, mi estimado lector. Todo nuestro mundo es ciencia.

El mundo es materia y energía, y esa energía indestructible sólo se transforma. Nuestro universo se rige por leyes naturales que sólo se pueden explicar gracias a la ciencia Todo en el mundo son átomos, que forman moléculas, que forman sustancias, que forman materia y que ésta puede transformarse constantemente.

Cada elemento en el planeta tiene que ver con la química; cada forma de vida tiene que ver con la biología; cada ciclo del año tiene algo de matemática; cada cuerpo en el universo, en movimiento o estático. obedece a alguna ley de la física.

DISCIPLINAS HUMANASDebemos hacer que la juventud, los niños, los adolescentes y en todo caso cada habitante de este mundo se enamore de la ciencia; pero para ello falta reconciliarlos con la escuela, y con los malos maestros que hacen de estas materias un episodio triste y amargo.

Señalarles que las ciencias no son frías como parecen, sino que son de las disciplinas más humanas, porque tratan de explicarnos esa maravillosa simbiosis que guarda el ser

Page 17: Revista Conocimiento 47

14 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 51

www.conocimientoenlinea.com

de la Biología Molecular. Este nuevo modelo experimental, el virus, permitió que Alfred Hershey y Martha Chase pudieran agregar evidencia concluyente a lo que previamente, en 1944, Oswald Avery había demostrado en bacterias, que los genes no eran proteínas sino ADN.

EL FENÓMENO HEREDITARIOAunque Delbrueck facilitó la colaboración entre físicos y biólogos, no consideró los aspectos químicos que después vendrían a llenar los huecos en el entendimiento del fenómeno hereditario. Linus Pauling utilizó sus conocimientos de química para estudiar la relación entre los enlaces débiles y la estructura de las macromoléculas (proteínas y ácidos nucleicos). El trabajo teórico y experimental de Pauling con la estabilidad de moléculas grandes, sentó las bases para entender la estructura y función de proteínas y ácidos nucleicos. Adicionalmente, el grupo de Pauling utilizó la técnica de cristalografía de ra-yos X, lo que le permitió, en combinación con el uso de modelos a escala, descubrir la estructura en forma de hélice alfa de las proteínas.

En este punto de la historia aparece por primera vez el término “Biología molecular”, introducido en 1938 por Warren Weaver, cuando escribió: “…y gradualmente está apareciendo una nueva rama de la ciencia –la Biología molecular- la cual está comenzando a descubrir muchos secretos relacionados con las unidades básicas de la célula viviente, en la que están siendo utilizadas técnicas sofisticadas para investigar detalles aún más pequeños de ciertos procesos de la vida”.

El período clásico de la Biología Mole-cular se inició en 1953, cuando James Watson y Francis Crick descubrieron la estructura de doble hélice del ADN. Este hecho marca la coincidencia, en lugar y tiempo, de conocimientos, técnicas y productos tecnológicos diversos: los datos de cristalografía de rayos X del ADN de Maurice Wilkins y Rosalind Franklin, el trabajo teórico de Crick con cristalografía y las técnicas de construcción de modelos a escala iniciadas por Pauling.

A partir del descubrimiento de la estructura del ADN, la Biología

molecular centró su interés en la relación entre la estructura de la doble hélice y los procesos de replicación y funcionamiento de los genes. A partir de este momento se considera al gen como una molécula “informativa”; es decir, la secuencia lineal de bases nitrogenadas en una cadena de DNA provee información codificada para dirigir el orden en que se agregan aminoácidos en una cadena polipeptídica de una proteína en formación. El tratar de descifrar la relación entre la secuencia de bases en el DNA y los aminoácidos en la proteína, desató una competencia entre grupos de investigadores, la cual fructificó cuando, en 1966, Marshall Nirenberg y Har Gobind Khorana dilucidaron el código genético. Por los siguientes 15 años,

pareció que el concepto de gen estaba bien firme, dada la relación lineal entre la estructura del gen y de su producto.

GENES TRASLAPADOSSin embargo, a mediados de la década de 1970, se descubrieron los genes traslapados; es decir, cadenas de aminoácidos que pueden ser sintetiza-das a partir de la misma porción de ácido nucleico, simplemente iniciando la “lectura” del gen a partir de diferentes puntos de la secuencia del ADN. En esa

misma década, se descubrió que los genes de especies superiores están divididos en porciones codificadoras (exones) y otras no codificadoras (intrones). Para hacerlo aún más complicado, en 1978 se descubrió que el reacomodo de los exones podría hacerse en formas alternativas, de tal manera que una misma secuencia de ADN puede dar origen a un sinnúmero de cadenas de aminoácidos. En conjunto, estos descubrimientos hicieron que los biólogos moleculares reconsideraran el concepto de gen.

Aunadas a todos estos avances en el conocimiento biológico producido por la investigación básica, se desarrollaron técnicas y tecnologías que en su momento permitieron el desarrollo de experimentos cruciales para someter a prueba hipótesis científicas. Estas técnicas permitieron la manipulación del material hereditario. Por ejemplo, la recombinación de DNA proveniente de especies diferentes se debió al descubrimiento realizado por Stewart Linn y Werner Arber, de las enzimas de restricción, a fines de la década de 1960, las cuales permiten cortar el ADN en sitios específicos, y de las ligasas que “pegan” los fragmentos de ADN. Con estas herramientas genéticas, en 1973 Herbert Boyer y Stanley Cohen desarrollaron el primer experimento de clonación de ADN recombinante, al insertar ADN dentro de un plásmido y usar este plásmido transgénico para transformar una bacteria. Ese mismo año se identificó el plásmido Ti de la bacteria Agrobacterium tumefasciens, el cual ha sido usado ampliamente para ingeniería genética en plantas. En 1977 se establecieron las técnicas para la secuenciación del ADN; es decir, la identificación del orden de bases nitrogenadas que contiene una porción de ADN. Las técnicas de secuenciación se desarrollaron una vez que la clonación de fragmentos de ADN había sido establecida rutinariamente.

Otra tecnología que ha revolucionado las ciencias biológicas y que surgió de esta mezcla de investigación básica, métodos de laboratorio y productos fue la Reacción en Cadena de la Polimerasa (PCR por sus siglas en inglés) la cual fue concebida por Kary Mullis en 1983, cuando trabajaba en un proyecto para diagnosticar enfermedades, usando la técnica de secuenciación de ácidos

pensamos que todos visten de bata blanca y usan lentes de fondo de botella; tienen aspecto desgarbado o, lo que es peor, tienen cara de Ciro Peraloca; son distraídos y desaliñados.

Nos aferramos a la idea de que el hemisferio cerebral nos condena a un tipo de persona, porque nos han hecho creer que el izquierdo es el del pensamiento convergente y el de las ciencias exactas, y el derecho es el del pensamiento divergente y el de las artes.

¿Acaso la ciencia y el arte están divorciados? ¿No se pueden cultivar ambos hemisferios? ¿Un artista no puede ser científico o viceversa?

Contrariamente a lo que parece, la ciencia no puede estar más unida y relacionada con el arte. Son las matemáticas el principio y la base de toda pieza musical; es la aritmética la que define la métrica en la poesía; el arte de la gastronomía es el resultado de la mezcla de sustancias que armonizan los sabores, nada más parecido a un laboratorio químico.

¿Entonces, la ciencia y el arte están peleados? Pues, aunque lo quisieran, no podrían, porque ambas disciplinas subyacen en principios que se encuentran en constante comunión. ¿Qué un artista no puede ser científico o viceversa?

Pues no sé si influya el que sean científicos, pero existen casos de personajes que primero fueron hombres de ciencia y luego se dedicaron al arte en sus tiempos de ocio, o le dedicaron por entero sus vidas. Albert Einstein -el nóbel físico- irrumpía en

la habitación de su amada tocando el violín; Ernesto Sábato, antes de ser escritor, fue físico, y Luis Buñuel, antes de ser cineasta, estudió para biólogo.

TODO NUESTRO MUNDO ES CIENCIA¿Qué seríamos nosotros sin la ciencia? Nada, mi estimado lector. Todo nuestro mundo es ciencia.

El mundo es materia y energía, y esa energía indestructible sólo se transforma. Nuestro universo se rige por leyes naturales que sólo se pueden explicar gracias a la ciencia Todo en el mundo son átomos, que forman moléculas, que forman sustancias, que forman materia y que ésta puede transformarse constantemente.

Cada elemento en el planeta tiene que ver con la química; cada forma de vida tiene que ver con la biología; cada ciclo del año tiene algo de matemática; cada cuerpo en el universo, en movimiento o estático. obedece a alguna ley de la física.

DISCIPLINAS HUMANASDebemos hacer que la juventud, los niños, los adolescentes y en todo caso cada habitante de este mundo se enamore de la ciencia; pero para ello falta reconciliarlos con la escuela, y con los malos maestros que hacen de estas materias un episodio triste y amargo.

Señalarles que las ciencias no son frías como parecen, sino que son de las disciplinas más humanas, porque tratan de explicarnos esa maravillosa simbiosis que guarda el ser

nucleicos de Sanger y Coulson. Este momento marcó el inició de la técnica de PCR, que ha revolucionado la Biología Molecular. Este resumen histórico de la Biología Molecular trata de ilustrar las relaciones entre investigación básica, métodos y productos tecnológicos, que a su vez estimulan nuevos descubrimientos y el desarrollo de nuevos productos y tecnologías. Esta interrelación no es lineal, ni tampoco antilineal, y la podemos definir como no-lineal.

AGROBIOTECNOLOGÍA Y AGRICULTURA SUSTENTABLELa población humana mundial rebasó recientemente los 6 mil millones y está creciendo a una tasa anual de 1.5 (México tiene una tasa de 2.5). A pesar de la introducción de nuevas tecnologías de producción agrícola, aún quedan en el

mundo más de 800 millones de personas mal nutridas. Se estima que para el año 2025 se deberá duplicar la producción mundial de alimentos, para satisfacer las demandas de una población más grande y con mayor poder de compra.

La Biotecnología moderna se define como “cualquier técnica que usa un organismo viviente o sustancias provenientes de estos organismos para hacer o modificar un producto, mejorar plantas o animales o desarrollar microorganismos para usos específicos”.

La Biotecnología es producto del desarrollo de varias ciencias y disciplinas, primordialmente de la Biología Molecular, Biología Celular, Ingeniería Genética y el cultivo de tejidos in vitro. Los avances biotecnológicos en Agricultura, Medicina y las Ciencias

del Ambiente está provocando en la sociedad moderna cambios profundos que tienen implicaciones económicas, éticas y sociales tan grandes, que se considera que representan una nueva “revolución”, con alcances aún mayores que los de la Revolución Industrial o la Revolución Verde.

La Agricultura es el cultivo de la tierra y la cría de animales domésticos para la producción de satisfactores de la sociedad humana.

La degradación y erosión de los suelos, la contaminación de agua y aire, la pérdida de recursos genéticos y el aumento en la desnutrición y la pobreza en el medio rural son algunos problemas asociados a los procesos de producción agrícola extensivos. Esta problemática señala la necesidad de convertir los procesos de producción agrícola en sistemas agrícolas sostenibles.

AGRICULTURA SUSTENTABLELa Agricultura sustentable, entendida como “la modalidad que posibilita la satisfacción de las necesidades de la generación humana actual sin menoscabar las posibilidades de las futuras generaciones en satisfacer las propias”, es uno de los mayores retos de la Ciencia y de la sociedad humana. Algunos componentes de la Biotecnolo-gía moderna que contribuyen para alcanzar una agricultura sustentable son:a) Genómica, que aporta valiosa información para la conservación, clasificación y aprovechamiento de la biodiversidad de plantas, animales y microorganismos.

b) Mejoramiento molecular, que permite identificar y evaluar carac-teres deseables en programas de mejoramiento de plantas y animales, a través de la selección asistida por marcadores moleculares.

En 1994 llegaron a los supermercados los tomates transgénicos de larga vida de anaquel (izquierda) y tomates normales (derecha)

En 1985, el cerdo fue primer animal doméstico transgénico

50 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 15

www.conocimientoenlinea.com

La razón no es otra cosa que el análisis de lo que se cree.Franz Schubert (1797-1828); compositor austríaco

Nos despertamos y apagamos el reloj alarma, mientras nuestra cafetera

se encarga de preparar el café a la hora programada: encendemos el televisor con el control remoto, para enterarnos de la temperatura, mientras nos damos a la monumental tarea de alistarnos para una larga jornada de trabajo.

Nos dirigimos en nuestros autos ultramodernos a la oficina o la escuela, y entre el cambio de luces del semáforo contestamos con la modorra mañanera una llamada en nuestro teléfono celular; y así se repiten los días, las semanas, los meses, los años, sin reparar que nuestra vida fluye en la comodidad de tantos y tantos inventos que hacen que nuestro diario devenir sea fácil y simple. Y es la ciencia, son los científicos los artífices de todo esto.

ESTEREOTIPO DEL CIENTÍFICOPero insistimos en confundir lo moderno con lo tecnológico, lo científico con lo extravagante. Tenemos estereotipos tan arraigados de lo que debe ser un científico, que

Catedrática del Departamento de Comunicación / ITESM

Ingeniera Claudia Ordaz

Page 18: Revista Conocimiento 47

16 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 49

www.conocimientoenlinea.com

c) Diagnóstico molecular, que consiste en la caracterización molecular de ácidos nucleicos y proteínas para la identificación más exacta y rápida de patógenos y otros organismos.d) Transformación genética, proceso por el cual el material genético llevado por una célula individual es alterado por la incorporación de DNA exógeno dentro de su genoma. Este procedimiento introduce uno o más genes que confieren caracteres potencialmente útiles en plantas, animales y microorganismos.e) Cultivo in vitro de células, tejidos y organismos. Estas técnicas permiten la multiplicación extensiva de algunos genotipos superiores o de especies en peligro de extinción.

La Biotecnología tiene potencial para reducir el uso de insumos industriales en la agricultura; el riesgo de estrés biótico y abiótico; incrementar los rendimientos y mejorar la calidad de los productos agrícolas. Sin embargo, no representa una solución “mágica” para

alcanzar la seguridad alimentaria que el mundo necesita; pero, en conjunción con otras ciencias y disciplinas, como la autoecología, la sociología y la economía agrícola, puede ser una herramienta poderosa en contra de la pobreza y a favor de la productividad agrícola y el uso sostenible de los recursos naturales.

COMENTARIO FINALEl financiamiento de la ciencia básica es importante para la sociedad como un todo, pero generalmente no lo es para un inversionista en particular. Aquéllos que hacen descubrimientos fundamentales, generalmente no se llevan los beneficios económicos, ya que las leyes de la naturaleza no pueden ser patentadas. Además, es difícil predecir el valor y el plazo en que se lograrán productos derivados con valor comercial.

La inversión en Ciencia Básica es un “bien público” costoso de producir, como la seguridad o la salud pública, pero una vez construidos, quedan

disponibles para ser usados por todos, por lo que sólo pueden ser pagados con fondos públicos. Los gobiernos deberían apoyar la Ciencia Básica, sobre la base de los beneficios obtenidos en la cultura general de la población, el conocimiento producido, los productos y tecnologías derivadas y el capital humano desarrollado. Por otra parte, la mayoría de la investigación aplicada debería ser responsabilidad de la iniciativa privada. Cuando se prevé la obtención de beneficios económicos, la iniciativa privada seguramente invertirá.

En este caso, los gobiernos deberían estimular la colaboración entre empresarios y universidades. Algunas excepciones a esta recomendación serían las áreas en que un país tiene un desarrollo incipiente y no existe un sector privado vigoroso, como es el caso de la agricultura en ciertas regiones de México; o bien en temas de interés público, como podrían ser el ambiente, la educación o la salud pública.

Sin ella, no hay progreso ni ciencia aplicada. Ella, por sí sola, expone el empuje de lo más bello que tienen el hombre y la mujer: su necesidad de saber, de orientarse en todo y para todo. A ella compete el conocimiento más vasto: desde el origen del universo hasta la configuración del cerebro y del átomo. Su nombre es tan bello como su radical concepto: ciencia pura.

La ciencia pura, aquélla que en sus orígenes no tiene en cuenta su aplicación práctica, es la que ha movido mentes ilustres de filósofos, sociólogos, científicos de todas las ramas, que desde las diversas escuelas - desde Platón hasta el constructivismo-, han disertado sobre ella.

UTILITARISMO Y CIENCIA PURAHoy, cuando el mundo parece moverse sólo en función del utilitarismo, ésta, la ciencia pura, nos recuerda algo fundamental para nuestra esencia como sociedad: la democratización de las innovaciones pasa necesariamente por el libre ejercicio de la ciencia pura, que históricamente ha permitido avanzar no sólo con aplicaciones pragmáticas derivadas de ésta, sino sobre todo, en el análisis de las alternativas para tomar decisiones filosóficas conscientes que nos lleven al servicio de los valores sociales y ambientales de nuestras comunidades.

La importancia de la ciencia pura como fuente infinita de generación de conocimiento es apoyada incluso por los científicos más destacados del país. Una encuesta

realizada con absoluta seriedad, y dada a conocer en 2005 por la Academia Mexicana de la Ciencia, así lo ratifica.

Un cuestionario enviado vía correo electrónico a 10 mil 990 miembros adscritos al Sistema Nacional de Investigadores, y cuyas demandas respondieron cuatro mil 292 investigadores,

expone la postura de la comunidad científica sobre este concepto: Estado, universidades y sector privado deben apoyar por igual a la ciencia pura y a la aplicada. A pregunta sobre si en este momento en México debe favorecerse el desarrollo de la ciencia y la tecnología, apoyando la investigación aplicada sobre la básica, la comunidad científica nacional no dudó: el 81 por ciento de los investigadores opinó que deben fortalecerse ambas por igual; un 10 por ciento se pronunció por respaldar prioritariamente la investigación aplicada sobre la básica, y el resto se inclinó de manera fundamental por la ciencia pura.

Ellos, los científicos y los investigadores, saben que la rentabilidad de la investigación científica no debe ni puede estar reñida con la razón, la paciencia y la tenacidad que ocupa y

preocupa a la ciencia pura, porque la mayor ganancia de ésta no se traduce necesariamente en millones de dólares, euros o yenes, sino en la mejor y más grande divisa: el universo infinito del hombre.

Doctora Patricia Liliana Cerda PérezInvestigadora / UANL

Page 19: Revista Conocimiento 47

16 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 49

www.conocimientoenlinea.com

c) Diagnóstico molecular, que consiste en la caracterización molecular de ácidos nucleicos y proteínas para la identificación más exacta y rápida de patógenos y otros organismos.d) Transformación genética, proceso por el cual el material genético llevado por una célula individual es alterado por la incorporación de DNA exógeno dentro de su genoma. Este procedimiento introduce uno o más genes que confieren caracteres potencialmente útiles en plantas, animales y microorganismos.e) Cultivo in vitro de células, tejidos y organismos. Estas técnicas permiten la multiplicación extensiva de algunos genotipos superiores o de especies en peligro de extinción.

La Biotecnología tiene potencial para reducir el uso de insumos industriales en la agricultura; el riesgo de estrés biótico y abiótico; incrementar los rendimientos y mejorar la calidad de los productos agrícolas. Sin embargo, no representa una solución “mágica” para

alcanzar la seguridad alimentaria que el mundo necesita; pero, en conjunción con otras ciencias y disciplinas, como la autoecología, la sociología y la economía agrícola, puede ser una herramienta poderosa en contra de la pobreza y a favor de la productividad agrícola y el uso sostenible de los recursos naturales.

COMENTARIO FINALEl financiamiento de la ciencia básica es importante para la sociedad como un todo, pero generalmente no lo es para un inversionista en particular. Aquéllos que hacen descubrimientos fundamentales, generalmente no se llevan los beneficios económicos, ya que las leyes de la naturaleza no pueden ser patentadas. Además, es difícil predecir el valor y el plazo en que se lograrán productos derivados con valor comercial.

La inversión en Ciencia Básica es un “bien público” costoso de producir, como la seguridad o la salud pública, pero una vez construidos, quedan

disponibles para ser usados por todos, por lo que sólo pueden ser pagados con fondos públicos. Los gobiernos deberían apoyar la Ciencia Básica, sobre la base de los beneficios obtenidos en la cultura general de la población, el conocimiento producido, los productos y tecnologías derivadas y el capital humano desarrollado. Por otra parte, la mayoría de la investigación aplicada debería ser responsabilidad de la iniciativa privada. Cuando se prevé la obtención de beneficios económicos, la iniciativa privada seguramente invertirá.

En este caso, los gobiernos deberían estimular la colaboración entre empresarios y universidades. Algunas excepciones a esta recomendación serían las áreas en que un país tiene un desarrollo incipiente y no existe un sector privado vigoroso, como es el caso de la agricultura en ciertas regiones de México; o bien en temas de interés público, como podrían ser el ambiente, la educación o la salud pública.

Sin ella, no hay progreso ni ciencia aplicada. Ella, por sí sola, expone el empuje de lo más bello que tienen el hombre y la mujer: su necesidad de saber, de orientarse en todo y para todo. A ella compete el conocimiento más vasto: desde el origen del universo hasta la configuración del cerebro y del átomo. Su nombre es tan bello como su radical concepto: ciencia pura.

La ciencia pura, aquélla que en sus orígenes no tiene en cuenta su aplicación práctica, es la que ha movido mentes ilustres de filósofos, sociólogos, científicos de todas las ramas, que desde las diversas escuelas - desde Platón hasta el constructivismo-, han disertado sobre ella.

UTILITARISMO Y CIENCIA PURAHoy, cuando el mundo parece moverse sólo en función del utilitarismo, ésta, la ciencia pura, nos recuerda algo fundamental para nuestra esencia como sociedad: la democratización de las innovaciones pasa necesariamente por el libre ejercicio de la ciencia pura, que históricamente ha permitido avanzar no sólo con aplicaciones pragmáticas derivadas de ésta, sino sobre todo, en el análisis de las alternativas para tomar decisiones filosóficas conscientes que nos lleven al servicio de los valores sociales y ambientales de nuestras comunidades.

La importancia de la ciencia pura como fuente infinita de generación de conocimiento es apoyada incluso por los científicos más destacados del país. Una encuesta

realizada con absoluta seriedad, y dada a conocer en 2005 por la Academia Mexicana de la Ciencia, así lo ratifica.

Un cuestionario enviado vía correo electrónico a 10 mil 990 miembros adscritos al Sistema Nacional de Investigadores, y cuyas demandas respondieron cuatro mil 292 investigadores,

expone la postura de la comunidad científica sobre este concepto: Estado, universidades y sector privado deben apoyar por igual a la ciencia pura y a la aplicada. A pregunta sobre si en este momento en México debe favorecerse el desarrollo de la ciencia y la tecnología, apoyando la investigación aplicada sobre la básica, la comunidad científica nacional no dudó: el 81 por ciento de los investigadores opinó que deben fortalecerse ambas por igual; un 10 por ciento se pronunció por respaldar prioritariamente la investigación aplicada sobre la básica, y el resto se inclinó de manera fundamental por la ciencia pura.

Ellos, los científicos y los investigadores, saben que la rentabilidad de la investigación científica no debe ni puede estar reñida con la razón, la paciencia y la tenacidad que ocupa y

preocupa a la ciencia pura, porque la mayor ganancia de ésta no se traduce necesariamente en millones de dólares, euros o yenes, sino en la mejor y más grande divisa: el universo infinito del hombre.

Doctora Patricia Liliana Cerda PérezInvestigadora / UANL

L a ciencia en la medicina o la investigación científica se ha dividido arbitrariamente en

básica, que depende de un experimento llevado a cabo en el laboratorio, o la tipo clínica, que en medicina significa que es aplicable a los enfermos y se lleva a cabo, por lo menos en parte, con pacientes o voluntarios sanos. La separación es arbitraria, y se ha señalado que más que separarla en clínica y básica, la Ciencia o la investigación debe ser de buena calidad y con un componente de “buenos valores” o ético.

La colaboración entre estos mundos “básicos” y “clínicos” se nota en forma relevante en el campo de los trasplantes. En las siguientes líneas se describe una técnica simplificada, desarrollada en la UANL, que ha tenido trascendencia internacional, y que sirve para ejemplificar cómo la colaboración de investigadores en campos “opuestos” permite llevar a muchos enfermos la oportunidad de seguir siendo personas sanas y activas.

Doctor David Gómez AlmaguerJefe del Servicio de Hematología HU/UANL

48 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 17

www.conocimientoenlinea.com

6- Generar asociaciones entre el gobierno federal, las universidades y la industria.

7- Diversificar y coordinar las agencias científicas federales.

8- Mantener el proceso de evaluación mediante expertos que trabajan en el campo en cuestión.

9- Crear y compartir una gran base de información sobre la física.

Quiero agregar dos cosas para concluir. Primeramente, la noticia reciente de que en México faltan ingenieros y que empresas trasnacionales vienen a reclutar y llevarse a otros países los que poseen la mejor formación.

Si a esto agregamos que muchos profesionistas que salen al extranjero para recibir formación como científicos nunca regresan, y que los programas nacionales de formación de científicos son muy incipientes, al menos fuera de la Ciudad de México, es fácil concluir que también en México faltan científicos y tecnólogos.

Como último punto, si bien es cierto que en lo anterior operan las leyes de mercado, si no hay suficientes ingenieros y científicos es porque no hay una demanda de ellos y por eso no ha aumentado la oferta y/o viceversa.

En México no hemos sabido, ni en el sector académico-científico ni en el sector privado ni en el sector público, hacer algo para escapar del círculo vicioso de mercado en el cual la falta de la oferta explica la disminución de la demanda y/o viceversa para crear el círculo virtuoso de mercado en el cual el exceso de la oferta explica el crecimiento de la demanda y/o viceversa.

Hay dos razones por las que creo que los mexicanos estamos atrapados en este impasse. Una que ya insinué cuando escribí: ni en el sector académico-científico ni en el sector privado ni en el sector público: la tremenda falta de colaboración tanto

hacia el interior de las instituciones y organizaciones como hacia fuera de ellas. La segunda razón, que solamente se podrá eliminar después de haber eliminado la primera razón, es que los mexicanos no sabemos hacer un análisis de creación de valor, que es muy diferente de hacer un análisis de egresos e ingresos para llegar a la conclusión que vamos a ganar dinero, aunque no sepamos en realidad de dónde saldrá ese dinero que vamos a ganar.

RENTABILIDAD ECONÓMICAPara romper el círculo vicioso de mercado, cada científico mexicano debería saber explicar con claridad cómo le haría para crear valor de forma que la empresa u organización que lo contrate pueda convertir ese valor en una rentabilidad económica superior a la remuneración recibida.

Cada empresa u organización mexicana debería saber cómo podría crear valor y convertirlo en rentabilidad económica a través de la contratación de científicos y/o tecnólogos con el perfil adecuado, haciendo las inversiones y adecuaciones necesarias a sus instalaciones, a sus funciones y estrategias de negocios, y a su estructura de personal y de gastos. Y, finalmente, cada dependencia del sector público debería poner un gran esfuerzo en poder explicar con claridad a toda la sociedad, cuál es la forma en la que crea valor, necesariamente por encima del presupuesto público que ejerce.

En el caso de las dependencias estatales y federales encargadas de la promoción de la ciencia y la tecnología, la única forma que tienen de crear valor es apoyando a las instituciones del sector académico-científico para que sus profesores e investigadores sepan y practiquen cómo agregar más valor a lo que hacen tanto dentro como fuera de ellas y simultáneamente apoyando a las empresas del sector productivo para que contraten a científicos y tecnólogos que integren nuevos desarrollos tecnológicos dentro de sus procesos productivos y los hagan más competitivos a nivel global.

A esta triple alianza entre los sectores académico-científico, privado y público se le conoce como la “triple hélice” y es el fundamento de la sociedad del conocimiento.

Page 20: Revista Conocimiento 47

18 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 47

www.conocimientoenlinea.com

INTRODUCCIÓNEl objetivo de un trasplante alogénico de células hematopoyéticas (TCH) es el de restaurar la hematopoyesis del enfermo, la cual se encuentra afectada por una enfermedad incurable. Para ello, por muchos años se consideró indispensable destruir al máximo, con quimioterapia y/o radioterapia, las células hematopoyéticas del paciente, para reemplazar el tejido sanguíneo enfermo por el sano, proveniente del donador. Por ello, a este tipo de trasplan-te se le denominó “mieloablativo” o convencional, y por su agresividad y toxicidad secundaria al régimen de preparación, se reservó para enfermos jóvenes y en buenas condiciones generales, usualmente menores de 45 años1. Este tipo de trasplante se asocia a daño en diversos órganos y tejidos, a dificultad para administrar efectivam-ente por vía oral medicamentos para prevenir o tratar infecciones, y a la enfermedad del injerto versus huésped2.

Frecuentemente, los pacientes presentan mucositis, infecciones o enfermedad veno-oclusiva hepática, lo cual a su vez precipita otros eventos que explican por qué la muerte en estos pacientes es más frecuente de lo deseado. Si a ello le sumamos los efectos a largo plazo en los supervivientes, es claro entonces que esta terapia tiene una aplicación limitada y se encuentra lejos de lo ideal. Esto ha hecho necesaria la búsqueda de otras opciones o modalidades para disminuir la toxicidad y conservar la efectividad del trasplante hematopoyético, no sólo para mejorar la calidad de vida del paciente trasplantado, sino también para aumentar la posibilidad de lograr la curación en un mayor número de enfermos. Entre los años 1970 y 1980 se publicaron estudios experimentales que sugerían que la destrucción selectiva del tejido linfoide o “inmunoablación” era suficiente para permitir la tolerancia a aloinjertos; sin embargo, no fue sino hasta 1981 cuando se observó que los enfermos con leucemia sometidos a un trasplante alogénico, y que además desarrollaron la enfermedad del injerto vs el huésped (EICH), tuvieron mejor supervivencia libre de enfermedad; es decir, planteándose un efecto de los linfocitos T del donador contra la leucemia del paciente, mecanismo que contribuía a la eliminación de la

totalidad de las células leucémicas3,4. El terreno para la aparición del trasplante “no mieloablativo” o de “intensidad reducida” se había preparado.

LOS MECANISMOS BIOLÓGICOS DEL TRASPLANTE NO MIELOABLATIVOEl microambiente de la médula ósea está formado por miofibroblastos, fibroblastos, adipositos, osteoblastos, células endoteliales y macrófagos que regulan las células hematopoyéticas mediante citoquinas y factores de crecimiento. Es importante señalar que la célula hematopoyética es multipotente; es decir, tiene la capacidad de auto-renovarse y diferenciarse en más de un tipo celular5,6.

En el trasplante no-mieloablativo, mediante quimioterapia y/o radioterapia de intensidad reducida, se logra que el receptor sea incapaz de rechazar el establecimiento de las células hematopoyéticas alogénicas y de tener una respuesta inmune del injerto contra

el huésped. Los linfocitos provenientes del donador en un trasplante hematopoyético no mieloablativo, son capaces de abrirse paso en esta pluralidad celular, destruyendo median-te citotoxicidad las células supervivien-tes del paciente; en este caso, los linfocitos T y los denominados asesinos son los principalmente responsables del fenómeno. Este efecto se lleva a cabo generalmente en forma progresiva, mediante el establecimiento de una quimera celular con dos poblaciones (quimerismo mixto), una del enfermo y otra del donador, que gradualmente se inclina a favor de las células del donante.

Esto se puede acelerar inyectando al enfermo linfocitos del donador que aceleran la destrucción del tejido hematopoyético residual. Estudios efectuados en Estados Unidos e Israel en perros y ratones demostraron la factibilidad de este fenómeno1. En 1986 se demostró en un niño con leucemia aguda linfoblástica,

NUEVOS RETOSLos seis grandes retos de la nueva física son:

1.- El desarrollo de tecnologías cuánticas:La habilidad para manipular átomos y moléculas en forma individual deberá conducir a las nuevas tecnologías cuánticas con aplicaciones que van desde el desarrollo de nuevos materiales hasta el análisis del genoma humano.

2.- El entendimiento de los sistemas complejos: Los avances teóricos y la capacidad para modelar y simular grandes sistemas utilizando computadoras cada vez mejores, permitirán el entendimiento a un nivel no imaginable hasta hace algunos años, de fenómenos tan complicados como la muerte -por explosión- de las estrellas y el origen y determinación de las propiedades de materiales sumamente complejos.

3.- Aplicación de la física a la biología: Dado que todos los mecanismos biológicos a final de cuentas dependen de las interacciones físicas de las moléculas, la física se sitúa en el centro de las visiones más profundas de la biología.

4.- Creación de nuevos materiales: Materiales muy novedosos deberán ser descubiertos, entendidos y empleados ampliamente dentro de la ciencia y la tecnología.

5.- Exploración del Universo: Nuevos instrumentos -a través de los cuales se deberán estudiar con gran detalle cómo las estrellas, las galaxias, la materia oscura y el Big Bang- revolucionarán nuestro entendimiento del universo, de su origen y de su destino.

6.- Unificar las fuerzas de la naturaleza: Tanto la experimentación como la teoría deberán proveer un nuevo entendimiento de los constituyentes básicos de la materia.

Finalmente, el reporte presenta a quienes tienen la responsabilidad de tomar las decisiones, pero también a toda la sociedad, para la cual todos ellos y todos nosotros trabajamos, las siguientes recomendaciones:1- Invertir en la física.

2- Apoyar el aprendizaje de la física.

3- Apoyar a grupos pequeños de investigadores y a investigadores solitarios.

4- Generar grandes infraestructuras para la investigación sobre la base de la colaboración internacional.

5- Garantizar la seguridad nacional.

Page 21: Revista Conocimiento 47

18 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 47

www.conocimientoenlinea.com

INTRODUCCIÓNEl objetivo de un trasplante alogénico de células hematopoyéticas (TCH) es el de restaurar la hematopoyesis del enfermo, la cual se encuentra afectada por una enfermedad incurable. Para ello, por muchos años se consideró indispensable destruir al máximo, con quimioterapia y/o radioterapia, las células hematopoyéticas del paciente, para reemplazar el tejido sanguíneo enfermo por el sano, proveniente del donador. Por ello, a este tipo de trasplan-te se le denominó “mieloablativo” o convencional, y por su agresividad y toxicidad secundaria al régimen de preparación, se reservó para enfermos jóvenes y en buenas condiciones generales, usualmente menores de 45 años1. Este tipo de trasplante se asocia a daño en diversos órganos y tejidos, a dificultad para administrar efectivam-ente por vía oral medicamentos para prevenir o tratar infecciones, y a la enfermedad del injerto versus huésped2.

Frecuentemente, los pacientes presentan mucositis, infecciones o enfermedad veno-oclusiva hepática, lo cual a su vez precipita otros eventos que explican por qué la muerte en estos pacientes es más frecuente de lo deseado. Si a ello le sumamos los efectos a largo plazo en los supervivientes, es claro entonces que esta terapia tiene una aplicación limitada y se encuentra lejos de lo ideal. Esto ha hecho necesaria la búsqueda de otras opciones o modalidades para disminuir la toxicidad y conservar la efectividad del trasplante hematopoyético, no sólo para mejorar la calidad de vida del paciente trasplantado, sino también para aumentar la posibilidad de lograr la curación en un mayor número de enfermos. Entre los años 1970 y 1980 se publicaron estudios experimentales que sugerían que la destrucción selectiva del tejido linfoide o “inmunoablación” era suficiente para permitir la tolerancia a aloinjertos; sin embargo, no fue sino hasta 1981 cuando se observó que los enfermos con leucemia sometidos a un trasplante alogénico, y que además desarrollaron la enfermedad del injerto vs el huésped (EICH), tuvieron mejor supervivencia libre de enfermedad; es decir, planteándose un efecto de los linfocitos T del donador contra la leucemia del paciente, mecanismo que contribuía a la eliminación de la

totalidad de las células leucémicas3,4. El terreno para la aparición del trasplante “no mieloablativo” o de “intensidad reducida” se había preparado.

LOS MECANISMOS BIOLÓGICOS DEL TRASPLANTE NO MIELOABLATIVOEl microambiente de la médula ósea está formado por miofibroblastos, fibroblastos, adipositos, osteoblastos, células endoteliales y macrófagos que regulan las células hematopoyéticas mediante citoquinas y factores de crecimiento. Es importante señalar que la célula hematopoyética es multipotente; es decir, tiene la capacidad de auto-renovarse y diferenciarse en más de un tipo celular5,6.

En el trasplante no-mieloablativo, mediante quimioterapia y/o radioterapia de intensidad reducida, se logra que el receptor sea incapaz de rechazar el establecimiento de las células hematopoyéticas alogénicas y de tener una respuesta inmune del injerto contra

el huésped. Los linfocitos provenientes del donador en un trasplante hematopoyético no mieloablativo, son capaces de abrirse paso en esta pluralidad celular, destruyendo median-te citotoxicidad las células supervivien-tes del paciente; en este caso, los linfocitos T y los denominados asesinos son los principalmente responsables del fenómeno. Este efecto se lleva a cabo generalmente en forma progresiva, mediante el establecimiento de una quimera celular con dos poblaciones (quimerismo mixto), una del enfermo y otra del donador, que gradualmente se inclina a favor de las células del donante.

Esto se puede acelerar inyectando al enfermo linfocitos del donador que aceleran la destrucción del tejido hematopoyético residual. Estudios efectuados en Estados Unidos e Israel en perros y ratones demostraron la factibilidad de este fenómeno1. En 1986 se demostró en un niño con leucemia aguda linfoblástica,

NUEVOS RETOSLos seis grandes retos de la nueva física son:

1.- El desarrollo de tecnologías cuánticas:La habilidad para manipular átomos y moléculas en forma individual deberá conducir a las nuevas tecnologías cuánticas con aplicaciones que van desde el desarrollo de nuevos materiales hasta el análisis del genoma humano.

2.- El entendimiento de los sistemas complejos: Los avances teóricos y la capacidad para modelar y simular grandes sistemas utilizando computadoras cada vez mejores, permitirán el entendimiento a un nivel no imaginable hasta hace algunos años, de fenómenos tan complicados como la muerte -por explosión- de las estrellas y el origen y determinación de las propiedades de materiales sumamente complejos.

3.- Aplicación de la física a la biología: Dado que todos los mecanismos biológicos a final de cuentas dependen de las interacciones físicas de las moléculas, la física se sitúa en el centro de las visiones más profundas de la biología.

4.- Creación de nuevos materiales: Materiales muy novedosos deberán ser descubiertos, entendidos y empleados ampliamente dentro de la ciencia y la tecnología.

5.- Exploración del Universo: Nuevos instrumentos -a través de los cuales se deberán estudiar con gran detalle cómo las estrellas, las galaxias, la materia oscura y el Big Bang- revolucionarán nuestro entendimiento del universo, de su origen y de su destino.

6.- Unificar las fuerzas de la naturaleza: Tanto la experimentación como la teoría deberán proveer un nuevo entendimiento de los constituyentes básicos de la materia.

Finalmente, el reporte presenta a quienes tienen la responsabilidad de tomar las decisiones, pero también a toda la sociedad, para la cual todos ellos y todos nosotros trabajamos, las siguientes recomendaciones:1- Invertir en la física.

2- Apoyar el aprendizaje de la física.

3- Apoyar a grupos pequeños de investigadores y a investigadores solitarios.

4- Generar grandes infraestructuras para la investigación sobre la base de la colaboración internacional.

5- Garantizar la seguridad nacional.

46 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 19

www.conocimientoenlinea.com

que la curación total era posible con la administración de linfocitos de su hermano, aun después de observarse recaída leucémica postrasplante. En otros casos, el simple hecho de suspender la inmunosupresión utilizada para evitar la reacción de injerto contra el huésped ha permitido obtener remisión de la enfermedad neoplásica que se había activado postrasplante. Esto se ha observado en casos de leucemia, linfoma, mieloma y neoplasias sólidas. La evidencia es suficiente para afirmar con seguridad que la curación de enfermedades hematológicas malignas y benignas es posible mediante mecanismos inmunológicos7. LOS ESQUEMAS DE ACONDICIONAMIENTONO MIELOABLATIVOS La toxicidad y mortalidad de los esquemas de acondicionamiento en el TCH es proporcional a su intensidad8,9. El fundamento de los esquemas no mieloablativos es la inmunosupresión del receptor para favorecer el injerto

del sistema inmune del donador, reduciendo además la toxicidad10. Debido a que la quimio-radioterapia no erradica la hematopoyesis del paciente, es común detectar células mieloides y linfoides, tanto del donador como del paciente al momento que se recupera la cuenta de neutrófilos11. En este estado de quimerismo mixto, el reemplazo completo por células del donador suele ser relativamente rápido; sin embargo, puede tardar de seis a doce meses.

Se han descrito diversas combinaciones de agentes quimioterapéuticos como esquemas de acondicionamiento no mieloablativo; la fludarabina es un elemento constante en la mayoría de estos, gracias a sus propiedades inmunosupresoras, ya que es un medicamento que produce toxicidad directa en los linfocitos, y se utiliza en el tratamiento de linfomas indolentes y de la leucemia linfocítica crónica12,15. Existen muchas variantes de inmunoablación o quimioterapia de intensidad reducida; sin embargo, tres son los esquemas

primordiales o básicos: el grupo de Seattle administra radioterapia a dosis bajas con fludarabina 30 mg/Kg/día por tres días14; en Israel, Slavin y colaboradores utilizan una combinación de busulfán, globulina antitimocito y fludarabina13; en Houston, en los Estados Unidos, Giralt y colaboradores utilizan frecuentemente melfalán intravenoso 100-200 mg/m2 con fludarabina12.

La capacidad de producir daño a la médula ósea del paciente varía en cada esquema de quimioterapia; el esquema menos agresivo es el de Seattle, ya que no produce daño grave o irreversible a la hematopoyesis del enfermo, y es posible tratar a los enfermos sin transfusiones y en forma ambulatoria en muchos casos. Otros esquemas suelen ser moderadamente mielotóxicos. Hemos implementado una variante propia de acondicionamiento no mieloablativo, a partir de los esquemas básicos antes mencionados, con la combinación de fludarabina, busulfán y ciclofosfamida. Debido a

Los transplantes alogénicos han salvado la vida de niños con padecimientos diversos.

comunicación (inalámbrica), sin los cuales nuestra vida sería muy diferente.

Joseph Weber obtuvo el grado de ingeniero eléctrico en la Academia Naval de los Estados Unidos, en 1940, e inmediatamente se incorporó a las acciones militares durante la Segunda Guerra Mundial. Posteriormente fue director de diseño de equipos electrónicos para barcos, gracias a su gran experiencia con el radar (radio detection and ranging). A propósito, tampoco se podría concebir el manejo del tráfico aéreo sin el uso del radar.

Joseph Weber se incorporó a la Universidad de Maryland en 1948. Después de hacer el doctorado en física y pasar el año académico 1955-1956, meses después de la muerte de Albert Einstein, en el Instituto de Estudios Avanzados de Princeton, en los años de la década de 1960 diseñó, construyó y operó no una sino dos “antenas gravitacionales”, una de ellas instalada en College Park y la otra a mil kilómetros de distancia, en Chicago.

La idea es que el paso de un “pulso de onda gravitacional” se detectaría por causar en el cilindro de aluminio una pequeñísima distorsión de sus dimensiones.

INGENIERÍA GRAVITACIONALAunque Weber detectó muchos pulsos que pasaron en forma simultánea por College Park y Chicago, hasta el día de hoy no se ha podido “garantizar” que lo que él detectó fueron ondas gravitacionales y no cualquier otra cosa.

Actualmente existen en operación y en construcción en varias partes del planeta, diseños más avanzados que permitirán no solamente detectar dichas ondas, sino inaugurar ya muy pronto, quizás antes de 2015, lo que será la nueva “ingeniería gravitacional.”

Es cierto que una gran cantidad de la acción en investigación científica básica y aplicada se trasladó a finales del siglo pasado de la física y la química a la biología y la medicina.

Pero también es cierto que se espera un retorno de la acción hacia la física, y quizás también hacia la química, porque parece que este retorno es

absolutamente necesario para disponer de los recursos teóricos que actualmente no se tienen para resolver muchos problemas importantes en las Ciencias de la Vida tales como: conocer los requerimientos mínimos para que un sistema posea lo que llamamos vida, conocer el origen de la sincronización en los mecanismos metabólicos de las células, conocer el origen de la diferenciación celular y de la diferenciación entre las especies, etcétera.

RENACIMIENTO DE LA FÍSICALa Academia Nacional de las Ciencias de los Estados Unidos publicó, en el año 2001, un estudio muy profundo titulado “La física en una nueva era”, que apoya esta visión personal de un renacimiento de la física (teórica) en el siglo XXI.

El reporte anterior establece seis “grandes retos” basados en las siguientes tendencias:

Nuevas áreas de la física están emergiendo como respuesta a técnicas experimentales de alcance y sensibilidad inusitados y a la capacidad, siempre en aumento, de las computadoras (una de ellas podría ser la ingeniería gravitacional que ya mencionamos).

A principios del siglo XXI, la física se ha vuelto más importante para las otras ciencias. Muchos problemas en ciencias muy diversas se han vuelto “problemas dependientes de la física”, lo cual significa que las leyes básicas de la física juegan un papel muy importante en su entendimiento.

La física posee una importancia cada vez mayor para el desarrollo tecnológico y económico. Ha sido un terreno muy fértil para el desarrollo de nuevas tecnologías y seguramente lo seguirá siendo.

La física es ahora tan importante en la solución de problemas en salud, medio ambiente y seguridad nacional, que su aprendizaje es cada vez más necesario.

La física se ha vuelto una “empresa global” que hace que la colaboración científica internacional ocurra por necesidad económica.

Page 22: Revista Conocimiento 47

20 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 45

www.conocimientoenlinea.com

1-Storb R, Non-myeloablative allogeneic

transplantation state-of-the-art. Pediatr

Transplantation. 2004; 8: 12-18.

2-Bearman SI, Appelbaum FR, Buckner CD, et al.

Regimen-related toxicity in patients undergoing

bone marrow transplantation. J Clin Oncol.1998; 6:

1562 – 1568.

3-Weiden PL, Fluornoy N, Thomas ED, et al.

Antileukemic effect of graft-versus-host-disease in

human recipients of allogeneic-marrow-grafts. N

Engl J Med. 1979; 300:1068 – 1073.

4-Horowitz MM, Gale RP, Sondel PM, et al. Graft-

versus-leukemia reactions after bone marrow

transplantation. Blood. 1990; 75: 555 – 562.

5-Weissman IL. Stem cells: units of development,

units of regeneration, and units in evolution. Cell.

2000; 100: 157 – 168.

6-Weissman IL. Translating stem and progenitor

cell biology to the clinic: barriers and opportunities.

Science. 2000; 287: 1442 – 1446.

7-Childs R, Barrett J. Nonmyeloablative allogeneic

immunotherapy for solid tumors. Annu Rev Med.

2004; 55: 459 – 475.

8-Slavin S. Reduced- intensity conditioning

or nonmyeloablative stem transplantation:

introduction, rationale and historic background.

Semin Oncol. 2004; 31: 1 – 3.

9-Saito T, Kanda Y, Kami, et al. Therapeutic

potential of a reduced intensity preparative regimen

for allogeneic transplantation with cladribine,

busulfan and antithymocyte globulin against

advanced/refractory leukemia/lymphoma. Clin

Cancer Res. 2002; 8:1014 – 1020.

10-Childs R, Barrett J. Nonmyeloablative allogeneic

immunotherapy for solid tumors. Annu Rev Med.

2004; 55: 459 – 475.

11-Gómez-Almaguer D, Ruiz-Argüelles GJ,

Ruiz-Argüelles A, et al. Hematopoietic stem cell

allografts using a non-myeloablative conditioning

regimen can be safely performed on an outpatient

basis. Bone Marrow Transplant 2000; 25: 131-133.

12-Gómez-Almaguer D, Ruiz-Argüelles GJ, Tarín-

Arzaga LC, et al. Reduced-intensity stem cell

transplantation in children and adolescents: the

Mexican experience. Biol Blood Marrow Transpl.

2003; 9:157-161.

13-Ruiz-Argüelles GJ, Gómez-Almaguer D,

Gómez-Rangel JD, et al. Allogeneic hematopoietic

stem cell transplantation with non-myeloablative

conditioning in patients with acute leukemia eligible

for conventional allografting: a prospective study.

Leuk. Lymphoma. 2004; 45:1191-1195.

14-Ruiz-Argüelles GJ, Gómez-Almaguer D, Gómez-

Morales E.: Trasplante de células progenitoras

hematopoyéticas. En Góngora-Biachi R. (editor)

Hematología: Actualización 2004. Ediciones de

la Agrupación Mexicana para el Estudio de la

Hematología A.C.

Mérida, México. 2004. pp. 139-148.

las bondades de este esquema, el cual es moderadamente mielotóxico, ha sido posible desarrollar los trasplantes en forma ambulatoria en la mayoría de los casos y reducir considerablemente las complicaciones y en consecuencia los costos. Los enfermos lo toleran adecuadamente, se asocia rara vez a mucositis grave, y no impide la administración de medicamentos por vía oral; las infecciones graves son la excepción, al igual que la enfermedad del injerto vs huésped grado II-IV.

EXPERIENCIA EN MÉXICOEl primer trasplante con el sistema no mieloablativo en nuestro país, se llevó a cabo en octubre de 1998. La paciente fue una joven de 15 años de edad que sufría de beta talasemia mayor. Ella recibió células hematopoyéticas obtenidas de la sangre periférica de su hermana, con buenos resultados; la paciente se encuentra libre de enfermedad y haciendo una vida normal 6 años después del procedimiento.

Desde entonces, en las ciudades de Monterrey y Puebla, utilizando la variante propia de acondicionamiento, hemos llevado a cabo más de 200 transplantes alogénicos, en pacientes con diferentes enfermedades: leucemia granulocítica crónica, leucemia aguda mieloblástica, leucemia aguda linfoblástica, mielodisplasia, linfomas, leucemia linfocítica crónica, enfermedad de Hodgkin, aplasia pura de serie roja, anemia aplásica, adrenoleucodistrofia, síndrome de Hunter y varios tumores sólidos1. En este grupo de pacientes la media para la recuperación de neutrófilos a 0.5 X 10 9 /L fue de 13 días, mientras que el tiempo para la recuperación plaquetaria a un nivel de 20 X 10 9/L fue de 12 días.

Cincuenta y siete pacientes no requirieron transfusiones de glóbulos rojos, y 50 no requirieron transfusiones de plaquetas. En 120 pacientes el procedimiento se pudo llevar a cabo en forma totalmente ambulatoria.

El tiempo de seguimiento es de 30 a 2 mil 190 días; el 53 por ciento de los enfermos han desarrollado enfermedad de injerto contra el huésped, aguda, y el 33 por ciento desarrollaron la forma crónica. La supervivencia a mil 200 días es del 57 por ciento, mientras que la supervivencia mediana no ha sido alcanzada. La mortalidad relacionada con el transplante fue del 24 por ciento16,

37, 38 y la mortalidad en los primeros 100 días pos-trasplante, de 10 por ciento.

La causa más común de muerte, tratándose de las enfermedades neoplásicas, ha sido la recaída de la enfermedad, en especial en los casos de enfermedades avanzadas al momento del trasplante, lo cual es también la experiencia internacional.

El paciente de menor edad transplantado tiene menos de un año, sufría de leucemia aguda linfoblástica y se encuentra actualmente libre de enfermedad, sin complicaciones a un año del transplante, en tanto que el paciente de mayor edad es un paciente de 71 años de edad con leucemia granulocítica crónica, resistente al imatinib, quien se encuentra libre de enfermedad ocho meses después del transplante.

Con la variante del esquema no mieloablativo utilizada por nosotros se han llevado a cabo también de manera exitosa trasplantes de células de cordón umbilical (placentarias) tanto en niños como en adultos.

Resonancia magnética nuclear de cráneo. Lesiones hiperintensas en región talámica bilateral.

Tomografía axial computadorizada de cráneo. Lesiones hipodensas en región talámica bilateral.

Varias veces he pensado que si tuviera que decidir hoy en qué disciplina me gustaría hacer un doctorado, la decisión podría ser en las

“Ciencias de la Vida”. Fue entre los años 1967 y 1971 cuando estudié, en el campus College Park, de la Universidad de Maryland, muy cerca de Washington, D.C., el doctorado en física.

En ese entonces, el Departamento de Física y Astronomía tenía profesores-investigadores que la situaban entre las prime-ras diez universidades en esa disciplina dentro de Estados Unidos. Hace menos de dos años, tuve la oportunidad de visitarla y platicar con quien fue mi asesor de tesis. Me comentó que la acción se trasladó desde hace muchos años del campus College Park al campus Baltimore, en donde se concentran las Ciencias de la Vida. También me comentó que actualmente la mayoría de los estudiantes del doctorado en física son asiáticos.

DETECCIÓN DE ONDAS GRAVITACIONALES

Estoy terminando de leer el libro titulado La sinfonía inconclusa de Einstein.

Narra el esfuerzo, hasta el día de hoy inconcluso, iniciado en 1969

en la Universidad de Maryland, por mi maestro de mecánica

cuántica, Joseph Weber, para diseñar, construir y operar un aparato capaz de detectar “ondas gravitacionales”.

Albert Einstein presentó, a finales de 1915, su famosa “teoría de la relatividad general” de cuyas ecuaciones se deduce la existencia de

“perturbaciones del campo gravitacional local (o sea

de la curvatura del espacio-tiempo) que se propagan

con la velocidad de la luz” de forma similar a la cual, de las

ecuaciones de Maxwell, se deduce la existencia de “perturbaciones del

campo electromagnético local que se propagan con la velocidad de la luz”, o

sea de las “ondas electromagnéticas” que son el fundamento de todos los sistemas locales y espaciales de

Director de Prospectiva Científica y Tecnológica

Doctor Juan Lauro Aguirre Villafaña

Page 23: Revista Conocimiento 47

20 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 45

www.conocimientoenlinea.com

1-Storb R, Non-myeloablative allogeneic

transplantation state-of-the-art. Pediatr

Transplantation. 2004; 8: 12-18.

2-Bearman SI, Appelbaum FR, Buckner CD, et al.

Regimen-related toxicity in patients undergoing

bone marrow transplantation. J Clin Oncol.1998; 6:

1562 – 1568.

3-Weiden PL, Fluornoy N, Thomas ED, et al.

Antileukemic effect of graft-versus-host-disease in

human recipients of allogeneic-marrow-grafts. N

Engl J Med. 1979; 300:1068 – 1073.

4-Horowitz MM, Gale RP, Sondel PM, et al. Graft-

versus-leukemia reactions after bone marrow

transplantation. Blood. 1990; 75: 555 – 562.

5-Weissman IL. Stem cells: units of development,

units of regeneration, and units in evolution. Cell.

2000; 100: 157 – 168.

6-Weissman IL. Translating stem and progenitor

cell biology to the clinic: barriers and opportunities.

Science. 2000; 287: 1442 – 1446.

7-Childs R, Barrett J. Nonmyeloablative allogeneic

immunotherapy for solid tumors. Annu Rev Med.

2004; 55: 459 – 475.

8-Slavin S. Reduced- intensity conditioning

or nonmyeloablative stem transplantation:

introduction, rationale and historic background.

Semin Oncol. 2004; 31: 1 – 3.

9-Saito T, Kanda Y, Kami, et al. Therapeutic

potential of a reduced intensity preparative regimen

for allogeneic transplantation with cladribine,

busulfan and antithymocyte globulin against

advanced/refractory leukemia/lymphoma. Clin

Cancer Res. 2002; 8:1014 – 1020.

10-Childs R, Barrett J. Nonmyeloablative allogeneic

immunotherapy for solid tumors. Annu Rev Med.

2004; 55: 459 – 475.

11-Gómez-Almaguer D, Ruiz-Argüelles GJ,

Ruiz-Argüelles A, et al. Hematopoietic stem cell

allografts using a non-myeloablative conditioning

regimen can be safely performed on an outpatient

basis. Bone Marrow Transplant 2000; 25: 131-133.

12-Gómez-Almaguer D, Ruiz-Argüelles GJ, Tarín-

Arzaga LC, et al. Reduced-intensity stem cell

transplantation in children and adolescents: the

Mexican experience. Biol Blood Marrow Transpl.

2003; 9:157-161.

13-Ruiz-Argüelles GJ, Gómez-Almaguer D,

Gómez-Rangel JD, et al. Allogeneic hematopoietic

stem cell transplantation with non-myeloablative

conditioning in patients with acute leukemia eligible

for conventional allografting: a prospective study.

Leuk. Lymphoma. 2004; 45:1191-1195.

14-Ruiz-Argüelles GJ, Gómez-Almaguer D, Gómez-

Morales E.: Trasplante de células progenitoras

hematopoyéticas. En Góngora-Biachi R. (editor)

Hematología: Actualización 2004. Ediciones de

la Agrupación Mexicana para el Estudio de la

Hematología A.C.

Mérida, México. 2004. pp. 139-148.

las bondades de este esquema, el cual es moderadamente mielotóxico, ha sido posible desarrollar los trasplantes en forma ambulatoria en la mayoría de los casos y reducir considerablemente las complicaciones y en consecuencia los costos. Los enfermos lo toleran adecuadamente, se asocia rara vez a mucositis grave, y no impide la administración de medicamentos por vía oral; las infecciones graves son la excepción, al igual que la enfermedad del injerto vs huésped grado II-IV.

EXPERIENCIA EN MÉXICOEl primer trasplante con el sistema no mieloablativo en nuestro país, se llevó a cabo en octubre de 1998. La paciente fue una joven de 15 años de edad que sufría de beta talasemia mayor. Ella recibió células hematopoyéticas obtenidas de la sangre periférica de su hermana, con buenos resultados; la paciente se encuentra libre de enfermedad y haciendo una vida normal 6 años después del procedimiento.

Desde entonces, en las ciudades de Monterrey y Puebla, utilizando la variante propia de acondicionamiento, hemos llevado a cabo más de 200 transplantes alogénicos, en pacientes con diferentes enfermedades: leucemia granulocítica crónica, leucemia aguda mieloblástica, leucemia aguda linfoblástica, mielodisplasia, linfomas, leucemia linfocítica crónica, enfermedad de Hodgkin, aplasia pura de serie roja, anemia aplásica, adrenoleucodistrofia, síndrome de Hunter y varios tumores sólidos1. En este grupo de pacientes la media para la recuperación de neutrófilos a 0.5 X 10 9 /L fue de 13 días, mientras que el tiempo para la recuperación plaquetaria a un nivel de 20 X 10 9/L fue de 12 días.

Cincuenta y siete pacientes no requirieron transfusiones de glóbulos rojos, y 50 no requirieron transfusiones de plaquetas. En 120 pacientes el procedimiento se pudo llevar a cabo en forma totalmente ambulatoria.

El tiempo de seguimiento es de 30 a 2 mil 190 días; el 53 por ciento de los enfermos han desarrollado enfermedad de injerto contra el huésped, aguda, y el 33 por ciento desarrollaron la forma crónica. La supervivencia a mil 200 días es del 57 por ciento, mientras que la supervivencia mediana no ha sido alcanzada. La mortalidad relacionada con el transplante fue del 24 por ciento16,

37, 38 y la mortalidad en los primeros 100 días pos-trasplante, de 10 por ciento.

La causa más común de muerte, tratándose de las enfermedades neoplásicas, ha sido la recaída de la enfermedad, en especial en los casos de enfermedades avanzadas al momento del trasplante, lo cual es también la experiencia internacional.

El paciente de menor edad transplantado tiene menos de un año, sufría de leucemia aguda linfoblástica y se encuentra actualmente libre de enfermedad, sin complicaciones a un año del transplante, en tanto que el paciente de mayor edad es un paciente de 71 años de edad con leucemia granulocítica crónica, resistente al imatinib, quien se encuentra libre de enfermedad ocho meses después del transplante.

Con la variante del esquema no mieloablativo utilizada por nosotros se han llevado a cabo también de manera exitosa trasplantes de células de cordón umbilical (placentarias) tanto en niños como en adultos.

Resonancia magnética nuclear de cráneo. Lesiones hiperintensas en región talámica bilateral.

Tomografía axial computadorizada de cráneo. Lesiones hipodensas en región talámica bilateral.

Varias veces he pensado que si tuviera que decidir hoy en qué disciplina me gustaría hacer un doctorado, la decisión podría ser en las

“Ciencias de la Vida”. Fue entre los años 1967 y 1971 cuando estudié, en el campus College Park, de la Universidad de Maryland, muy cerca de Washington, D.C., el doctorado en física.

En ese entonces, el Departamento de Física y Astronomía tenía profesores-investigadores que la situaban entre las prime-ras diez universidades en esa disciplina dentro de Estados Unidos. Hace menos de dos años, tuve la oportunidad de visitarla y platicar con quien fue mi asesor de tesis. Me comentó que la acción se trasladó desde hace muchos años del campus College Park al campus Baltimore, en donde se concentran las Ciencias de la Vida. También me comentó que actualmente la mayoría de los estudiantes del doctorado en física son asiáticos.

DETECCIÓN DE ONDAS GRAVITACIONALES

Estoy terminando de leer el libro titulado La sinfonía inconclusa de Einstein.

Narra el esfuerzo, hasta el día de hoy inconcluso, iniciado en 1969

en la Universidad de Maryland, por mi maestro de mecánica

cuántica, Joseph Weber, para diseñar, construir y operar un aparato capaz de detectar “ondas gravitacionales”.

Albert Einstein presentó, a finales de 1915, su famosa “teoría de la relatividad general” de cuyas ecuaciones se deduce la existencia de

“perturbaciones del campo gravitacional local (o sea

de la curvatura del espacio-tiempo) que se propagan

con la velocidad de la luz” de forma similar a la cual, de las

ecuaciones de Maxwell, se deduce la existencia de “perturbaciones del

campo electromagnético local que se propagan con la velocidad de la luz”, o

sea de las “ondas electromagnéticas” que son el fundamento de todos los sistemas locales y espaciales de

Director de Prospectiva Científica y Tecnológica

Doctor Juan Lauro Aguirre Villafaña

44 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 21

www.conocimientoenlinea.com

LA CIENCIA Y SU FINALIDAD

Etimológicamente, la palabra Ciencia se deriva del latín scire, que significa saber, y se ocupa de producir conocimiento.

Los conocimientos aislados son poco útiles. Es necesario ordenarlos de tal manera que nos permitan llegar a conclusiones válidas, a explicaciones de los fenómenos, y, basados en estos conocimientos, enunciar leyes o teorías, que a su vez nos permitan establecer predicciones.

La ciencia busca el conocimiento por el conocimiento mismo. Responde a preguntas de la realidad física; es decir, que requieren de una experiencia empírica medible. Por ello, los temas relativos a la religión no son materia de estudio de la ciencia. La Ciencia pone a prueba verdades provisionales (hipótesis), susceptibles de aceptación o rechazo. Éstas deben ser confrontadas mediante la experimentación o la observación. Las verdades postuladas por los investigadores se revisan constantemente y se les reemplaza a la luz de nuevas observaciones o datos.

Antes de Louis Pasteur, se tenía por verdad la teoría de la generación espontánea. Los partidarios de ésta aseguraban: “como partiendo de una sustancia informe, un limo vaporoso en estado de agitación desde hace millones de años, que va resolviéndose en una ordenada procesión ascendente de seres vivos hasta llegar al mono y, por último, como si fuera el paso triunfal, al hombre”.

Doctor Salvador Said-Fernández Director del Centro de Investigación Biomédica del Noreste / IMSS

Doctora Herminia G. Martínez-RodríguezJefa del Departamento de BioquímicaFacultad de Medicina / UANL

Louis Pasteur (1822 – 1895) Científico francés.

actual de la Enseñanza de las Ciencias se centra precisamente en que los alumnos realicen una actividad científica escolar. Se trata de generar un contexto de participación en una actividad genuina y relevante para los alumnos, donde hay congruencia entre pensamiento, lenguaje y acción. En esta actividad se integran tanto los ejes epistemológico (de la generación y validación del conocimiento), como praxeológico (de las prácticas, acciones y decisiones) y axiológico (del sistema de valores). En la Ciencia Escolar, se toman en cuenta no sólo los modelos teóricos que los alumnos han de construir, sino las acciones y motivaciones que les dan significado; es decir, la actividad que en torno a ellos se desarrolla, así como el contexto de generación, validación y uso del conocimiento.

ENSEÑANZA DE UNA CIENCIA ESCOLARLa propuesta de afrontar la enseñanza de las ciencias como una Ciencia Escolar, aunada a otras propuestas que se han venido realizando desde las investigaciones en didáctica de las ciencias, ha dado lugar a una nueva mirada sobre la actividad en el aula de ciencias. Ésta se centra en la actividad del alumno y en su introducción paulatina en una cultura científica que da sentido a su participación. Algunas de las características de esta actividad son:

-Los alumnos han de generar un pensamiento teórico sobre los fenómenos del mundo; es decir, han de construir modelos teóricos, apoyados en la experimentación, la construcción de evidencias y la reformulación de las ideas. Algunos modelos básicos a construir en la escuela son, por ejemplo, el de ser vivo, el de planeta Tierra, el de fuerzas en interacción, o el de cambio químico. Estos modelos se construyen paulatinamente a lo largo de varios ciclos escolares, durante los cuales se van complejizando (incluyendo más nociones, elementos y relaciones) y más fenómenos interpretados, ampliando las generalizaciones de partida. Por ejemplo, en el modelo de ser vivo se tratan la reproducción, la nutrición y la relación. Dentro de esta última, en la escuela primaria se construyen las ideas de órganos de los sentidos y sistema nervioso, en la secundaria la idea de

- Los alumnos han de tener comprensión de la situación y participar activamente en la toma de decisiones, donde se incluye el trabajo en equipo, la cooperación, la regulación. Se trata aquí de la generación y resolución de problemas auténticos; por ejemplo, impacto en la flora y fauna local de alguna perturbación ambiental como los incendios forestales o la construcción de fraccionamientos, elaboración de propuestas para el tratamiento de algún contaminante presente en la zona, etcétera.

-Los participantes han de reconocer valores asociados a la práctica. Tanto las respuestas como las formas de afrontar los problemas se relacionan no sólo con los conocimientos científicos, sino con las valoraciones sociales y personales de los participantes que han de asumir una postura. Pensemos, por ejemplo, en el caso de la construcción de fraccionamientos y la reducción de

áreas naturales, o en el tratamiento de contaminantes industriales o en la clonación, etcétera. Temáticas en que ha de reconocerse que hay valoraciones diversas por los participantes de la toma de decisiones.

-Por otra parte, si bien los alumnos han de crear una genuina actividad científica en el aula, también han de reconocer la actividad científica que se ha generado por los científicos a lo largo de la historia. Han de entender la naturaleza de dicha actividad, en la que las ideas se debaten y evolucionan y, especialmente, han de identificar los contextos socio-históricos, las controversias, la generación de anoma-lías y el papel del desarrollo tecnológico tanto en la obtención de nuevos datos empíricos, como en las posibilidades de organización y comunicación de los mismos. En el caso de las perturbaciones ambientales, por ejemplo, la noción misma de perturbación, generada desde la ecología, se ha reformulado de acuerdo a los impactos que las sociedades han tenido sobre los ecosistemas. Incorporar el estudio de la historia de esta noción nos permite ver cómo los momentos históricos y la cosmovisión del mundo influyen en las posturas que la ciencia adopta ante los diversos problemas. La Educación Ambiental misma, como eje transversal de la Enseñanza de las Ciencias, ha generado diversas formas de conceptualizar lo que es un problema ambiental.

PARTICIPACIÓNDE DIFERENTES ACTORESFinalmente, cabe mencionar que los elementos mencionados con antelación constituyen tan sólo un acercamiento a la complejidad con que nos enfrentamos al hablar de la Enseñanza de las Ciencias en nuestra sociedad actual. La concepción misma de lo que significa enseñar ciencias es objeto de discusión. Discusión que está abierta a la participación de los diferentes actores (alumnos, docentes, administrativos, investigadores, divulgadores, etcétera). En este breve artículo he presentado una propuesta, que pretende aportar a la construcción de una nueva visión de la Enseñanza de las Ciencias, y que es fruto de la actividad de investigación que realizamos en el Cinvestav Unidad Monterrey, en el área de Educación en Ciencias.

receptores y transmisión eléctrica de impulsos, etc.

-Los alumnos han de comunicar sus ideas (de forma oral, escrita y gráfica), incorporando la argumentación, la retórica y la apropiación de un lenguaje especializado, fruto de la generación de una nueva mirada sobre los fenómenos del mundo. Al mismo tiempo se han de apropiar de las herramientas útiles para usar y operar con el conocimiento, incluyendo la tecnología. Siguiendo con el ejemplo anterior, para el modelo ser vivo resulta relevante el uso del microscopio, las salidas al campo para registrar regularidades, el uso de la multicausalidad al explicar, la incorporación del lenguaje científico, etcétera.

Page 24: Revista Conocimiento 47

22 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 43

www.conocimientoenlinea.com

Pasteur, apoyado por los consejos de Antonio Jerónimo Balard, demostró que esta teoría estaba equivocada y que muchas enfermedades, sobre todo de las vides y del gusano de seda (especies con las que trabajó) eran causadas por “animalillos” (ahora conocidos como bacterias).

Aún en tiempos de Pasteur, los naturalis-tas pensaban que la tuberculosis se debía al influjo de los miasmas de los pantanos; pero el médico alemán Heinrich Hermann Robert Koch demostró en 1882 que el agente causal de la tuberculosis era un bacilo ácido-alcohol resistente, que originalmente se llamó el “Bacilo de Koch”, en honor de su descubridor. Ahora, esta bacteria se conoce universalmente como Mycobacterium tuberculosis, y se sabe que hay otras micobacterias que también son agentes causales de tuberculosis. Koch es el autor de los postulados que llevan su nombre, por lo cual recibió el premio Nobel en 1905.

La palabra malaria es una contracción de “mal aire”. Se pensaba que el “mal aire” era el responsable del paludismo. Sabemos ahora que mosquitos que se desarrollan en aguas estancadas en pantanos, charcos y en toda clase de recipientes descuidados, son los vectores de los protozoarios parásitos causantes de la malaria, llamados Plasmodium vivax, P. falciparum y P. malariae y P. ovale.

En conclusión, el producto de la Ciencia es el conocimiento, el cual responde a preguntas que nos permiten llegar a conclusiones sobre fenómenos, mayoritariamente naturales. La Ciencia es un creciente cuerpo de entendimiento que nos permite enfrentar más efectivamente nuestro ambiente y adaptarnos tanto social como individualmente.

CIENCIA BÁSICA, CIENCIA APLICADA Y TECNOLOGÍAA pesar de que Ciencia Básica y ciencia aplicada son términos muy utilizados, esta clasificación no es adecuada. En cambio, sí pueden clasificarse como ciencias exactas: matemática, lógica, química y física y astronomía; y ciencias no exactas, que son el resto. La aplicación de los conocimientos producidos por el trabajo científico no

es suficiente para resolver problemas prácticos, para mejorar la calidad de vida de la humanidad. Se requiere otro campo tan importante y válido como la ciencia: la tecnología. El conocimiento tecnológico está orientado a la solución de problemas complejos y a la toma de decisiones en cuestiones que afectan a la sociedad.

La ciencia y la tecnología se potencian mutuamente, y concebidas en su grado actual de desarrollo, sería casi imposible que evolucionase una sin la otra. Entonces, cuando hablamos de adelantos científicos aplicados a equipos, técnicas o sustancias médicas, necesariamente tenemos que hablar también de la contribución amalgamada de la ciencia y de la tecnología. Aquí pretendemos

Los antiguos y nuevos conocimientos atesorados por la humanidad son como una malla que se entreteje intrincadamente. Esta malla crece en espiral, cada vez más rápidamente. Algunos de estos conocimientos, después de años o tal vez siglos de experiencia, son la culminación de incontables estudios que fueron aplicados a la Medicina a corto o mediano plazo. Muchos de estos descubrimientos impulsaron, a su vez, investigaciones cruciales para llegar a nuevos y más asombrosos conocimientos.

LA RADIACTIVIDAD El radio (del Latín radius, rayo) fue descubierto en 1898 por Marie Curié y su marido Pierre. En 1902, el radio fue aislado por Curié y André Debierne mediante la electrolisis de una solución de cloruro puro de radio usando un cátodo de mercurio en una atmósfera de hidrógeno.

Al buscar Marie Curié un proyecto de investigación para su tesis doctoral, se interesó en una publicación de Antoine Henri Becquerel, quien había descubierto que las sales de uranio emitían espontáneamente, sin exposición a la luz, ciertos rayos de naturaleza desconocida. Un compuesto de uranio colocado sobre una placa fotográfica cubierta de papel negro, dejaba una impresión en la placa a través del papel. Era la primera observación del fenómeno al que Marie Curié bautizó después como radiactividad. Este conocimiento permitió utilizar la radiactividad para diagnósticos de tumores, el funcionamiento de órganos y el tratamiento de tumores (radioterapia).

LOS RAYOS XLos rayos X son radiaciones electromagnéticas de longitud de onda corta, capaces de penetrar la materia hasta cierta profundidad, dependiendo de su naturaleza. El 8 de noviembre de 1895, Wilhelm Conrad Roentgen descubrió accidentalmente una imagen originada en su generador de rayos catódicos, la cual se había proyectado más lejos que el posible rango de su haz. Cuando investigó, encontró que el fenómeno se había producido al pasar el haz de rayos catódicos por el interior de un tubo de vacío. Estos nuevos rayos no eran reflejados por campos magnéticos

Radiografía de rayos X

comentar algunas contribuciones de la Ciencia a la Medicina. Debemos tener en cuenta que los conocimientos que señalaremos fueron tomados por la tecnología como punto de partida para llegar al producto final, aplicado a la Medicina.

ALGUNAS CONTRIBUCIONES DE LA CIENCIA A LA MEDICINALa Medicina se ha beneficiado de los conocimientos científicos desde hace mucho tiempo. Prácticamente todas las ciencias han contribuido a su desarrollo, Durante los siglos XIX, XX y lo transcurrido del siglo XXI se han producido los avances médicos más espectaculares, impulsados por la investigación científica y tecnológica.

que se desarrollan en el planteamiento y la resolución de problemas. Aunque pudiera parecer que la primera y la segunda parte presentan enfoques distintos, se trata realmente de dos miradas complementarias, que nos acercan a la complejidad de la tarea a emprender para dar sentido a la actividad científica escolar.

LA ACTIVIDAD EN UNA CIENCIA PARA TODOSDesde la fundación de la Secretaría de Educación Pública en 1921, la cobertura de la educación escolarizada ha crecido significativamente. La Educación Básica en México está atendiendo, durante el ciclo escolar 2006-2007, según datos aportados por la SEP en su página Web, a 25 millones de alumnos entre los cinco y los 15 años de edad, que representan la cuarta parte de la población total del país y el 77.4 por ciento de la matrícula del Sistema Educativo Nacional Escolarizado. La obligatoriedad de la Educación Básica en México responde a la búsqueda de una educación para todos. Esta educación ha venido ampliando y enriqueciendo el significado de la noción de Alfabetización. Una de las ideas introducidas en los últimos años es que la alfabetización no solamente incluye el aprendizaje de la lectura y la escritura, sino la posibilidad de acceder a otros conjuntos de símbolos significativos que la gente usa para hacer inteligibles sus vidas. Estos signos crean sistemas de significados que forman parte de una cultura específica, en palabras del antropólogo Clifford Geertz:

“Los sistemas de significados son necesariamente la propiedad colectiva de un grupo. Cuando decimos que no comprendemos las acciones de personas de otra cultura distinta de la nuestra, estamos reconociendo que no estamos familiarizados con el universo imaginativo en el que sus actos son signos”.

Una de las finalidades de la Enseñanza de las Ciencias es permitir a los alumnos generar nuevos sistemas de significado en el “universo imaginativo” de la sociedad actual. Aquí, el aprendizaje está entendido como una práctica situada, que se constituye en la capacidad de participación en cambiantes procesos de actividad humana. Situándonos en una sociedad caracterizada por la

Clifford James GeertzClifford James Geertz (1926 - 2006) fue un antropólogo estadounidense que ocupaba el puesto de profesor emérito en el Institute for Advanced Study, de la Universidad de Princeton, Nueva Jersey.

Luego de servir en la Marina de los Estados Unidos durante la Segunda Guerra Mundial, (1943-45), Geertz estudió en el Antioch College, donde obtuvo el grado de bachiller en 1950, y luego se doctoró en Harvard como doctor en Filosofía en 1956.

Pasó por varias escuelas antes de formar parte del equipo de antropólogos de la Universidad de Chicago (1960-70); posteriormente se convirtió en profesor de ciencias sociales del Institute for Advanced Study en Princeton de 1970-2000, donde fue emérito hasta su muerte, el 30 de octubre de 2006. Recibió un doctorado honorífico del Bates College en 1980.

desigualdad en el acceso a la ciencia y a la tecnología, dicha participación no se limita únicamente a ser usuarios y destinatarios de los saberes científicos y los avances tecnológicos, sino también a la capacidad de participar en su gestión y desarrollo.

CARACTERÍSTICAS DE LA ACTIVIDAD CIENTÍFICA ESCOLARPodemos caracterizar a la ciencia como una actividad humana donde se produce y se usa el conocimiento. Partiendo de ello, la Enseñanza de las Ciencias debiera permitir a los alumnos generar conocimiento y operar con él. Es decir, durante la educación básica, media y superior, los alumnos han de realizar actividades que les permitan, por ejemplo, convertir las observaciones en evidencias; plantear preguntas significativas; diseñar formas de evaluar los resultados obtenidos; identificar datos anómalos; comunicar las ideas, produciendo argumentos coherentes; planificar sus acciones, atendiendo a una teoría; trabajar en equipo, aportando elementos a la resolución de un problema; incorporar un lenguaje especializado, dando nuevo sentido a sus observaciones; generar nuevos instrumentos y procedimientos para resolver las preguntas planteadas y regular los procesos y evaluar la eficiencia de los mismos. Estas actividades forman parte básica de la actividad científica y han también de formar parte básica de una actividad científica escolar.

Por tanto, la Enseñanza de las Ciencias no ha de limitarse a la transmisión de las teorías y modelos científicos aceptados y a la presentación de los avances tecnológicos. El mayor reto

Page 25: Revista Conocimiento 47

22 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 43

www.conocimientoenlinea.com

Pasteur, apoyado por los consejos de Antonio Jerónimo Balard, demostró que esta teoría estaba equivocada y que muchas enfermedades, sobre todo de las vides y del gusano de seda (especies con las que trabajó) eran causadas por “animalillos” (ahora conocidos como bacterias).

Aún en tiempos de Pasteur, los naturalis-tas pensaban que la tuberculosis se debía al influjo de los miasmas de los pantanos; pero el médico alemán Heinrich Hermann Robert Koch demostró en 1882 que el agente causal de la tuberculosis era un bacilo ácido-alcohol resistente, que originalmente se llamó el “Bacilo de Koch”, en honor de su descubridor. Ahora, esta bacteria se conoce universalmente como Mycobacterium tuberculosis, y se sabe que hay otras micobacterias que también son agentes causales de tuberculosis. Koch es el autor de los postulados que llevan su nombre, por lo cual recibió el premio Nobel en 1905.

La palabra malaria es una contracción de “mal aire”. Se pensaba que el “mal aire” era el responsable del paludismo. Sabemos ahora que mosquitos que se desarrollan en aguas estancadas en pantanos, charcos y en toda clase de recipientes descuidados, son los vectores de los protozoarios parásitos causantes de la malaria, llamados Plasmodium vivax, P. falciparum y P. malariae y P. ovale.

En conclusión, el producto de la Ciencia es el conocimiento, el cual responde a preguntas que nos permiten llegar a conclusiones sobre fenómenos, mayoritariamente naturales. La Ciencia es un creciente cuerpo de entendimiento que nos permite enfrentar más efectivamente nuestro ambiente y adaptarnos tanto social como individualmente.

CIENCIA BÁSICA, CIENCIA APLICADA Y TECNOLOGÍAA pesar de que Ciencia Básica y ciencia aplicada son términos muy utilizados, esta clasificación no es adecuada. En cambio, sí pueden clasificarse como ciencias exactas: matemática, lógica, química y física y astronomía; y ciencias no exactas, que son el resto. La aplicación de los conocimientos producidos por el trabajo científico no

es suficiente para resolver problemas prácticos, para mejorar la calidad de vida de la humanidad. Se requiere otro campo tan importante y válido como la ciencia: la tecnología. El conocimiento tecnológico está orientado a la solución de problemas complejos y a la toma de decisiones en cuestiones que afectan a la sociedad.

La ciencia y la tecnología se potencian mutuamente, y concebidas en su grado actual de desarrollo, sería casi imposible que evolucionase una sin la otra. Entonces, cuando hablamos de adelantos científicos aplicados a equipos, técnicas o sustancias médicas, necesariamente tenemos que hablar también de la contribución amalgamada de la ciencia y de la tecnología. Aquí pretendemos

Los antiguos y nuevos conocimientos atesorados por la humanidad son como una malla que se entreteje intrincadamente. Esta malla crece en espiral, cada vez más rápidamente. Algunos de estos conocimientos, después de años o tal vez siglos de experiencia, son la culminación de incontables estudios que fueron aplicados a la Medicina a corto o mediano plazo. Muchos de estos descubrimientos impulsaron, a su vez, investigaciones cruciales para llegar a nuevos y más asombrosos conocimientos.

LA RADIACTIVIDAD El radio (del Latín radius, rayo) fue descubierto en 1898 por Marie Curié y su marido Pierre. En 1902, el radio fue aislado por Curié y André Debierne mediante la electrolisis de una solución de cloruro puro de radio usando un cátodo de mercurio en una atmósfera de hidrógeno.

Al buscar Marie Curié un proyecto de investigación para su tesis doctoral, se interesó en una publicación de Antoine Henri Becquerel, quien había descubierto que las sales de uranio emitían espontáneamente, sin exposición a la luz, ciertos rayos de naturaleza desconocida. Un compuesto de uranio colocado sobre una placa fotográfica cubierta de papel negro, dejaba una impresión en la placa a través del papel. Era la primera observación del fenómeno al que Marie Curié bautizó después como radiactividad. Este conocimiento permitió utilizar la radiactividad para diagnósticos de tumores, el funcionamiento de órganos y el tratamiento de tumores (radioterapia).

LOS RAYOS XLos rayos X son radiaciones electromagnéticas de longitud de onda corta, capaces de penetrar la materia hasta cierta profundidad, dependiendo de su naturaleza. El 8 de noviembre de 1895, Wilhelm Conrad Roentgen descubrió accidentalmente una imagen originada en su generador de rayos catódicos, la cual se había proyectado más lejos que el posible rango de su haz. Cuando investigó, encontró que el fenómeno se había producido al pasar el haz de rayos catódicos por el interior de un tubo de vacío. Estos nuevos rayos no eran reflejados por campos magnéticos

Radiografía de rayos X

comentar algunas contribuciones de la Ciencia a la Medicina. Debemos tener en cuenta que los conocimientos que señalaremos fueron tomados por la tecnología como punto de partida para llegar al producto final, aplicado a la Medicina.

ALGUNAS CONTRIBUCIONES DE LA CIENCIA A LA MEDICINALa Medicina se ha beneficiado de los conocimientos científicos desde hace mucho tiempo. Prácticamente todas las ciencias han contribuido a su desarrollo, Durante los siglos XIX, XX y lo transcurrido del siglo XXI se han producido los avances médicos más espectaculares, impulsados por la investigación científica y tecnológica.

que se desarrollan en el planteamiento y la resolución de problemas. Aunque pudiera parecer que la primera y la segunda parte presentan enfoques distintos, se trata realmente de dos miradas complementarias, que nos acercan a la complejidad de la tarea a emprender para dar sentido a la actividad científica escolar.

LA ACTIVIDAD EN UNA CIENCIA PARA TODOSDesde la fundación de la Secretaría de Educación Pública en 1921, la cobertura de la educación escolarizada ha crecido significativamente. La Educación Básica en México está atendiendo, durante el ciclo escolar 2006-2007, según datos aportados por la SEP en su página Web, a 25 millones de alumnos entre los cinco y los 15 años de edad, que representan la cuarta parte de la población total del país y el 77.4 por ciento de la matrícula del Sistema Educativo Nacional Escolarizado. La obligatoriedad de la Educación Básica en México responde a la búsqueda de una educación para todos. Esta educación ha venido ampliando y enriqueciendo el significado de la noción de Alfabetización. Una de las ideas introducidas en los últimos años es que la alfabetización no solamente incluye el aprendizaje de la lectura y la escritura, sino la posibilidad de acceder a otros conjuntos de símbolos significativos que la gente usa para hacer inteligibles sus vidas. Estos signos crean sistemas de significados que forman parte de una cultura específica, en palabras del antropólogo Clifford Geertz:

“Los sistemas de significados son necesariamente la propiedad colectiva de un grupo. Cuando decimos que no comprendemos las acciones de personas de otra cultura distinta de la nuestra, estamos reconociendo que no estamos familiarizados con el universo imaginativo en el que sus actos son signos”.

Una de las finalidades de la Enseñanza de las Ciencias es permitir a los alumnos generar nuevos sistemas de significado en el “universo imaginativo” de la sociedad actual. Aquí, el aprendizaje está entendido como una práctica situada, que se constituye en la capacidad de participación en cambiantes procesos de actividad humana. Situándonos en una sociedad caracterizada por la

Clifford James GeertzClifford James Geertz (1926 - 2006) fue un antropólogo estadounidense que ocupaba el puesto de profesor emérito en el Institute for Advanced Study, de la Universidad de Princeton, Nueva Jersey.

Luego de servir en la Marina de los Estados Unidos durante la Segunda Guerra Mundial, (1943-45), Geertz estudió en el Antioch College, donde obtuvo el grado de bachiller en 1950, y luego se doctoró en Harvard como doctor en Filosofía en 1956.

Pasó por varias escuelas antes de formar parte del equipo de antropólogos de la Universidad de Chicago (1960-70); posteriormente se convirtió en profesor de ciencias sociales del Institute for Advanced Study en Princeton de 1970-2000, donde fue emérito hasta su muerte, el 30 de octubre de 2006. Recibió un doctorado honorífico del Bates College en 1980.

desigualdad en el acceso a la ciencia y a la tecnología, dicha participación no se limita únicamente a ser usuarios y destinatarios de los saberes científicos y los avances tecnológicos, sino también a la capacidad de participar en su gestión y desarrollo.

CARACTERÍSTICAS DE LA ACTIVIDAD CIENTÍFICA ESCOLARPodemos caracterizar a la ciencia como una actividad humana donde se produce y se usa el conocimiento. Partiendo de ello, la Enseñanza de las Ciencias debiera permitir a los alumnos generar conocimiento y operar con él. Es decir, durante la educación básica, media y superior, los alumnos han de realizar actividades que les permitan, por ejemplo, convertir las observaciones en evidencias; plantear preguntas significativas; diseñar formas de evaluar los resultados obtenidos; identificar datos anómalos; comunicar las ideas, produciendo argumentos coherentes; planificar sus acciones, atendiendo a una teoría; trabajar en equipo, aportando elementos a la resolución de un problema; incorporar un lenguaje especializado, dando nuevo sentido a sus observaciones; generar nuevos instrumentos y procedimientos para resolver las preguntas planteadas y regular los procesos y evaluar la eficiencia de los mismos. Estas actividades forman parte básica de la actividad científica y han también de formar parte básica de una actividad científica escolar.

Por tanto, la Enseñanza de las Ciencias no ha de limitarse a la transmisión de las teorías y modelos científicos aceptados y a la presentación de los avances tecnológicos. El mayor reto

y podían atravesar muchos materiales. Una semana después, Roentgen tomó una fotografía de rayos X de la mano de su esposa, la cual reveló claramente su anillo de bodas y sus huesos. Roentgen llamó rayos X, a la nueva forma de radiación (X significa “desconocido”).

El descubrimiento de los rayos X ha permitido hacer diagnósticos certeros y en forma no invasiva de fracturas de huesos, así como identificación y localización de tumores; pero además permitió el desarrollo de otros siste-mas de imagen diagnóstica, como la tomografía de barrido computada (CAT-scan, por sus siglas en inglés), que permite obtener imágenes tridimesionales, de modo que el médico puede decir no solamente que un cierto tumor está presente, sino también su localización en el cuerpo.

LOS RAYOS LÁSEREl término láser se deriva de las iniciales en inglés de Light amplification by

the stimulated emission of radiation (amplificación de la luz por la emisión estimulada de radiación). Ali Javan, W.R. Bennett y Donald R. Harriott describieron en 1961, el primer láser de gas. El medio generador del láser era una mezcla de helio y neón.

El fenómeno de emisión estimulada de radiación, enunciado por Einstein en 1916, constituye la base de la tecnología empleada en la fabricación de dispositivos láser. Los experimentos que aprovecharon dicho fenómeno culminaron en el hallazgo, en 1953, del denominado máser, sistema que empleaba un haz de moléculas separadas en dos grupos —excitadas y no excitadas—, utilizado para la emisión de microondas en una cámara de resonancia. Posteriormente, se investigó un método para producir este tipo de radiación estimulada en el caso de la luz visible. Surgió así, en los años sesenta, el máser óptico. Al principio se consideró que el material básico para

la emisión estimulada de luz debía ser un gas. Posteriormente se experimentó con cristales sintéticos de rubí. En la actualidad, las investigaciones se dirigen hacia el desarrollo del láser de rayos X. La tecnología láser se ha desarrollado en forma asombrosa en los últimos 45 años; y también se ha ido diversificando, con diferentes capacidades de penetración, fineza, potencia y alcance.

La tecnología de rayos láser ha tenido las más diversas aplicaciones y su utilidad crece día con día. Actualmente se aplica en la práctica médica para obtener imágenes diagnósticas, como elemento cortante o cauterizante en cirugía. La fineza y precisión de la aplicación de esta tecnología permite operaciones delicadas para corregir miopía, astigmatismo, hipermetropía, e incluso presbicia; resección de tumores en forma no invasiva, e incluso para fines cosméticos, mediante abrasión superficial de la epidermis y depilación.

Adrianna GómezUnidad Monterrey, Educación en CienciasCinvestav [email protected]

Una de las características de la sociedad actual es la desigualdad en el acceso al conocimiento científico y

a los avances tecnológicos entre los diferentes grupos sociales. Sin duda, una de las formas en que estamos buscando, como sociedad, lograr más equidad, es a través de la enseñanza escolarizada. La enseñanza se plantea como una de las alternativas para que los niños, las niñas y los jóvenes accedan a una cultura científica.

Uno de los principales retos que enfrenta hoy en día la Enseñanza de las Ciencias es generar una actividad científica con sentido para los alumnos, que tienen diversos orígenes, intereses y motivaciones, y brindarles herramientas útiles para participar tanto en su comunidad, como en una sociedad que pretende ser globalizada Esta participación incluye, entre otras cosas, la toma de decisiones en temas relacionados con la ciencia y la tecnología y la incorporación en el uso y producción del conocimiento científico.

Una invitación para enfrentar este reto viene de la “ciencia escolar”. La propuesta de ciencia escolar fue generada por Mercé Izquierdo en la Universidad Autónoma de Barcelona, y retomada por diversos investigadores del área de Didáctica de las Ciencias. Actualmente, en el Cinvestav Unidad Monterrey, en el área de Educación en Ciencias, nos encontramos trabajando con esta propuesta teórica.

En este artículo expongo brevemente algunas características de la actividad científica escolar. En la primera parte, planteo que ésta se inserta en una cultura compartida que da sentido a la participación de todos y de todas. En la segunda parte, describo la participación misma, atendiendo a los procesos cognitivos y comunicativos

42 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 23

www.conocimientoenlinea.com

Page 26: Revista Conocimiento 47

24 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 41

www.conocimientoenlinea.com

Rosalind Elsie Franklin (1920 - 1958) Científica británica que tuvo un papel destacado en el mayor hito del desarrollo de la Biología Molecular, el descubrimiento de la estructura del ADN.

Franklin nació en Londres, Inglaterra, doctorándose en Química Física en 1945 por la Universidad de Cambridge. Estudió las técnicas de difracción de rayos X durante tres años en el Laboratorio Central de Servicios Químicos del Estado, de París.

Maurice Hugh Frederick Wilkins (1916 — 2004). Físico de Nueva Zelanda, codescubridor de la estructura del ADN. Siendo niño sus padres se trasladan a Inglaterra. Estudió Física en la Universidad de Cambridge y se doctoró en la Universidad de Birmingham. Al comenzar la Segunda Guerra Mundial se traslada a Estados Unidos en donde trabaja en el Proyecto Manhattan para el perfeccionamiento del radar y en la separación de isótopos mediante espectrógrafo de masas para construcción de la bomba atómica.

Wilkins junto con Rosalind Franklin trabajando sobre la difracción de rayos X, describen la estructura helicoidal del ADN, que posteriormente servirá de base para la descripción de dicha estructura por James Watson y Francis Crick. Wilkins mostró, sin permiso, unas nuevas imágenes de difracción de rayos X de alta calidad sobre la molécula de ADN obtenidas por Franklin, a Watson y Crick, lo que les orientó y motivó para la descripción del modelo de doble hélice.

CONOCIMIENTO Y MANIPULACIÓN DEL DNAEn 1928 Fred Griffith propuso que algún principio desconocido había transformado una cepa R de S. pneumoniae en una cepa S virulenta). Las cepas R de S. pneumoniae se llaman así porque forman colonias rugosas cuando se las cultiva en agar, y no son patógenas. En cambio las cepas S forman colonias lisas y son patógenas. ¿Cómo era posible que una cepa avirulenta se transformara en una virulenta? Tenía que haber algún material responsable de esto. En 1944 Oswald Avery, Colin MacLeod y Maclyn McCarty informaron que ellos habían purificado el principio que transformaba las cepas R en S de Diplococcus propuesto por Griffith, y que ese principio era ADN.

En 1951 Rosalind Elsie Franklin y Maurice Wilkins obtuvieron imágenes cristalográficas nítidas de ADN. Rosalind fue una fisico-química y cristalógrafa inglesa, cuyas contribuciones permitieron

después a Watson y Crick entender la estructura fina del ADN. Ella también hizo trabajos sobre la estructura de varios virus, entre ellos el del tabaco, y del carbón y grafito. Maurice Wilkins, fue un físico que trabajó con Franklin.

En abril de 1953, James Watson y Francis Crick escribieron estas palabras como parte del primer párrafo de una carta que enviaron a Nature describiendo sus observaciones sobre la estructura fina del ADN: “Esta estructura tiene

nuevas características que son de un considerable interés biológico”). James Watson, Francis Crick y Maurice Wilkins obtuvieron el premio Nobel “por sus descubrimientos relacionados con la estructura molecular de ácidos nucleicos y su significado para la transferencia de información en material viviente”. Wilkins compartió el premio Nobel con Watson y Crick por las imágenes cristalográficas que fueron esenciales para el trabajo.

Franklin, murió en 1958.

y tiempos ultra rápidos de grabado de la información y extracción de la información grabada. Estas memorias son un verdadero reto para la comunidad científica. La invención de este tipo de memoria tendrá implicaciones mayúsculas en el desarrollo de las redes ópticas del futuro. 4. Formatos de modulación de alta eficiencia espectral. La definición de eficiencia espectral es la división de la razón de bit por la separación entre canales en un sistema multicanal. Por ejemplo, si se transmite a 40 Gbps y la separación entre canales es de 100 GHz. la eficiencia espectral es de 0.4 bit/s/Hz. Formatos de modulación que tengan una eficiencia espectral mayor a 0.4 bit/s/Hz son de interés para la industria de las comunicaciones ópticas. Lo que se puede patentar aquí son los sistemas de transmisión de la señal y los demoduladores de la señal.

5. Sistema ultra-rápido de monitoreo de redes multicanal para redes transparentes. La idea de las redes transparentes inició aproximadamente en 1994, después del descubrimiento de los amplificadores ópticos en 1985. La idea fundamental es la reducción de costo de las redes ópticas. Un gran porcentaje del costo de una red óptica se concentra en el equipo opto-electrónico, como enrutadores o cross-conectores. Para reducir su costo, se requiere que las señales ópticas pasen a través de éstos sin ser detectadas y transmitidas; es decir, que no haya conversión de la señal óptica a señal electrónica. Debido a que el concepto de redes transparentes trata de eliminar receptores y transmisores en los cross-conectores no se sabe realmente el estado de la señal en nodos intermedios donde pasa transparentemente. Debido a esto, uno de los mayores retos de las redes transparentes es conocer la calidad de la señal en nodos intermedios y poder localizar de una forma rápida el o los componentes que no funcionan bien, en caso de una falla o un ataque a la red. Se requiere el diseño de sistemas multicanal ultrarrápidos de monitoreo, que indique de forma exacta qué canal no funciona bien y cuáles son las posibles fallas o ataques. 6. Redes ópticas para señales de radio sobre fibra. En este tipo de redes, las señales analógicas (radio) se trasmiten a través de redes de fibra óptica desde una central que controla todas las

estaciones base. Este tipo de transmisión se vislumbra en el futuro en donde se requerirán redes de fibra óptica que interconecten miles de estaciones base de comunicación móvil.

7. Seguridad, confiabilidad, disponi-bilidad y calidad de servicio de redes ópticas. La seguridad en redes es un tema de interés actual debido a aplicaciones masivas, como: e-comerce, web-surfing, e-mail, voice over IP, TV over IP, que dependen completamente de redes ópticas. Éstas deben brindar a los usuarios la más alta seguridad, confiabilidad y disponibilidad.

8. Arquitectura de cross-conectores, enrutadores ópticos, y ROADM. En esta área existe la oportunidad de innovación y crear patentes, debido a que han surgido nuevos componentes ópticos con nuevas funcionalidades. La combinación de una forma inteligente de estos componentes ópticos puede dar como resultado nuevos enrutadores y crossconectores dinámicos patentables, y así tener propiedad intelectual en sistemas ópticos que son el corazón de las redes de comunicación óptica.

9. Redes ópticas de acceso. Debido a que en la actualidad el precio de la fibra óptica es comparable al del cable coaxial, la siguiente etapa de crecimiento de instalación de fibra óptica es en redes de acceso, llámense fibra a la casa, fibra a los edificios y redes de área local.

10. Enrutamiento y asignación de canales en redes ópticas. Éste es un problema en redes conocido como NP-complete. Es decir, no se puede resolver óptimamente a través de algoritmos o heurísticas. Es un problema para ser resuelto con nuevos y más eficientes

algoritmos, ya sea a través de la mejora de algoritmos ya publicados, o de algoritmos novedosos, algoritmos inteligentes, como algoritmos enjambre, algoritmos genéticos, redes neuronales, recocido simulado, técnica tabú, etcétera.

11. Esquemas de protección y restauración en redes (Figura 1). Éste es otro problema conocido como NP-complete. Es decir, imposible de resolver de forma óptima con algoritmos o heurísticas. Muchos de estos algoritmos de optimización en esquemas de protección son dependientes de la topología. El problema es que requiere de programación compleja que tome en cuenta muchos aspectos de las redes a optimizar.

GENERACIÓN DE NEGOCIOEl tercer y último punto sobre la investigación y desarrollo de comunicaciones ópticas es la generación de negocio en el área. Las oportunidades se centran en el diseño, desarrollo e implementación de redes de acceso, principalmente, debido a las tendencias de crecimiento futuras, y redes de transmisión actuales, para el mejoramiento y optimización del costo de las redes.

En México existen amplias oportunida-des de inversión y desarrollo de negocio en comunicaciones ópticas, debido a las tendencias de crecimiento del área. En un futuro cercano se requerirán compañías capaces de diseñar y optimizar redes actuales y futuras. Y debido a que no existen muchas compañías mexicanas capaces de proveer los servicios requeridos, se esperan atractivas utilidades para los inversionistas que decidan participar en esta arena.

Page 27: Revista Conocimiento 47

24 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 41

www.conocimientoenlinea.com

Rosalind Elsie Franklin (1920 - 1958) Científica británica que tuvo un papel destacado en el mayor hito del desarrollo de la Biología Molecular, el descubrimiento de la estructura del ADN.

Franklin nació en Londres, Inglaterra, doctorándose en Química Física en 1945 por la Universidad de Cambridge. Estudió las técnicas de difracción de rayos X durante tres años en el Laboratorio Central de Servicios Químicos del Estado, de París.

Maurice Hugh Frederick Wilkins (1916 — 2004). Físico de Nueva Zelanda, codescubridor de la estructura del ADN. Siendo niño sus padres se trasladan a Inglaterra. Estudió Física en la Universidad de Cambridge y se doctoró en la Universidad de Birmingham. Al comenzar la Segunda Guerra Mundial se traslada a Estados Unidos en donde trabaja en el Proyecto Manhattan para el perfeccionamiento del radar y en la separación de isótopos mediante espectrógrafo de masas para construcción de la bomba atómica.

Wilkins junto con Rosalind Franklin trabajando sobre la difracción de rayos X, describen la estructura helicoidal del ADN, que posteriormente servirá de base para la descripción de dicha estructura por James Watson y Francis Crick. Wilkins mostró, sin permiso, unas nuevas imágenes de difracción de rayos X de alta calidad sobre la molécula de ADN obtenidas por Franklin, a Watson y Crick, lo que les orientó y motivó para la descripción del modelo de doble hélice.

CONOCIMIENTO Y MANIPULACIÓN DEL DNAEn 1928 Fred Griffith propuso que algún principio desconocido había transformado una cepa R de S. pneumoniae en una cepa S virulenta). Las cepas R de S. pneumoniae se llaman así porque forman colonias rugosas cuando se las cultiva en agar, y no son patógenas. En cambio las cepas S forman colonias lisas y son patógenas. ¿Cómo era posible que una cepa avirulenta se transformara en una virulenta? Tenía que haber algún material responsable de esto. En 1944 Oswald Avery, Colin MacLeod y Maclyn McCarty informaron que ellos habían purificado el principio que transformaba las cepas R en S de Diplococcus propuesto por Griffith, y que ese principio era ADN.

En 1951 Rosalind Elsie Franklin y Maurice Wilkins obtuvieron imágenes cristalográficas nítidas de ADN. Rosalind fue una fisico-química y cristalógrafa inglesa, cuyas contribuciones permitieron

después a Watson y Crick entender la estructura fina del ADN. Ella también hizo trabajos sobre la estructura de varios virus, entre ellos el del tabaco, y del carbón y grafito. Maurice Wilkins, fue un físico que trabajó con Franklin.

En abril de 1953, James Watson y Francis Crick escribieron estas palabras como parte del primer párrafo de una carta que enviaron a Nature describiendo sus observaciones sobre la estructura fina del ADN: “Esta estructura tiene

nuevas características que son de un considerable interés biológico”). James Watson, Francis Crick y Maurice Wilkins obtuvieron el premio Nobel “por sus descubrimientos relacionados con la estructura molecular de ácidos nucleicos y su significado para la transferencia de información en material viviente”. Wilkins compartió el premio Nobel con Watson y Crick por las imágenes cristalográficas que fueron esenciales para el trabajo.

Franklin, murió en 1958.

y tiempos ultra rápidos de grabado de la información y extracción de la información grabada. Estas memorias son un verdadero reto para la comunidad científica. La invención de este tipo de memoria tendrá implicaciones mayúsculas en el desarrollo de las redes ópticas del futuro. 4. Formatos de modulación de alta eficiencia espectral. La definición de eficiencia espectral es la división de la razón de bit por la separación entre canales en un sistema multicanal. Por ejemplo, si se transmite a 40 Gbps y la separación entre canales es de 100 GHz. la eficiencia espectral es de 0.4 bit/s/Hz. Formatos de modulación que tengan una eficiencia espectral mayor a 0.4 bit/s/Hz son de interés para la industria de las comunicaciones ópticas. Lo que se puede patentar aquí son los sistemas de transmisión de la señal y los demoduladores de la señal.

5. Sistema ultra-rápido de monitoreo de redes multicanal para redes transparentes. La idea de las redes transparentes inició aproximadamente en 1994, después del descubrimiento de los amplificadores ópticos en 1985. La idea fundamental es la reducción de costo de las redes ópticas. Un gran porcentaje del costo de una red óptica se concentra en el equipo opto-electrónico, como enrutadores o cross-conectores. Para reducir su costo, se requiere que las señales ópticas pasen a través de éstos sin ser detectadas y transmitidas; es decir, que no haya conversión de la señal óptica a señal electrónica. Debido a que el concepto de redes transparentes trata de eliminar receptores y transmisores en los cross-conectores no se sabe realmente el estado de la señal en nodos intermedios donde pasa transparentemente. Debido a esto, uno de los mayores retos de las redes transparentes es conocer la calidad de la señal en nodos intermedios y poder localizar de una forma rápida el o los componentes que no funcionan bien, en caso de una falla o un ataque a la red. Se requiere el diseño de sistemas multicanal ultrarrápidos de monitoreo, que indique de forma exacta qué canal no funciona bien y cuáles son las posibles fallas o ataques. 6. Redes ópticas para señales de radio sobre fibra. En este tipo de redes, las señales analógicas (radio) se trasmiten a través de redes de fibra óptica desde una central que controla todas las

estaciones base. Este tipo de transmisión se vislumbra en el futuro en donde se requerirán redes de fibra óptica que interconecten miles de estaciones base de comunicación móvil.

7. Seguridad, confiabilidad, disponi-bilidad y calidad de servicio de redes ópticas. La seguridad en redes es un tema de interés actual debido a aplicaciones masivas, como: e-comerce, web-surfing, e-mail, voice over IP, TV over IP, que dependen completamente de redes ópticas. Éstas deben brindar a los usuarios la más alta seguridad, confiabilidad y disponibilidad.

8. Arquitectura de cross-conectores, enrutadores ópticos, y ROADM. En esta área existe la oportunidad de innovación y crear patentes, debido a que han surgido nuevos componentes ópticos con nuevas funcionalidades. La combinación de una forma inteligente de estos componentes ópticos puede dar como resultado nuevos enrutadores y crossconectores dinámicos patentables, y así tener propiedad intelectual en sistemas ópticos que son el corazón de las redes de comunicación óptica.

9. Redes ópticas de acceso. Debido a que en la actualidad el precio de la fibra óptica es comparable al del cable coaxial, la siguiente etapa de crecimiento de instalación de fibra óptica es en redes de acceso, llámense fibra a la casa, fibra a los edificios y redes de área local.

10. Enrutamiento y asignación de canales en redes ópticas. Éste es un problema en redes conocido como NP-complete. Es decir, no se puede resolver óptimamente a través de algoritmos o heurísticas. Es un problema para ser resuelto con nuevos y más eficientes

algoritmos, ya sea a través de la mejora de algoritmos ya publicados, o de algoritmos novedosos, algoritmos inteligentes, como algoritmos enjambre, algoritmos genéticos, redes neuronales, recocido simulado, técnica tabú, etcétera.

11. Esquemas de protección y restauración en redes (Figura 1). Éste es otro problema conocido como NP-complete. Es decir, imposible de resolver de forma óptima con algoritmos o heurísticas. Muchos de estos algoritmos de optimización en esquemas de protección son dependientes de la topología. El problema es que requiere de programación compleja que tome en cuenta muchos aspectos de las redes a optimizar.

GENERACIÓN DE NEGOCIOEl tercer y último punto sobre la investigación y desarrollo de comunicaciones ópticas es la generación de negocio en el área. Las oportunidades se centran en el diseño, desarrollo e implementación de redes de acceso, principalmente, debido a las tendencias de crecimiento futuras, y redes de transmisión actuales, para el mejoramiento y optimización del costo de las redes.

En México existen amplias oportunida-des de inversión y desarrollo de negocio en comunicaciones ópticas, debido a las tendencias de crecimiento del área. En un futuro cercano se requerirán compañías capaces de diseñar y optimizar redes actuales y futuras. Y debido a que no existen muchas compañías mexicanas capaces de proveer los servicios requeridos, se esperan atractivas utilidades para los inversionistas que decidan participar en esta arena.

40 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 25

www.conocimientoenlinea.com

Marshall Nirenberg es mejor conocido por haber descifrado el código genético en 1961. En 1959 inició sus estudios sobre la relación entre el ADN, el RNA y las proteínas. Estas investigaciones permitieron saber a este investigador y a H. Matthaei que se requiere un mensajero para que ocurra la síntesis de proteínas y que un mensajero sintético podía ser usado para descifrar varios aspectos del código genético. Sus investigaciones le valieron el premio Nobel en Medicina en 1968.

BIOLOGÍA MOLECULARJames Crick postuló en 1963 el “dogma de la biología molecular” que establece que un gen da origen a una proteína, mediada por un RNA mensajero específico. En 1958, Artur Konrberg purificó la ADN polimerasa I de Escherichia coli. La primera enzima que fue capaz de sintetizar ADN in vitro. Artur Konrberg obtuvo el premio Nobel en Fisiología en 1959. En 1970 Hamilton Smith y Kent Wilcox aislaron la primera enzima de restricción de tipo II, que provenía de Haemophilus influenzae, la cual era capaz de cortar el ADN en sitios específicos.

En 1985 Kary B. Mullis describió la reacción en cadena de la RNA polimerasa. El método más sensible para identificar secuencias específicas de ADN. Obtuvo el premio Nobel en Química en 1993.

En 2003 se culmina el proyecto del Genoma humano, gracias al cual se

obtuvo la secuencia completa del ADN que constituye el genoma de nuestra especie.Como puede verse de esta impresionante lista de avances científicos en biología, todos realizados desde 1928 a la fecha (78 años) produjeron una constelación de premios Nobel. Pero lo más importante es que todos estos avances fueron precursores de la medicina moderna y seguramente de la medicina del futuro. La Biología Molecular ha permitido a la medicina avances espectaculares.

OTROS CAMPOS DEL CONOCIMIENTOPero no sólo la genómica se ha desarrollado. Está en vigoroso crecimiento el estudio de las proteínas, mediante la Proteómica; el de los RNAs, mediante la transcriptómica, y el de las vías metabólicas, mediante la Metabonómica: Estos campos complementarán los avances logrados con la Genómica. A estas disciplinas se les han unido la Inmunología y la Biología Celular.

El advenimiento de la tecnología de células troncales o madres permite ya el tratamiento de diversas enfermedades, como la leucemia y el infarto al miocardio, y los biólogos trabajan hombro con hombro con los médicos clínicos para identificar las moléculas que inducen a las células pluripotenciales (células madre) a diferenciarse en la estirpe celular deseada. Cuando esto se comprenda cabalmente, será posible cultivar nuevos órganos in vitro, y corregir problemas fisiológicos mayores. La física, la electrónica y la nanotecnología han hecho también

aportaciones portentosas a la Medicina. Se dispone ahora de computadoras que reaccionan al movimiento de los ojos, conectando de nuevo al mundo a los cuadrapléjicos.

Los implantes cocleares para devolver la audición a lo sordos son ya una realidad, y están en pleno desarrollo los implantes en la retina para que en un futuro cercano algunos ciegos puedan ver.

CONCLUSIÓNLa Medicina, aliada con la Ciencia y la Tecnología depara un brillante futuro a la humanidad. Gracias a los avances de estas disciplinas, estamos llegando aceleradamente a tener una expectativa de vida de 100 años, y se predice que en los siglos venideros, los humanos podrán vivir hasta 400 años. Ahora el reto es desarrollar nuestros más altos y caros valores morales para que, además de gozar de una larga vida saludable, gocemos también de una humanidad más humana, protectora de su entorno y generosa y noble con sus semejantes y con todos los demás seres vivos. De nada servirá un impresionante desarrollo de la Medicina, si estos avances no son asequibles para toda la población y si aún existen tremendas y vergonzosas diferencias en la distribución de la riqueza, así como guerras, todas injustas y crueles, que ponen en serio peligro a nuestra especie y a nuestro planeta. ¡Desarrollemos nuestro espíritu junto con nuestro intelecto!

y reducir el tamaño de célula tiene como finalidad aumentar el número de usuarios a través de una técnica conocida como re-uso de frecuencias. Se vislumbra que en un futuro esas miles de estaciones bases de comunicación móvil también estarán interconectadas por fibra óptica por su gran ancho de banda y porque podrá llevar todos los servicios, como comunicación móvil, WIFI, WIMAX, monitoreo de la ciudad y monitoreo de personas en puntos de seguridad, monitoreo del tráfico, control de semáforos, etcétera, así como servicios de voz sobre IP (Internet Protocol) y televisión sobre IP.

INVESTIGACIÓN ENCOMUNICACIONES ÓPTICASRecientemente, el Tecnológico de Monterrey inició una cátedra de investigación en comunicaciones ópticas, con tres avenidas principales en que debe centrarse la investigación en esta área: (1) Generación de propiedad intelectual; (2) Investigación aplicada a problemas que habilitarán el desarrollo de redes ópticas; (3) Generación de negocio.

Se debe mencionar que la investigación por sí misma es difícilmente autosustentable. Para lograrlo a largo plazo, tiene que generar propiedad intelectual (patentes) o empresas. Como es sabido, la economía del conocimiento se basa en la generación de ideas innovadoras que generen riqueza para los propietarios legales de dichas ideas. En este caso, se beneficiarán la universidad, empresa o grupo que auspicie esta investigación, y los autores de dichas patentes.

Buenas patentes pueden generar ingresos económicos, por regalías, a las universidades, empresas y grupos de investigación que las desarrollen. Por otro lado, una empresa de tecnología

en telecomunicaciones tiene altas probabilidades de rentabilidad. Existen otras posibilidades de ingresos para una unidad de investigación, como por ejemplo la consultoría y cursos de extensión. Personalmente, considero que aunque son buenas alternativas, debido a su naturaleza aleatoria, un grupo de investigación difícilmente puede auto-sustentarse únicamente en base a ellas.

En el caso específico del Tecnológico de Monterrey, el grupo de investigadores de la cátedra en comunicaciones ópticas funciona como unidad de investigación e innovación donde la finalidad primordial es generar patentes. Adicionalmente y como actividad también muy importante, está la divulgación de ese conocimiento. De esta forma operan los centros de investigación de los grandes corporativos y compañías que tienen como visión prioritaria la innovación.

INVESTIGACIÓN APLICADAEl segundo punto en que debe basarse el desarrollo de las comunicaciones ópticas en nuestro Estado y país, es la generación de investigación básica y aplicada y su interacción con otros medios, como comunicaciones inalámbricas. Las áreas donde ya se cuenta con una muy buena experiencia y donde se han generado resultados importantes son las siguientes:

1. Diseño, planeación, y optimización de redes. 2. Redes de alta velocidad. 3.Redes transparentes: tecnología y metodología necesaria para realizarlas. 4. Arquitectura de enrutadores ópticos, cross conectores ópticos, y ROADM (“reconfigurable optical add/drop multiplexers”). 5. Redes de paquetes o lo que se conoce como redes de “Internet Protocol” (IP) sobre “wavelength division multiplexing”

(WDM). 6.Redes de acceso para Radio sobre Fibra. 7. Seguridad en redes ópticas.

A continuación se describen en forma breve y resumida las áreas en las que se recomienda centrar la investigación básica y aplicada en el área de comunicaciones ópticas. Los problemas que se mencionan en la lista son áreas de oportunidad para realizar dicha investigación. Para generar esta lista, el autor del presente artículo ha realizado una revisión exhaustiva de la tecnología en comunicaciones ópticas existentes y ha considerado que la investigación en los tópicos que aquí se proponen desembocará en la tecnología clave que mejorará las redes ópticas actuales y habilitará las redes del futuro.

1. Extracción óptica del reloj de una señal. Ésta es una de las funciones primordiales de un receptor o regenerador. Los receptores digitales requieren saber la posición en tiempo donde deben hacer el muestreo de la señal recibida y después decidir si la señal en ese tiempo de muestreo es un 1 o un 0. Los receptores opto-electrónicos hacen esta extracción del reloj de la señal electrónicamente. El reto de este problema de investigación es extraer el reloj ópticamente. La extracción óptica de reloj tiene aplicaciones en regeneradores ópticos, receptores y monitores ópticos.

2. Regeneradores ópticos. Son dis-positivos que mejoran la calidad de la señal. Hay varios tipos de regeneración. A una señal se le puede regenerar la forma del pulso, regenerar el nivel del pulso y se puede regenerar la posición en el tiempo del pulso. Esta área de investigación se enfoca en revisar y buscar nuevas formas de regenerar señales ópticamente para formatos de modulación utilizados en comunicaciones ópticas. El impacto de negocio de una buena patente en esta área es bastante grande. El autor del presente artículo tiene una patente en trámite actualmente, en esta área de investigación.

3. Memorias ópticas. Ésta es una de las tecnologías claves que habilitará las redes ópticas de paquetes y redes transparen-tes. Hasta el momento, nadie ha inventado una memoria completamente óptica que tenga almacenamiento permanente

Figura 1. Protección tipo anillo de un ejemplo de red de México, utilizando la herramienta de diseño y optimización de redes WPNetExpert.

Page 28: Revista Conocimiento 47

La industria farmacéutica es un sector altamente dependiente del conocimiento y, por tanto, de la investigación y el desarrollo tecnológico. El desarrollo de un fármaco de patente, y del proceso

para producirlo comercialmente, requiere la participación de un vasto grupo de investigadores de diferentes disciplinas: químicos, biólogos, estadistas, físicos, médicos. Desarrollar un nuevo fármaco implica un proceso largo de investigación y desarrollo, de alta demanda de inversión y de alto

riesgo, pero también de alto potencial de retorno. En esta contribución, analizaremos la industria

farmacéutica, su dinámica y las características particulares que hacen de ella un excelente ejemplo de un sector que muy eficientemente convierte ciencia en desarrollo tecnológico, productos de alto valor comercial y beneficio social.

LA INDUSTRIA FARMACÉUTICA EN EL MUNDOEn el mundo, la industria farmacéutica es uno de los sectores que mayor valor derraman a la sociedad, tanto en el sentido económico (representa un mercado de 541 billones de dólares por año), como de contribución social e impacto en salud pública. La industria farmacéutica ha experimentado un gran desarrollo mundialmente en los últimos años. Factores económicos, demográficos y sociopolíticos1 (como la edad2, marco legal, económico y científico) tienen influencia directa en este crecimiento de la industria farmacéutica.

Por ejemplo, entre 1990 y 2000, el porcentaje de la población de Estados Unidos que tiene más de 82 años creció un 42 por ciento. Esto ocasionó un aumento en la demanda de servicios de salud y un aumento en los costos de terapias con medicinas3. Las enfermedades crónico-degenerativas van también en aumento debido a este cambio poblacional, a problemas de balance dietético y exposición a factores de riesgo ambiental. Un reporte reciente predice que el número de pacientes diabéticos en el mundo se duplicará hacia el año 20304. Según reportes de la Organización Mundial de la Salud, el cáncer es actualmente la primera causa de muerte en el mundo, con 13 porciento

Doctor Mario Álvarez Director del Centro de Biotecnología / ITESM

26 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 39

www.conocimientoenlinea.com

En la actualidad la fibra óptica forma parte de la mayoría de las redes de comunicaciones, ya sean de larga

distancia (terrestres y submarinas), metropolitanas y redes de acceso. Las redes de larga distancia interconectan ciudades, países, y continentes; las metropolitanas interconectan puntos de tráfico en una ciudad, y las de acceso interconectan al usuario directamente. Las redes de acceso se denominan de esa manera porque dan acceso a los usuarios directamente a un medio de comunicación.

Un ejemplo muy sencillo de una red de acceso es la de telefonía con cable de alambre de par trenzado, donde el usuario tiene acceso al sistema de comunicación de voz y actualmente a la Internet por medio de ADSL (“Asymmetric Digital Subscriber Line”). Otro ejemplo es la red de acceso de televisión, a través de cable coaxial, donde el usuario tiene acceso a canales de televisión, Internet y en algunos casos al servicio de voz.

MERCADO MULTIMILLONARIOEl crecimiento de las comunicaciones ópticas es un fenómeno mundial, del cual México es parte. Por ejemplo, el mercado en Europa de instalación y venta de componentes y equipo óptico en el año 2010 ascenderá a 8,000.00 millones de dólares. La fibra óptica es el medio de comunicación de preferencia para redes de comunicación por su gran

ancho de banda (que significa mayor cantidad de información transmitida), y baja atenuación (que se traduce en una gran distancia de transmisión). La fibra óptica se utiliza en un 100 por ciento de las redes submarinas, en 95 por ciento de las redes terrestres de larga distancia, y en 90 por ciento de las redes metropolitanas.

Adicionalmente, el precio actual de la fibra óptica es comprable a la del cable coaxial, medio comúnmente utilizado en redes de acceso para servicio de televisión, Internet y voz. Debido a esto, la fibra óptica se está instalando con mayor frecuencia en redes de acceso en nuevos fraccionamientos o desarrollos urbanos, para dar prácticamente todos los servicios, como televisión, telefonía y acceso a Internet con la ventaja de tener redes de acceso de gran capacidad que en un futuro serán necesarias.

Doctor Gerardo Antonio Castañón ÁvilaProfesor Investigador, Centro de Electrónica y Telecomunicaciones. División de Tecnologías de Información y Electrónica. ITESMe-mail: [email protected]://homepages.mty.itesm.mx/gerardo.castanon

Tener una red de acceso de alta capacidad brinda la ventaja de poder acceder a múltiples servicios que requieren un ancho de banda amplio, como son comprar películas a través de la Internet, música, y videoconferencias, televisión a través del Protocolo de Internet, etcétera. Debido a lo antes mencionado la siguiente etapa de crecimiento en instalación de fibra óptica será en redes de acceso, llámense fibra a la casa, fibra a los edificios y redes de área local.

Otro fenómeno que se vislumbra en el futuro es la interconexión de estaciones base de comunicación móvil, con fibra óptica. El tamaño de célula de las comunicaciones móviles tiende a disminuir, debido a que el ancho de banda que se utiliza es bastante reducido

Page 29: Revista Conocimiento 47

La industria farmacéutica es un sector altamente dependiente del conocimiento y, por tanto, de la investigación y el desarrollo tecnológico. El desarrollo de un fármaco de patente, y del proceso

para producirlo comercialmente, requiere la participación de un vasto grupo de investigadores de diferentes disciplinas: químicos, biólogos, estadistas, físicos, médicos. Desarrollar un nuevo fármaco implica un proceso largo de investigación y desarrollo, de alta demanda de inversión y de alto

riesgo, pero también de alto potencial de retorno. En esta contribución, analizaremos la industria

farmacéutica, su dinámica y las características particulares que hacen de ella un excelente ejemplo de un sector que muy eficientemente convierte ciencia en desarrollo tecnológico, productos de alto valor comercial y beneficio social.

LA INDUSTRIA FARMACÉUTICA EN EL MUNDOEn el mundo, la industria farmacéutica es uno de los sectores que mayor valor derraman a la sociedad, tanto en el sentido económico (representa un mercado de 541 billones de dólares por año), como de contribución social e impacto en salud pública. La industria farmacéutica ha experimentado un gran desarrollo mundialmente en los últimos años. Factores económicos, demográficos y sociopolíticos1 (como la edad2, marco legal, económico y científico) tienen influencia directa en este crecimiento de la industria farmacéutica.

Por ejemplo, entre 1990 y 2000, el porcentaje de la población de Estados Unidos que tiene más de 82 años creció un 42 por ciento. Esto ocasionó un aumento en la demanda de servicios de salud y un aumento en los costos de terapias con medicinas3. Las enfermedades crónico-degenerativas van también en aumento debido a este cambio poblacional, a problemas de balance dietético y exposición a factores de riesgo ambiental. Un reporte reciente predice que el número de pacientes diabéticos en el mundo se duplicará hacia el año 20304. Según reportes de la Organización Mundial de la Salud, el cáncer es actualmente la primera causa de muerte en el mundo, con 13 porciento

Doctor Mario Álvarez Director del Centro de Biotecnología / ITESM

26 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 39

www.conocimientoenlinea.com

En la actualidad la fibra óptica forma parte de la mayoría de las redes de comunicaciones, ya sean de larga

distancia (terrestres y submarinas), metropolitanas y redes de acceso. Las redes de larga distancia interconectan ciudades, países, y continentes; las metropolitanas interconectan puntos de tráfico en una ciudad, y las de acceso interconectan al usuario directamente. Las redes de acceso se denominan de esa manera porque dan acceso a los usuarios directamente a un medio de comunicación.

Un ejemplo muy sencillo de una red de acceso es la de telefonía con cable de alambre de par trenzado, donde el usuario tiene acceso al sistema de comunicación de voz y actualmente a la Internet por medio de ADSL (“Asymmetric Digital Subscriber Line”). Otro ejemplo es la red de acceso de televisión, a través de cable coaxial, donde el usuario tiene acceso a canales de televisión, Internet y en algunos casos al servicio de voz.

MERCADO MULTIMILLONARIOEl crecimiento de las comunicaciones ópticas es un fenómeno mundial, del cual México es parte. Por ejemplo, el mercado en Europa de instalación y venta de componentes y equipo óptico en el año 2010 ascenderá a 8,000.00 millones de dólares. La fibra óptica es el medio de comunicación de preferencia para redes de comunicación por su gran

ancho de banda (que significa mayor cantidad de información transmitida), y baja atenuación (que se traduce en una gran distancia de transmisión). La fibra óptica se utiliza en un 100 por ciento de las redes submarinas, en 95 por ciento de las redes terrestres de larga distancia, y en 90 por ciento de las redes metropolitanas.

Adicionalmente, el precio actual de la fibra óptica es comprable a la del cable coaxial, medio comúnmente utilizado en redes de acceso para servicio de televisión, Internet y voz. Debido a esto, la fibra óptica se está instalando con mayor frecuencia en redes de acceso en nuevos fraccionamientos o desarrollos urbanos, para dar prácticamente todos los servicios, como televisión, telefonía y acceso a Internet con la ventaja de tener redes de acceso de gran capacidad que en un futuro serán necesarias.

Doctor Gerardo Antonio Castañón ÁvilaProfesor Investigador, Centro de Electrónica y Telecomunicaciones. División de Tecnologías de Información y Electrónica. ITESMe-mail: [email protected]://homepages.mty.itesm.mx/gerardo.castanon

Tener una red de acceso de alta capacidad brinda la ventaja de poder acceder a múltiples servicios que requieren un ancho de banda amplio, como son comprar películas a través de la Internet, música, y videoconferencias, televisión a través del Protocolo de Internet, etcétera. Debido a lo antes mencionado la siguiente etapa de crecimiento en instalación de fibra óptica será en redes de acceso, llámense fibra a la casa, fibra a los edificios y redes de área local.

Otro fenómeno que se vislumbra en el futuro es la interconexión de estaciones base de comunicación móvil, con fibra óptica. El tamaño de célula de las comunicaciones móviles tiende a disminuir, debido a que el ancho de banda que se utiliza es bastante reducido

38 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 27

www.conocimientoenlinea.com

de los decesos en 2005, para un total de 7.6 millones. El 70 porciento de estas muertes se registraron en países en vías de desarrollo y subdesarrollados. Para el año 2015, nueve millones de personas morirían de cáncer, y 11.4 millones en 20305.

Dos factores contribuyen a que los fármacos de patente sean un producto de alto valor agregado en los países del primer mundo:(a). La demanda del mercado es prácticamente insensible al precio para un determinado fármaco de patente en los países desarrollados (esto no es necesariamente cierto en México), dado que la mayoría de los consumidores son “cautivos” porque dependen del medicamento. (b). Por otro lado, los insumos para producir un fármaco son de bajo costo. Cuando usted compra una tableta o una cápsula de medicamento de patente, está comprando algo cuyo valor, considerando sólo materias primas y costo de producción, es ínfimo comparado con su valor comercial. Por lo que usted realmente está pagando es por toda la inversión en investigación y desarrollo que la empresa farmacéutica realizó, por aproximadamente una década, para desarrollar ese fármaco. En promedio, desarrollar un fármaco de patente repre-senta una inversión del orden de $800 millones de dólares.

El auge de la Biotecnología y sus herramientas aplicadas a la Medicina han influido también significativamente en el auge del sector farmacéutico. Compañías biotecnológicas dominan el comercio del sector farmacéutico en casi el 45 por ciento6. Biotecnología y Farmacéutica están por tanto íntimamente ligadas. Una búsqueda en Yahoo, por las palabras clave “Biotechnology and pharma”, arroja 7 millones 290 mil páginas. Internacionalmente, la industria farmacéutica y biofarmacéutica es una de las principales demandantes, destina-tarias y promotoras de investigación de avanzada en áreas tales como Biotecnología y Nanotecnología.

INVESTIGACIÓN Y DESARROLLO EN LA INDUSTRIA FARMACÉUTICAEl camino para desarrollar un nuevo fármaco es realmente muy interesante. Es una ruta que va desde el primer indicio de algún efecto terapéutico de un extracto o una molécula, pasando por

todo un proceso de ensayo y validación de efectos terapéuticos y toxicológicos en líneas celulares, modelos experimentales animales, y finalmente humanos, hasta el diseño de un proceso escalado para su producción comercial (ver figura 1).

de investigación básica y aplicada que pudieran derivar en conocimiento útil para el desarrollo de nuevos fármacos. Mundialmente, sólo las grandes empre-sas farmacéuticas (por ejemplo, Pfizer, Bristol-Myers Squibb, Merck, Abbott Labs etcétera) realizan la mayoría de estos procesos internamente, pero aun ellas mantienen vínculos de investigación importantes con sus colaboradores académicos. En general, varios procesos de investigación y desarrollo tecnológico de las empresas farmacéuticas pequeñas y medianas se realizan con apoyos externos (outsourcing de servicios de investiga-ción o desarrollo tecnológico hacia universidades, centros de investigación u otras empresas especializadas), lo cual abarata significativamente los costos de desarrollo.

Figura 1. La industria farmacéutica realiza investigación de alto nivel en diferentes frentes: (a) descubrimiento de nuevos fármacos y sus procesos de síntesis; (b) elucidación de los mecanismos bioquímicos de acción de moléculas con actividad farmacéutica; (c) diseño y optimización de procesos de producción de fármacos (ingeniería farmacéutica)

Se trata también de un camino de hasta 12 años de inversión, normalmente valuada en cientos de millones de dólares. Es asimismo una apuesta tecnológica de alto riesgo, que debe ser asistida por especialistas para maximizar las intrínsecamente bajas probabilidades de riesgo (en general sólo uno de cada 100 potenciales fármacos resultan en un producto comercial). Sin embargo, todo el valor de la investigación acumulada en un fármaco exitoso de patente (en el argot farmacéutico un Blockbuster), reditúa en por lo menos mil millones de dólares por ventas anuales. Desde luego, es innegable que la plusvalía derivada del aparato de investigación para desarrollo de fármacos de patente es sustancial. Ese valor, a su vez, es el motor que garantiza la continuidad en la investigación para el combate de enfermedades crónico-degenerativas, tales como el cáncer, la diabetes, y las enfermedades cardiovasculares.

Pero la industria farmacéutica no solamente promueve la investigación dentro de sus instalaciones; también tie-ne aliados importantes en universidades y centros de investigación alrededor del mundo, a los cuales patrocina proyectos

Figura 2. Línea de desarrollo de un nuevo fármaco (Pipeline).

Revisemos con mayor detalle el camino de investigación hacia el desarrollo de un nuevo fármaco (ver figura 2). Una vez que una empresa farmacéutica determina que desea desarrollar fármacos para un determinado padecimiento, los equipos científicos de descubrimiento de nuevas moléculas de la empresa comienzan a trabajar en ese propósito. Los equipos de Drug Discovery de las grandes compañías están conformados por científicos de primer nivel, biólogos y químicos con grado doctoral, educados en las mejores universidades del mundo. Estos equipos de trabajo están encargados de sintetizar librerías de moléculas, utilizando herramientas modernas tales como química combinatorial y conocimientos clásicos de la siempre vigente Química Orgánica Sintética.

MOLÉCULAS CON POTENCIAL TERAPÉUTICOPosteriormente, estas moléculas serán probadas en líneas celulares o en

En la década de los 30, químicos ingleses descubrieron que el gas etileno se polimerizaba bajo la acción del calor y la presión, y formaba un termoplástico al que llamaron polietileno (PE). Hacia los años 50 aparece el polipropileno (PP). Al reemplazar en el etileno un átomo de hidrógeno por uno de cloruro, se produjo el cloruro de polivinilo (PVC), un plástico duro y resistente al fuego, especialmente adecuado para cañerías de todo tipo. Al agregarle diversos aditivos se logra un material más blando, sustituto del caucho, comúnmente usado para ropa impermeable, manteles, cortinas y juguetes. Un plástico parecido al PVC es el politetrafluoretileno (PTFE), conocido popularmente como teflón y usado para rodillos y sartenes antiadherentes. También en los años 30 se crea la primera fibra artificial, el nylon. Su descubridor fue el químico Wallace Carothers, que trabajaba para la empresa Dupont. Descubrió que dos sustancias químicas, como el hexametilendiamina y ácido adípico, formaban polímeros que, bombeados a través de agujeros y estirados, formaban hilos que podían tejerse. Su primer uso fue la fabricación de paracaídas para las fuerzas armadas estadounidenses durante la Segunda Guerra Mundial, y se extendió rápidamente a la industria textil en la fabricación de medias y otros tejidos combinados con algodón o lana. Al nylon le siguieron otras fibras sintéticas, como por ejemplo el orlón y el acrilán.

MATERIALES COMPUESTOS La verdadera revolución en materiales empezó cuando los polímeros se pudieron reforzar con las fibras de vidrio o de grafito. Nacieron así “materiales compuestos”. En el lenguaje común actual, los materiales compuestos son aquéllos en los que las fibras de unas sustancias están incorporadas en una matriz de otra sustancia, habitualmente un plástico, para crear un material con propiedades mecánicas especiales. Estos materiales superan las aleaciones metálicas en resistencia y rigidez; son mucho más livianas; tienen características superiores de fatiga y, lo que es muy importante, son prácticamente inmunes a la corrosión. Hoy día, debido a su comparativa facilidad y economía de fabricación,

las fibras de carbono y aramida son los elementos preferidos para el diseño y fabricación de estructuras compuestas perfeccionadas.

Otra aplicación es el Kevlar, material compuesto que tiene una alta resistencia comparada con su reducido peso, por lo que es uno de los materiales con la resistencia especifica más alta. Es un material con alta durabilidad, y con una buena resistencia a los cortes y a la abrasión (en condiciones similares, la fibra Kevlar es cinco veces más resistente que el acero). La nueva generación de materiales compuestos son de tipo MMC y CMC, materiales compuestos con matriz metálica o cerámica, que difieren en composición y forma, los cuales conservan sus propiedades y logran en conjunto propiedades que no se podrían obtener con uno solo de estos materiales.

BIOMATERIALESLos biomateriales unen las experiencias de casi todos los materiales antes mencionados. Las aleaciones de Cr, Co y Ti, son muy frecuentemente empleadas en las prótesis, dada la inmediata condición pasiva de estas últimas por la formación de TiO2.

La aleación a base de cobalto, F75, denominado comercialmente Vitallium, es una aleación de moldeo cuyas

propiedades mecánicas son insuficientes para resistir condiciones de carga y ciclos altos. Contiene Cobalto (65 por ciento), cromo (28 por ciento), molibdeno (0.72 por ciento) y menos de 0.35 de carbono.

El F562 contiene níquel (35 por ciento); mantiene su resistencia y dureza, y presenta superior ductilidad. Mientras el módulo de elasticidad permanece similar al del acero (200 GPa) la resistencia a la tracción aumenta considerablemente (de 517 a 900 MPa) con relación al F75. Las formas más habituales son el llamado titanio comercial puro (Ti 160) y la aleación de titanio con aluminio (6 por ciento) y vanadio (4 por ciento). Ti6A14V . Un papel importante entre biomateriales juega el UHMWPE (polietileno de ultraalto peso molecular).

Se trata de un polímero de cadena larga y de peso molecular entre dos y seis millones. Presenta excelentes propiedades mecánicas y biológicas: alta resistencia al impacto y al desgaste, ductilidad, biocompatibilidad y esta-bilidad química. En la figura se presenta la prótesis de la rodilla en la cual se encuentran las súperaleaciones, polímeros, materiales compuestos y cerámicos.

Figura 8. Prótesis de rodilla [6].

1.http://www.itnes.com/pages/seal.html2.http://marina.fortunecity.com/caledonia/214/3.http://cipres.cec.uchile.cl/~encruces/4.http://www.speclab.com/elements/cobalt.htm5.http://www.oz.net/~coilgun/theory/materials.htm6.http://www2.ing.puc.cl/icmcursos/metalurgia/apuntes/cap7/73/

REFERENCIAS:

Page 30: Revista Conocimiento 47

28 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 37

www.conocimientoenlinea.com

animales de laboratorio, buscando cuál o cuáles de ellas pudieran presentar cierta actividad biológica terapéutica. Aquí, la intervención de fisiólogos, farmacólogos, bioquímicos, biólogos moleculares es crucial. Estos equipos de trabajo recopilan evidencia experimental para seleccionar las moléculas más prometedoras en términos de su poder farmacológico y estudian las relaciones de estructura de las moléculas con su función bioquímica y fisiológica. Estas moléculas entrarán al así llamado “pipeline” de la empresa (la línea de desarrollo de productos de la empresa). Al identificar una molécula con potencial terapéutico, se desencadena su proceso de patente.

El conocimiento es la herramienta competitiva fundamental de la industria farmacéutica innovadora. Cada descubrimiento debe ser protegido de inmediato, aun cuando sea aún incierto si llegará o no a comercializarse. En la industria farmacéutica es muy importante ser el primero. Esto crea un incentivo para la investigación, para la utilización del conocimiento básico encaminado a la aplicación. Una vez patentada una molécula, comienza una etapa de investigación muy intensa que pretende acercarla cada vez

más a su comercialización en forma de un nuevo fármaco, un nuevo Blockbuster. Es necesario validar que la molécula sea en realidad biológicamente activa y más efectiva contra el padecimiento blanco (padecimiento “target”) que los productos similares ya existentes en el mercado. Adicionalmente, debe demostrarse que sus efectos secundarios sean menos severos que sus equivalentes ya comercializables.

En síntesis, la empresa desarrolladora, y por tanto su grupo de científicos, deben demostrar ante la Food and Drug Administration (FDA) o su equivalente según sea el país de desarrollo, que el potencial fármaco es más efectivo y seguro que los similares ya conocidos. Debe también ofrecerse suficiente prueba de que se tiene el conocimiento preciso sobre la bioquímica del fármaco, cómo éste trabaja a nivel celular. A fin de recopilar toda esta información, los equipos científicos trabajan en varios frentes, realizando experimentos con células, animales de laboratorio, y posteriormente, en una etapa ya más avanzada, con voluntarios humanos (pruebas clínicas).

Nuevamente, la combinación de ciencia fundamental con la intención de

aplicación, es clave en esta etapa. Si en cualquier momento de esta cadena existe evidencia de que el fármaco no es tan efectivo o tan seguro como se anticipaba, entonces el proceso de investigación y desarrollo de ese candidato se detiene, y los esfuerzos de investigación se dirigen a otro candidato del pipeline. Si es posible documentar adecuadamente tanto la eficiencia como la seguridad del nuevo fármaco, entonces la empresa presentará una nueva aplicación de registro del fármaco (New Drug Application si este proceso fuese ante la FDA).

DESARROLLO DEL PROCESO DE PRODUCCIÓNParalelamente al proceso de validación de efecto y seguridad farmacológica, debe llevarse a cabo un proceso de optimización de la síntesis química y de diseño del proceso, para producir la molécula con potencial farmacológico (ver línea roja y verde en figura 2). Conforme se avanza en el pipeline, cada vez serán necesarias cantidades más grandes de la sustancia en evaluación. Esto demanda que el proceso de síntesis y evaluación del fármaco sea cada vez más eficiente. A su vez, esto demanda que se involucre un equipo de químicos e ingenieros que llevan el proceso de

Las pastillas de CERMET de las herramientas de corte proporcionan larga durabilidad y superficies con un excelente acabado, fortaleza y superior resistencia al desgaste. Utilizadas generalmente en seco, las herramientas de Cermet trabajan en velocidades de corte muy elevadas.

PLÁSTICOS Y COMPUESTOSEl término “plástico” se aplica comúnmente a todos los materiales inorgánicos que no son metales o madera. En realidad, se trata de polímeros, que son materiales sintéticos obtenidos mediante fenómenos de polimerización o multiplicación artificial de los átomos de carbono en las largas cadenas moleculares de compuestos orgánicos derivados del petróleo y otras sustancias naturales. En 1901, el químico Leo Baekeland produ-jo el primer material verdaderamente sintético, al cual llamó baquelita. En 1979, el volumen de plásticos producido por los Estados Unidos rebasó por primera vez el del acero, y en realidad es difícil imaginarse la vida contemporánea sin ellos, debido a que los plásticos y compuestos para usos específicos son artificiales, y pueden ser creados a la medida por científicos que trabajan con moléculas. Se usan en automóviles, aeroplanos, lascas para computadoras, como sustitutos de metales y de vidrio.

Figura 7. Ejemplo de aplicación de baquelita [1]

Los plásticos son biodegradables, conducen la electricidad y cambian al variar la temperatura o el voltaje. Son a menudo más baratos, ligeros y resistentes que los metales; reducen costos de manufactura, porque requieren menos energía; tienen propiedades de aislamiento térmico y eléctrico, reducen el ruido, la vibración, la fricción y el desgaste.

Page 31: Revista Conocimiento 47

36 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 29

www.conocimientoenlinea.com

síntesis desde su versión “laboratorio” hasta su versión “planta piloto” y eventualmente “escalan” el proceso a su versión “industrial”.

En este camino de desarrollo del proceso de producción, también los conceptos de ciencia fundamental de materiales, de química de superficies, de cristalización y física del estado sólido, de transferencia de masa, se traducen en Investigación Aplicada y Desarrollo Tecnológico.

Los avances médicos que hemos experimentado en occidente en la última década, con fármacos cada vez más eficaces y seguros, se deben en importante medida a la investigación desarrollada por la industria farmacéutica (principalmente la norteamericana y la europea) y sus colaboradores en investigación en centros de investigación y universidades alrededor del mundo. Desde luego, y completamente comprensible, estos avances no son motivados por el mero altruismo de las empresas farma, sino porque la plusvalía generada por la inversión en investigación así lo justifica.

LA INDUSTRIA FARMACÉUTICA EN MÉXICOEn México, la industria farmacéutica tiene una presencia económica muy importan-te. Sin embargo, su competitividad y su enorme potencial desarrollo se ve limitado por carencias en el suministro de productos de investigación (nuevos fármacos de patente, nuevos dispositivos farmacéuticos, patentes de proceso e innovaciones de proceso) y por insuficiencia en la infraestructura (recurso humano entrenado, equipamiento, instalaciones) para desarrollar nuevos fármacos y estudiar y optimizar procesos farmacéuticos. Se prevé que nuestro país tendrá una de las tasas de crecimiento

más importantes en este sector, aproximadamente de un 11 porciento anual 7, lo que constituye un mercado de 6 mil 47 millones de dólares al año8. Este incremento se debe al aumento de la población del país y al desarrollo de su economía. México ocupa el décimo quinto lugar internacional en la fabricación de medicamentos9. De acuerdo con datos de la Secretaría de Comercio y Fomento Industrial, en nuestro país alrededor de 400 empresas integran la industria farmacéutica, nueve porciento de las cuales son grandes corporativos, 19 por ciento medianas, 35 porciento pequeñas y 37 porciento microempresas10. Las empresas líderes en México corresponden a 16 laborato-rios subsidiarios de corporaciones mundialmente reconocidas.

Sin embargo, el mercado continúa siendo diversificado, ya que ninguna alcanza una participación superior al 10 por ciento del mercado nacional. La industria farmacéutica mexicana está frente a un gran reto por el TLC, ya que éste eliminó todos los impuestos para los productos farmacéuticos de importación desde 2002. La consecuencia directa de este hecho es que la industria local tiene el riesgo de disminuir su participación en el mercado en los próximos años, porque las industrias estadounidenses

1 http://www.pwcglobal.com/extweb/industry.nsf/docid/5B8A9B351C94111485256D6000504A59 2 World Health Organization. Fact Sheet No. 135: Ageing: a public health challenge.3 PWC Pharmaceutical Sector Insigths, Annual Report 2001.4http://goliath.ecnext.com/comsite5/bin/pdinventory.pl?pdlanding=1&referid=2750&item_id=0199-262200#abstract . Study Finds Diabetes Will Double in

World by 2030: Predicts Rapid U.S. Increase That Greatly Exceeds Prior CDC Projections (2004).5 World Health Organization. Fact Sheet No. 297, febrero 2006.6 PWC Pharmaceutical Sector Insigths, Annual Report 2001. 7 IMS, www.imshealth.com 8 PWC Pharmaceutical Sector Insigths, Annual Report 2001.9 http://www.pwcglobal.com/extweb/industry.nsf/docid/0F39387885070A7C85256D6000528199 10 PricewaterhouseCoopers, folleto de la Industria Farmacéutica, 2000. 11 http://www.pwcglobal.com/extweb/industry.nsf/docid/0F39387885070A7C85256D6000528199

y canadienses principalmente están reduciendo los precios para dominar el sector público de salud. Se suma, además, la falta de recursos económicos para la investigación y desarrollo 11.

Así, la industria farmacéutica mexicana encara retos importantes en innovación y desarrollo tecnológico. Hoy en día, el sector se dedica dominantemente a la producción de genéricos o a la formulación final de fármacos de patente (no a la síntesis de ingredientes activos). Por otro lado, son pocos los ejemplos de fármacos de patente desarrollados por empresas mexicanas. Idealmente, la industria farmacéutica nacional debería progresivamente moverse de su estado actual, centrado en la manufactura de genéricos y formulaciones finales, al descubrimiento y desarrollo de fármacos y biofármacos de patente

La creación de una plataforma para outsourcing de investigación, en universidades y centros de investigación, para la industria farmacéutica en México (ver figura 3), permitiría a la industria farmacéutica mexicana, particularmente la pequeña y mediana, hacerse de productos de investigación y herramientas de desarrollo tecnológico que mejorarían significativamente su efectividad y su competitividad.

Figura 3. Las universidades y centros de investigación mexicanos tienen excelentes oportunidades para relacionarse con la industria farmacéutica por medio de contratos de outsourcing de servicios de investigación y desarrollo tecnológico en las áreas de búsqueda de nuevos fármacos en productos naturales, análisis de efectos farmacológicos en líneas celulares y en animales, caracterización química de compuestos e ingeniería farmacéutica.

El acero de doble fase encuentra aplicación en productos que requieren buena deformabilidad en frío, y alta resistencia. Además es fácil para soldar. Son ejemplo los chasises de automóviles o camionetas.

SÚPERALEACIONES Y SÚPERCONDUCTORESLa popularidad de éstos empezó al terminar la Segunda Guerra Mundial, especialmente en turbomotores, súper cargadores y turbinas para aviones. Su versatilidad nació del hecho de que combinan buena ductibilidad y una excelente estabilidad en la superficie.

Las súperaleaciones con tungsteno, vanadio y cobalto presentan características excepcionales, como una alta resistencia mecánica a las temperaturas elevadas y resistencia a la corrosión. Las nuevas aleaciones se fabrican en muchos casos con metalurgia de polvos. Las partes se conforman comprimiendo y calentando polvos metálicos en moldes. Entre sus características más importantes está su alta resistencia al desgaste abrasivo a altas temperaturas. Esta propiedad se obtiene a pesar de que las temperaturas de fusión de las aleaciones son aproximadamente iguales que en los aceros. Por sus excelentes cualidades de resistencia al desgaste en condiciones desfavorables, las súperaleaciones se utilizan en las aletas y aspas de motores, así como en turbinas a reacción. Los súperconductores exhiben resistencia cero al flujo de electricidad, y pueden expulsar el flujo magnético de su interior, dando lugar al fenómeno de levitación magnética. El primer súperconductor mercurio, descubierto en 1911 por G. Holst y K. Onnes, sólo lo era a temperaturas inferiores a 4.2 K (-268°) y a principios de 1986 el récord de temperatura crítica estaba en 23 K correspondiente al compuesto Nb3Ge.

A finales de 1986, la comunidad científica internacional fue sorprendida cuando J. G. Berdnorz y K. A. Müller, del centro de investigaciones de la IBM en Zurich, observaron una temperatura de 35 K en el compuesto de óxido de cobre, bario y lantano (BaLaCuO) sintetizado con anterioridad (1983) por el grupo de B. Raveau y C. Michel en Francia. La euforia desatada por este descubrimiento

condujo a que poco tiempo después se descubriera que la temperatura crítica podía seguir subiendo, lo que llevó al descubrimiento de nuevos materiales súperconductores, con temperatura crítica por encima del punto de ebullición del nitrógeno líquido (~77 K).

Los súperconductores abren una nueva generación de micro lascas y computadoras. Su aplicación en la industria electrónica es indiscutible. En Japón se inauguró la línea experimental de tren sin ruedas. Todo el vehículo flota sobre un colchón magnético, y alcanza la velocidad de 500 kilómetros por hora.

Los monobloques de los motores de combustión interna hechos de una aleación de aluminio ya no son nada nuevo. Un nuevo reto para los tecnólogos es el monobloque de aluminio sin camisa de hierro fundido. May Holtzberg inventa un motor ligero de plástico, que sustenta que puede ser fabricado en serie a la mitad del costo de los motores de hierro actuales, el cual es tan liviano que puede ser cargado manualmente.

MATERIALES CERÁMICOSLos materiales cerámicos son de los más antiguos. Tienen una gran variedad de aplicaciones en la alfarería, fabricación de ladrillos, azulejos, lozas, tubos y productos de porcelana. Los nuevos productos cerámicos se emplean cada vez más en maquinas y electrónica. Son ligeros, nunca se desgastan y soportan enormes temperaturas. Hay nuevos plásticos de altas posibilidades, así como compuestos fundados en fibras de carbón. En la industria del transporte terrestre y espacial, las losetas que protegen un trasbordador espacial son de sílice, un material cerámico. Uno de los problemas de los materiales cerámicos es que son muy frágiles. Buscando un material que une las propiedades de materiales cerámicos y metales, los tecnólogos elaboraron cermetales, sintetizados de polvos cerámicos y metálicos. Así nació la tecnología llamada “Metalurgia de Polvos”, en la cual el producto está fabricado de polvo metálico o cerámico compactado en un molde y luego sintetizado. El método es fácil y relativamente barato en cuanto a su aplicación en la producción de grandes series. El mayor éxito de este método se logró en la producción de las pastillas para herramientas de corte. Estos insertos presentan excelente resistencia al desgaste, lo que prolonga significativamente su vida útil.

Figura 4. “Tren Bala”.

El tren funciona como un vehículo experimental. El problema más costoso en su funcionamiento es la necesidad de enfriar las rieles en toda su longitud con nitrógeno líquido; es decir, temperaturas inferiores a 190ºC bajo cero.

Figura 5. Motor de plástico [1]. Figura 6. Pastillas de corte [15].

REFERENCIAS:

Page 32: Revista Conocimiento 47

La Química ha desempeñado un papel de primera importancia en las grandes transformaciones de la sociedad, aun antes de que el

ser humano pudiese descubrir que se trata de una Ciencia Básica dotada con una amplia gama de aplicaciones. Un claro ejemplo de ello es el descubrimiento del fuego, cuyo origen se remonta a un pasado tan remoto que no existe memoria o constancia que registre tal evento. El descubrimiento del fuego permitió a los antiguos modificar y mejorar la dieta mediante la cocción de sus alimentos, ampliando así las posibilidades de desarrollo físico y, muy probablemente, hasta de evolución de especies, para llegar hasta el actual Homo Sapiens a partir de una larga secuencia evolutiva que parece ser se inició con los remotos Australopitecinos, iniciadores del linaje de los homínidos.

LA QUÍMICA Y LOS IMPERIOS DE LA ANTIGÜEDADLa Química fue clásicamente definida como “la ciencia que estudia la materia y sus transformaciones”, de tal manera que el descubrimiento y uso del fuego dio un avance inicial al desarrollo de la Química antes de que fuese formalmente reconocida como ciencia. Así, la cultura Asirio Babilónica (cuya cuna fue el actual Iraq) se convirtió en la primera potencia o imperio de la antigüedad gracias a la Química,mediante el aprovechamiento de los

cambios en la materia sometida al fuego; ellos desarrollaron la tecnología de los ladrillos de barro cocidos, mediante los cuales sus edificios llegaron a ser más seguros, sus hogares más confortables y, muy importante, crearon un bien de consumo cuyas exportaciones les dieron el poderío económico para sostener al ejército del imperio y a una casta de pensadores, astrónomos e incipientes tecnólogos de alimentos. Fue en ese imperio donde también se desarrolló la ciencia y arte de fermentar el jugo de uva para transformarlo en vino. Gracias al ingenio de los asirios, se tuvo también la más antigua biblioteca con documentos escritos en caracteres cuneiformes sobre tablillas hechas de barro cocido.

El uso del fuego se halla estrechamente relacionado con la fabricación de artículos de cerámica (29 mil a 25 mil años a. C.), con la metalurgia a base de cobre (2600 años a. C.), con el advenimiento de la Edad de Bronce en el segundo milenio anterior a nuestra era, en que el bronce fue utilizado para la fabricación de armas y herramientas; con el uso del peltre en China y Egipto en el primer milenio anterior a esta era; con el desarrollo de la metalurgia a base de hierro, iniciada por los Hititas en el siglo XVI (a. C.), y que fue seguida por el acero al carbón en el siglo XIII (a. C.), para llevar hasta la producción de vidrio en Grecia y Siria en el siglo X (a. C.). En resumen, el

Doctor Juan Manuel Barbarín CastilloSubdirector de PosgradoFacultad de Ciencias Químicas/UANL

30 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 35

www.conocimientoenlinea.com

Los aceros de Damasco son famosos por su resistencia, dureza y belleza. Las descripciones más antiguas sobre ellos datan del año 540 de nuestra era, pero seguramente se utilizaron desde la época de Alejandro Magno; es decir, alrededor del año 330 a. C.Durante las Cruzadas, los europeos encontraron en Damasco espadas y dagas con propiedades excepcionales, y por ello se difundió este nombre, a pesar de que el acero de que estaban hechas provenía de la India, donde se conocía con el nombre de wootz. Se cree que las mejores hojas de acero fueron forjadas en Persia con el wootz proveniente de la India, material que también se usó para hacer armaduras. Entonces, bien pudieron llamarse aceros de la India o de Persia.

ACERO DE ALTA CALIDADNo faltaban recetas (hoy les llamamos tecnologías) para fabricar el acero de alta calidad como ésta: “el acero debe calentarse hasta que cese de brillar, justo como la salida del sol en el desierto; después de esto, debe enfriarse hasta que llegue al color púrpura de rey y, en esta condición, insértese en el cuerpo de un esclavo lo más musculoso posible; así, la fuerza del esclavo será transferida a la hoja de acero, lo que se traducirá en la resistencia del metal” [8].

La Revolución Industrial del siglo XVIII impulsó el desarrollo del acero como el material de construcción de las máquinas (la máquina de vapor de James

Watt), lo que revolucionó el transporte terrestre por ferrocarril, lo mismo que los transportes acuáticos, mediante los barcos con motores de vapor: También fue material indispensable en la ingeniería civil, como en la torre Eiffel, de 317 metros de altura y peso de siete mil 399 toneladas. El acero sigue siendo hasta nuestros días un material de múltiples aplicaciones. Se buscan cada vez nuevas modificaciones de este material, con propiedades sorprendentes. Se puede reforzar la resistencia del acero mediante el aumento de su contenido de carbono o elementos de aleación. Desgraciadamente, este tipo de material es poco plástico y es difícil deformarlo y soldar para fabricar los chasises o carrocerías de los automóviles. Buscando la solución del problema, los investigadores elaboraron nuevos tipos de acero, como HSLA, High Strength Low Alloy Steel, TRIP Transformation Induced Plasticity o aceros tipo de doble fase, (Dual Phase).

En los aceros HSLA, como elementos de aleación se aplicaron materiales tan raros como Columbio, Niobio, Cerio y Lantanio que, con la combinación con el proceso de fabricación, provocan precipitación del grano, lo que aumenta la resistencia sin sacrificar las propiedades plásticas. Los aceros HSLA logran una resistencia hasta 30 por ciento más alta que los aceros comerciales, lo que significa que las construcciones hechas de este tipo de acero pueden ser 30 por ciento más ligeras. Por eso tienen su gran aplicación en la construcción de puentes, aviones militares, edificios altos y plataformas petroleras, los cuales se transportan de tierra al mar por helicópteros, y cada kilogramo tiene su precio.

Llama la atención el acero de doble fase. La idea es bien fácil. En los aceros la fase ferrita es muy dúctil y fácilmente deformable; desgraciadamente presenta baja resistencia. Entonces se busca un acero que una las dos propiedades: alta ductibilidad y buena resistencia mecánica. Aquí llegamos a la solución. La fase ferrita es dúctil y se le puede reforzar con la fase de martensita, que es dura y resistente. Es decir, se puede fabricar acero con las propiedades requeridas por el cliente: más resistente y menos plástico, o de menor resistencia, pero más dúctil. Un ejemplo de acero de doble fase presenta la foto.

Figura 1. Muestra de un producto antiguo de hierro

y acero [8].

Puente hecho de acero HSLA [2].

Aumento 100x

Aumento 1000 x.

Figura 3. Acero de doblefase. Investigaciones propias del autor.

Page 33: Revista Conocimiento 47

La Química ha desempeñado un papel de primera importancia en las grandes transformaciones de la sociedad, aun antes de que el

ser humano pudiese descubrir que se trata de una Ciencia Básica dotada con una amplia gama de aplicaciones. Un claro ejemplo de ello es el descubrimiento del fuego, cuyo origen se remonta a un pasado tan remoto que no existe memoria o constancia que registre tal evento. El descubrimiento del fuego permitió a los antiguos modificar y mejorar la dieta mediante la cocción de sus alimentos, ampliando así las posibilidades de desarrollo físico y, muy probablemente, hasta de evolución de especies, para llegar hasta el actual Homo Sapiens a partir de una larga secuencia evolutiva que parece ser se inició con los remotos Australopitecinos, iniciadores del linaje de los homínidos.

LA QUÍMICA Y LOS IMPERIOS DE LA ANTIGÜEDADLa Química fue clásicamente definida como “la ciencia que estudia la materia y sus transformaciones”, de tal manera que el descubrimiento y uso del fuego dio un avance inicial al desarrollo de la Química antes de que fuese formalmente reconocida como ciencia. Así, la cultura Asirio Babilónica (cuya cuna fue el actual Iraq) se convirtió en la primera potencia o imperio de la antigüedad gracias a la Química,mediante el aprovechamiento de los

cambios en la materia sometida al fuego; ellos desarrollaron la tecnología de los ladrillos de barro cocidos, mediante los cuales sus edificios llegaron a ser más seguros, sus hogares más confortables y, muy importante, crearon un bien de consumo cuyas exportaciones les dieron el poderío económico para sostener al ejército del imperio y a una casta de pensadores, astrónomos e incipientes tecnólogos de alimentos. Fue en ese imperio donde también se desarrolló la ciencia y arte de fermentar el jugo de uva para transformarlo en vino. Gracias al ingenio de los asirios, se tuvo también la más antigua biblioteca con documentos escritos en caracteres cuneiformes sobre tablillas hechas de barro cocido.

El uso del fuego se halla estrechamente relacionado con la fabricación de artículos de cerámica (29 mil a 25 mil años a. C.), con la metalurgia a base de cobre (2600 años a. C.), con el advenimiento de la Edad de Bronce en el segundo milenio anterior a nuestra era, en que el bronce fue utilizado para la fabricación de armas y herramientas; con el uso del peltre en China y Egipto en el primer milenio anterior a esta era; con el desarrollo de la metalurgia a base de hierro, iniciada por los Hititas en el siglo XVI (a. C.), y que fue seguida por el acero al carbón en el siglo XIII (a. C.), para llevar hasta la producción de vidrio en Grecia y Siria en el siglo X (a. C.). En resumen, el

Doctor Juan Manuel Barbarín CastilloSubdirector de PosgradoFacultad de Ciencias Químicas/UANL

30 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 35

www.conocimientoenlinea.com

Los aceros de Damasco son famosos por su resistencia, dureza y belleza. Las descripciones más antiguas sobre ellos datan del año 540 de nuestra era, pero seguramente se utilizaron desde la época de Alejandro Magno; es decir, alrededor del año 330 a. C.Durante las Cruzadas, los europeos encontraron en Damasco espadas y dagas con propiedades excepcionales, y por ello se difundió este nombre, a pesar de que el acero de que estaban hechas provenía de la India, donde se conocía con el nombre de wootz. Se cree que las mejores hojas de acero fueron forjadas en Persia con el wootz proveniente de la India, material que también se usó para hacer armaduras. Entonces, bien pudieron llamarse aceros de la India o de Persia.

ACERO DE ALTA CALIDADNo faltaban recetas (hoy les llamamos tecnologías) para fabricar el acero de alta calidad como ésta: “el acero debe calentarse hasta que cese de brillar, justo como la salida del sol en el desierto; después de esto, debe enfriarse hasta que llegue al color púrpura de rey y, en esta condición, insértese en el cuerpo de un esclavo lo más musculoso posible; así, la fuerza del esclavo será transferida a la hoja de acero, lo que se traducirá en la resistencia del metal” [8].

La Revolución Industrial del siglo XVIII impulsó el desarrollo del acero como el material de construcción de las máquinas (la máquina de vapor de James

Watt), lo que revolucionó el transporte terrestre por ferrocarril, lo mismo que los transportes acuáticos, mediante los barcos con motores de vapor: También fue material indispensable en la ingeniería civil, como en la torre Eiffel, de 317 metros de altura y peso de siete mil 399 toneladas. El acero sigue siendo hasta nuestros días un material de múltiples aplicaciones. Se buscan cada vez nuevas modificaciones de este material, con propiedades sorprendentes. Se puede reforzar la resistencia del acero mediante el aumento de su contenido de carbono o elementos de aleación. Desgraciadamente, este tipo de material es poco plástico y es difícil deformarlo y soldar para fabricar los chasises o carrocerías de los automóviles. Buscando la solución del problema, los investigadores elaboraron nuevos tipos de acero, como HSLA, High Strength Low Alloy Steel, TRIP Transformation Induced Plasticity o aceros tipo de doble fase, (Dual Phase).

En los aceros HSLA, como elementos de aleación se aplicaron materiales tan raros como Columbio, Niobio, Cerio y Lantanio que, con la combinación con el proceso de fabricación, provocan precipitación del grano, lo que aumenta la resistencia sin sacrificar las propiedades plásticas. Los aceros HSLA logran una resistencia hasta 30 por ciento más alta que los aceros comerciales, lo que significa que las construcciones hechas de este tipo de acero pueden ser 30 por ciento más ligeras. Por eso tienen su gran aplicación en la construcción de puentes, aviones militares, edificios altos y plataformas petroleras, los cuales se transportan de tierra al mar por helicópteros, y cada kilogramo tiene su precio.

Llama la atención el acero de doble fase. La idea es bien fácil. En los aceros la fase ferrita es muy dúctil y fácilmente deformable; desgraciadamente presenta baja resistencia. Entonces se busca un acero que una las dos propiedades: alta ductibilidad y buena resistencia mecánica. Aquí llegamos a la solución. La fase ferrita es dúctil y se le puede reforzar con la fase de martensita, que es dura y resistente. Es decir, se puede fabricar acero con las propiedades requeridas por el cliente: más resistente y menos plástico, o de menor resistencia, pero más dúctil. Un ejemplo de acero de doble fase presenta la foto.

Figura 1. Muestra de un producto antiguo de hierro

y acero [8].

Puente hecho de acero HSLA [2].

Aumento 100x

Aumento 1000 x.

Figura 3. Acero de doblefase. Investigaciones propias del autor.

34 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 31

www.conocimientoenlinea.com

uso del fuego llevó al descubrimiento del vidrio, a la purificación de metales y al nacimiento de la metalurgia y la cerámica.

LA ALQUIMIA Y LOS ALQUIMISTASEl oro fue conocido y muy apreciado en el antiguo Egipto (2600 a. C.), y llegó a ser un metal precioso desde entonces. La búsqueda de un método que pudiese convertir los metales baratos en oro, a través de una supuesta Piedra Filosofal, y el lograr encontrar el Elíxir de la Vida que proporcionara salud a una población víctima de epidemias como la fiebre bubónica, dio un impulso al trabajo efectuado en incipientes laboratorios en los que debían aplicarse métodos experimentales. Esa etapa de desarrollo de la Química se conoce como Alquimia, una proto-ciencia mezclada con astrología, medicina, misticismo y filosofía, cuya vigencia duró unos 2500 años e involucró a las civilizaciones de Mesopotamia, Antiguo Egipto, Persia, India y China, pasando luego a Grecia y Roma, para culminar en Europa.

El dominio de la Alquimia terminó apenas en el siglo XIX, cuando la Química recibió finalmente el reconocimiento de Ciencia. A pesar de toda una amplia gama de observaciones y aportaciones que la Alquimia hizo al conocimiento de la naturaleza, la falta de un sistema apropiado para nombrar las sustancias y sus propiedades, así como claridad en la descripción de los experimentos, hizo a ésta una ciencia oscura en donde proliferaron los charlatanes defraudadores, al grado de que Dante Alighieri en sus escritos manda a todos los alquimistas “al infierno”, mientras que el Papa Juan XXII de Avignón ordenó a todos los alquimistas que abandonaran Francia en el año 1317.

A lo largo del siglo XVIII se sucedieron importantes desarrollos tecnológicos que, vistos a la luz de los métodos de trabajo de entonces, pueden ser atribuidos a la Alquimia en franco proceso de evolución hacia la Química. Entre los procesos patentados más importantes de ese siglo se encuentran: 1) La producción de zinc por destilación a partir de smithsonita (mineral de óxido de zinc) y carbón, de William Champion, en 1738; 2) La producción en alto volumen de acero al carbón, mediante el proceso de crisol (crucible technique),

Absolutamente todo lo que nos rodea está hecho de un material, ya sea sólido, líquido o gaseoso. Por ese motivo, el problema de los materiales siempre ha jugado importante papel en la vida del hombre. Su importancia es tal, que han servido para designar períodos de la historia: Edad de piedra, de Bronce, de Hierro. Probablemente la contemporánea se podría llamar Edad de Plástico.

Es lógico pensar que el hierro haya tenido tanto impacto en la historia de la humanidad, considerando que es uno de los elementos más abundantes en el planeta. En la naturaleza es muy difícil encontrar materiales puros; la mayoría de los metales importantes se encuentran en un compuesto, combinado con oxígeno u otros elementos (Fe

2O3), Al2O3, CuFeS2, FeTiO3.

Para fabricar los metales puros, hay que reducir el oxígeno u otros elementos compuestos en los procesos llamados de reducción. El proceso de reducción por carbón consiste en que, cuando un mineral que contiene oxígeno (el mineral de fierro) se calienta en presencia de

carbón, éste captura parte del oxígeno que se libera y ambos se combinan, con lo que se produce algún compuesto de oxígeno y carbono, y se deja el metal libre de oxígeno; es decir, metal puro. Puesto que en estas operaciones el material debe pasar por el estado líquido, y la temperatura de fusión del fierro (1523ºC) es más alta que la del cobre (1083ºC), se explica por qué se desarrollaron primero los procesos de fabricación de bronce (aleación de cobre y estaño) y luego de hierro.

TÉCNICAS DE REDUCCIÓNSin embargo, existen las técnicas de reducción a temperaturas más bajas que la temperatura de fusión. Las famosas técnicas de Reducción Directa desarrolladas en los años 1950, han redundado en la fabricación del llamado hierro esponja, frágil y de poca resistencia, que en los procesos metalúrgicos se convierte en acero. Esta esponja metálica, al ser martillada, se liberó de sus escorias y permitió formar una masa compacta y dúctil, lo que fue un material precursor del acero.

Es decir, es muy probable que lo que el hombre del siglo XV a. C. conoció y manipuló haya sido lo que hoy conocemos como acero al carbón y no el hierro. La siguiente figura muestra una espada corta del año 800 a.C., o aún más antigua. La hoja es de acero al carbón, endurecida por tratamiento térmico, y el mango está formado por varias piezas de hierro. Algunas de ellas son piezas forjadas.

Doctor Zygmunt Haduch Suski Profesor Titular de la Universidad de Monterrey [email protected]

Page 34: Revista Conocimiento 47

32 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 33

www.conocimientoenlinea.com

de Benjamín Huntsman, en 1740; 3) La patente del cemento hidráulico para ser usado como recubrimiento externo, de Bry Higgins, en 1779, y, 4) La batería ácida de cobre y zinc, de Alessandro Volta, en 1799. Estos desarrollos tecnológicos, en conjunción con los conocimientos acerca de la naturaleza y propiedades de la materia ya abordadas desde el punto de vista microscópico o atomista, pusieron el escenario listo para un brillante inicio del siglo XIX.

LA QUÍMICA COMO CIENCIALa Época Moderna de la Química se inició en el siglo XIX, con el acelerado descubrimiento de muchos de los elementos, los que debieron acomodarse de manera sistemática en una Tabla Periódica diseñada conforme al orden ascendente en sus masas atómicas, y luego conforme al número atómico. Por entonces se empezó a aceptar la idea divulgada en 1808 por el científico Británico John Dalton, de que la materia estaba formada por átomos, definidos como las partículas más pequeñas e indivisibles que forman a la materia observable y que se distinguen por su masa, ideas que Dalton retomó de los filósofos de India y Grecia pero que quedaron en el olvido y en la censura por más de dos mil años.

Antes de Dalton, otro científico Británi-co, Robert Boyle (1627–1691), pudo apreciar la diferencia entre la Alquimia y la Química. Fue el primero en describir los gases, aplicó el método científico en la Alquimia y reconoció los átomos como las partículas más pequeñas de la materia, aunque en lugar de átomos les llamó “corpúsculos”. A pesar de todas estas ideas revolucionarias, re-trabajadas a lo largo de casi 150 años por Boyle y Dalton, la persona reconocida como “Padre de la Química” fue el Francés Antoine Lavoisier gracias a su ley de “conservación de la masa” enunciada en 1789.

Durante el siglo XIX y la primera década del siglo XX, los químicos estuvieron fuertemente divididos en dos grandes grupos antagónicos: los atomistas, que aceptaban la Teoría Atómica de Dalton, y los que se oponían a ella. Un claro y triste ejemplo de ello lo representa el trabajo de Avogadro (1776-1856), que en 1811 propuso que muchos gases, como por ejemplo el oxígeno (O

2), se hallan

constituidos de moléculas bi-atómicas. Esa verdad fue finalmente aceptada 50 años después, un triunfo personal que Avogadro no alcanzó a ver. Ahora es fácil imaginar las razones de los oponentes al atomismo, ya que entonces no era posible demostrar experimentalmente la existencia del átomo y menos aún que estuviese constituido de partículas menores, o sub-atómicas, llamadas neutrones y protones (localizadas en el núcleo) y electrones que giran y forman una nube de carga negativa alrededor del núcleo positivo. No obstante todas esas dificultades, Michael Faraday logró encontrar, alrededor del año 1840, que existe una relación exacta entre la cantidad de electricidad utilizada en una reacción de electrólisis o de electro-depositación, y las cantidades de elementos metálicos transformados en el proceso, con la consecuencia adicional de que existen relaciones fijas entre las cantidades de los diferentes elementos. Sus investigaciones fueron una prueba temprana de lo correcto pregonado por los atomistas.

Durante el siglo XIX se incrementó grandemente el conocimiento en las ciencias naturales, y muchos pensadores aportaron ideas para el desarrollo de teorías que hasta nuestros días mantienen su vigencia. Aunado a ello, el mundo vio el desarrollo de los imperios modernos, de continentes colonizados por las potencias europeas de entonces y un aumento de población que brindó también el estímulo renovado de extraer recursos naturales de las colonias y transformarlos en bienes para incrementar la riqueza de esas potencias. Ese escenario describe de manera simple las condiciones en que se inició la Revolución Industrial en Europa durante la segunda mitad del siglo XIX. Entre las grandes contribuciones hechas por la Química durante el siglo XIX sobresalen las siguientes: 1) La invención del termocople, por T. Seebeck, en 1821; 2) La patente del Cemento Pórtland, por J. Aspin, en 1824; 3) La producción de aluminio metálico, por H. Ørsted, en 1825; 4) La invención del hule vulcanizado, por Charles Goodyear; en 1839; 5) La invención de la fotografía usando plata y sus sales, por L. Daguerre y W.F. Talbot, en 1839; 6) El Proceso de Bessemer para la producción masiva de acero, patentado en 1855; 7) La primera presentación de la fotografía a colores, por J.C. Maxwell, en 1861 y, 8) La construcción de las primeras celdas solares, por Charles Fritts, usando laminillas de selenio, en 1883.

CIENCIAS DIVERSAS EN APOYO DE LA QUÍMICAFue también en el siglo XIX cuando, ya siendo la Química una Ciencia Cuantitativa, los químicos abordaban sus estudios utilizando también los recursos de las diversas ciencias como la Física, Biología y Matemáticas; en ese contexto se sentaron las bases de la Fisicoquímica, Termodinámica, Mecánica Cuántica, Bioquímica, Electroquímica, etcétera. Entre todos ellos cabe mencionar a Willard Gibbs, de Estados Unidos, que puso las bases para la comprensión de los equilibrios en que co-existen las diferentes formas de la materia, un tema llamado “Regla de las Fases de Gibbs”, cuyo desarrollo sirvió de impulso para el enriquecimiento de campos de aplicación tan diversos como las industrias de los aceros y todo tipo de aleaciones en metalurgia, cementos, vidrios, materiales cerámicos, etcétera.

John Dalton (Eaglesfield, Cumberland (Reino Unido), 6 de septiembre de 1766 - †Manchester, 27 de julio de 1844). químico, físico y matemático inglés. Con 12 años, en 1778, comenzó a impartir enseñanza elemental en Cumberland, y a partir de 1780 lo hizo en Kendal durante 12 años más.

LA QUÍMICA EN EL SIGLO XXDurante la primera década del siglo XX quedó finalmente resuelto el conflicto entre los atomistas y sus detractores; se reconoció al átomo y se definieron mu-chas de sus características; se demostró la existencia de los protones y electrones; se asoció a la electricidad con partículas discretas llamadas “electrones” de carga negativa, y se preparó el camino para un siglo de grandes descubrimientos, de grandes desarrollos tecnológicos y, desafortunadamente, también grandes guerras.

Ya la Química ha dejado atrás la imagen del estudioso encerrado en un laboratorio, con complejos aparatos de vidrio y fórmulas escritas en botellas. Ahora el químico se abastece también de conocimientos profundos de la Física, Mecánica, Eléctrica, Matemáticas y hasta Astronomía, dejándose acompañar por instrumentos acordes con las ciencias que debe involucrar en sus estudios de la Química.

Entre las muchas aportaciones hechas por la Química a la sociedad en el siglo XX se mencionan las siguientes: 1) El proceso para elaborar rubíes sintéticos, de A. Verneuil, en 1902; 2) El invento de plástico duro llamado bakelita, por L. Baekeland, en 1909; 3) El descubrimiento de la superconductividad, en 1911, por Kammerling Onnes, quien por cierto fue el primero en obtener helio líquido, para lo cual debió acercarse al cero absoluto de temperatura como nadie lo hizo antes; 4) La invención del acero inoxidable, por H. Brearley, en 1912; 5) El crecimiento de cristales sencillos de metales, por J. Czochralski, en 1916; 6) El vidrio Pirex, inventado por los científicos de Corning Inc. en 1924; 7) El desarrollo de hule sintético (neopreno), por J. Nieuwland, y del nylon, por W. Carothers, ambos en 1931; 8) El teflón, inventado por Roy Plunkett en 1938; 9) El primer transistor de germanio, inventado en 1947, simultáneamente con la primera aplicación de un producto cerámico con propiedades piezoeléctricas, usado en las agujas de tocadiscos; 10) Por primera vez son vistos átomos individuales mediante un microscopio de campo iónico en 1951; 11) J. Watson y Crick dedujeron la estructura de doble hélice del ADN, utilizando patrones de difracción de rayos X, llevando a la explosión en las investigaciones en la

bioquímica o Química de la Vida; también se desarrollaron catalizadores metálicos que redundaron en la mejora de los polietilenos; ambos eventos fueron en 1953, 12) Los hermanos Pilkington patentaron el proceso de vidrio flotado en 1959; 13) En 1968 se desarrolló la pantalla de cristal líquido por RCA, ahora tan cotidiana hasta en relojes baratos; 14) En 1970, Dow Corning desarrolló fibras ópticas a base de silicio, etcétera. En ese mismo siglo se inventaron también los gases refrigerantes Freón y sus variedades ecológicas, aunque inicialmente la industria de la refrigeración tuvo un gran auge gracias al Freón; desafortunadamente se descubrió, 50 años después de su primera aplicación, que la capa de ozono era dañada por estos gases. El siglo XX vio el nacimiento de la Cosmoquímica y de anteriormente insospechadas aplicaciones de la Química en estudios de Paleontología.

EPÍLOGOLa Química es la Ciencia de la Vida y de la Materia Inanimada. Estudia las transformaciones físicas y químicas de la materia en conjunto con la energía involucrada en esas transformaciones, estableciendo las condiciones en las que ellas se llevan a cabo, a fin de evaluar el efecto de las condiciones sobre dichas transformaciones. La Química es una Ciencia experimental y teórica; la teoría establece la plataforma racional, expresada en el lenguaje de las matemáticas, mediante la cual es posible explicar, predecir y representar los asombrosos fenómenos naturales y artificiales abarcados por la Química. La Química debiera estar en los planes de estudios de todas las carreras universitarias y técnicas, pues nadie se libra de necesitar conocimientos acerca de la Química en un mundo actual tan sofisticado y tan dependiente de esta Ciencia.

32 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 33

www.conocimientoenlinea.com

de Benjamín Huntsman, en 1740; 3) La patente del cemento hidráulico para ser usado como recubrimiento externo, de Bry Higgins, en 1779, y, 4) La batería ácida de cobre y zinc, de Alessandro Volta, en 1799. Estos desarrollos tecnológicos, en conjunción con los conocimientos acerca de la naturaleza y propiedades de la materia ya abordadas desde el punto de vista microscópico o atomista, pusieron el escenario listo para un brillante inicio del siglo XIX.

LA QUÍMICA COMO CIENCIALa Época Moderna de la Química se inició en el siglo XIX, con el acelerado descubrimiento de muchos de los elementos, los que debieron acomodarse de manera sistemática en una Tabla Periódica diseñada conforme al orden ascendente en sus masas atómicas, y luego conforme al número atómico. Por entonces se empezó a aceptar la idea divulgada en 1808 por el científico Británico John Dalton, de que la materia estaba formada por átomos, definidos como las partículas más pequeñas e indivisibles que forman a la materia observable y que se distinguen por su masa, ideas que Dalton retomó de los filósofos de India y Grecia pero que quedaron en el olvido y en la censura por más de dos mil años.

Antes de Dalton, otro científico Británi-co, Robert Boyle (1627–1691), pudo apreciar la diferencia entre la Alquimia y la Química. Fue el primero en describir los gases, aplicó el método científico en la Alquimia y reconoció los átomos como las partículas más pequeñas de la materia, aunque en lugar de átomos les llamó “corpúsculos”. A pesar de todas estas ideas revolucionarias, re-trabajadas a lo largo de casi 150 años por Boyle y Dalton, la persona reconocida como “Padre de la Química” fue el Francés Antoine Lavoisier gracias a su ley de “conservación de la masa” enunciada en 1789.

Durante el siglo XIX y la primera década del siglo XX, los químicos estuvieron fuertemente divididos en dos grandes grupos antagónicos: los atomistas, que aceptaban la Teoría Atómica de Dalton, y los que se oponían a ella. Un claro y triste ejemplo de ello lo representa el trabajo de Avogadro (1776-1856), que en 1811 propuso que muchos gases, como por ejemplo el oxígeno (O

2), se hallan

constituidos de moléculas bi-atómicas. Esa verdad fue finalmente aceptada 50 años después, un triunfo personal que Avogadro no alcanzó a ver. Ahora es fácil imaginar las razones de los oponentes al atomismo, ya que entonces no era posible demostrar experimentalmente la existencia del átomo y menos aún que estuviese constituido de partículas menores, o sub-atómicas, llamadas neutrones y protones (localizadas en el núcleo) y electrones que giran y forman una nube de carga negativa alrededor del núcleo positivo. No obstante todas esas dificultades, Michael Faraday logró encontrar, alrededor del año 1840, que existe una relación exacta entre la cantidad de electricidad utilizada en una reacción de electrólisis o de electro-depositación, y las cantidades de elementos metálicos transformados en el proceso, con la consecuencia adicional de que existen relaciones fijas entre las cantidades de los diferentes elementos. Sus investigaciones fueron una prueba temprana de lo correcto pregonado por los atomistas.

Durante el siglo XIX se incrementó grandemente el conocimiento en las ciencias naturales, y muchos pensadores aportaron ideas para el desarrollo de teorías que hasta nuestros días mantienen su vigencia. Aunado a ello, el mundo vio el desarrollo de los imperios modernos, de continentes colonizados por las potencias europeas de entonces y un aumento de población que brindó también el estímulo renovado de extraer recursos naturales de las colonias y transformarlos en bienes para incrementar la riqueza de esas potencias. Ese escenario describe de manera simple las condiciones en que se inició la Revolución Industrial en Europa durante la segunda mitad del siglo XIX. Entre las grandes contribuciones hechas por la Química durante el siglo XIX sobresalen las siguientes: 1) La invención del termocople, por T. Seebeck, en 1821; 2) La patente del Cemento Pórtland, por J. Aspin, en 1824; 3) La producción de aluminio metálico, por H. Ørsted, en 1825; 4) La invención del hule vulcanizado, por Charles Goodyear; en 1839; 5) La invención de la fotografía usando plata y sus sales, por L. Daguerre y W.F. Talbot, en 1839; 6) El Proceso de Bessemer para la producción masiva de acero, patentado en 1855; 7) La primera presentación de la fotografía a colores, por J.C. Maxwell, en 1861 y, 8) La construcción de las primeras celdas solares, por Charles Fritts, usando laminillas de selenio, en 1883.

CIENCIAS DIVERSAS EN APOYO DE LA QUÍMICAFue también en el siglo XIX cuando, ya siendo la Química una Ciencia Cuantitativa, los químicos abordaban sus estudios utilizando también los recursos de las diversas ciencias como la Física, Biología y Matemáticas; en ese contexto se sentaron las bases de la Fisicoquímica, Termodinámica, Mecánica Cuántica, Bioquímica, Electroquímica, etcétera. Entre todos ellos cabe mencionar a Willard Gibbs, de Estados Unidos, que puso las bases para la comprensión de los equilibrios en que co-existen las diferentes formas de la materia, un tema llamado “Regla de las Fases de Gibbs”, cuyo desarrollo sirvió de impulso para el enriquecimiento de campos de aplicación tan diversos como las industrias de los aceros y todo tipo de aleaciones en metalurgia, cementos, vidrios, materiales cerámicos, etcétera.

John Dalton (Eaglesfield, Cumberland (Reino Unido), 6 de septiembre de 1766 - †Manchester, 27 de julio de 1844). químico, físico y matemático inglés. Con 12 años, en 1778, comenzó a impartir enseñanza elemental en Cumberland, y a partir de 1780 lo hizo en Kendal durante 12 años más.

LA QUÍMICA EN EL SIGLO XXDurante la primera década del siglo XX quedó finalmente resuelto el conflicto entre los atomistas y sus detractores; se reconoció al átomo y se definieron mu-chas de sus características; se demostró la existencia de los protones y electrones; se asoció a la electricidad con partículas discretas llamadas “electrones” de carga negativa, y se preparó el camino para un siglo de grandes descubrimientos, de grandes desarrollos tecnológicos y, desafortunadamente, también grandes guerras.

Ya la Química ha dejado atrás la imagen del estudioso encerrado en un laboratorio, con complejos aparatos de vidrio y fórmulas escritas en botellas. Ahora el químico se abastece también de conocimientos profundos de la Física, Mecánica, Eléctrica, Matemáticas y hasta Astronomía, dejándose acompañar por instrumentos acordes con las ciencias que debe involucrar en sus estudios de la Química.

Entre las muchas aportaciones hechas por la Química a la sociedad en el siglo XX se mencionan las siguientes: 1) El proceso para elaborar rubíes sintéticos, de A. Verneuil, en 1902; 2) El invento de plástico duro llamado bakelita, por L. Baekeland, en 1909; 3) El descubrimiento de la superconductividad, en 1911, por Kammerling Onnes, quien por cierto fue el primero en obtener helio líquido, para lo cual debió acercarse al cero absoluto de temperatura como nadie lo hizo antes; 4) La invención del acero inoxidable, por H. Brearley, en 1912; 5) El crecimiento de cristales sencillos de metales, por J. Czochralski, en 1916; 6) El vidrio Pirex, inventado por los científicos de Corning Inc. en 1924; 7) El desarrollo de hule sintético (neopreno), por J. Nieuwland, y del nylon, por W. Carothers, ambos en 1931; 8) El teflón, inventado por Roy Plunkett en 1938; 9) El primer transistor de germanio, inventado en 1947, simultáneamente con la primera aplicación de un producto cerámico con propiedades piezoeléctricas, usado en las agujas de tocadiscos; 10) Por primera vez son vistos átomos individuales mediante un microscopio de campo iónico en 1951; 11) J. Watson y Crick dedujeron la estructura de doble hélice del ADN, utilizando patrones de difracción de rayos X, llevando a la explosión en las investigaciones en la

bioquímica o Química de la Vida; también se desarrollaron catalizadores metálicos que redundaron en la mejora de los polietilenos; ambos eventos fueron en 1953, 12) Los hermanos Pilkington patentaron el proceso de vidrio flotado en 1959; 13) En 1968 se desarrolló la pantalla de cristal líquido por RCA, ahora tan cotidiana hasta en relojes baratos; 14) En 1970, Dow Corning desarrolló fibras ópticas a base de silicio, etcétera. En ese mismo siglo se inventaron también los gases refrigerantes Freón y sus variedades ecológicas, aunque inicialmente la industria de la refrigeración tuvo un gran auge gracias al Freón; desafortunadamente se descubrió, 50 años después de su primera aplicación, que la capa de ozono era dañada por estos gases. El siglo XX vio el nacimiento de la Cosmoquímica y de anteriormente insospechadas aplicaciones de la Química en estudios de Paleontología.

EPÍLOGOLa Química es la Ciencia de la Vida y de la Materia Inanimada. Estudia las transformaciones físicas y químicas de la materia en conjunto con la energía involucrada en esas transformaciones, estableciendo las condiciones en las que ellas se llevan a cabo, a fin de evaluar el efecto de las condiciones sobre dichas transformaciones. La Química es una Ciencia experimental y teórica; la teoría establece la plataforma racional, expresada en el lenguaje de las matemáticas, mediante la cual es posible explicar, predecir y representar los asombrosos fenómenos naturales y artificiales abarcados por la Química. La Química debiera estar en los planes de estudios de todas las carreras universitarias y técnicas, pues nadie se libra de necesitar conocimientos acerca de la Química en un mundo actual tan sofisticado y tan dependiente de esta Ciencia.

Page 35: Revista Conocimiento 47

32 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 33

www.conocimientoenlinea.com

de Benjamín Huntsman, en 1740; 3) La patente del cemento hidráulico para ser usado como recubrimiento externo, de Bry Higgins, en 1779, y, 4) La batería ácida de cobre y zinc, de Alessandro Volta, en 1799. Estos desarrollos tecnológicos, en conjunción con los conocimientos acerca de la naturaleza y propiedades de la materia ya abordadas desde el punto de vista microscópico o atomista, pusieron el escenario listo para un brillante inicio del siglo XIX.

LA QUÍMICA COMO CIENCIALa Época Moderna de la Química se inició en el siglo XIX, con el acelerado descubrimiento de muchos de los elementos, los que debieron acomodarse de manera sistemática en una Tabla Periódica diseñada conforme al orden ascendente en sus masas atómicas, y luego conforme al número atómico. Por entonces se empezó a aceptar la idea divulgada en 1808 por el científico Británico John Dalton, de que la materia estaba formada por átomos, definidos como las partículas más pequeñas e indivisibles que forman a la materia observable y que se distinguen por su masa, ideas que Dalton retomó de los filósofos de India y Grecia pero que quedaron en el olvido y en la censura por más de dos mil años.

Antes de Dalton, otro científico Británi-co, Robert Boyle (1627–1691), pudo apreciar la diferencia entre la Alquimia y la Química. Fue el primero en describir los gases, aplicó el método científico en la Alquimia y reconoció los átomos como las partículas más pequeñas de la materia, aunque en lugar de átomos les llamó “corpúsculos”. A pesar de todas estas ideas revolucionarias, re-trabajadas a lo largo de casi 150 años por Boyle y Dalton, la persona reconocida como “Padre de la Química” fue el Francés Antoine Lavoisier gracias a su ley de “conservación de la masa” enunciada en 1789.

Durante el siglo XIX y la primera década del siglo XX, los químicos estuvieron fuertemente divididos en dos grandes grupos antagónicos: los atomistas, que aceptaban la Teoría Atómica de Dalton, y los que se oponían a ella. Un claro y triste ejemplo de ello lo representa el trabajo de Avogadro (1776-1856), que en 1811 propuso que muchos gases, como por ejemplo el oxígeno (O

2), se hallan

constituidos de moléculas bi-atómicas. Esa verdad fue finalmente aceptada 50 años después, un triunfo personal que Avogadro no alcanzó a ver. Ahora es fácil imaginar las razones de los oponentes al atomismo, ya que entonces no era posible demostrar experimentalmente la existencia del átomo y menos aún que estuviese constituido de partículas menores, o sub-atómicas, llamadas neutrones y protones (localizadas en el núcleo) y electrones que giran y forman una nube de carga negativa alrededor del núcleo positivo. No obstante todas esas dificultades, Michael Faraday logró encontrar, alrededor del año 1840, que existe una relación exacta entre la cantidad de electricidad utilizada en una reacción de electrólisis o de electro-depositación, y las cantidades de elementos metálicos transformados en el proceso, con la consecuencia adicional de que existen relaciones fijas entre las cantidades de los diferentes elementos. Sus investigaciones fueron una prueba temprana de lo correcto pregonado por los atomistas.

Durante el siglo XIX se incrementó grandemente el conocimiento en las ciencias naturales, y muchos pensadores aportaron ideas para el desarrollo de teorías que hasta nuestros días mantienen su vigencia. Aunado a ello, el mundo vio el desarrollo de los imperios modernos, de continentes colonizados por las potencias europeas de entonces y un aumento de población que brindó también el estímulo renovado de extraer recursos naturales de las colonias y transformarlos en bienes para incrementar la riqueza de esas potencias. Ese escenario describe de manera simple las condiciones en que se inició la Revolución Industrial en Europa durante la segunda mitad del siglo XIX. Entre las grandes contribuciones hechas por la Química durante el siglo XIX sobresalen las siguientes: 1) La invención del termocople, por T. Seebeck, en 1821; 2) La patente del Cemento Pórtland, por J. Aspin, en 1824; 3) La producción de aluminio metálico, por H. Ørsted, en 1825; 4) La invención del hule vulcanizado, por Charles Goodyear; en 1839; 5) La invención de la fotografía usando plata y sus sales, por L. Daguerre y W.F. Talbot, en 1839; 6) El Proceso de Bessemer para la producción masiva de acero, patentado en 1855; 7) La primera presentación de la fotografía a colores, por J.C. Maxwell, en 1861 y, 8) La construcción de las primeras celdas solares, por Charles Fritts, usando laminillas de selenio, en 1883.

CIENCIAS DIVERSAS EN APOYO DE LA QUÍMICAFue también en el siglo XIX cuando, ya siendo la Química una Ciencia Cuantitativa, los químicos abordaban sus estudios utilizando también los recursos de las diversas ciencias como la Física, Biología y Matemáticas; en ese contexto se sentaron las bases de la Fisicoquímica, Termodinámica, Mecánica Cuántica, Bioquímica, Electroquímica, etcétera. Entre todos ellos cabe mencionar a Willard Gibbs, de Estados Unidos, que puso las bases para la comprensión de los equilibrios en que co-existen las diferentes formas de la materia, un tema llamado “Regla de las Fases de Gibbs”, cuyo desarrollo sirvió de impulso para el enriquecimiento de campos de aplicación tan diversos como las industrias de los aceros y todo tipo de aleaciones en metalurgia, cementos, vidrios, materiales cerámicos, etcétera.

John Dalton (Eaglesfield, Cumberland (Reino Unido), 6 de septiembre de 1766 - †Manchester, 27 de julio de 1844). químico, físico y matemático inglés. Con 12 años, en 1778, comenzó a impartir enseñanza elemental en Cumberland, y a partir de 1780 lo hizo en Kendal durante 12 años más.

LA QUÍMICA EN EL SIGLO XXDurante la primera década del siglo XX quedó finalmente resuelto el conflicto entre los atomistas y sus detractores; se reconoció al átomo y se definieron mu-chas de sus características; se demostró la existencia de los protones y electrones; se asoció a la electricidad con partículas discretas llamadas “electrones” de carga negativa, y se preparó el camino para un siglo de grandes descubrimientos, de grandes desarrollos tecnológicos y, desafortunadamente, también grandes guerras.

Ya la Química ha dejado atrás la imagen del estudioso encerrado en un laboratorio, con complejos aparatos de vidrio y fórmulas escritas en botellas. Ahora el químico se abastece también de conocimientos profundos de la Física, Mecánica, Eléctrica, Matemáticas y hasta Astronomía, dejándose acompañar por instrumentos acordes con las ciencias que debe involucrar en sus estudios de la Química.

Entre las muchas aportaciones hechas por la Química a la sociedad en el siglo XX se mencionan las siguientes: 1) El proceso para elaborar rubíes sintéticos, de A. Verneuil, en 1902; 2) El invento de plástico duro llamado bakelita, por L. Baekeland, en 1909; 3) El descubrimiento de la superconductividad, en 1911, por Kammerling Onnes, quien por cierto fue el primero en obtener helio líquido, para lo cual debió acercarse al cero absoluto de temperatura como nadie lo hizo antes; 4) La invención del acero inoxidable, por H. Brearley, en 1912; 5) El crecimiento de cristales sencillos de metales, por J. Czochralski, en 1916; 6) El vidrio Pirex, inventado por los científicos de Corning Inc. en 1924; 7) El desarrollo de hule sintético (neopreno), por J. Nieuwland, y del nylon, por W. Carothers, ambos en 1931; 8) El teflón, inventado por Roy Plunkett en 1938; 9) El primer transistor de germanio, inventado en 1947, simultáneamente con la primera aplicación de un producto cerámico con propiedades piezoeléctricas, usado en las agujas de tocadiscos; 10) Por primera vez son vistos átomos individuales mediante un microscopio de campo iónico en 1951; 11) J. Watson y Crick dedujeron la estructura de doble hélice del ADN, utilizando patrones de difracción de rayos X, llevando a la explosión en las investigaciones en la

bioquímica o Química de la Vida; también se desarrollaron catalizadores metálicos que redundaron en la mejora de los polietilenos; ambos eventos fueron en 1953, 12) Los hermanos Pilkington patentaron el proceso de vidrio flotado en 1959; 13) En 1968 se desarrolló la pantalla de cristal líquido por RCA, ahora tan cotidiana hasta en relojes baratos; 14) En 1970, Dow Corning desarrolló fibras ópticas a base de silicio, etcétera. En ese mismo siglo se inventaron también los gases refrigerantes Freón y sus variedades ecológicas, aunque inicialmente la industria de la refrigeración tuvo un gran auge gracias al Freón; desafortunadamente se descubrió, 50 años después de su primera aplicación, que la capa de ozono era dañada por estos gases. El siglo XX vio el nacimiento de la Cosmoquímica y de anteriormente insospechadas aplicaciones de la Química en estudios de Paleontología.

EPÍLOGOLa Química es la Ciencia de la Vida y de la Materia Inanimada. Estudia las transformaciones físicas y químicas de la materia en conjunto con la energía involucrada en esas transformaciones, estableciendo las condiciones en las que ellas se llevan a cabo, a fin de evaluar el efecto de las condiciones sobre dichas transformaciones. La Química es una Ciencia experimental y teórica; la teoría establece la plataforma racional, expresada en el lenguaje de las matemáticas, mediante la cual es posible explicar, predecir y representar los asombrosos fenómenos naturales y artificiales abarcados por la Química. La Química debiera estar en los planes de estudios de todas las carreras universitarias y técnicas, pues nadie se libra de necesitar conocimientos acerca de la Química en un mundo actual tan sofisticado y tan dependiente de esta Ciencia.

32 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 33

www.conocimientoenlinea.com

de Benjamín Huntsman, en 1740; 3) La patente del cemento hidráulico para ser usado como recubrimiento externo, de Bry Higgins, en 1779, y, 4) La batería ácida de cobre y zinc, de Alessandro Volta, en 1799. Estos desarrollos tecnológicos, en conjunción con los conocimientos acerca de la naturaleza y propiedades de la materia ya abordadas desde el punto de vista microscópico o atomista, pusieron el escenario listo para un brillante inicio del siglo XIX.

LA QUÍMICA COMO CIENCIALa Época Moderna de la Química se inició en el siglo XIX, con el acelerado descubrimiento de muchos de los elementos, los que debieron acomodarse de manera sistemática en una Tabla Periódica diseñada conforme al orden ascendente en sus masas atómicas, y luego conforme al número atómico. Por entonces se empezó a aceptar la idea divulgada en 1808 por el científico Británico John Dalton, de que la materia estaba formada por átomos, definidos como las partículas más pequeñas e indivisibles que forman a la materia observable y que se distinguen por su masa, ideas que Dalton retomó de los filósofos de India y Grecia pero que quedaron en el olvido y en la censura por más de dos mil años.

Antes de Dalton, otro científico Británi-co, Robert Boyle (1627–1691), pudo apreciar la diferencia entre la Alquimia y la Química. Fue el primero en describir los gases, aplicó el método científico en la Alquimia y reconoció los átomos como las partículas más pequeñas de la materia, aunque en lugar de átomos les llamó “corpúsculos”. A pesar de todas estas ideas revolucionarias, re-trabajadas a lo largo de casi 150 años por Boyle y Dalton, la persona reconocida como “Padre de la Química” fue el Francés Antoine Lavoisier gracias a su ley de “conservación de la masa” enunciada en 1789.

Durante el siglo XIX y la primera década del siglo XX, los químicos estuvieron fuertemente divididos en dos grandes grupos antagónicos: los atomistas, que aceptaban la Teoría Atómica de Dalton, y los que se oponían a ella. Un claro y triste ejemplo de ello lo representa el trabajo de Avogadro (1776-1856), que en 1811 propuso que muchos gases, como por ejemplo el oxígeno (O

2), se hallan

constituidos de moléculas bi-atómicas. Esa verdad fue finalmente aceptada 50 años después, un triunfo personal que Avogadro no alcanzó a ver. Ahora es fácil imaginar las razones de los oponentes al atomismo, ya que entonces no era posible demostrar experimentalmente la existencia del átomo y menos aún que estuviese constituido de partículas menores, o sub-atómicas, llamadas neutrones y protones (localizadas en el núcleo) y electrones que giran y forman una nube de carga negativa alrededor del núcleo positivo. No obstante todas esas dificultades, Michael Faraday logró encontrar, alrededor del año 1840, que existe una relación exacta entre la cantidad de electricidad utilizada en una reacción de electrólisis o de electro-depositación, y las cantidades de elementos metálicos transformados en el proceso, con la consecuencia adicional de que existen relaciones fijas entre las cantidades de los diferentes elementos. Sus investigaciones fueron una prueba temprana de lo correcto pregonado por los atomistas.

Durante el siglo XIX se incrementó grandemente el conocimiento en las ciencias naturales, y muchos pensadores aportaron ideas para el desarrollo de teorías que hasta nuestros días mantienen su vigencia. Aunado a ello, el mundo vio el desarrollo de los imperios modernos, de continentes colonizados por las potencias europeas de entonces y un aumento de población que brindó también el estímulo renovado de extraer recursos naturales de las colonias y transformarlos en bienes para incrementar la riqueza de esas potencias. Ese escenario describe de manera simple las condiciones en que se inició la Revolución Industrial en Europa durante la segunda mitad del siglo XIX. Entre las grandes contribuciones hechas por la Química durante el siglo XIX sobresalen las siguientes: 1) La invención del termocople, por T. Seebeck, en 1821; 2) La patente del Cemento Pórtland, por J. Aspin, en 1824; 3) La producción de aluminio metálico, por H. Ørsted, en 1825; 4) La invención del hule vulcanizado, por Charles Goodyear; en 1839; 5) La invención de la fotografía usando plata y sus sales, por L. Daguerre y W.F. Talbot, en 1839; 6) El Proceso de Bessemer para la producción masiva de acero, patentado en 1855; 7) La primera presentación de la fotografía a colores, por J.C. Maxwell, en 1861 y, 8) La construcción de las primeras celdas solares, por Charles Fritts, usando laminillas de selenio, en 1883.

CIENCIAS DIVERSAS EN APOYO DE LA QUÍMICAFue también en el siglo XIX cuando, ya siendo la Química una Ciencia Cuantitativa, los químicos abordaban sus estudios utilizando también los recursos de las diversas ciencias como la Física, Biología y Matemáticas; en ese contexto se sentaron las bases de la Fisicoquímica, Termodinámica, Mecánica Cuántica, Bioquímica, Electroquímica, etcétera. Entre todos ellos cabe mencionar a Willard Gibbs, de Estados Unidos, que puso las bases para la comprensión de los equilibrios en que co-existen las diferentes formas de la materia, un tema llamado “Regla de las Fases de Gibbs”, cuyo desarrollo sirvió de impulso para el enriquecimiento de campos de aplicación tan diversos como las industrias de los aceros y todo tipo de aleaciones en metalurgia, cementos, vidrios, materiales cerámicos, etcétera.

John Dalton (Eaglesfield, Cumberland (Reino Unido), 6 de septiembre de 1766 - †Manchester, 27 de julio de 1844). químico, físico y matemático inglés. Con 12 años, en 1778, comenzó a impartir enseñanza elemental en Cumberland, y a partir de 1780 lo hizo en Kendal durante 12 años más.

LA QUÍMICA EN EL SIGLO XXDurante la primera década del siglo XX quedó finalmente resuelto el conflicto entre los atomistas y sus detractores; se reconoció al átomo y se definieron mu-chas de sus características; se demostró la existencia de los protones y electrones; se asoció a la electricidad con partículas discretas llamadas “electrones” de carga negativa, y se preparó el camino para un siglo de grandes descubrimientos, de grandes desarrollos tecnológicos y, desafortunadamente, también grandes guerras.

Ya la Química ha dejado atrás la imagen del estudioso encerrado en un laboratorio, con complejos aparatos de vidrio y fórmulas escritas en botellas. Ahora el químico se abastece también de conocimientos profundos de la Física, Mecánica, Eléctrica, Matemáticas y hasta Astronomía, dejándose acompañar por instrumentos acordes con las ciencias que debe involucrar en sus estudios de la Química.

Entre las muchas aportaciones hechas por la Química a la sociedad en el siglo XX se mencionan las siguientes: 1) El proceso para elaborar rubíes sintéticos, de A. Verneuil, en 1902; 2) El invento de plástico duro llamado bakelita, por L. Baekeland, en 1909; 3) El descubrimiento de la superconductividad, en 1911, por Kammerling Onnes, quien por cierto fue el primero en obtener helio líquido, para lo cual debió acercarse al cero absoluto de temperatura como nadie lo hizo antes; 4) La invención del acero inoxidable, por H. Brearley, en 1912; 5) El crecimiento de cristales sencillos de metales, por J. Czochralski, en 1916; 6) El vidrio Pirex, inventado por los científicos de Corning Inc. en 1924; 7) El desarrollo de hule sintético (neopreno), por J. Nieuwland, y del nylon, por W. Carothers, ambos en 1931; 8) El teflón, inventado por Roy Plunkett en 1938; 9) El primer transistor de germanio, inventado en 1947, simultáneamente con la primera aplicación de un producto cerámico con propiedades piezoeléctricas, usado en las agujas de tocadiscos; 10) Por primera vez son vistos átomos individuales mediante un microscopio de campo iónico en 1951; 11) J. Watson y Crick dedujeron la estructura de doble hélice del ADN, utilizando patrones de difracción de rayos X, llevando a la explosión en las investigaciones en la

bioquímica o Química de la Vida; también se desarrollaron catalizadores metálicos que redundaron en la mejora de los polietilenos; ambos eventos fueron en 1953, 12) Los hermanos Pilkington patentaron el proceso de vidrio flotado en 1959; 13) En 1968 se desarrolló la pantalla de cristal líquido por RCA, ahora tan cotidiana hasta en relojes baratos; 14) En 1970, Dow Corning desarrolló fibras ópticas a base de silicio, etcétera. En ese mismo siglo se inventaron también los gases refrigerantes Freón y sus variedades ecológicas, aunque inicialmente la industria de la refrigeración tuvo un gran auge gracias al Freón; desafortunadamente se descubrió, 50 años después de su primera aplicación, que la capa de ozono era dañada por estos gases. El siglo XX vio el nacimiento de la Cosmoquímica y de anteriormente insospechadas aplicaciones de la Química en estudios de Paleontología.

EPÍLOGOLa Química es la Ciencia de la Vida y de la Materia Inanimada. Estudia las transformaciones físicas y químicas de la materia en conjunto con la energía involucrada en esas transformaciones, estableciendo las condiciones en las que ellas se llevan a cabo, a fin de evaluar el efecto de las condiciones sobre dichas transformaciones. La Química es una Ciencia experimental y teórica; la teoría establece la plataforma racional, expresada en el lenguaje de las matemáticas, mediante la cual es posible explicar, predecir y representar los asombrosos fenómenos naturales y artificiales abarcados por la Química. La Química debiera estar en los planes de estudios de todas las carreras universitarias y técnicas, pues nadie se libra de necesitar conocimientos acerca de la Química en un mundo actual tan sofisticado y tan dependiente de esta Ciencia.

Page 36: Revista Conocimiento 47

34 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 31

www.conocimientoenlinea.com

uso del fuego llevó al descubrimiento del vidrio, a la purificación de metales y al nacimiento de la metalurgia y la cerámica.

LA ALQUIMIA Y LOS ALQUIMISTASEl oro fue conocido y muy apreciado en el antiguo Egipto (2600 a. C.), y llegó a ser un metal precioso desde entonces. La búsqueda de un método que pudiese convertir los metales baratos en oro, a través de una supuesta Piedra Filosofal, y el lograr encontrar el Elíxir de la Vida que proporcionara salud a una población víctima de epidemias como la fiebre bubónica, dio un impulso al trabajo efectuado en incipientes laboratorios en los que debían aplicarse métodos experimentales. Esa etapa de desarrollo de la Química se conoce como Alquimia, una proto-ciencia mezclada con astrología, medicina, misticismo y filosofía, cuya vigencia duró unos 2500 años e involucró a las civilizaciones de Mesopotamia, Antiguo Egipto, Persia, India y China, pasando luego a Grecia y Roma, para culminar en Europa.

El dominio de la Alquimia terminó apenas en el siglo XIX, cuando la Química recibió finalmente el reconocimiento de Ciencia. A pesar de toda una amplia gama de observaciones y aportaciones que la Alquimia hizo al conocimiento de la naturaleza, la falta de un sistema apropiado para nombrar las sustancias y sus propiedades, así como claridad en la descripción de los experimentos, hizo a ésta una ciencia oscura en donde proliferaron los charlatanes defraudadores, al grado de que Dante Alighieri en sus escritos manda a todos los alquimistas “al infierno”, mientras que el Papa Juan XXII de Avignón ordenó a todos los alquimistas que abandonaran Francia en el año 1317.

A lo largo del siglo XVIII se sucedieron importantes desarrollos tecnológicos que, vistos a la luz de los métodos de trabajo de entonces, pueden ser atribuidos a la Alquimia en franco proceso de evolución hacia la Química. Entre los procesos patentados más importantes de ese siglo se encuentran: 1) La producción de zinc por destilación a partir de smithsonita (mineral de óxido de zinc) y carbón, de William Champion, en 1738; 2) La producción en alto volumen de acero al carbón, mediante el proceso de crisol (crucible technique),

Absolutamente todo lo que nos rodea está hecho de un material, ya sea sólido, líquido o gaseoso. Por ese motivo, el problema de los materiales siempre ha jugado importante papel en la vida del hombre. Su importancia es tal, que han servido para designar períodos de la historia: Edad de piedra, de Bronce, de Hierro. Probablemente la contemporánea se podría llamar Edad de Plástico.

Es lógico pensar que el hierro haya tenido tanto impacto en la historia de la humanidad, considerando que es uno de los elementos más abundantes en el planeta. En la naturaleza es muy difícil encontrar materiales puros; la mayoría de los metales importantes se encuentran en un compuesto, combinado con oxígeno u otros elementos (Fe

2O3), Al2O3, CuFeS2, FeTiO3.

Para fabricar los metales puros, hay que reducir el oxígeno u otros elementos compuestos en los procesos llamados de reducción. El proceso de reducción por carbón consiste en que, cuando un mineral que contiene oxígeno (el mineral de fierro) se calienta en presencia de

carbón, éste captura parte del oxígeno que se libera y ambos se combinan, con lo que se produce algún compuesto de oxígeno y carbono, y se deja el metal libre de oxígeno; es decir, metal puro. Puesto que en estas operaciones el material debe pasar por el estado líquido, y la temperatura de fusión del fierro (1523ºC) es más alta que la del cobre (1083ºC), se explica por qué se desarrollaron primero los procesos de fabricación de bronce (aleación de cobre y estaño) y luego de hierro.

TÉCNICAS DE REDUCCIÓNSin embargo, existen las técnicas de reducción a temperaturas más bajas que la temperatura de fusión. Las famosas técnicas de Reducción Directa desarrolladas en los años 1950, han redundado en la fabricación del llamado hierro esponja, frágil y de poca resistencia, que en los procesos metalúrgicos se convierte en acero. Esta esponja metálica, al ser martillada, se liberó de sus escorias y permitió formar una masa compacta y dúctil, lo que fue un material precursor del acero.

Es decir, es muy probable que lo que el hombre del siglo XV a. C. conoció y manipuló haya sido lo que hoy conocemos como acero al carbón y no el hierro. La siguiente figura muestra una espada corta del año 800 a.C., o aún más antigua. La hoja es de acero al carbón, endurecida por tratamiento térmico, y el mango está formado por varias piezas de hierro. Algunas de ellas son piezas forjadas.

Doctor Zygmunt Haduch Suski Profesor Titular de la Universidad de Monterrey [email protected]

Page 37: Revista Conocimiento 47

34 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 31

www.conocimientoenlinea.com

uso del fuego llevó al descubrimiento del vidrio, a la purificación de metales y al nacimiento de la metalurgia y la cerámica.

LA ALQUIMIA Y LOS ALQUIMISTASEl oro fue conocido y muy apreciado en el antiguo Egipto (2600 a. C.), y llegó a ser un metal precioso desde entonces. La búsqueda de un método que pudiese convertir los metales baratos en oro, a través de una supuesta Piedra Filosofal, y el lograr encontrar el Elíxir de la Vida que proporcionara salud a una población víctima de epidemias como la fiebre bubónica, dio un impulso al trabajo efectuado en incipientes laboratorios en los que debían aplicarse métodos experimentales. Esa etapa de desarrollo de la Química se conoce como Alquimia, una proto-ciencia mezclada con astrología, medicina, misticismo y filosofía, cuya vigencia duró unos 2500 años e involucró a las civilizaciones de Mesopotamia, Antiguo Egipto, Persia, India y China, pasando luego a Grecia y Roma, para culminar en Europa.

El dominio de la Alquimia terminó apenas en el siglo XIX, cuando la Química recibió finalmente el reconocimiento de Ciencia. A pesar de toda una amplia gama de observaciones y aportaciones que la Alquimia hizo al conocimiento de la naturaleza, la falta de un sistema apropiado para nombrar las sustancias y sus propiedades, así como claridad en la descripción de los experimentos, hizo a ésta una ciencia oscura en donde proliferaron los charlatanes defraudadores, al grado de que Dante Alighieri en sus escritos manda a todos los alquimistas “al infierno”, mientras que el Papa Juan XXII de Avignón ordenó a todos los alquimistas que abandonaran Francia en el año 1317.

A lo largo del siglo XVIII se sucedieron importantes desarrollos tecnológicos que, vistos a la luz de los métodos de trabajo de entonces, pueden ser atribuidos a la Alquimia en franco proceso de evolución hacia la Química. Entre los procesos patentados más importantes de ese siglo se encuentran: 1) La producción de zinc por destilación a partir de smithsonita (mineral de óxido de zinc) y carbón, de William Champion, en 1738; 2) La producción en alto volumen de acero al carbón, mediante el proceso de crisol (crucible technique),

Absolutamente todo lo que nos rodea está hecho de un material, ya sea sólido, líquido o gaseoso. Por ese motivo, el problema de los materiales siempre ha jugado importante papel en la vida del hombre. Su importancia es tal, que han servido para designar períodos de la historia: Edad de piedra, de Bronce, de Hierro. Probablemente la contemporánea se podría llamar Edad de Plástico.

Es lógico pensar que el hierro haya tenido tanto impacto en la historia de la humanidad, considerando que es uno de los elementos más abundantes en el planeta. En la naturaleza es muy difícil encontrar materiales puros; la mayoría de los metales importantes se encuentran en un compuesto, combinado con oxígeno u otros elementos (Fe

2O3), Al2O3, CuFeS2, FeTiO3.

Para fabricar los metales puros, hay que reducir el oxígeno u otros elementos compuestos en los procesos llamados de reducción. El proceso de reducción por carbón consiste en que, cuando un mineral que contiene oxígeno (el mineral de fierro) se calienta en presencia de

carbón, éste captura parte del oxígeno que se libera y ambos se combinan, con lo que se produce algún compuesto de oxígeno y carbono, y se deja el metal libre de oxígeno; es decir, metal puro. Puesto que en estas operaciones el material debe pasar por el estado líquido, y la temperatura de fusión del fierro (1523ºC) es más alta que la del cobre (1083ºC), se explica por qué se desarrollaron primero los procesos de fabricación de bronce (aleación de cobre y estaño) y luego de hierro.

TÉCNICAS DE REDUCCIÓNSin embargo, existen las técnicas de reducción a temperaturas más bajas que la temperatura de fusión. Las famosas técnicas de Reducción Directa desarrolladas en los años 1950, han redundado en la fabricación del llamado hierro esponja, frágil y de poca resistencia, que en los procesos metalúrgicos se convierte en acero. Esta esponja metálica, al ser martillada, se liberó de sus escorias y permitió formar una masa compacta y dúctil, lo que fue un material precursor del acero.

Es decir, es muy probable que lo que el hombre del siglo XV a. C. conoció y manipuló haya sido lo que hoy conocemos como acero al carbón y no el hierro. La siguiente figura muestra una espada corta del año 800 a.C., o aún más antigua. La hoja es de acero al carbón, endurecida por tratamiento térmico, y el mango está formado por varias piezas de hierro. Algunas de ellas son piezas forjadas.

Doctor Zygmunt Haduch Suski Profesor Titular de la Universidad de Monterrey [email protected]

La Química ha desempeñado un papel de primera importancia en las grandes transformaciones de la sociedad, aun antes de que el

ser humano pudiese descubrir que se trata de una Ciencia Básica dotada con una amplia gama de aplicaciones. Un claro ejemplo de ello es el descubrimiento del fuego, cuyo origen se remonta a un pasado tan remoto que no existe memoria o constancia que registre tal evento. El descubrimiento del fuego permitió a los antiguos modificar y mejorar la dieta mediante la cocción de sus alimentos, ampliando así las posibilidades de desarrollo físico y, muy probablemente, hasta de evolución de especies, para llegar hasta el actual Homo Sapiens a partir de una larga secuencia evolutiva que parece ser se inició con los remotos Australopitecinos, iniciadores del linaje de los homínidos.

LA QUÍMICA Y LOS IMPERIOS DE LA ANTIGÜEDADLa Química fue clásicamente definida como “la ciencia que estudia la materia y sus transformaciones”, de tal manera que el descubrimiento y uso del fuego dio un avance inicial al desarrollo de la Química antes de que fuese formalmente reconocida como ciencia. Así, la cultura Asirio Babilónica (cuya cuna fue el actual Iraq) se convirtió en la primera potencia o imperio de la antigüedad gracias a la Química,mediante el aprovechamiento de los

cambios en la materia sometida al fuego; ellos desarrollaron la tecnología de los ladrillos de barro cocidos, mediante los cuales sus edificios llegaron a ser más seguros, sus hogares más confortables y, muy importante, crearon un bien de consumo cuyas exportaciones les dieron el poderío económico para sostener al ejército del imperio y a una casta de pensadores, astrónomos e incipientes tecnólogos de alimentos. Fue en ese imperio donde también se desarrolló la ciencia y arte de fermentar el jugo de uva para transformarlo en vino. Gracias al ingenio de los asirios, se tuvo también la más antigua biblioteca con documentos escritos en caracteres cuneiformes sobre tablillas hechas de barro cocido.

El uso del fuego se halla estrechamente relacionado con la fabricación de artículos de cerámica (29 mil a 25 mil años a. C.), con la metalurgia a base de cobre (2600 años a. C.), con el advenimiento de la Edad de Bronce en el segundo milenio anterior a nuestra era, en que el bronce fue utilizado para la fabricación de armas y herramientas; con el uso del peltre en China y Egipto en el primer milenio anterior a esta era; con el desarrollo de la metalurgia a base de hierro, iniciada por los Hititas en el siglo XVI (a. C.), y que fue seguida por el acero al carbón en el siglo XIII (a. C.), para llevar hasta la producción de vidrio en Grecia y Siria en el siglo X (a. C.). En resumen, el

Doctor Juan Manuel Barbarín CastilloSubdirector de PosgradoFacultad de Ciencias Químicas/UANL

30 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 35

www.conocimientoenlinea.com

Los aceros de Damasco son famosos por su resistencia, dureza y belleza. Las descripciones más antiguas sobre ellos datan del año 540 de nuestra era, pero seguramente se utilizaron desde la época de Alejandro Magno; es decir, alrededor del año 330 a. C.Durante las Cruzadas, los europeos encontraron en Damasco espadas y dagas con propiedades excepcionales, y por ello se difundió este nombre, a pesar de que el acero de que estaban hechas provenía de la India, donde se conocía con el nombre de wootz. Se cree que las mejores hojas de acero fueron forjadas en Persia con el wootz proveniente de la India, material que también se usó para hacer armaduras. Entonces, bien pudieron llamarse aceros de la India o de Persia.

ACERO DE ALTA CALIDADNo faltaban recetas (hoy les llamamos tecnologías) para fabricar el acero de alta calidad como ésta: “el acero debe calentarse hasta que cese de brillar, justo como la salida del sol en el desierto; después de esto, debe enfriarse hasta que llegue al color púrpura de rey y, en esta condición, insértese en el cuerpo de un esclavo lo más musculoso posible; así, la fuerza del esclavo será transferida a la hoja de acero, lo que se traducirá en la resistencia del metal” [8].

La Revolución Industrial del siglo XVIII impulsó el desarrollo del acero como el material de construcción de las máquinas (la máquina de vapor de James

Watt), lo que revolucionó el transporte terrestre por ferrocarril, lo mismo que los transportes acuáticos, mediante los barcos con motores de vapor: También fue material indispensable en la ingeniería civil, como en la torre Eiffel, de 317 metros de altura y peso de siete mil 399 toneladas. El acero sigue siendo hasta nuestros días un material de múltiples aplicaciones. Se buscan cada vez nuevas modificaciones de este material, con propiedades sorprendentes. Se puede reforzar la resistencia del acero mediante el aumento de su contenido de carbono o elementos de aleación. Desgraciadamente, este tipo de material es poco plástico y es difícil deformarlo y soldar para fabricar los chasises o carrocerías de los automóviles. Buscando la solución del problema, los investigadores elaboraron nuevos tipos de acero, como HSLA, High Strength Low Alloy Steel, TRIP Transformation Induced Plasticity o aceros tipo de doble fase, (Dual Phase).

En los aceros HSLA, como elementos de aleación se aplicaron materiales tan raros como Columbio, Niobio, Cerio y Lantanio que, con la combinación con el proceso de fabricación, provocan precipitación del grano, lo que aumenta la resistencia sin sacrificar las propiedades plásticas. Los aceros HSLA logran una resistencia hasta 30 por ciento más alta que los aceros comerciales, lo que significa que las construcciones hechas de este tipo de acero pueden ser 30 por ciento más ligeras. Por eso tienen su gran aplicación en la construcción de puentes, aviones militares, edificios altos y plataformas petroleras, los cuales se transportan de tierra al mar por helicópteros, y cada kilogramo tiene su precio.

Llama la atención el acero de doble fase. La idea es bien fácil. En los aceros la fase ferrita es muy dúctil y fácilmente deformable; desgraciadamente presenta baja resistencia. Entonces se busca un acero que una las dos propiedades: alta ductibilidad y buena resistencia mecánica. Aquí llegamos a la solución. La fase ferrita es dúctil y se le puede reforzar con la fase de martensita, que es dura y resistente. Es decir, se puede fabricar acero con las propiedades requeridas por el cliente: más resistente y menos plástico, o de menor resistencia, pero más dúctil. Un ejemplo de acero de doble fase presenta la foto.

Figura 1. Muestra de un producto antiguo de hierro

y acero [8].

Puente hecho de acero HSLA [2].

Aumento 100x

Aumento 1000 x.

Figura 3. Acero de doblefase. Investigaciones propias del autor.

Page 38: Revista Conocimiento 47

36 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 29

www.conocimientoenlinea.com

síntesis desde su versión “laboratorio” hasta su versión “planta piloto” y eventualmente “escalan” el proceso a su versión “industrial”.

En este camino de desarrollo del proceso de producción, también los conceptos de ciencia fundamental de materiales, de química de superficies, de cristalización y física del estado sólido, de transferencia de masa, se traducen en Investigación Aplicada y Desarrollo Tecnológico.

Los avances médicos que hemos experimentado en occidente en la última década, con fármacos cada vez más eficaces y seguros, se deben en importante medida a la investigación desarrollada por la industria farmacéutica (principalmente la norteamericana y la europea) y sus colaboradores en investigación en centros de investigación y universidades alrededor del mundo. Desde luego, y completamente comprensible, estos avances no son motivados por el mero altruismo de las empresas farma, sino porque la plusvalía generada por la inversión en investigación así lo justifica.

LA INDUSTRIA FARMACÉUTICA EN MÉXICOEn México, la industria farmacéutica tiene una presencia económica muy importan-te. Sin embargo, su competitividad y su enorme potencial desarrollo se ve limitado por carencias en el suministro de productos de investigación (nuevos fármacos de patente, nuevos dispositivos farmacéuticos, patentes de proceso e innovaciones de proceso) y por insuficiencia en la infraestructura (recurso humano entrenado, equipamiento, instalaciones) para desarrollar nuevos fármacos y estudiar y optimizar procesos farmacéuticos. Se prevé que nuestro país tendrá una de las tasas de crecimiento

más importantes en este sector, aproximadamente de un 11 porciento anual 7, lo que constituye un mercado de 6 mil 47 millones de dólares al año8. Este incremento se debe al aumento de la población del país y al desarrollo de su economía. México ocupa el décimo quinto lugar internacional en la fabricación de medicamentos9. De acuerdo con datos de la Secretaría de Comercio y Fomento Industrial, en nuestro país alrededor de 400 empresas integran la industria farmacéutica, nueve porciento de las cuales son grandes corporativos, 19 por ciento medianas, 35 porciento pequeñas y 37 porciento microempresas10. Las empresas líderes en México corresponden a 16 laborato-rios subsidiarios de corporaciones mundialmente reconocidas.

Sin embargo, el mercado continúa siendo diversificado, ya que ninguna alcanza una participación superior al 10 por ciento del mercado nacional. La industria farmacéutica mexicana está frente a un gran reto por el TLC, ya que éste eliminó todos los impuestos para los productos farmacéuticos de importación desde 2002. La consecuencia directa de este hecho es que la industria local tiene el riesgo de disminuir su participación en el mercado en los próximos años, porque las industrias estadounidenses

1 http://www.pwcglobal.com/extweb/industry.nsf/docid/5B8A9B351C94111485256D6000504A59 2 World Health Organization. Fact Sheet No. 135: Ageing: a public health challenge.3 PWC Pharmaceutical Sector Insigths, Annual Report 2001.4http://goliath.ecnext.com/comsite5/bin/pdinventory.pl?pdlanding=1&referid=2750&item_id=0199-262200#abstract . Study Finds Diabetes Will Double in

World by 2030: Predicts Rapid U.S. Increase That Greatly Exceeds Prior CDC Projections (2004).5 World Health Organization. Fact Sheet No. 297, febrero 2006.6 PWC Pharmaceutical Sector Insigths, Annual Report 2001. 7 IMS, www.imshealth.com 8 PWC Pharmaceutical Sector Insigths, Annual Report 2001.9 http://www.pwcglobal.com/extweb/industry.nsf/docid/0F39387885070A7C85256D6000528199 10 PricewaterhouseCoopers, folleto de la Industria Farmacéutica, 2000. 11 http://www.pwcglobal.com/extweb/industry.nsf/docid/0F39387885070A7C85256D6000528199

y canadienses principalmente están reduciendo los precios para dominar el sector público de salud. Se suma, además, la falta de recursos económicos para la investigación y desarrollo 11.

Así, la industria farmacéutica mexicana encara retos importantes en innovación y desarrollo tecnológico. Hoy en día, el sector se dedica dominantemente a la producción de genéricos o a la formulación final de fármacos de patente (no a la síntesis de ingredientes activos). Por otro lado, son pocos los ejemplos de fármacos de patente desarrollados por empresas mexicanas. Idealmente, la industria farmacéutica nacional debería progresivamente moverse de su estado actual, centrado en la manufactura de genéricos y formulaciones finales, al descubrimiento y desarrollo de fármacos y biofármacos de patente

La creación de una plataforma para outsourcing de investigación, en universidades y centros de investigación, para la industria farmacéutica en México (ver figura 3), permitiría a la industria farmacéutica mexicana, particularmente la pequeña y mediana, hacerse de productos de investigación y herramientas de desarrollo tecnológico que mejorarían significativamente su efectividad y su competitividad.

Figura 3. Las universidades y centros de investigación mexicanos tienen excelentes oportunidades para relacionarse con la industria farmacéutica por medio de contratos de outsourcing de servicios de investigación y desarrollo tecnológico en las áreas de búsqueda de nuevos fármacos en productos naturales, análisis de efectos farmacológicos en líneas celulares y en animales, caracterización química de compuestos e ingeniería farmacéutica.

El acero de doble fase encuentra aplicación en productos que requieren buena deformabilidad en frío, y alta resistencia. Además es fácil para soldar. Son ejemplo los chasises de automóviles o camionetas.

SÚPERALEACIONES Y SÚPERCONDUCTORESLa popularidad de éstos empezó al terminar la Segunda Guerra Mundial, especialmente en turbomotores, súper cargadores y turbinas para aviones. Su versatilidad nació del hecho de que combinan buena ductibilidad y una excelente estabilidad en la superficie.

Las súperaleaciones con tungsteno, vanadio y cobalto presentan características excepcionales, como una alta resistencia mecánica a las temperaturas elevadas y resistencia a la corrosión. Las nuevas aleaciones se fabrican en muchos casos con metalurgia de polvos. Las partes se conforman comprimiendo y calentando polvos metálicos en moldes. Entre sus características más importantes está su alta resistencia al desgaste abrasivo a altas temperaturas. Esta propiedad se obtiene a pesar de que las temperaturas de fusión de las aleaciones son aproximadamente iguales que en los aceros. Por sus excelentes cualidades de resistencia al desgaste en condiciones desfavorables, las súperaleaciones se utilizan en las aletas y aspas de motores, así como en turbinas a reacción. Los súperconductores exhiben resistencia cero al flujo de electricidad, y pueden expulsar el flujo magnético de su interior, dando lugar al fenómeno de levitación magnética. El primer súperconductor mercurio, descubierto en 1911 por G. Holst y K. Onnes, sólo lo era a temperaturas inferiores a 4.2 K (-268°) y a principios de 1986 el récord de temperatura crítica estaba en 23 K correspondiente al compuesto Nb3Ge.

A finales de 1986, la comunidad científica internacional fue sorprendida cuando J. G. Berdnorz y K. A. Müller, del centro de investigaciones de la IBM en Zurich, observaron una temperatura de 35 K en el compuesto de óxido de cobre, bario y lantano (BaLaCuO) sintetizado con anterioridad (1983) por el grupo de B. Raveau y C. Michel en Francia. La euforia desatada por este descubrimiento

condujo a que poco tiempo después se descubriera que la temperatura crítica podía seguir subiendo, lo que llevó al descubrimiento de nuevos materiales súperconductores, con temperatura crítica por encima del punto de ebullición del nitrógeno líquido (~77 K).

Los súperconductores abren una nueva generación de micro lascas y computadoras. Su aplicación en la industria electrónica es indiscutible. En Japón se inauguró la línea experimental de tren sin ruedas. Todo el vehículo flota sobre un colchón magnético, y alcanza la velocidad de 500 kilómetros por hora.

Los monobloques de los motores de combustión interna hechos de una aleación de aluminio ya no son nada nuevo. Un nuevo reto para los tecnólogos es el monobloque de aluminio sin camisa de hierro fundido. May Holtzberg inventa un motor ligero de plástico, que sustenta que puede ser fabricado en serie a la mitad del costo de los motores de hierro actuales, el cual es tan liviano que puede ser cargado manualmente.

MATERIALES CERÁMICOSLos materiales cerámicos son de los más antiguos. Tienen una gran variedad de aplicaciones en la alfarería, fabricación de ladrillos, azulejos, lozas, tubos y productos de porcelana. Los nuevos productos cerámicos se emplean cada vez más en maquinas y electrónica. Son ligeros, nunca se desgastan y soportan enormes temperaturas. Hay nuevos plásticos de altas posibilidades, así como compuestos fundados en fibras de carbón. En la industria del transporte terrestre y espacial, las losetas que protegen un trasbordador espacial son de sílice, un material cerámico. Uno de los problemas de los materiales cerámicos es que son muy frágiles. Buscando un material que une las propiedades de materiales cerámicos y metales, los tecnólogos elaboraron cermetales, sintetizados de polvos cerámicos y metálicos. Así nació la tecnología llamada “Metalurgia de Polvos”, en la cual el producto está fabricado de polvo metálico o cerámico compactado en un molde y luego sintetizado. El método es fácil y relativamente barato en cuanto a su aplicación en la producción de grandes series. El mayor éxito de este método se logró en la producción de las pastillas para herramientas de corte. Estos insertos presentan excelente resistencia al desgaste, lo que prolonga significativamente su vida útil.

Figura 4. “Tren Bala”.

El tren funciona como un vehículo experimental. El problema más costoso en su funcionamiento es la necesidad de enfriar las rieles en toda su longitud con nitrógeno líquido; es decir, temperaturas inferiores a 190ºC bajo cero.

Figura 5. Motor de plástico [1]. Figura 6. Pastillas de corte [15].

REFERENCIAS:

28 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 37

www.conocimientoenlinea.com

animales de laboratorio, buscando cuál o cuáles de ellas pudieran presentar cierta actividad biológica terapéutica. Aquí, la intervención de fisiólogos, farmacólogos, bioquímicos, biólogos moleculares es crucial. Estos equipos de trabajo recopilan evidencia experimental para seleccionar las moléculas más prometedoras en términos de su poder farmacológico y estudian las relaciones de estructura de las moléculas con su función bioquímica y fisiológica. Estas moléculas entrarán al así llamado “pipeline” de la empresa (la línea de desarrollo de productos de la empresa). Al identificar una molécula con potencial terapéutico, se desencadena su proceso de patente.

El conocimiento es la herramienta competitiva fundamental de la industria farmacéutica innovadora. Cada descubrimiento debe ser protegido de inmediato, aun cuando sea aún incierto si llegará o no a comercializarse. En la industria farmacéutica es muy importante ser el primero. Esto crea un incentivo para la investigación, para la utilización del conocimiento básico encaminado a la aplicación. Una vez patentada una molécula, comienza una etapa de investigación muy intensa que pretende acercarla cada vez

más a su comercialización en forma de un nuevo fármaco, un nuevo Blockbuster. Es necesario validar que la molécula sea en realidad biológicamente activa y más efectiva contra el padecimiento blanco (padecimiento “target”) que los productos similares ya existentes en el mercado. Adicionalmente, debe demostrarse que sus efectos secundarios sean menos severos que sus equivalentes ya comercializables.

En síntesis, la empresa desarrolladora, y por tanto su grupo de científicos, deben demostrar ante la Food and Drug Administration (FDA) o su equivalente según sea el país de desarrollo, que el potencial fármaco es más efectivo y seguro que los similares ya conocidos. Debe también ofrecerse suficiente prueba de que se tiene el conocimiento preciso sobre la bioquímica del fármaco, cómo éste trabaja a nivel celular. A fin de recopilar toda esta información, los equipos científicos trabajan en varios frentes, realizando experimentos con células, animales de laboratorio, y posteriormente, en una etapa ya más avanzada, con voluntarios humanos (pruebas clínicas).

Nuevamente, la combinación de ciencia fundamental con la intención de

aplicación, es clave en esta etapa. Si en cualquier momento de esta cadena existe evidencia de que el fármaco no es tan efectivo o tan seguro como se anticipaba, entonces el proceso de investigación y desarrollo de ese candidato se detiene, y los esfuerzos de investigación se dirigen a otro candidato del pipeline. Si es posible documentar adecuadamente tanto la eficiencia como la seguridad del nuevo fármaco, entonces la empresa presentará una nueva aplicación de registro del fármaco (New Drug Application si este proceso fuese ante la FDA).

DESARROLLO DEL PROCESO DE PRODUCCIÓNParalelamente al proceso de validación de efecto y seguridad farmacológica, debe llevarse a cabo un proceso de optimización de la síntesis química y de diseño del proceso, para producir la molécula con potencial farmacológico (ver línea roja y verde en figura 2). Conforme se avanza en el pipeline, cada vez serán necesarias cantidades más grandes de la sustancia en evaluación. Esto demanda que el proceso de síntesis y evaluación del fármaco sea cada vez más eficiente. A su vez, esto demanda que se involucre un equipo de químicos e ingenieros que llevan el proceso de

Las pastillas de CERMET de las herramientas de corte proporcionan larga durabilidad y superficies con un excelente acabado, fortaleza y superior resistencia al desgaste. Utilizadas generalmente en seco, las herramientas de Cermet trabajan en velocidades de corte muy elevadas.

PLÁSTICOS Y COMPUESTOSEl término “plástico” se aplica comúnmente a todos los materiales inorgánicos que no son metales o madera. En realidad, se trata de polímeros, que son materiales sintéticos obtenidos mediante fenómenos de polimerización o multiplicación artificial de los átomos de carbono en las largas cadenas moleculares de compuestos orgánicos derivados del petróleo y otras sustancias naturales. En 1901, el químico Leo Baekeland produ-jo el primer material verdaderamente sintético, al cual llamó baquelita. En 1979, el volumen de plásticos producido por los Estados Unidos rebasó por primera vez el del acero, y en realidad es difícil imaginarse la vida contemporánea sin ellos, debido a que los plásticos y compuestos para usos específicos son artificiales, y pueden ser creados a la medida por científicos que trabajan con moléculas. Se usan en automóviles, aeroplanos, lascas para computadoras, como sustitutos de metales y de vidrio.

Figura 7. Ejemplo de aplicación de baquelita [1]

Los plásticos son biodegradables, conducen la electricidad y cambian al variar la temperatura o el voltaje. Son a menudo más baratos, ligeros y resistentes que los metales; reducen costos de manufactura, porque requieren menos energía; tienen propiedades de aislamiento térmico y eléctrico, reducen el ruido, la vibración, la fricción y el desgaste.

Page 39: Revista Conocimiento 47

28 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 37

www.conocimientoenlinea.com

animales de laboratorio, buscando cuál o cuáles de ellas pudieran presentar cierta actividad biológica terapéutica. Aquí, la intervención de fisiólogos, farmacólogos, bioquímicos, biólogos moleculares es crucial. Estos equipos de trabajo recopilan evidencia experimental para seleccionar las moléculas más prometedoras en términos de su poder farmacológico y estudian las relaciones de estructura de las moléculas con su función bioquímica y fisiológica. Estas moléculas entrarán al así llamado “pipeline” de la empresa (la línea de desarrollo de productos de la empresa). Al identificar una molécula con potencial terapéutico, se desencadena su proceso de patente.

El conocimiento es la herramienta competitiva fundamental de la industria farmacéutica innovadora. Cada descubrimiento debe ser protegido de inmediato, aun cuando sea aún incierto si llegará o no a comercializarse. En la industria farmacéutica es muy importante ser el primero. Esto crea un incentivo para la investigación, para la utilización del conocimiento básico encaminado a la aplicación. Una vez patentada una molécula, comienza una etapa de investigación muy intensa que pretende acercarla cada vez

más a su comercialización en forma de un nuevo fármaco, un nuevo Blockbuster. Es necesario validar que la molécula sea en realidad biológicamente activa y más efectiva contra el padecimiento blanco (padecimiento “target”) que los productos similares ya existentes en el mercado. Adicionalmente, debe demostrarse que sus efectos secundarios sean menos severos que sus equivalentes ya comercializables.

En síntesis, la empresa desarrolladora, y por tanto su grupo de científicos, deben demostrar ante la Food and Drug Administration (FDA) o su equivalente según sea el país de desarrollo, que el potencial fármaco es más efectivo y seguro que los similares ya conocidos. Debe también ofrecerse suficiente prueba de que se tiene el conocimiento preciso sobre la bioquímica del fármaco, cómo éste trabaja a nivel celular. A fin de recopilar toda esta información, los equipos científicos trabajan en varios frentes, realizando experimentos con células, animales de laboratorio, y posteriormente, en una etapa ya más avanzada, con voluntarios humanos (pruebas clínicas).

Nuevamente, la combinación de ciencia fundamental con la intención de

aplicación, es clave en esta etapa. Si en cualquier momento de esta cadena existe evidencia de que el fármaco no es tan efectivo o tan seguro como se anticipaba, entonces el proceso de investigación y desarrollo de ese candidato se detiene, y los esfuerzos de investigación se dirigen a otro candidato del pipeline. Si es posible documentar adecuadamente tanto la eficiencia como la seguridad del nuevo fármaco, entonces la empresa presentará una nueva aplicación de registro del fármaco (New Drug Application si este proceso fuese ante la FDA).

DESARROLLO DEL PROCESO DE PRODUCCIÓNParalelamente al proceso de validación de efecto y seguridad farmacológica, debe llevarse a cabo un proceso de optimización de la síntesis química y de diseño del proceso, para producir la molécula con potencial farmacológico (ver línea roja y verde en figura 2). Conforme se avanza en el pipeline, cada vez serán necesarias cantidades más grandes de la sustancia en evaluación. Esto demanda que el proceso de síntesis y evaluación del fármaco sea cada vez más eficiente. A su vez, esto demanda que se involucre un equipo de químicos e ingenieros que llevan el proceso de

Las pastillas de CERMET de las herramientas de corte proporcionan larga durabilidad y superficies con un excelente acabado, fortaleza y superior resistencia al desgaste. Utilizadas generalmente en seco, las herramientas de Cermet trabajan en velocidades de corte muy elevadas.

PLÁSTICOS Y COMPUESTOSEl término “plástico” se aplica comúnmente a todos los materiales inorgánicos que no son metales o madera. En realidad, se trata de polímeros, que son materiales sintéticos obtenidos mediante fenómenos de polimerización o multiplicación artificial de los átomos de carbono en las largas cadenas moleculares de compuestos orgánicos derivados del petróleo y otras sustancias naturales. En 1901, el químico Leo Baekeland produ-jo el primer material verdaderamente sintético, al cual llamó baquelita. En 1979, el volumen de plásticos producido por los Estados Unidos rebasó por primera vez el del acero, y en realidad es difícil imaginarse la vida contemporánea sin ellos, debido a que los plásticos y compuestos para usos específicos son artificiales, y pueden ser creados a la medida por científicos que trabajan con moléculas. Se usan en automóviles, aeroplanos, lascas para computadoras, como sustitutos de metales y de vidrio.

Figura 7. Ejemplo de aplicación de baquelita [1]

Los plásticos son biodegradables, conducen la electricidad y cambian al variar la temperatura o el voltaje. Son a menudo más baratos, ligeros y resistentes que los metales; reducen costos de manufactura, porque requieren menos energía; tienen propiedades de aislamiento térmico y eléctrico, reducen el ruido, la vibración, la fricción y el desgaste.

Page 40: Revista Conocimiento 47

38 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 27

www.conocimientoenlinea.com

de los decesos en 2005, para un total de 7.6 millones. El 70 porciento de estas muertes se registraron en países en vías de desarrollo y subdesarrollados. Para el año 2015, nueve millones de personas morirían de cáncer, y 11.4 millones en 20305.

Dos factores contribuyen a que los fármacos de patente sean un producto de alto valor agregado en los países del primer mundo:(a). La demanda del mercado es prácticamente insensible al precio para un determinado fármaco de patente en los países desarrollados (esto no es necesariamente cierto en México), dado que la mayoría de los consumidores son “cautivos” porque dependen del medicamento. (b). Por otro lado, los insumos para producir un fármaco son de bajo costo. Cuando usted compra una tableta o una cápsula de medicamento de patente, está comprando algo cuyo valor, considerando sólo materias primas y costo de producción, es ínfimo comparado con su valor comercial. Por lo que usted realmente está pagando es por toda la inversión en investigación y desarrollo que la empresa farmacéutica realizó, por aproximadamente una década, para desarrollar ese fármaco. En promedio, desarrollar un fármaco de patente repre-senta una inversión del orden de $800 millones de dólares.

El auge de la Biotecnología y sus herramientas aplicadas a la Medicina han influido también significativamente en el auge del sector farmacéutico. Compañías biotecnológicas dominan el comercio del sector farmacéutico en casi el 45 por ciento6. Biotecnología y Farmacéutica están por tanto íntimamente ligadas. Una búsqueda en Yahoo, por las palabras clave “Biotechnology and pharma”, arroja 7 millones 290 mil páginas. Internacionalmente, la industria farmacéutica y biofarmacéutica es una de las principales demandantes, destina-tarias y promotoras de investigación de avanzada en áreas tales como Biotecnología y Nanotecnología.

INVESTIGACIÓN Y DESARROLLO EN LA INDUSTRIA FARMACÉUTICAEl camino para desarrollar un nuevo fármaco es realmente muy interesante. Es una ruta que va desde el primer indicio de algún efecto terapéutico de un extracto o una molécula, pasando por

todo un proceso de ensayo y validación de efectos terapéuticos y toxicológicos en líneas celulares, modelos experimentales animales, y finalmente humanos, hasta el diseño de un proceso escalado para su producción comercial (ver figura 1).

de investigación básica y aplicada que pudieran derivar en conocimiento útil para el desarrollo de nuevos fármacos. Mundialmente, sólo las grandes empre-sas farmacéuticas (por ejemplo, Pfizer, Bristol-Myers Squibb, Merck, Abbott Labs etcétera) realizan la mayoría de estos procesos internamente, pero aun ellas mantienen vínculos de investigación importantes con sus colaboradores académicos. En general, varios procesos de investigación y desarrollo tecnológico de las empresas farmacéuticas pequeñas y medianas se realizan con apoyos externos (outsourcing de servicios de investiga-ción o desarrollo tecnológico hacia universidades, centros de investigación u otras empresas especializadas), lo cual abarata significativamente los costos de desarrollo.

Figura 1. La industria farmacéutica realiza investigación de alto nivel en diferentes frentes: (a) descubrimiento de nuevos fármacos y sus procesos de síntesis; (b) elucidación de los mecanismos bioquímicos de acción de moléculas con actividad farmacéutica; (c) diseño y optimización de procesos de producción de fármacos (ingeniería farmacéutica)

Se trata también de un camino de hasta 12 años de inversión, normalmente valuada en cientos de millones de dólares. Es asimismo una apuesta tecnológica de alto riesgo, que debe ser asistida por especialistas para maximizar las intrínsecamente bajas probabilidades de riesgo (en general sólo uno de cada 100 potenciales fármacos resultan en un producto comercial). Sin embargo, todo el valor de la investigación acumulada en un fármaco exitoso de patente (en el argot farmacéutico un Blockbuster), reditúa en por lo menos mil millones de dólares por ventas anuales. Desde luego, es innegable que la plusvalía derivada del aparato de investigación para desarrollo de fármacos de patente es sustancial. Ese valor, a su vez, es el motor que garantiza la continuidad en la investigación para el combate de enfermedades crónico-degenerativas, tales como el cáncer, la diabetes, y las enfermedades cardiovasculares.

Pero la industria farmacéutica no solamente promueve la investigación dentro de sus instalaciones; también tie-ne aliados importantes en universidades y centros de investigación alrededor del mundo, a los cuales patrocina proyectos

Figura 2. Línea de desarrollo de un nuevo fármaco (Pipeline).

Revisemos con mayor detalle el camino de investigación hacia el desarrollo de un nuevo fármaco (ver figura 2). Una vez que una empresa farmacéutica determina que desea desarrollar fármacos para un determinado padecimiento, los equipos científicos de descubrimiento de nuevas moléculas de la empresa comienzan a trabajar en ese propósito. Los equipos de Drug Discovery de las grandes compañías están conformados por científicos de primer nivel, biólogos y químicos con grado doctoral, educados en las mejores universidades del mundo. Estos equipos de trabajo están encargados de sintetizar librerías de moléculas, utilizando herramientas modernas tales como química combinatorial y conocimientos clásicos de la siempre vigente Química Orgánica Sintética.

MOLÉCULAS CON POTENCIAL TERAPÉUTICOPosteriormente, estas moléculas serán probadas en líneas celulares o en

En la década de los 30, químicos ingleses descubrieron que el gas etileno se polimerizaba bajo la acción del calor y la presión, y formaba un termoplástico al que llamaron polietileno (PE). Hacia los años 50 aparece el polipropileno (PP). Al reemplazar en el etileno un átomo de hidrógeno por uno de cloruro, se produjo el cloruro de polivinilo (PVC), un plástico duro y resistente al fuego, especialmente adecuado para cañerías de todo tipo. Al agregarle diversos aditivos se logra un material más blando, sustituto del caucho, comúnmente usado para ropa impermeable, manteles, cortinas y juguetes. Un plástico parecido al PVC es el politetrafluoretileno (PTFE), conocido popularmente como teflón y usado para rodillos y sartenes antiadherentes. También en los años 30 se crea la primera fibra artificial, el nylon. Su descubridor fue el químico Wallace Carothers, que trabajaba para la empresa Dupont. Descubrió que dos sustancias químicas, como el hexametilendiamina y ácido adípico, formaban polímeros que, bombeados a través de agujeros y estirados, formaban hilos que podían tejerse. Su primer uso fue la fabricación de paracaídas para las fuerzas armadas estadounidenses durante la Segunda Guerra Mundial, y se extendió rápidamente a la industria textil en la fabricación de medias y otros tejidos combinados con algodón o lana. Al nylon le siguieron otras fibras sintéticas, como por ejemplo el orlón y el acrilán.

MATERIALES COMPUESTOS La verdadera revolución en materiales empezó cuando los polímeros se pudieron reforzar con las fibras de vidrio o de grafito. Nacieron así “materiales compuestos”. En el lenguaje común actual, los materiales compuestos son aquéllos en los que las fibras de unas sustancias están incorporadas en una matriz de otra sustancia, habitualmente un plástico, para crear un material con propiedades mecánicas especiales. Estos materiales superan las aleaciones metálicas en resistencia y rigidez; son mucho más livianas; tienen características superiores de fatiga y, lo que es muy importante, son prácticamente inmunes a la corrosión. Hoy día, debido a su comparativa facilidad y economía de fabricación,

las fibras de carbono y aramida son los elementos preferidos para el diseño y fabricación de estructuras compuestas perfeccionadas.

Otra aplicación es el Kevlar, material compuesto que tiene una alta resistencia comparada con su reducido peso, por lo que es uno de los materiales con la resistencia especifica más alta. Es un material con alta durabilidad, y con una buena resistencia a los cortes y a la abrasión (en condiciones similares, la fibra Kevlar es cinco veces más resistente que el acero). La nueva generación de materiales compuestos son de tipo MMC y CMC, materiales compuestos con matriz metálica o cerámica, que difieren en composición y forma, los cuales conservan sus propiedades y logran en conjunto propiedades que no se podrían obtener con uno solo de estos materiales.

BIOMATERIALESLos biomateriales unen las experiencias de casi todos los materiales antes mencionados. Las aleaciones de Cr, Co y Ti, son muy frecuentemente empleadas en las prótesis, dada la inmediata condición pasiva de estas últimas por la formación de TiO2.

La aleación a base de cobalto, F75, denominado comercialmente Vitallium, es una aleación de moldeo cuyas

propiedades mecánicas son insuficientes para resistir condiciones de carga y ciclos altos. Contiene Cobalto (65 por ciento), cromo (28 por ciento), molibdeno (0.72 por ciento) y menos de 0.35 de carbono.

El F562 contiene níquel (35 por ciento); mantiene su resistencia y dureza, y presenta superior ductilidad. Mientras el módulo de elasticidad permanece similar al del acero (200 GPa) la resistencia a la tracción aumenta considerablemente (de 517 a 900 MPa) con relación al F75. Las formas más habituales son el llamado titanio comercial puro (Ti 160) y la aleación de titanio con aluminio (6 por ciento) y vanadio (4 por ciento). Ti6A14V . Un papel importante entre biomateriales juega el UHMWPE (polietileno de ultraalto peso molecular).

Se trata de un polímero de cadena larga y de peso molecular entre dos y seis millones. Presenta excelentes propiedades mecánicas y biológicas: alta resistencia al impacto y al desgaste, ductilidad, biocompatibilidad y esta-bilidad química. En la figura se presenta la prótesis de la rodilla en la cual se encuentran las súperaleaciones, polímeros, materiales compuestos y cerámicos.

Figura 8. Prótesis de rodilla [6].

1.http://www.itnes.com/pages/seal.html2.http://marina.fortunecity.com/caledonia/214/3.http://cipres.cec.uchile.cl/~encruces/4.http://www.speclab.com/elements/cobalt.htm5.http://www.oz.net/~coilgun/theory/materials.htm6.http://www2.ing.puc.cl/icmcursos/metalurgia/apuntes/cap7/73/

REFERENCIAS:

Page 41: Revista Conocimiento 47

38 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 27

www.conocimientoenlinea.com

de los decesos en 2005, para un total de 7.6 millones. El 70 porciento de estas muertes se registraron en países en vías de desarrollo y subdesarrollados. Para el año 2015, nueve millones de personas morirían de cáncer, y 11.4 millones en 20305.

Dos factores contribuyen a que los fármacos de patente sean un producto de alto valor agregado en los países del primer mundo:(a). La demanda del mercado es prácticamente insensible al precio para un determinado fármaco de patente en los países desarrollados (esto no es necesariamente cierto en México), dado que la mayoría de los consumidores son “cautivos” porque dependen del medicamento. (b). Por otro lado, los insumos para producir un fármaco son de bajo costo. Cuando usted compra una tableta o una cápsula de medicamento de patente, está comprando algo cuyo valor, considerando sólo materias primas y costo de producción, es ínfimo comparado con su valor comercial. Por lo que usted realmente está pagando es por toda la inversión en investigación y desarrollo que la empresa farmacéutica realizó, por aproximadamente una década, para desarrollar ese fármaco. En promedio, desarrollar un fármaco de patente repre-senta una inversión del orden de $800 millones de dólares.

El auge de la Biotecnología y sus herramientas aplicadas a la Medicina han influido también significativamente en el auge del sector farmacéutico. Compañías biotecnológicas dominan el comercio del sector farmacéutico en casi el 45 por ciento6. Biotecnología y Farmacéutica están por tanto íntimamente ligadas. Una búsqueda en Yahoo, por las palabras clave “Biotechnology and pharma”, arroja 7 millones 290 mil páginas. Internacionalmente, la industria farmacéutica y biofarmacéutica es una de las principales demandantes, destina-tarias y promotoras de investigación de avanzada en áreas tales como Biotecnología y Nanotecnología.

INVESTIGACIÓN Y DESARROLLO EN LA INDUSTRIA FARMACÉUTICAEl camino para desarrollar un nuevo fármaco es realmente muy interesante. Es una ruta que va desde el primer indicio de algún efecto terapéutico de un extracto o una molécula, pasando por

todo un proceso de ensayo y validación de efectos terapéuticos y toxicológicos en líneas celulares, modelos experimentales animales, y finalmente humanos, hasta el diseño de un proceso escalado para su producción comercial (ver figura 1).

de investigación básica y aplicada que pudieran derivar en conocimiento útil para el desarrollo de nuevos fármacos. Mundialmente, sólo las grandes empre-sas farmacéuticas (por ejemplo, Pfizer, Bristol-Myers Squibb, Merck, Abbott Labs etcétera) realizan la mayoría de estos procesos internamente, pero aun ellas mantienen vínculos de investigación importantes con sus colaboradores académicos. En general, varios procesos de investigación y desarrollo tecnológico de las empresas farmacéuticas pequeñas y medianas se realizan con apoyos externos (outsourcing de servicios de investiga-ción o desarrollo tecnológico hacia universidades, centros de investigación u otras empresas especializadas), lo cual abarata significativamente los costos de desarrollo.

Figura 1. La industria farmacéutica realiza investigación de alto nivel en diferentes frentes: (a) descubrimiento de nuevos fármacos y sus procesos de síntesis; (b) elucidación de los mecanismos bioquímicos de acción de moléculas con actividad farmacéutica; (c) diseño y optimización de procesos de producción de fármacos (ingeniería farmacéutica)

Se trata también de un camino de hasta 12 años de inversión, normalmente valuada en cientos de millones de dólares. Es asimismo una apuesta tecnológica de alto riesgo, que debe ser asistida por especialistas para maximizar las intrínsecamente bajas probabilidades de riesgo (en general sólo uno de cada 100 potenciales fármacos resultan en un producto comercial). Sin embargo, todo el valor de la investigación acumulada en un fármaco exitoso de patente (en el argot farmacéutico un Blockbuster), reditúa en por lo menos mil millones de dólares por ventas anuales. Desde luego, es innegable que la plusvalía derivada del aparato de investigación para desarrollo de fármacos de patente es sustancial. Ese valor, a su vez, es el motor que garantiza la continuidad en la investigación para el combate de enfermedades crónico-degenerativas, tales como el cáncer, la diabetes, y las enfermedades cardiovasculares.

Pero la industria farmacéutica no solamente promueve la investigación dentro de sus instalaciones; también tie-ne aliados importantes en universidades y centros de investigación alrededor del mundo, a los cuales patrocina proyectos

Figura 2. Línea de desarrollo de un nuevo fármaco (Pipeline).

Revisemos con mayor detalle el camino de investigación hacia el desarrollo de un nuevo fármaco (ver figura 2). Una vez que una empresa farmacéutica determina que desea desarrollar fármacos para un determinado padecimiento, los equipos científicos de descubrimiento de nuevas moléculas de la empresa comienzan a trabajar en ese propósito. Los equipos de Drug Discovery de las grandes compañías están conformados por científicos de primer nivel, biólogos y químicos con grado doctoral, educados en las mejores universidades del mundo. Estos equipos de trabajo están encargados de sintetizar librerías de moléculas, utilizando herramientas modernas tales como química combinatorial y conocimientos clásicos de la siempre vigente Química Orgánica Sintética.

MOLÉCULAS CON POTENCIAL TERAPÉUTICOPosteriormente, estas moléculas serán probadas en líneas celulares o en

En la década de los 30, químicos ingleses descubrieron que el gas etileno se polimerizaba bajo la acción del calor y la presión, y formaba un termoplástico al que llamaron polietileno (PE). Hacia los años 50 aparece el polipropileno (PP). Al reemplazar en el etileno un átomo de hidrógeno por uno de cloruro, se produjo el cloruro de polivinilo (PVC), un plástico duro y resistente al fuego, especialmente adecuado para cañerías de todo tipo. Al agregarle diversos aditivos se logra un material más blando, sustituto del caucho, comúnmente usado para ropa impermeable, manteles, cortinas y juguetes. Un plástico parecido al PVC es el politetrafluoretileno (PTFE), conocido popularmente como teflón y usado para rodillos y sartenes antiadherentes. También en los años 30 se crea la primera fibra artificial, el nylon. Su descubridor fue el químico Wallace Carothers, que trabajaba para la empresa Dupont. Descubrió que dos sustancias químicas, como el hexametilendiamina y ácido adípico, formaban polímeros que, bombeados a través de agujeros y estirados, formaban hilos que podían tejerse. Su primer uso fue la fabricación de paracaídas para las fuerzas armadas estadounidenses durante la Segunda Guerra Mundial, y se extendió rápidamente a la industria textil en la fabricación de medias y otros tejidos combinados con algodón o lana. Al nylon le siguieron otras fibras sintéticas, como por ejemplo el orlón y el acrilán.

MATERIALES COMPUESTOS La verdadera revolución en materiales empezó cuando los polímeros se pudieron reforzar con las fibras de vidrio o de grafito. Nacieron así “materiales compuestos”. En el lenguaje común actual, los materiales compuestos son aquéllos en los que las fibras de unas sustancias están incorporadas en una matriz de otra sustancia, habitualmente un plástico, para crear un material con propiedades mecánicas especiales. Estos materiales superan las aleaciones metálicas en resistencia y rigidez; son mucho más livianas; tienen características superiores de fatiga y, lo que es muy importante, son prácticamente inmunes a la corrosión. Hoy día, debido a su comparativa facilidad y economía de fabricación,

las fibras de carbono y aramida son los elementos preferidos para el diseño y fabricación de estructuras compuestas perfeccionadas.

Otra aplicación es el Kevlar, material compuesto que tiene una alta resistencia comparada con su reducido peso, por lo que es uno de los materiales con la resistencia especifica más alta. Es un material con alta durabilidad, y con una buena resistencia a los cortes y a la abrasión (en condiciones similares, la fibra Kevlar es cinco veces más resistente que el acero). La nueva generación de materiales compuestos son de tipo MMC y CMC, materiales compuestos con matriz metálica o cerámica, que difieren en composición y forma, los cuales conservan sus propiedades y logran en conjunto propiedades que no se podrían obtener con uno solo de estos materiales.

BIOMATERIALESLos biomateriales unen las experiencias de casi todos los materiales antes mencionados. Las aleaciones de Cr, Co y Ti, son muy frecuentemente empleadas en las prótesis, dada la inmediata condición pasiva de estas últimas por la formación de TiO2.

La aleación a base de cobalto, F75, denominado comercialmente Vitallium, es una aleación de moldeo cuyas

propiedades mecánicas son insuficientes para resistir condiciones de carga y ciclos altos. Contiene Cobalto (65 por ciento), cromo (28 por ciento), molibdeno (0.72 por ciento) y menos de 0.35 de carbono.

El F562 contiene níquel (35 por ciento); mantiene su resistencia y dureza, y presenta superior ductilidad. Mientras el módulo de elasticidad permanece similar al del acero (200 GPa) la resistencia a la tracción aumenta considerablemente (de 517 a 900 MPa) con relación al F75. Las formas más habituales son el llamado titanio comercial puro (Ti 160) y la aleación de titanio con aluminio (6 por ciento) y vanadio (4 por ciento). Ti6A14V . Un papel importante entre biomateriales juega el UHMWPE (polietileno de ultraalto peso molecular).

Se trata de un polímero de cadena larga y de peso molecular entre dos y seis millones. Presenta excelentes propiedades mecánicas y biológicas: alta resistencia al impacto y al desgaste, ductilidad, biocompatibilidad y esta-bilidad química. En la figura se presenta la prótesis de la rodilla en la cual se encuentran las súperaleaciones, polímeros, materiales compuestos y cerámicos.

Figura 8. Prótesis de rodilla [6].

1.http://www.itnes.com/pages/seal.html2.http://marina.fortunecity.com/caledonia/214/3.http://cipres.cec.uchile.cl/~encruces/4.http://www.speclab.com/elements/cobalt.htm5.http://www.oz.net/~coilgun/theory/materials.htm6.http://www2.ing.puc.cl/icmcursos/metalurgia/apuntes/cap7/73/

REFERENCIAS:

La industria farmacéutica es un sector altamente dependiente del conocimiento y, por tanto, de la investigación y el desarrollo tecnológico. El desarrollo de un fármaco de patente, y del proceso

para producirlo comercialmente, requiere la participación de un vasto grupo de investigadores de diferentes disciplinas: químicos, biólogos, estadistas, físicos, médicos. Desarrollar un nuevo fármaco implica un proceso largo de investigación y desarrollo, de alta demanda de inversión y de alto

riesgo, pero también de alto potencial de retorno. En esta contribución, analizaremos la industria

farmacéutica, su dinámica y las características particulares que hacen de ella un excelente ejemplo de un sector que muy eficientemente convierte ciencia en desarrollo tecnológico, productos de alto valor comercial y beneficio social.

LA INDUSTRIA FARMACÉUTICA EN EL MUNDOEn el mundo, la industria farmacéutica es uno de los sectores que mayor valor derraman a la sociedad, tanto en el sentido económico (representa un mercado de 541 billones de dólares por año), como de contribución social e impacto en salud pública. La industria farmacéutica ha experimentado un gran desarrollo mundialmente en los últimos años. Factores económicos, demográficos y sociopolíticos1 (como la edad2, marco legal, económico y científico) tienen influencia directa en este crecimiento de la industria farmacéutica.

Por ejemplo, entre 1990 y 2000, el porcentaje de la población de Estados Unidos que tiene más de 82 años creció un 42 por ciento. Esto ocasionó un aumento en la demanda de servicios de salud y un aumento en los costos de terapias con medicinas3. Las enfermedades crónico-degenerativas van también en aumento debido a este cambio poblacional, a problemas de balance dietético y exposición a factores de riesgo ambiental. Un reporte reciente predice que el número de pacientes diabéticos en el mundo se duplicará hacia el año 20304. Según reportes de la Organización Mundial de la Salud, el cáncer es actualmente la primera causa de muerte en el mundo, con 13 porciento

Doctor Mario Álvarez Director del Centro de Biotecnología / ITESM

26 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 39

www.conocimientoenlinea.com

En la actualidad la fibra óptica forma parte de la mayoría de las redes de comunicaciones, ya sean de larga

distancia (terrestres y submarinas), metropolitanas y redes de acceso. Las redes de larga distancia interconectan ciudades, países, y continentes; las metropolitanas interconectan puntos de tráfico en una ciudad, y las de acceso interconectan al usuario directamente. Las redes de acceso se denominan de esa manera porque dan acceso a los usuarios directamente a un medio de comunicación.

Un ejemplo muy sencillo de una red de acceso es la de telefonía con cable de alambre de par trenzado, donde el usuario tiene acceso al sistema de comunicación de voz y actualmente a la Internet por medio de ADSL (“Asymmetric Digital Subscriber Line”). Otro ejemplo es la red de acceso de televisión, a través de cable coaxial, donde el usuario tiene acceso a canales de televisión, Internet y en algunos casos al servicio de voz.

MERCADO MULTIMILLONARIOEl crecimiento de las comunicaciones ópticas es un fenómeno mundial, del cual México es parte. Por ejemplo, el mercado en Europa de instalación y venta de componentes y equipo óptico en el año 2010 ascenderá a 8,000.00 millones de dólares. La fibra óptica es el medio de comunicación de preferencia para redes de comunicación por su gran

ancho de banda (que significa mayor cantidad de información transmitida), y baja atenuación (que se traduce en una gran distancia de transmisión). La fibra óptica se utiliza en un 100 por ciento de las redes submarinas, en 95 por ciento de las redes terrestres de larga distancia, y en 90 por ciento de las redes metropolitanas.

Adicionalmente, el precio actual de la fibra óptica es comprable a la del cable coaxial, medio comúnmente utilizado en redes de acceso para servicio de televisión, Internet y voz. Debido a esto, la fibra óptica se está instalando con mayor frecuencia en redes de acceso en nuevos fraccionamientos o desarrollos urbanos, para dar prácticamente todos los servicios, como televisión, telefonía y acceso a Internet con la ventaja de tener redes de acceso de gran capacidad que en un futuro serán necesarias.

Doctor Gerardo Antonio Castañón ÁvilaProfesor Investigador, Centro de Electrónica y Telecomunicaciones. División de Tecnologías de Información y Electrónica. ITESMe-mail: [email protected]://homepages.mty.itesm.mx/gerardo.castanon

Tener una red de acceso de alta capacidad brinda la ventaja de poder acceder a múltiples servicios que requieren un ancho de banda amplio, como son comprar películas a través de la Internet, música, y videoconferencias, televisión a través del Protocolo de Internet, etcétera. Debido a lo antes mencionado la siguiente etapa de crecimiento en instalación de fibra óptica será en redes de acceso, llámense fibra a la casa, fibra a los edificios y redes de área local.

Otro fenómeno que se vislumbra en el futuro es la interconexión de estaciones base de comunicación móvil, con fibra óptica. El tamaño de célula de las comunicaciones móviles tiende a disminuir, debido a que el ancho de banda que se utiliza es bastante reducido

Page 42: Revista Conocimiento 47

40 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 25

www.conocimientoenlinea.com

Marshall Nirenberg es mejor conocido por haber descifrado el código genético en 1961. En 1959 inició sus estudios sobre la relación entre el ADN, el RNA y las proteínas. Estas investigaciones permitieron saber a este investigador y a H. Matthaei que se requiere un mensajero para que ocurra la síntesis de proteínas y que un mensajero sintético podía ser usado para descifrar varios aspectos del código genético. Sus investigaciones le valieron el premio Nobel en Medicina en 1968.

BIOLOGÍA MOLECULARJames Crick postuló en 1963 el “dogma de la biología molecular” que establece que un gen da origen a una proteína, mediada por un RNA mensajero específico. En 1958, Artur Konrberg purificó la ADN polimerasa I de Escherichia coli. La primera enzima que fue capaz de sintetizar ADN in vitro. Artur Konrberg obtuvo el premio Nobel en Fisiología en 1959. En 1970 Hamilton Smith y Kent Wilcox aislaron la primera enzima de restricción de tipo II, que provenía de Haemophilus influenzae, la cual era capaz de cortar el ADN en sitios específicos.

En 1985 Kary B. Mullis describió la reacción en cadena de la RNA polimerasa. El método más sensible para identificar secuencias específicas de ADN. Obtuvo el premio Nobel en Química en 1993.

En 2003 se culmina el proyecto del Genoma humano, gracias al cual se

obtuvo la secuencia completa del ADN que constituye el genoma de nuestra especie.Como puede verse de esta impresionante lista de avances científicos en biología, todos realizados desde 1928 a la fecha (78 años) produjeron una constelación de premios Nobel. Pero lo más importante es que todos estos avances fueron precursores de la medicina moderna y seguramente de la medicina del futuro. La Biología Molecular ha permitido a la medicina avances espectaculares.

OTROS CAMPOS DEL CONOCIMIENTOPero no sólo la genómica se ha desarrollado. Está en vigoroso crecimiento el estudio de las proteínas, mediante la Proteómica; el de los RNAs, mediante la transcriptómica, y el de las vías metabólicas, mediante la Metabonómica: Estos campos complementarán los avances logrados con la Genómica. A estas disciplinas se les han unido la Inmunología y la Biología Celular.

El advenimiento de la tecnología de células troncales o madres permite ya el tratamiento de diversas enfermedades, como la leucemia y el infarto al miocardio, y los biólogos trabajan hombro con hombro con los médicos clínicos para identificar las moléculas que inducen a las células pluripotenciales (células madre) a diferenciarse en la estirpe celular deseada. Cuando esto se comprenda cabalmente, será posible cultivar nuevos órganos in vitro, y corregir problemas fisiológicos mayores. La física, la electrónica y la nanotecnología han hecho también

aportaciones portentosas a la Medicina. Se dispone ahora de computadoras que reaccionan al movimiento de los ojos, conectando de nuevo al mundo a los cuadrapléjicos.

Los implantes cocleares para devolver la audición a lo sordos son ya una realidad, y están en pleno desarrollo los implantes en la retina para que en un futuro cercano algunos ciegos puedan ver.

CONCLUSIÓNLa Medicina, aliada con la Ciencia y la Tecnología depara un brillante futuro a la humanidad. Gracias a los avances de estas disciplinas, estamos llegando aceleradamente a tener una expectativa de vida de 100 años, y se predice que en los siglos venideros, los humanos podrán vivir hasta 400 años. Ahora el reto es desarrollar nuestros más altos y caros valores morales para que, además de gozar de una larga vida saludable, gocemos también de una humanidad más humana, protectora de su entorno y generosa y noble con sus semejantes y con todos los demás seres vivos. De nada servirá un impresionante desarrollo de la Medicina, si estos avances no son asequibles para toda la población y si aún existen tremendas y vergonzosas diferencias en la distribución de la riqueza, así como guerras, todas injustas y crueles, que ponen en serio peligro a nuestra especie y a nuestro planeta. ¡Desarrollemos nuestro espíritu junto con nuestro intelecto!

y reducir el tamaño de célula tiene como finalidad aumentar el número de usuarios a través de una técnica conocida como re-uso de frecuencias. Se vislumbra que en un futuro esas miles de estaciones bases de comunicación móvil también estarán interconectadas por fibra óptica por su gran ancho de banda y porque podrá llevar todos los servicios, como comunicación móvil, WIFI, WIMAX, monitoreo de la ciudad y monitoreo de personas en puntos de seguridad, monitoreo del tráfico, control de semáforos, etcétera, así como servicios de voz sobre IP (Internet Protocol) y televisión sobre IP.

INVESTIGACIÓN ENCOMUNICACIONES ÓPTICASRecientemente, el Tecnológico de Monterrey inició una cátedra de investigación en comunicaciones ópticas, con tres avenidas principales en que debe centrarse la investigación en esta área: (1) Generación de propiedad intelectual; (2) Investigación aplicada a problemas que habilitarán el desarrollo de redes ópticas; (3) Generación de negocio.

Se debe mencionar que la investigación por sí misma es difícilmente autosustentable. Para lograrlo a largo plazo, tiene que generar propiedad intelectual (patentes) o empresas. Como es sabido, la economía del conocimiento se basa en la generación de ideas innovadoras que generen riqueza para los propietarios legales de dichas ideas. En este caso, se beneficiarán la universidad, empresa o grupo que auspicie esta investigación, y los autores de dichas patentes.

Buenas patentes pueden generar ingresos económicos, por regalías, a las universidades, empresas y grupos de investigación que las desarrollen. Por otro lado, una empresa de tecnología

en telecomunicaciones tiene altas probabilidades de rentabilidad. Existen otras posibilidades de ingresos para una unidad de investigación, como por ejemplo la consultoría y cursos de extensión. Personalmente, considero que aunque son buenas alternativas, debido a su naturaleza aleatoria, un grupo de investigación difícilmente puede auto-sustentarse únicamente en base a ellas.

En el caso específico del Tecnológico de Monterrey, el grupo de investigadores de la cátedra en comunicaciones ópticas funciona como unidad de investigación e innovación donde la finalidad primordial es generar patentes. Adicionalmente y como actividad también muy importante, está la divulgación de ese conocimiento. De esta forma operan los centros de investigación de los grandes corporativos y compañías que tienen como visión prioritaria la innovación.

INVESTIGACIÓN APLICADAEl segundo punto en que debe basarse el desarrollo de las comunicaciones ópticas en nuestro Estado y país, es la generación de investigación básica y aplicada y su interacción con otros medios, como comunicaciones inalámbricas. Las áreas donde ya se cuenta con una muy buena experiencia y donde se han generado resultados importantes son las siguientes:

1. Diseño, planeación, y optimización de redes. 2. Redes de alta velocidad. 3.Redes transparentes: tecnología y metodología necesaria para realizarlas. 4. Arquitectura de enrutadores ópticos, cross conectores ópticos, y ROADM (“reconfigurable optical add/drop multiplexers”). 5. Redes de paquetes o lo que se conoce como redes de “Internet Protocol” (IP) sobre “wavelength division multiplexing”

(WDM). 6.Redes de acceso para Radio sobre Fibra. 7. Seguridad en redes ópticas.

A continuación se describen en forma breve y resumida las áreas en las que se recomienda centrar la investigación básica y aplicada en el área de comunicaciones ópticas. Los problemas que se mencionan en la lista son áreas de oportunidad para realizar dicha investigación. Para generar esta lista, el autor del presente artículo ha realizado una revisión exhaustiva de la tecnología en comunicaciones ópticas existentes y ha considerado que la investigación en los tópicos que aquí se proponen desembocará en la tecnología clave que mejorará las redes ópticas actuales y habilitará las redes del futuro.

1. Extracción óptica del reloj de una señal. Ésta es una de las funciones primordiales de un receptor o regenerador. Los receptores digitales requieren saber la posición en tiempo donde deben hacer el muestreo de la señal recibida y después decidir si la señal en ese tiempo de muestreo es un 1 o un 0. Los receptores opto-electrónicos hacen esta extracción del reloj de la señal electrónicamente. El reto de este problema de investigación es extraer el reloj ópticamente. La extracción óptica de reloj tiene aplicaciones en regeneradores ópticos, receptores y monitores ópticos.

2. Regeneradores ópticos. Son dis-positivos que mejoran la calidad de la señal. Hay varios tipos de regeneración. A una señal se le puede regenerar la forma del pulso, regenerar el nivel del pulso y se puede regenerar la posición en el tiempo del pulso. Esta área de investigación se enfoca en revisar y buscar nuevas formas de regenerar señales ópticamente para formatos de modulación utilizados en comunicaciones ópticas. El impacto de negocio de una buena patente en esta área es bastante grande. El autor del presente artículo tiene una patente en trámite actualmente, en esta área de investigación.

3. Memorias ópticas. Ésta es una de las tecnologías claves que habilitará las redes ópticas de paquetes y redes transparen-tes. Hasta el momento, nadie ha inventado una memoria completamente óptica que tenga almacenamiento permanente

Figura 1. Protección tipo anillo de un ejemplo de red de México, utilizando la herramienta de diseño y optimización de redes WPNetExpert.

Page 43: Revista Conocimiento 47

40 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 25

www.conocimientoenlinea.com

Marshall Nirenberg es mejor conocido por haber descifrado el código genético en 1961. En 1959 inició sus estudios sobre la relación entre el ADN, el RNA y las proteínas. Estas investigaciones permitieron saber a este investigador y a H. Matthaei que se requiere un mensajero para que ocurra la síntesis de proteínas y que un mensajero sintético podía ser usado para descifrar varios aspectos del código genético. Sus investigaciones le valieron el premio Nobel en Medicina en 1968.

BIOLOGÍA MOLECULARJames Crick postuló en 1963 el “dogma de la biología molecular” que establece que un gen da origen a una proteína, mediada por un RNA mensajero específico. En 1958, Artur Konrberg purificó la ADN polimerasa I de Escherichia coli. La primera enzima que fue capaz de sintetizar ADN in vitro. Artur Konrberg obtuvo el premio Nobel en Fisiología en 1959. En 1970 Hamilton Smith y Kent Wilcox aislaron la primera enzima de restricción de tipo II, que provenía de Haemophilus influenzae, la cual era capaz de cortar el ADN en sitios específicos.

En 1985 Kary B. Mullis describió la reacción en cadena de la RNA polimerasa. El método más sensible para identificar secuencias específicas de ADN. Obtuvo el premio Nobel en Química en 1993.

En 2003 se culmina el proyecto del Genoma humano, gracias al cual se

obtuvo la secuencia completa del ADN que constituye el genoma de nuestra especie.Como puede verse de esta impresionante lista de avances científicos en biología, todos realizados desde 1928 a la fecha (78 años) produjeron una constelación de premios Nobel. Pero lo más importante es que todos estos avances fueron precursores de la medicina moderna y seguramente de la medicina del futuro. La Biología Molecular ha permitido a la medicina avances espectaculares.

OTROS CAMPOS DEL CONOCIMIENTOPero no sólo la genómica se ha desarrollado. Está en vigoroso crecimiento el estudio de las proteínas, mediante la Proteómica; el de los RNAs, mediante la transcriptómica, y el de las vías metabólicas, mediante la Metabonómica: Estos campos complementarán los avances logrados con la Genómica. A estas disciplinas se les han unido la Inmunología y la Biología Celular.

El advenimiento de la tecnología de células troncales o madres permite ya el tratamiento de diversas enfermedades, como la leucemia y el infarto al miocardio, y los biólogos trabajan hombro con hombro con los médicos clínicos para identificar las moléculas que inducen a las células pluripotenciales (células madre) a diferenciarse en la estirpe celular deseada. Cuando esto se comprenda cabalmente, será posible cultivar nuevos órganos in vitro, y corregir problemas fisiológicos mayores. La física, la electrónica y la nanotecnología han hecho también

aportaciones portentosas a la Medicina. Se dispone ahora de computadoras que reaccionan al movimiento de los ojos, conectando de nuevo al mundo a los cuadrapléjicos.

Los implantes cocleares para devolver la audición a lo sordos son ya una realidad, y están en pleno desarrollo los implantes en la retina para que en un futuro cercano algunos ciegos puedan ver.

CONCLUSIÓNLa Medicina, aliada con la Ciencia y la Tecnología depara un brillante futuro a la humanidad. Gracias a los avances de estas disciplinas, estamos llegando aceleradamente a tener una expectativa de vida de 100 años, y se predice que en los siglos venideros, los humanos podrán vivir hasta 400 años. Ahora el reto es desarrollar nuestros más altos y caros valores morales para que, además de gozar de una larga vida saludable, gocemos también de una humanidad más humana, protectora de su entorno y generosa y noble con sus semejantes y con todos los demás seres vivos. De nada servirá un impresionante desarrollo de la Medicina, si estos avances no son asequibles para toda la población y si aún existen tremendas y vergonzosas diferencias en la distribución de la riqueza, así como guerras, todas injustas y crueles, que ponen en serio peligro a nuestra especie y a nuestro planeta. ¡Desarrollemos nuestro espíritu junto con nuestro intelecto!

y reducir el tamaño de célula tiene como finalidad aumentar el número de usuarios a través de una técnica conocida como re-uso de frecuencias. Se vislumbra que en un futuro esas miles de estaciones bases de comunicación móvil también estarán interconectadas por fibra óptica por su gran ancho de banda y porque podrá llevar todos los servicios, como comunicación móvil, WIFI, WIMAX, monitoreo de la ciudad y monitoreo de personas en puntos de seguridad, monitoreo del tráfico, control de semáforos, etcétera, así como servicios de voz sobre IP (Internet Protocol) y televisión sobre IP.

INVESTIGACIÓN ENCOMUNICACIONES ÓPTICASRecientemente, el Tecnológico de Monterrey inició una cátedra de investigación en comunicaciones ópticas, con tres avenidas principales en que debe centrarse la investigación en esta área: (1) Generación de propiedad intelectual; (2) Investigación aplicada a problemas que habilitarán el desarrollo de redes ópticas; (3) Generación de negocio.

Se debe mencionar que la investigación por sí misma es difícilmente autosustentable. Para lograrlo a largo plazo, tiene que generar propiedad intelectual (patentes) o empresas. Como es sabido, la economía del conocimiento se basa en la generación de ideas innovadoras que generen riqueza para los propietarios legales de dichas ideas. En este caso, se beneficiarán la universidad, empresa o grupo que auspicie esta investigación, y los autores de dichas patentes.

Buenas patentes pueden generar ingresos económicos, por regalías, a las universidades, empresas y grupos de investigación que las desarrollen. Por otro lado, una empresa de tecnología

en telecomunicaciones tiene altas probabilidades de rentabilidad. Existen otras posibilidades de ingresos para una unidad de investigación, como por ejemplo la consultoría y cursos de extensión. Personalmente, considero que aunque son buenas alternativas, debido a su naturaleza aleatoria, un grupo de investigación difícilmente puede auto-sustentarse únicamente en base a ellas.

En el caso específico del Tecnológico de Monterrey, el grupo de investigadores de la cátedra en comunicaciones ópticas funciona como unidad de investigación e innovación donde la finalidad primordial es generar patentes. Adicionalmente y como actividad también muy importante, está la divulgación de ese conocimiento. De esta forma operan los centros de investigación de los grandes corporativos y compañías que tienen como visión prioritaria la innovación.

INVESTIGACIÓN APLICADAEl segundo punto en que debe basarse el desarrollo de las comunicaciones ópticas en nuestro Estado y país, es la generación de investigación básica y aplicada y su interacción con otros medios, como comunicaciones inalámbricas. Las áreas donde ya se cuenta con una muy buena experiencia y donde se han generado resultados importantes son las siguientes:

1. Diseño, planeación, y optimización de redes. 2. Redes de alta velocidad. 3.Redes transparentes: tecnología y metodología necesaria para realizarlas. 4. Arquitectura de enrutadores ópticos, cross conectores ópticos, y ROADM (“reconfigurable optical add/drop multiplexers”). 5. Redes de paquetes o lo que se conoce como redes de “Internet Protocol” (IP) sobre “wavelength division multiplexing”

(WDM). 6.Redes de acceso para Radio sobre Fibra. 7. Seguridad en redes ópticas.

A continuación se describen en forma breve y resumida las áreas en las que se recomienda centrar la investigación básica y aplicada en el área de comunicaciones ópticas. Los problemas que se mencionan en la lista son áreas de oportunidad para realizar dicha investigación. Para generar esta lista, el autor del presente artículo ha realizado una revisión exhaustiva de la tecnología en comunicaciones ópticas existentes y ha considerado que la investigación en los tópicos que aquí se proponen desembocará en la tecnología clave que mejorará las redes ópticas actuales y habilitará las redes del futuro.

1. Extracción óptica del reloj de una señal. Ésta es una de las funciones primordiales de un receptor o regenerador. Los receptores digitales requieren saber la posición en tiempo donde deben hacer el muestreo de la señal recibida y después decidir si la señal en ese tiempo de muestreo es un 1 o un 0. Los receptores opto-electrónicos hacen esta extracción del reloj de la señal electrónicamente. El reto de este problema de investigación es extraer el reloj ópticamente. La extracción óptica de reloj tiene aplicaciones en regeneradores ópticos, receptores y monitores ópticos.

2. Regeneradores ópticos. Son dis-positivos que mejoran la calidad de la señal. Hay varios tipos de regeneración. A una señal se le puede regenerar la forma del pulso, regenerar el nivel del pulso y se puede regenerar la posición en el tiempo del pulso. Esta área de investigación se enfoca en revisar y buscar nuevas formas de regenerar señales ópticamente para formatos de modulación utilizados en comunicaciones ópticas. El impacto de negocio de una buena patente en esta área es bastante grande. El autor del presente artículo tiene una patente en trámite actualmente, en esta área de investigación.

3. Memorias ópticas. Ésta es una de las tecnologías claves que habilitará las redes ópticas de paquetes y redes transparen-tes. Hasta el momento, nadie ha inventado una memoria completamente óptica que tenga almacenamiento permanente

Figura 1. Protección tipo anillo de un ejemplo de red de México, utilizando la herramienta de diseño y optimización de redes WPNetExpert.

24 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 41

www.conocimientoenlinea.com

Rosalind Elsie Franklin (1920 - 1958) Científica británica que tuvo un papel destacado en el mayor hito del desarrollo de la Biología Molecular, el descubrimiento de la estructura del ADN.

Franklin nació en Londres, Inglaterra, doctorándose en Química Física en 1945 por la Universidad de Cambridge. Estudió las técnicas de difracción de rayos X durante tres años en el Laboratorio Central de Servicios Químicos del Estado, de París.

Maurice Hugh Frederick Wilkins (1916 — 2004). Físico de Nueva Zelanda, codescubridor de la estructura del ADN. Siendo niño sus padres se trasladan a Inglaterra. Estudió Física en la Universidad de Cambridge y se doctoró en la Universidad de Birmingham. Al comenzar la Segunda Guerra Mundial se traslada a Estados Unidos en donde trabaja en el Proyecto Manhattan para el perfeccionamiento del radar y en la separación de isótopos mediante espectrógrafo de masas para construcción de la bomba atómica.

Wilkins junto con Rosalind Franklin trabajando sobre la difracción de rayos X, describen la estructura helicoidal del ADN, que posteriormente servirá de base para la descripción de dicha estructura por James Watson y Francis Crick. Wilkins mostró, sin permiso, unas nuevas imágenes de difracción de rayos X de alta calidad sobre la molécula de ADN obtenidas por Franklin, a Watson y Crick, lo que les orientó y motivó para la descripción del modelo de doble hélice.

CONOCIMIENTO Y MANIPULACIÓN DEL DNAEn 1928 Fred Griffith propuso que algún principio desconocido había transformado una cepa R de S. pneumoniae en una cepa S virulenta). Las cepas R de S. pneumoniae se llaman así porque forman colonias rugosas cuando se las cultiva en agar, y no son patógenas. En cambio las cepas S forman colonias lisas y son patógenas. ¿Cómo era posible que una cepa avirulenta se transformara en una virulenta? Tenía que haber algún material responsable de esto. En 1944 Oswald Avery, Colin MacLeod y Maclyn McCarty informaron que ellos habían purificado el principio que transformaba las cepas R en S de Diplococcus propuesto por Griffith, y que ese principio era ADN.

En 1951 Rosalind Elsie Franklin y Maurice Wilkins obtuvieron imágenes cristalográficas nítidas de ADN. Rosalind fue una fisico-química y cristalógrafa inglesa, cuyas contribuciones permitieron

después a Watson y Crick entender la estructura fina del ADN. Ella también hizo trabajos sobre la estructura de varios virus, entre ellos el del tabaco, y del carbón y grafito. Maurice Wilkins, fue un físico que trabajó con Franklin.

En abril de 1953, James Watson y Francis Crick escribieron estas palabras como parte del primer párrafo de una carta que enviaron a Nature describiendo sus observaciones sobre la estructura fina del ADN: “Esta estructura tiene

nuevas características que son de un considerable interés biológico”). James Watson, Francis Crick y Maurice Wilkins obtuvieron el premio Nobel “por sus descubrimientos relacionados con la estructura molecular de ácidos nucleicos y su significado para la transferencia de información en material viviente”. Wilkins compartió el premio Nobel con Watson y Crick por las imágenes cristalográficas que fueron esenciales para el trabajo.

Franklin, murió en 1958.

y tiempos ultra rápidos de grabado de la información y extracción de la información grabada. Estas memorias son un verdadero reto para la comunidad científica. La invención de este tipo de memoria tendrá implicaciones mayúsculas en el desarrollo de las redes ópticas del futuro. 4. Formatos de modulación de alta eficiencia espectral. La definición de eficiencia espectral es la división de la razón de bit por la separación entre canales en un sistema multicanal. Por ejemplo, si se transmite a 40 Gbps y la separación entre canales es de 100 GHz. la eficiencia espectral es de 0.4 bit/s/Hz. Formatos de modulación que tengan una eficiencia espectral mayor a 0.4 bit/s/Hz son de interés para la industria de las comunicaciones ópticas. Lo que se puede patentar aquí son los sistemas de transmisión de la señal y los demoduladores de la señal.

5. Sistema ultra-rápido de monitoreo de redes multicanal para redes transparentes. La idea de las redes transparentes inició aproximadamente en 1994, después del descubrimiento de los amplificadores ópticos en 1985. La idea fundamental es la reducción de costo de las redes ópticas. Un gran porcentaje del costo de una red óptica se concentra en el equipo opto-electrónico, como enrutadores o cross-conectores. Para reducir su costo, se requiere que las señales ópticas pasen a través de éstos sin ser detectadas y transmitidas; es decir, que no haya conversión de la señal óptica a señal electrónica. Debido a que el concepto de redes transparentes trata de eliminar receptores y transmisores en los cross-conectores no se sabe realmente el estado de la señal en nodos intermedios donde pasa transparentemente. Debido a esto, uno de los mayores retos de las redes transparentes es conocer la calidad de la señal en nodos intermedios y poder localizar de una forma rápida el o los componentes que no funcionan bien, en caso de una falla o un ataque a la red. Se requiere el diseño de sistemas multicanal ultrarrápidos de monitoreo, que indique de forma exacta qué canal no funciona bien y cuáles son las posibles fallas o ataques. 6. Redes ópticas para señales de radio sobre fibra. En este tipo de redes, las señales analógicas (radio) se trasmiten a través de redes de fibra óptica desde una central que controla todas las

estaciones base. Este tipo de transmisión se vislumbra en el futuro en donde se requerirán redes de fibra óptica que interconecten miles de estaciones base de comunicación móvil.

7. Seguridad, confiabilidad, disponi-bilidad y calidad de servicio de redes ópticas. La seguridad en redes es un tema de interés actual debido a aplicaciones masivas, como: e-comerce, web-surfing, e-mail, voice over IP, TV over IP, que dependen completamente de redes ópticas. Éstas deben brindar a los usuarios la más alta seguridad, confiabilidad y disponibilidad.

8. Arquitectura de cross-conectores, enrutadores ópticos, y ROADM. En esta área existe la oportunidad de innovación y crear patentes, debido a que han surgido nuevos componentes ópticos con nuevas funcionalidades. La combinación de una forma inteligente de estos componentes ópticos puede dar como resultado nuevos enrutadores y crossconectores dinámicos patentables, y así tener propiedad intelectual en sistemas ópticos que son el corazón de las redes de comunicación óptica.

9. Redes ópticas de acceso. Debido a que en la actualidad el precio de la fibra óptica es comparable al del cable coaxial, la siguiente etapa de crecimiento de instalación de fibra óptica es en redes de acceso, llámense fibra a la casa, fibra a los edificios y redes de área local.

10. Enrutamiento y asignación de canales en redes ópticas. Éste es un problema en redes conocido como NP-complete. Es decir, no se puede resolver óptimamente a través de algoritmos o heurísticas. Es un problema para ser resuelto con nuevos y más eficientes

algoritmos, ya sea a través de la mejora de algoritmos ya publicados, o de algoritmos novedosos, algoritmos inteligentes, como algoritmos enjambre, algoritmos genéticos, redes neuronales, recocido simulado, técnica tabú, etcétera.

11. Esquemas de protección y restauración en redes (Figura 1). Éste es otro problema conocido como NP-complete. Es decir, imposible de resolver de forma óptima con algoritmos o heurísticas. Muchos de estos algoritmos de optimización en esquemas de protección son dependientes de la topología. El problema es que requiere de programación compleja que tome en cuenta muchos aspectos de las redes a optimizar.

GENERACIÓN DE NEGOCIOEl tercer y último punto sobre la investigación y desarrollo de comunicaciones ópticas es la generación de negocio en el área. Las oportunidades se centran en el diseño, desarrollo e implementación de redes de acceso, principalmente, debido a las tendencias de crecimiento futuras, y redes de transmisión actuales, para el mejoramiento y optimización del costo de las redes.

En México existen amplias oportunida-des de inversión y desarrollo de negocio en comunicaciones ópticas, debido a las tendencias de crecimiento del área. En un futuro cercano se requerirán compañías capaces de diseñar y optimizar redes actuales y futuras. Y debido a que no existen muchas compañías mexicanas capaces de proveer los servicios requeridos, se esperan atractivas utilidades para los inversionistas que decidan participar en esta arena.

Page 44: Revista Conocimiento 47

y podían atravesar muchos materiales. Una semana después, Roentgen tomó una fotografía de rayos X de la mano de su esposa, la cual reveló claramente su anillo de bodas y sus huesos. Roentgen llamó rayos X, a la nueva forma de radiación (X significa “desconocido”).

El descubrimiento de los rayos X ha permitido hacer diagnósticos certeros y en forma no invasiva de fracturas de huesos, así como identificación y localización de tumores; pero además permitió el desarrollo de otros siste-mas de imagen diagnóstica, como la tomografía de barrido computada (CAT-scan, por sus siglas en inglés), que permite obtener imágenes tridimesionales, de modo que el médico puede decir no solamente que un cierto tumor está presente, sino también su localización en el cuerpo.

LOS RAYOS LÁSEREl término láser se deriva de las iniciales en inglés de Light amplification by

the stimulated emission of radiation (amplificación de la luz por la emisión estimulada de radiación). Ali Javan, W.R. Bennett y Donald R. Harriott describieron en 1961, el primer láser de gas. El medio generador del láser era una mezcla de helio y neón.

El fenómeno de emisión estimulada de radiación, enunciado por Einstein en 1916, constituye la base de la tecnología empleada en la fabricación de dispositivos láser. Los experimentos que aprovecharon dicho fenómeno culminaron en el hallazgo, en 1953, del denominado máser, sistema que empleaba un haz de moléculas separadas en dos grupos —excitadas y no excitadas—, utilizado para la emisión de microondas en una cámara de resonancia. Posteriormente, se investigó un método para producir este tipo de radiación estimulada en el caso de la luz visible. Surgió así, en los años sesenta, el máser óptico. Al principio se consideró que el material básico para

la emisión estimulada de luz debía ser un gas. Posteriormente se experimentó con cristales sintéticos de rubí. En la actualidad, las investigaciones se dirigen hacia el desarrollo del láser de rayos X. La tecnología láser se ha desarrollado en forma asombrosa en los últimos 45 años; y también se ha ido diversificando, con diferentes capacidades de penetración, fineza, potencia y alcance.

La tecnología de rayos láser ha tenido las más diversas aplicaciones y su utilidad crece día con día. Actualmente se aplica en la práctica médica para obtener imágenes diagnósticas, como elemento cortante o cauterizante en cirugía. La fineza y precisión de la aplicación de esta tecnología permite operaciones delicadas para corregir miopía, astigmatismo, hipermetropía, e incluso presbicia; resección de tumores en forma no invasiva, e incluso para fines cosméticos, mediante abrasión superficial de la epidermis y depilación.

Adrianna GómezUnidad Monterrey, Educación en CienciasCinvestav [email protected]

Una de las características de la sociedad actual es la desigualdad en el acceso al conocimiento científico y

a los avances tecnológicos entre los diferentes grupos sociales. Sin duda, una de las formas en que estamos buscando, como sociedad, lograr más equidad, es a través de la enseñanza escolarizada. La enseñanza se plantea como una de las alternativas para que los niños, las niñas y los jóvenes accedan a una cultura científica.

Uno de los principales retos que enfrenta hoy en día la Enseñanza de las Ciencias es generar una actividad científica con sentido para los alumnos, que tienen diversos orígenes, intereses y motivaciones, y brindarles herramientas útiles para participar tanto en su comunidad, como en una sociedad que pretende ser globalizada Esta participación incluye, entre otras cosas, la toma de decisiones en temas relacionados con la ciencia y la tecnología y la incorporación en el uso y producción del conocimiento científico.

Una invitación para enfrentar este reto viene de la “ciencia escolar”. La propuesta de ciencia escolar fue generada por Mercé Izquierdo en la Universidad Autónoma de Barcelona, y retomada por diversos investigadores del área de Didáctica de las Ciencias. Actualmente, en el Cinvestav Unidad Monterrey, en el área de Educación en Ciencias, nos encontramos trabajando con esta propuesta teórica.

En este artículo expongo brevemente algunas características de la actividad científica escolar. En la primera parte, planteo que ésta se inserta en una cultura compartida que da sentido a la participación de todos y de todas. En la segunda parte, describo la participación misma, atendiendo a los procesos cognitivos y comunicativos

42 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 23

www.conocimientoenlinea.com

Page 45: Revista Conocimiento 47

y podían atravesar muchos materiales. Una semana después, Roentgen tomó una fotografía de rayos X de la mano de su esposa, la cual reveló claramente su anillo de bodas y sus huesos. Roentgen llamó rayos X, a la nueva forma de radiación (X significa “desconocido”).

El descubrimiento de los rayos X ha permitido hacer diagnósticos certeros y en forma no invasiva de fracturas de huesos, así como identificación y localización de tumores; pero además permitió el desarrollo de otros siste-mas de imagen diagnóstica, como la tomografía de barrido computada (CAT-scan, por sus siglas en inglés), que permite obtener imágenes tridimesionales, de modo que el médico puede decir no solamente que un cierto tumor está presente, sino también su localización en el cuerpo.

LOS RAYOS LÁSEREl término láser se deriva de las iniciales en inglés de Light amplification by

the stimulated emission of radiation (amplificación de la luz por la emisión estimulada de radiación). Ali Javan, W.R. Bennett y Donald R. Harriott describieron en 1961, el primer láser de gas. El medio generador del láser era una mezcla de helio y neón.

El fenómeno de emisión estimulada de radiación, enunciado por Einstein en 1916, constituye la base de la tecnología empleada en la fabricación de dispositivos láser. Los experimentos que aprovecharon dicho fenómeno culminaron en el hallazgo, en 1953, del denominado máser, sistema que empleaba un haz de moléculas separadas en dos grupos —excitadas y no excitadas—, utilizado para la emisión de microondas en una cámara de resonancia. Posteriormente, se investigó un método para producir este tipo de radiación estimulada en el caso de la luz visible. Surgió así, en los años sesenta, el máser óptico. Al principio se consideró que el material básico para

la emisión estimulada de luz debía ser un gas. Posteriormente se experimentó con cristales sintéticos de rubí. En la actualidad, las investigaciones se dirigen hacia el desarrollo del láser de rayos X. La tecnología láser se ha desarrollado en forma asombrosa en los últimos 45 años; y también se ha ido diversificando, con diferentes capacidades de penetración, fineza, potencia y alcance.

La tecnología de rayos láser ha tenido las más diversas aplicaciones y su utilidad crece día con día. Actualmente se aplica en la práctica médica para obtener imágenes diagnósticas, como elemento cortante o cauterizante en cirugía. La fineza y precisión de la aplicación de esta tecnología permite operaciones delicadas para corregir miopía, astigmatismo, hipermetropía, e incluso presbicia; resección de tumores en forma no invasiva, e incluso para fines cosméticos, mediante abrasión superficial de la epidermis y depilación.

Adrianna GómezUnidad Monterrey, Educación en CienciasCinvestav [email protected]

Una de las características de la sociedad actual es la desigualdad en el acceso al conocimiento científico y

a los avances tecnológicos entre los diferentes grupos sociales. Sin duda, una de las formas en que estamos buscando, como sociedad, lograr más equidad, es a través de la enseñanza escolarizada. La enseñanza se plantea como una de las alternativas para que los niños, las niñas y los jóvenes accedan a una cultura científica.

Uno de los principales retos que enfrenta hoy en día la Enseñanza de las Ciencias es generar una actividad científica con sentido para los alumnos, que tienen diversos orígenes, intereses y motivaciones, y brindarles herramientas útiles para participar tanto en su comunidad, como en una sociedad que pretende ser globalizada Esta participación incluye, entre otras cosas, la toma de decisiones en temas relacionados con la ciencia y la tecnología y la incorporación en el uso y producción del conocimiento científico.

Una invitación para enfrentar este reto viene de la “ciencia escolar”. La propuesta de ciencia escolar fue generada por Mercé Izquierdo en la Universidad Autónoma de Barcelona, y retomada por diversos investigadores del área de Didáctica de las Ciencias. Actualmente, en el Cinvestav Unidad Monterrey, en el área de Educación en Ciencias, nos encontramos trabajando con esta propuesta teórica.

En este artículo expongo brevemente algunas características de la actividad científica escolar. En la primera parte, planteo que ésta se inserta en una cultura compartida que da sentido a la participación de todos y de todas. En la segunda parte, describo la participación misma, atendiendo a los procesos cognitivos y comunicativos

42 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 23

www.conocimientoenlinea.com

22 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 43

www.conocimientoenlinea.com

Pasteur, apoyado por los consejos de Antonio Jerónimo Balard, demostró que esta teoría estaba equivocada y que muchas enfermedades, sobre todo de las vides y del gusano de seda (especies con las que trabajó) eran causadas por “animalillos” (ahora conocidos como bacterias).

Aún en tiempos de Pasteur, los naturalis-tas pensaban que la tuberculosis se debía al influjo de los miasmas de los pantanos; pero el médico alemán Heinrich Hermann Robert Koch demostró en 1882 que el agente causal de la tuberculosis era un bacilo ácido-alcohol resistente, que originalmente se llamó el “Bacilo de Koch”, en honor de su descubridor. Ahora, esta bacteria se conoce universalmente como Mycobacterium tuberculosis, y se sabe que hay otras micobacterias que también son agentes causales de tuberculosis. Koch es el autor de los postulados que llevan su nombre, por lo cual recibió el premio Nobel en 1905.

La palabra malaria es una contracción de “mal aire”. Se pensaba que el “mal aire” era el responsable del paludismo. Sabemos ahora que mosquitos que se desarrollan en aguas estancadas en pantanos, charcos y en toda clase de recipientes descuidados, son los vectores de los protozoarios parásitos causantes de la malaria, llamados Plasmodium vivax, P. falciparum y P. malariae y P. ovale.

En conclusión, el producto de la Ciencia es el conocimiento, el cual responde a preguntas que nos permiten llegar a conclusiones sobre fenómenos, mayoritariamente naturales. La Ciencia es un creciente cuerpo de entendimiento que nos permite enfrentar más efectivamente nuestro ambiente y adaptarnos tanto social como individualmente.

CIENCIA BÁSICA, CIENCIA APLICADA Y TECNOLOGÍAA pesar de que Ciencia Básica y ciencia aplicada son términos muy utilizados, esta clasificación no es adecuada. En cambio, sí pueden clasificarse como ciencias exactas: matemática, lógica, química y física y astronomía; y ciencias no exactas, que son el resto. La aplicación de los conocimientos producidos por el trabajo científico no

es suficiente para resolver problemas prácticos, para mejorar la calidad de vida de la humanidad. Se requiere otro campo tan importante y válido como la ciencia: la tecnología. El conocimiento tecnológico está orientado a la solución de problemas complejos y a la toma de decisiones en cuestiones que afectan a la sociedad.

La ciencia y la tecnología se potencian mutuamente, y concebidas en su grado actual de desarrollo, sería casi imposible que evolucionase una sin la otra. Entonces, cuando hablamos de adelantos científicos aplicados a equipos, técnicas o sustancias médicas, necesariamente tenemos que hablar también de la contribución amalgamada de la ciencia y de la tecnología. Aquí pretendemos

Los antiguos y nuevos conocimientos atesorados por la humanidad son como una malla que se entreteje intrincadamente. Esta malla crece en espiral, cada vez más rápidamente. Algunos de estos conocimientos, después de años o tal vez siglos de experiencia, son la culminación de incontables estudios que fueron aplicados a la Medicina a corto o mediano plazo. Muchos de estos descubrimientos impulsaron, a su vez, investigaciones cruciales para llegar a nuevos y más asombrosos conocimientos.

LA RADIACTIVIDAD El radio (del Latín radius, rayo) fue descubierto en 1898 por Marie Curié y su marido Pierre. En 1902, el radio fue aislado por Curié y André Debierne mediante la electrolisis de una solución de cloruro puro de radio usando un cátodo de mercurio en una atmósfera de hidrógeno.

Al buscar Marie Curié un proyecto de investigación para su tesis doctoral, se interesó en una publicación de Antoine Henri Becquerel, quien había descubierto que las sales de uranio emitían espontáneamente, sin exposición a la luz, ciertos rayos de naturaleza desconocida. Un compuesto de uranio colocado sobre una placa fotográfica cubierta de papel negro, dejaba una impresión en la placa a través del papel. Era la primera observación del fenómeno al que Marie Curié bautizó después como radiactividad. Este conocimiento permitió utilizar la radiactividad para diagnósticos de tumores, el funcionamiento de órganos y el tratamiento de tumores (radioterapia).

LOS RAYOS XLos rayos X son radiaciones electromagnéticas de longitud de onda corta, capaces de penetrar la materia hasta cierta profundidad, dependiendo de su naturaleza. El 8 de noviembre de 1895, Wilhelm Conrad Roentgen descubrió accidentalmente una imagen originada en su generador de rayos catódicos, la cual se había proyectado más lejos que el posible rango de su haz. Cuando investigó, encontró que el fenómeno se había producido al pasar el haz de rayos catódicos por el interior de un tubo de vacío. Estos nuevos rayos no eran reflejados por campos magnéticos

Radiografía de rayos X

comentar algunas contribuciones de la Ciencia a la Medicina. Debemos tener en cuenta que los conocimientos que señalaremos fueron tomados por la tecnología como punto de partida para llegar al producto final, aplicado a la Medicina.

ALGUNAS CONTRIBUCIONES DE LA CIENCIA A LA MEDICINALa Medicina se ha beneficiado de los conocimientos científicos desde hace mucho tiempo. Prácticamente todas las ciencias han contribuido a su desarrollo, Durante los siglos XIX, XX y lo transcurrido del siglo XXI se han producido los avances médicos más espectaculares, impulsados por la investigación científica y tecnológica.

que se desarrollan en el planteamiento y la resolución de problemas. Aunque pudiera parecer que la primera y la segunda parte presentan enfoques distintos, se trata realmente de dos miradas complementarias, que nos acercan a la complejidad de la tarea a emprender para dar sentido a la actividad científica escolar.

LA ACTIVIDAD EN UNA CIENCIA PARA TODOSDesde la fundación de la Secretaría de Educación Pública en 1921, la cobertura de la educación escolarizada ha crecido significativamente. La Educación Básica en México está atendiendo, durante el ciclo escolar 2006-2007, según datos aportados por la SEP en su página Web, a 25 millones de alumnos entre los cinco y los 15 años de edad, que representan la cuarta parte de la población total del país y el 77.4 por ciento de la matrícula del Sistema Educativo Nacional Escolarizado. La obligatoriedad de la Educación Básica en México responde a la búsqueda de una educación para todos. Esta educación ha venido ampliando y enriqueciendo el significado de la noción de Alfabetización. Una de las ideas introducidas en los últimos años es que la alfabetización no solamente incluye el aprendizaje de la lectura y la escritura, sino la posibilidad de acceder a otros conjuntos de símbolos significativos que la gente usa para hacer inteligibles sus vidas. Estos signos crean sistemas de significados que forman parte de una cultura específica, en palabras del antropólogo Clifford Geertz:

“Los sistemas de significados son necesariamente la propiedad colectiva de un grupo. Cuando decimos que no comprendemos las acciones de personas de otra cultura distinta de la nuestra, estamos reconociendo que no estamos familiarizados con el universo imaginativo en el que sus actos son signos”.

Una de las finalidades de la Enseñanza de las Ciencias es permitir a los alumnos generar nuevos sistemas de significado en el “universo imaginativo” de la sociedad actual. Aquí, el aprendizaje está entendido como una práctica situada, que se constituye en la capacidad de participación en cambiantes procesos de actividad humana. Situándonos en una sociedad caracterizada por la

Clifford James GeertzClifford James Geertz (1926 - 2006) fue un antropólogo estadounidense que ocupaba el puesto de profesor emérito en el Institute for Advanced Study, de la Universidad de Princeton, Nueva Jersey.

Luego de servir en la Marina de los Estados Unidos durante la Segunda Guerra Mundial, (1943-45), Geertz estudió en el Antioch College, donde obtuvo el grado de bachiller en 1950, y luego se doctoró en Harvard como doctor en Filosofía en 1956.

Pasó por varias escuelas antes de formar parte del equipo de antropólogos de la Universidad de Chicago (1960-70); posteriormente se convirtió en profesor de ciencias sociales del Institute for Advanced Study en Princeton de 1970-2000, donde fue emérito hasta su muerte, el 30 de octubre de 2006. Recibió un doctorado honorífico del Bates College en 1980.

desigualdad en el acceso a la ciencia y a la tecnología, dicha participación no se limita únicamente a ser usuarios y destinatarios de los saberes científicos y los avances tecnológicos, sino también a la capacidad de participar en su gestión y desarrollo.

CARACTERÍSTICAS DE LA ACTIVIDAD CIENTÍFICA ESCOLARPodemos caracterizar a la ciencia como una actividad humana donde se produce y se usa el conocimiento. Partiendo de ello, la Enseñanza de las Ciencias debiera permitir a los alumnos generar conocimiento y operar con él. Es decir, durante la educación básica, media y superior, los alumnos han de realizar actividades que les permitan, por ejemplo, convertir las observaciones en evidencias; plantear preguntas significativas; diseñar formas de evaluar los resultados obtenidos; identificar datos anómalos; comunicar las ideas, produciendo argumentos coherentes; planificar sus acciones, atendiendo a una teoría; trabajar en equipo, aportando elementos a la resolución de un problema; incorporar un lenguaje especializado, dando nuevo sentido a sus observaciones; generar nuevos instrumentos y procedimientos para resolver las preguntas planteadas y regular los procesos y evaluar la eficiencia de los mismos. Estas actividades forman parte básica de la actividad científica y han también de formar parte básica de una actividad científica escolar.

Por tanto, la Enseñanza de las Ciencias no ha de limitarse a la transmisión de las teorías y modelos científicos aceptados y a la presentación de los avances tecnológicos. El mayor reto

Page 46: Revista Conocimiento 47

44 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 21

www.conocimientoenlinea.com

LA CIENCIA Y SU FINALIDAD

Etimológicamente, la palabra Ciencia se deriva del latín scire, que significa saber, y se ocupa de producir conocimiento.

Los conocimientos aislados son poco útiles. Es necesario ordenarlos de tal manera que nos permitan llegar a conclusiones válidas, a explicaciones de los fenómenos, y, basados en estos conocimientos, enunciar leyes o teorías, que a su vez nos permitan establecer predicciones.

La ciencia busca el conocimiento por el conocimiento mismo. Responde a preguntas de la realidad física; es decir, que requieren de una experiencia empírica medible. Por ello, los temas relativos a la religión no son materia de estudio de la ciencia. La Ciencia pone a prueba verdades provisionales (hipótesis), susceptibles de aceptación o rechazo. Éstas deben ser confrontadas mediante la experimentación o la observación. Las verdades postuladas por los investigadores se revisan constantemente y se les reemplaza a la luz de nuevas observaciones o datos.

Antes de Louis Pasteur, se tenía por verdad la teoría de la generación espontánea. Los partidarios de ésta aseguraban: “como partiendo de una sustancia informe, un limo vaporoso en estado de agitación desde hace millones de años, que va resolviéndose en una ordenada procesión ascendente de seres vivos hasta llegar al mono y, por último, como si fuera el paso triunfal, al hombre”.

Doctor Salvador Said-Fernández Director del Centro de Investigación Biomédica del Noreste / IMSS

Doctora Herminia G. Martínez-RodríguezJefa del Departamento de BioquímicaFacultad de Medicina / UANL

Louis Pasteur (1822 – 1895) Científico francés.

actual de la Enseñanza de las Ciencias se centra precisamente en que los alumnos realicen una actividad científica escolar. Se trata de generar un contexto de participación en una actividad genuina y relevante para los alumnos, donde hay congruencia entre pensamiento, lenguaje y acción. En esta actividad se integran tanto los ejes epistemológico (de la generación y validación del conocimiento), como praxeológico (de las prácticas, acciones y decisiones) y axiológico (del sistema de valores). En la Ciencia Escolar, se toman en cuenta no sólo los modelos teóricos que los alumnos han de construir, sino las acciones y motivaciones que les dan significado; es decir, la actividad que en torno a ellos se desarrolla, así como el contexto de generación, validación y uso del conocimiento.

ENSEÑANZA DE UNA CIENCIA ESCOLARLa propuesta de afrontar la enseñanza de las ciencias como una Ciencia Escolar, aunada a otras propuestas que se han venido realizando desde las investigaciones en didáctica de las ciencias, ha dado lugar a una nueva mirada sobre la actividad en el aula de ciencias. Ésta se centra en la actividad del alumno y en su introducción paulatina en una cultura científica que da sentido a su participación. Algunas de las características de esta actividad son:

-Los alumnos han de generar un pensamiento teórico sobre los fenómenos del mundo; es decir, han de construir modelos teóricos, apoyados en la experimentación, la construcción de evidencias y la reformulación de las ideas. Algunos modelos básicos a construir en la escuela son, por ejemplo, el de ser vivo, el de planeta Tierra, el de fuerzas en interacción, o el de cambio químico. Estos modelos se construyen paulatinamente a lo largo de varios ciclos escolares, durante los cuales se van complejizando (incluyendo más nociones, elementos y relaciones) y más fenómenos interpretados, ampliando las generalizaciones de partida. Por ejemplo, en el modelo de ser vivo se tratan la reproducción, la nutrición y la relación. Dentro de esta última, en la escuela primaria se construyen las ideas de órganos de los sentidos y sistema nervioso, en la secundaria la idea de

- Los alumnos han de tener comprensión de la situación y participar activamente en la toma de decisiones, donde se incluye el trabajo en equipo, la cooperación, la regulación. Se trata aquí de la generación y resolución de problemas auténticos; por ejemplo, impacto en la flora y fauna local de alguna perturbación ambiental como los incendios forestales o la construcción de fraccionamientos, elaboración de propuestas para el tratamiento de algún contaminante presente en la zona, etcétera.

-Los participantes han de reconocer valores asociados a la práctica. Tanto las respuestas como las formas de afrontar los problemas se relacionan no sólo con los conocimientos científicos, sino con las valoraciones sociales y personales de los participantes que han de asumir una postura. Pensemos, por ejemplo, en el caso de la construcción de fraccionamientos y la reducción de

áreas naturales, o en el tratamiento de contaminantes industriales o en la clonación, etcétera. Temáticas en que ha de reconocerse que hay valoraciones diversas por los participantes de la toma de decisiones.

-Por otra parte, si bien los alumnos han de crear una genuina actividad científica en el aula, también han de reconocer la actividad científica que se ha generado por los científicos a lo largo de la historia. Han de entender la naturaleza de dicha actividad, en la que las ideas se debaten y evolucionan y, especialmente, han de identificar los contextos socio-históricos, las controversias, la generación de anoma-lías y el papel del desarrollo tecnológico tanto en la obtención de nuevos datos empíricos, como en las posibilidades de organización y comunicación de los mismos. En el caso de las perturbaciones ambientales, por ejemplo, la noción misma de perturbación, generada desde la ecología, se ha reformulado de acuerdo a los impactos que las sociedades han tenido sobre los ecosistemas. Incorporar el estudio de la historia de esta noción nos permite ver cómo los momentos históricos y la cosmovisión del mundo influyen en las posturas que la ciencia adopta ante los diversos problemas. La Educación Ambiental misma, como eje transversal de la Enseñanza de las Ciencias, ha generado diversas formas de conceptualizar lo que es un problema ambiental.

PARTICIPACIÓNDE DIFERENTES ACTORESFinalmente, cabe mencionar que los elementos mencionados con antelación constituyen tan sólo un acercamiento a la complejidad con que nos enfrentamos al hablar de la Enseñanza de las Ciencias en nuestra sociedad actual. La concepción misma de lo que significa enseñar ciencias es objeto de discusión. Discusión que está abierta a la participación de los diferentes actores (alumnos, docentes, administrativos, investigadores, divulgadores, etcétera). En este breve artículo he presentado una propuesta, que pretende aportar a la construcción de una nueva visión de la Enseñanza de las Ciencias, y que es fruto de la actividad de investigación que realizamos en el Cinvestav Unidad Monterrey, en el área de Educación en Ciencias.

receptores y transmisión eléctrica de impulsos, etc.

-Los alumnos han de comunicar sus ideas (de forma oral, escrita y gráfica), incorporando la argumentación, la retórica y la apropiación de un lenguaje especializado, fruto de la generación de una nueva mirada sobre los fenómenos del mundo. Al mismo tiempo se han de apropiar de las herramientas útiles para usar y operar con el conocimiento, incluyendo la tecnología. Siguiendo con el ejemplo anterior, para el modelo ser vivo resulta relevante el uso del microscopio, las salidas al campo para registrar regularidades, el uso de la multicausalidad al explicar, la incorporación del lenguaje científico, etcétera.

Page 47: Revista Conocimiento 47

20 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 45

www.conocimientoenlinea.com

1-Storb R, Non-myeloablative allogeneic

transplantation state-of-the-art. Pediatr

Transplantation. 2004; 8: 12-18.

2-Bearman SI, Appelbaum FR, Buckner CD, et al.

Regimen-related toxicity in patients undergoing

bone marrow transplantation. J Clin Oncol.1998; 6:

1562 – 1568.

3-Weiden PL, Fluornoy N, Thomas ED, et al.

Antileukemic effect of graft-versus-host-disease in

human recipients of allogeneic-marrow-grafts. N

Engl J Med. 1979; 300:1068 – 1073.

4-Horowitz MM, Gale RP, Sondel PM, et al. Graft-

versus-leukemia reactions after bone marrow

transplantation. Blood. 1990; 75: 555 – 562.

5-Weissman IL. Stem cells: units of development,

units of regeneration, and units in evolution. Cell.

2000; 100: 157 – 168.

6-Weissman IL. Translating stem and progenitor

cell biology to the clinic: barriers and opportunities.

Science. 2000; 287: 1442 – 1446.

7-Childs R, Barrett J. Nonmyeloablative allogeneic

immunotherapy for solid tumors. Annu Rev Med.

2004; 55: 459 – 475.

8-Slavin S. Reduced- intensity conditioning

or nonmyeloablative stem transplantation:

introduction, rationale and historic background.

Semin Oncol. 2004; 31: 1 – 3.

9-Saito T, Kanda Y, Kami, et al. Therapeutic

potential of a reduced intensity preparative regimen

for allogeneic transplantation with cladribine,

busulfan and antithymocyte globulin against

advanced/refractory leukemia/lymphoma. Clin

Cancer Res. 2002; 8:1014 – 1020.

10-Childs R, Barrett J. Nonmyeloablative allogeneic

immunotherapy for solid tumors. Annu Rev Med.

2004; 55: 459 – 475.

11-Gómez-Almaguer D, Ruiz-Argüelles GJ,

Ruiz-Argüelles A, et al. Hematopoietic stem cell

allografts using a non-myeloablative conditioning

regimen can be safely performed on an outpatient

basis. Bone Marrow Transplant 2000; 25: 131-133.

12-Gómez-Almaguer D, Ruiz-Argüelles GJ, Tarín-

Arzaga LC, et al. Reduced-intensity stem cell

transplantation in children and adolescents: the

Mexican experience. Biol Blood Marrow Transpl.

2003; 9:157-161.

13-Ruiz-Argüelles GJ, Gómez-Almaguer D,

Gómez-Rangel JD, et al. Allogeneic hematopoietic

stem cell transplantation with non-myeloablative

conditioning in patients with acute leukemia eligible

for conventional allografting: a prospective study.

Leuk. Lymphoma. 2004; 45:1191-1195.

14-Ruiz-Argüelles GJ, Gómez-Almaguer D, Gómez-

Morales E.: Trasplante de células progenitoras

hematopoyéticas. En Góngora-Biachi R. (editor)

Hematología: Actualización 2004. Ediciones de

la Agrupación Mexicana para el Estudio de la

Hematología A.C.

Mérida, México. 2004. pp. 139-148.

las bondades de este esquema, el cual es moderadamente mielotóxico, ha sido posible desarrollar los trasplantes en forma ambulatoria en la mayoría de los casos y reducir considerablemente las complicaciones y en consecuencia los costos. Los enfermos lo toleran adecuadamente, se asocia rara vez a mucositis grave, y no impide la administración de medicamentos por vía oral; las infecciones graves son la excepción, al igual que la enfermedad del injerto vs huésped grado II-IV.

EXPERIENCIA EN MÉXICOEl primer trasplante con el sistema no mieloablativo en nuestro país, se llevó a cabo en octubre de 1998. La paciente fue una joven de 15 años de edad que sufría de beta talasemia mayor. Ella recibió células hematopoyéticas obtenidas de la sangre periférica de su hermana, con buenos resultados; la paciente se encuentra libre de enfermedad y haciendo una vida normal 6 años después del procedimiento.

Desde entonces, en las ciudades de Monterrey y Puebla, utilizando la variante propia de acondicionamiento, hemos llevado a cabo más de 200 transplantes alogénicos, en pacientes con diferentes enfermedades: leucemia granulocítica crónica, leucemia aguda mieloblástica, leucemia aguda linfoblástica, mielodisplasia, linfomas, leucemia linfocítica crónica, enfermedad de Hodgkin, aplasia pura de serie roja, anemia aplásica, adrenoleucodistrofia, síndrome de Hunter y varios tumores sólidos1. En este grupo de pacientes la media para la recuperación de neutrófilos a 0.5 X 10 9 /L fue de 13 días, mientras que el tiempo para la recuperación plaquetaria a un nivel de 20 X 10 9/L fue de 12 días.

Cincuenta y siete pacientes no requirieron transfusiones de glóbulos rojos, y 50 no requirieron transfusiones de plaquetas. En 120 pacientes el procedimiento se pudo llevar a cabo en forma totalmente ambulatoria.

El tiempo de seguimiento es de 30 a 2 mil 190 días; el 53 por ciento de los enfermos han desarrollado enfermedad de injerto contra el huésped, aguda, y el 33 por ciento desarrollaron la forma crónica. La supervivencia a mil 200 días es del 57 por ciento, mientras que la supervivencia mediana no ha sido alcanzada. La mortalidad relacionada con el transplante fue del 24 por ciento16,

37, 38 y la mortalidad en los primeros 100 días pos-trasplante, de 10 por ciento.

La causa más común de muerte, tratándose de las enfermedades neoplásicas, ha sido la recaída de la enfermedad, en especial en los casos de enfermedades avanzadas al momento del trasplante, lo cual es también la experiencia internacional.

El paciente de menor edad transplantado tiene menos de un año, sufría de leucemia aguda linfoblástica y se encuentra actualmente libre de enfermedad, sin complicaciones a un año del transplante, en tanto que el paciente de mayor edad es un paciente de 71 años de edad con leucemia granulocítica crónica, resistente al imatinib, quien se encuentra libre de enfermedad ocho meses después del transplante.

Con la variante del esquema no mieloablativo utilizada por nosotros se han llevado a cabo también de manera exitosa trasplantes de células de cordón umbilical (placentarias) tanto en niños como en adultos.

Resonancia magnética nuclear de cráneo. Lesiones hiperintensas en región talámica bilateral.

Tomografía axial computadorizada de cráneo. Lesiones hipodensas en región talámica bilateral.

Varias veces he pensado que si tuviera que decidir hoy en qué disciplina me gustaría hacer un doctorado, la decisión podría ser en las

“Ciencias de la Vida”. Fue entre los años 1967 y 1971 cuando estudié, en el campus College Park, de la Universidad de Maryland, muy cerca de Washington, D.C., el doctorado en física.

En ese entonces, el Departamento de Física y Astronomía tenía profesores-investigadores que la situaban entre las prime-ras diez universidades en esa disciplina dentro de Estados Unidos. Hace menos de dos años, tuve la oportunidad de visitarla y platicar con quien fue mi asesor de tesis. Me comentó que la acción se trasladó desde hace muchos años del campus College Park al campus Baltimore, en donde se concentran las Ciencias de la Vida. También me comentó que actualmente la mayoría de los estudiantes del doctorado en física son asiáticos.

DETECCIÓN DE ONDAS GRAVITACIONALES

Estoy terminando de leer el libro titulado La sinfonía inconclusa de Einstein.

Narra el esfuerzo, hasta el día de hoy inconcluso, iniciado en 1969

en la Universidad de Maryland, por mi maestro de mecánica

cuántica, Joseph Weber, para diseñar, construir y operar un aparato capaz de detectar “ondas gravitacionales”.

Albert Einstein presentó, a finales de 1915, su famosa “teoría de la relatividad general” de cuyas ecuaciones se deduce la existencia de

“perturbaciones del campo gravitacional local (o sea

de la curvatura del espacio-tiempo) que se propagan

con la velocidad de la luz” de forma similar a la cual, de las

ecuaciones de Maxwell, se deduce la existencia de “perturbaciones del

campo electromagnético local que se propagan con la velocidad de la luz”, o

sea de las “ondas electromagnéticas” que son el fundamento de todos los sistemas locales y espaciales de

Director de Prospectiva Científica y Tecnológica

Doctor Juan Lauro Aguirre Villafaña

Page 48: Revista Conocimiento 47

46 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 19

www.conocimientoenlinea.com

que la curación total era posible con la administración de linfocitos de su hermano, aun después de observarse recaída leucémica postrasplante. En otros casos, el simple hecho de suspender la inmunosupresión utilizada para evitar la reacción de injerto contra el huésped ha permitido obtener remisión de la enfermedad neoplásica que se había activado postrasplante. Esto se ha observado en casos de leucemia, linfoma, mieloma y neoplasias sólidas. La evidencia es suficiente para afirmar con seguridad que la curación de enfermedades hematológicas malignas y benignas es posible mediante mecanismos inmunológicos7. LOS ESQUEMAS DE ACONDICIONAMIENTONO MIELOABLATIVOS La toxicidad y mortalidad de los esquemas de acondicionamiento en el TCH es proporcional a su intensidad8,9. El fundamento de los esquemas no mieloablativos es la inmunosupresión del receptor para favorecer el injerto

del sistema inmune del donador, reduciendo además la toxicidad10. Debido a que la quimio-radioterapia no erradica la hematopoyesis del paciente, es común detectar células mieloides y linfoides, tanto del donador como del paciente al momento que se recupera la cuenta de neutrófilos11. En este estado de quimerismo mixto, el reemplazo completo por células del donador suele ser relativamente rápido; sin embargo, puede tardar de seis a doce meses.

Se han descrito diversas combinaciones de agentes quimioterapéuticos como esquemas de acondicionamiento no mieloablativo; la fludarabina es un elemento constante en la mayoría de estos, gracias a sus propiedades inmunosupresoras, ya que es un medicamento que produce toxicidad directa en los linfocitos, y se utiliza en el tratamiento de linfomas indolentes y de la leucemia linfocítica crónica12,15. Existen muchas variantes de inmunoablación o quimioterapia de intensidad reducida; sin embargo, tres son los esquemas

primordiales o básicos: el grupo de Seattle administra radioterapia a dosis bajas con fludarabina 30 mg/Kg/día por tres días14; en Israel, Slavin y colaboradores utilizan una combinación de busulfán, globulina antitimocito y fludarabina13; en Houston, en los Estados Unidos, Giralt y colaboradores utilizan frecuentemente melfalán intravenoso 100-200 mg/m2 con fludarabina12.

La capacidad de producir daño a la médula ósea del paciente varía en cada esquema de quimioterapia; el esquema menos agresivo es el de Seattle, ya que no produce daño grave o irreversible a la hematopoyesis del enfermo, y es posible tratar a los enfermos sin transfusiones y en forma ambulatoria en muchos casos. Otros esquemas suelen ser moderadamente mielotóxicos. Hemos implementado una variante propia de acondicionamiento no mieloablativo, a partir de los esquemas básicos antes mencionados, con la combinación de fludarabina, busulfán y ciclofosfamida. Debido a

Los transplantes alogénicos han salvado la vida de niños con padecimientos diversos.

comunicación (inalámbrica), sin los cuales nuestra vida sería muy diferente.

Joseph Weber obtuvo el grado de ingeniero eléctrico en la Academia Naval de los Estados Unidos, en 1940, e inmediatamente se incorporó a las acciones militares durante la Segunda Guerra Mundial. Posteriormente fue director de diseño de equipos electrónicos para barcos, gracias a su gran experiencia con el radar (radio detection and ranging). A propósito, tampoco se podría concebir el manejo del tráfico aéreo sin el uso del radar.

Joseph Weber se incorporó a la Universidad de Maryland en 1948. Después de hacer el doctorado en física y pasar el año académico 1955-1956, meses después de la muerte de Albert Einstein, en el Instituto de Estudios Avanzados de Princeton, en los años de la década de 1960 diseñó, construyó y operó no una sino dos “antenas gravitacionales”, una de ellas instalada en College Park y la otra a mil kilómetros de distancia, en Chicago.

La idea es que el paso de un “pulso de onda gravitacional” se detectaría por causar en el cilindro de aluminio una pequeñísima distorsión de sus dimensiones.

INGENIERÍA GRAVITACIONALAunque Weber detectó muchos pulsos que pasaron en forma simultánea por College Park y Chicago, hasta el día de hoy no se ha podido “garantizar” que lo que él detectó fueron ondas gravitacionales y no cualquier otra cosa.

Actualmente existen en operación y en construcción en varias partes del planeta, diseños más avanzados que permitirán no solamente detectar dichas ondas, sino inaugurar ya muy pronto, quizás antes de 2015, lo que será la nueva “ingeniería gravitacional.”

Es cierto que una gran cantidad de la acción en investigación científica básica y aplicada se trasladó a finales del siglo pasado de la física y la química a la biología y la medicina.

Pero también es cierto que se espera un retorno de la acción hacia la física, y quizás también hacia la química, porque parece que este retorno es

absolutamente necesario para disponer de los recursos teóricos que actualmente no se tienen para resolver muchos problemas importantes en las Ciencias de la Vida tales como: conocer los requerimientos mínimos para que un sistema posea lo que llamamos vida, conocer el origen de la sincronización en los mecanismos metabólicos de las células, conocer el origen de la diferenciación celular y de la diferenciación entre las especies, etcétera.

RENACIMIENTO DE LA FÍSICALa Academia Nacional de las Ciencias de los Estados Unidos publicó, en el año 2001, un estudio muy profundo titulado “La física en una nueva era”, que apoya esta visión personal de un renacimiento de la física (teórica) en el siglo XXI.

El reporte anterior establece seis “grandes retos” basados en las siguientes tendencias:

Nuevas áreas de la física están emergiendo como respuesta a técnicas experimentales de alcance y sensibilidad inusitados y a la capacidad, siempre en aumento, de las computadoras (una de ellas podría ser la ingeniería gravitacional que ya mencionamos).

A principios del siglo XXI, la física se ha vuelto más importante para las otras ciencias. Muchos problemas en ciencias muy diversas se han vuelto “problemas dependientes de la física”, lo cual significa que las leyes básicas de la física juegan un papel muy importante en su entendimiento.

La física posee una importancia cada vez mayor para el desarrollo tecnológico y económico. Ha sido un terreno muy fértil para el desarrollo de nuevas tecnologías y seguramente lo seguirá siendo.

La física es ahora tan importante en la solución de problemas en salud, medio ambiente y seguridad nacional, que su aprendizaje es cada vez más necesario.

La física se ha vuelto una “empresa global” que hace que la colaboración científica internacional ocurra por necesidad económica.

Page 49: Revista Conocimiento 47

18 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 47

www.conocimientoenlinea.com

INTRODUCCIÓNEl objetivo de un trasplante alogénico de células hematopoyéticas (TCH) es el de restaurar la hematopoyesis del enfermo, la cual se encuentra afectada por una enfermedad incurable. Para ello, por muchos años se consideró indispensable destruir al máximo, con quimioterapia y/o radioterapia, las células hematopoyéticas del paciente, para reemplazar el tejido sanguíneo enfermo por el sano, proveniente del donador. Por ello, a este tipo de trasplan-te se le denominó “mieloablativo” o convencional, y por su agresividad y toxicidad secundaria al régimen de preparación, se reservó para enfermos jóvenes y en buenas condiciones generales, usualmente menores de 45 años1. Este tipo de trasplante se asocia a daño en diversos órganos y tejidos, a dificultad para administrar efectivam-ente por vía oral medicamentos para prevenir o tratar infecciones, y a la enfermedad del injerto versus huésped2.

Frecuentemente, los pacientes presentan mucositis, infecciones o enfermedad veno-oclusiva hepática, lo cual a su vez precipita otros eventos que explican por qué la muerte en estos pacientes es más frecuente de lo deseado. Si a ello le sumamos los efectos a largo plazo en los supervivientes, es claro entonces que esta terapia tiene una aplicación limitada y se encuentra lejos de lo ideal. Esto ha hecho necesaria la búsqueda de otras opciones o modalidades para disminuir la toxicidad y conservar la efectividad del trasplante hematopoyético, no sólo para mejorar la calidad de vida del paciente trasplantado, sino también para aumentar la posibilidad de lograr la curación en un mayor número de enfermos. Entre los años 1970 y 1980 se publicaron estudios experimentales que sugerían que la destrucción selectiva del tejido linfoide o “inmunoablación” era suficiente para permitir la tolerancia a aloinjertos; sin embargo, no fue sino hasta 1981 cuando se observó que los enfermos con leucemia sometidos a un trasplante alogénico, y que además desarrollaron la enfermedad del injerto vs el huésped (EICH), tuvieron mejor supervivencia libre de enfermedad; es decir, planteándose un efecto de los linfocitos T del donador contra la leucemia del paciente, mecanismo que contribuía a la eliminación de la

totalidad de las células leucémicas3,4. El terreno para la aparición del trasplante “no mieloablativo” o de “intensidad reducida” se había preparado.

LOS MECANISMOS BIOLÓGICOS DEL TRASPLANTE NO MIELOABLATIVOEl microambiente de la médula ósea está formado por miofibroblastos, fibroblastos, adipositos, osteoblastos, células endoteliales y macrófagos que regulan las células hematopoyéticas mediante citoquinas y factores de crecimiento. Es importante señalar que la célula hematopoyética es multipotente; es decir, tiene la capacidad de auto-renovarse y diferenciarse en más de un tipo celular5,6.

En el trasplante no-mieloablativo, mediante quimioterapia y/o radioterapia de intensidad reducida, se logra que el receptor sea incapaz de rechazar el establecimiento de las células hematopoyéticas alogénicas y de tener una respuesta inmune del injerto contra

el huésped. Los linfocitos provenientes del donador en un trasplante hematopoyético no mieloablativo, son capaces de abrirse paso en esta pluralidad celular, destruyendo median-te citotoxicidad las células supervivien-tes del paciente; en este caso, los linfocitos T y los denominados asesinos son los principalmente responsables del fenómeno. Este efecto se lleva a cabo generalmente en forma progresiva, mediante el establecimiento de una quimera celular con dos poblaciones (quimerismo mixto), una del enfermo y otra del donador, que gradualmente se inclina a favor de las células del donante.

Esto se puede acelerar inyectando al enfermo linfocitos del donador que aceleran la destrucción del tejido hematopoyético residual. Estudios efectuados en Estados Unidos e Israel en perros y ratones demostraron la factibilidad de este fenómeno1. En 1986 se demostró en un niño con leucemia aguda linfoblástica,

NUEVOS RETOSLos seis grandes retos de la nueva física son:

1.- El desarrollo de tecnologías cuánticas:La habilidad para manipular átomos y moléculas en forma individual deberá conducir a las nuevas tecnologías cuánticas con aplicaciones que van desde el desarrollo de nuevos materiales hasta el análisis del genoma humano.

2.- El entendimiento de los sistemas complejos: Los avances teóricos y la capacidad para modelar y simular grandes sistemas utilizando computadoras cada vez mejores, permitirán el entendimiento a un nivel no imaginable hasta hace algunos años, de fenómenos tan complicados como la muerte -por explosión- de las estrellas y el origen y determinación de las propiedades de materiales sumamente complejos.

3.- Aplicación de la física a la biología: Dado que todos los mecanismos biológicos a final de cuentas dependen de las interacciones físicas de las moléculas, la física se sitúa en el centro de las visiones más profundas de la biología.

4.- Creación de nuevos materiales: Materiales muy novedosos deberán ser descubiertos, entendidos y empleados ampliamente dentro de la ciencia y la tecnología.

5.- Exploración del Universo: Nuevos instrumentos -a través de los cuales se deberán estudiar con gran detalle cómo las estrellas, las galaxias, la materia oscura y el Big Bang- revolucionarán nuestro entendimiento del universo, de su origen y de su destino.

6.- Unificar las fuerzas de la naturaleza: Tanto la experimentación como la teoría deberán proveer un nuevo entendimiento de los constituyentes básicos de la materia.

Finalmente, el reporte presenta a quienes tienen la responsabilidad de tomar las decisiones, pero también a toda la sociedad, para la cual todos ellos y todos nosotros trabajamos, las siguientes recomendaciones:1- Invertir en la física.

2- Apoyar el aprendizaje de la física.

3- Apoyar a grupos pequeños de investigadores y a investigadores solitarios.

4- Generar grandes infraestructuras para la investigación sobre la base de la colaboración internacional.

5- Garantizar la seguridad nacional.

Page 50: Revista Conocimiento 47

L a ciencia en la medicina o la investigación científica se ha dividido arbitrariamente en

básica, que depende de un experimento llevado a cabo en el laboratorio, o la tipo clínica, que en medicina significa que es aplicable a los enfermos y se lleva a cabo, por lo menos en parte, con pacientes o voluntarios sanos. La separación es arbitraria, y se ha señalado que más que separarla en clínica y básica, la Ciencia o la investigación debe ser de buena calidad y con un componente de “buenos valores” o ético.

La colaboración entre estos mundos “básicos” y “clínicos” se nota en forma relevante en el campo de los trasplantes. En las siguientes líneas se describe una técnica simplificada, desarrollada en la UANL, que ha tenido trascendencia internacional, y que sirve para ejemplificar cómo la colaboración de investigadores en campos “opuestos” permite llevar a muchos enfermos la oportunidad de seguir siendo personas sanas y activas.

Doctor David Gómez AlmaguerJefe del Servicio de Hematología HU/UANL

48 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 17

www.conocimientoenlinea.com

6- Generar asociaciones entre el gobierno federal, las universidades y la industria.

7- Diversificar y coordinar las agencias científicas federales.

8- Mantener el proceso de evaluación mediante expertos que trabajan en el campo en cuestión.

9- Crear y compartir una gran base de información sobre la física.

Quiero agregar dos cosas para concluir. Primeramente, la noticia reciente de que en México faltan ingenieros y que empresas trasnacionales vienen a reclutar y llevarse a otros países los que poseen la mejor formación.

Si a esto agregamos que muchos profesionistas que salen al extranjero para recibir formación como científicos nunca regresan, y que los programas nacionales de formación de científicos son muy incipientes, al menos fuera de la Ciudad de México, es fácil concluir que también en México faltan científicos y tecnólogos.

Como último punto, si bien es cierto que en lo anterior operan las leyes de mercado, si no hay suficientes ingenieros y científicos es porque no hay una demanda de ellos y por eso no ha aumentado la oferta y/o viceversa.

En México no hemos sabido, ni en el sector académico-científico ni en el sector privado ni en el sector público, hacer algo para escapar del círculo vicioso de mercado en el cual la falta de la oferta explica la disminución de la demanda y/o viceversa para crear el círculo virtuoso de mercado en el cual el exceso de la oferta explica el crecimiento de la demanda y/o viceversa.

Hay dos razones por las que creo que los mexicanos estamos atrapados en este impasse. Una que ya insinué cuando escribí: ni en el sector académico-científico ni en el sector privado ni en el sector público: la tremenda falta de colaboración tanto

hacia el interior de las instituciones y organizaciones como hacia fuera de ellas. La segunda razón, que solamente se podrá eliminar después de haber eliminado la primera razón, es que los mexicanos no sabemos hacer un análisis de creación de valor, que es muy diferente de hacer un análisis de egresos e ingresos para llegar a la conclusión que vamos a ganar dinero, aunque no sepamos en realidad de dónde saldrá ese dinero que vamos a ganar.

RENTABILIDAD ECONÓMICAPara romper el círculo vicioso de mercado, cada científico mexicano debería saber explicar con claridad cómo le haría para crear valor de forma que la empresa u organización que lo contrate pueda convertir ese valor en una rentabilidad económica superior a la remuneración recibida.

Cada empresa u organización mexicana debería saber cómo podría crear valor y convertirlo en rentabilidad económica a través de la contratación de científicos y/o tecnólogos con el perfil adecuado, haciendo las inversiones y adecuaciones necesarias a sus instalaciones, a sus funciones y estrategias de negocios, y a su estructura de personal y de gastos. Y, finalmente, cada dependencia del sector público debería poner un gran esfuerzo en poder explicar con claridad a toda la sociedad, cuál es la forma en la que crea valor, necesariamente por encima del presupuesto público que ejerce.

En el caso de las dependencias estatales y federales encargadas de la promoción de la ciencia y la tecnología, la única forma que tienen de crear valor es apoyando a las instituciones del sector académico-científico para que sus profesores e investigadores sepan y practiquen cómo agregar más valor a lo que hacen tanto dentro como fuera de ellas y simultáneamente apoyando a las empresas del sector productivo para que contraten a científicos y tecnólogos que integren nuevos desarrollos tecnológicos dentro de sus procesos productivos y los hagan más competitivos a nivel global.

A esta triple alianza entre los sectores académico-científico, privado y público se le conoce como la “triple hélice” y es el fundamento de la sociedad del conocimiento.

Page 51: Revista Conocimiento 47

L a ciencia en la medicina o la investigación científica se ha dividido arbitrariamente en

básica, que depende de un experimento llevado a cabo en el laboratorio, o la tipo clínica, que en medicina significa que es aplicable a los enfermos y se lleva a cabo, por lo menos en parte, con pacientes o voluntarios sanos. La separación es arbitraria, y se ha señalado que más que separarla en clínica y básica, la Ciencia o la investigación debe ser de buena calidad y con un componente de “buenos valores” o ético.

La colaboración entre estos mundos “básicos” y “clínicos” se nota en forma relevante en el campo de los trasplantes. En las siguientes líneas se describe una técnica simplificada, desarrollada en la UANL, que ha tenido trascendencia internacional, y que sirve para ejemplificar cómo la colaboración de investigadores en campos “opuestos” permite llevar a muchos enfermos la oportunidad de seguir siendo personas sanas y activas.

Doctor David Gómez AlmaguerJefe del Servicio de Hematología HU/UANL

48 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 17

www.conocimientoenlinea.com

6- Generar asociaciones entre el gobierno federal, las universidades y la industria.

7- Diversificar y coordinar las agencias científicas federales.

8- Mantener el proceso de evaluación mediante expertos que trabajan en el campo en cuestión.

9- Crear y compartir una gran base de información sobre la física.

Quiero agregar dos cosas para concluir. Primeramente, la noticia reciente de que en México faltan ingenieros y que empresas trasnacionales vienen a reclutar y llevarse a otros países los que poseen la mejor formación.

Si a esto agregamos que muchos profesionistas que salen al extranjero para recibir formación como científicos nunca regresan, y que los programas nacionales de formación de científicos son muy incipientes, al menos fuera de la Ciudad de México, es fácil concluir que también en México faltan científicos y tecnólogos.

Como último punto, si bien es cierto que en lo anterior operan las leyes de mercado, si no hay suficientes ingenieros y científicos es porque no hay una demanda de ellos y por eso no ha aumentado la oferta y/o viceversa.

En México no hemos sabido, ni en el sector académico-científico ni en el sector privado ni en el sector público, hacer algo para escapar del círculo vicioso de mercado en el cual la falta de la oferta explica la disminución de la demanda y/o viceversa para crear el círculo virtuoso de mercado en el cual el exceso de la oferta explica el crecimiento de la demanda y/o viceversa.

Hay dos razones por las que creo que los mexicanos estamos atrapados en este impasse. Una que ya insinué cuando escribí: ni en el sector académico-científico ni en el sector privado ni en el sector público: la tremenda falta de colaboración tanto

hacia el interior de las instituciones y organizaciones como hacia fuera de ellas. La segunda razón, que solamente se podrá eliminar después de haber eliminado la primera razón, es que los mexicanos no sabemos hacer un análisis de creación de valor, que es muy diferente de hacer un análisis de egresos e ingresos para llegar a la conclusión que vamos a ganar dinero, aunque no sepamos en realidad de dónde saldrá ese dinero que vamos a ganar.

RENTABILIDAD ECONÓMICAPara romper el círculo vicioso de mercado, cada científico mexicano debería saber explicar con claridad cómo le haría para crear valor de forma que la empresa u organización que lo contrate pueda convertir ese valor en una rentabilidad económica superior a la remuneración recibida.

Cada empresa u organización mexicana debería saber cómo podría crear valor y convertirlo en rentabilidad económica a través de la contratación de científicos y/o tecnólogos con el perfil adecuado, haciendo las inversiones y adecuaciones necesarias a sus instalaciones, a sus funciones y estrategias de negocios, y a su estructura de personal y de gastos. Y, finalmente, cada dependencia del sector público debería poner un gran esfuerzo en poder explicar con claridad a toda la sociedad, cuál es la forma en la que crea valor, necesariamente por encima del presupuesto público que ejerce.

En el caso de las dependencias estatales y federales encargadas de la promoción de la ciencia y la tecnología, la única forma que tienen de crear valor es apoyando a las instituciones del sector académico-científico para que sus profesores e investigadores sepan y practiquen cómo agregar más valor a lo que hacen tanto dentro como fuera de ellas y simultáneamente apoyando a las empresas del sector productivo para que contraten a científicos y tecnólogos que integren nuevos desarrollos tecnológicos dentro de sus procesos productivos y los hagan más competitivos a nivel global.

A esta triple alianza entre los sectores académico-científico, privado y público se le conoce como la “triple hélice” y es el fundamento de la sociedad del conocimiento.

16 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 49

www.conocimientoenlinea.com

c) Diagnóstico molecular, que consiste en la caracterización molecular de ácidos nucleicos y proteínas para la identificación más exacta y rápida de patógenos y otros organismos.d) Transformación genética, proceso por el cual el material genético llevado por una célula individual es alterado por la incorporación de DNA exógeno dentro de su genoma. Este procedimiento introduce uno o más genes que confieren caracteres potencialmente útiles en plantas, animales y microorganismos.e) Cultivo in vitro de células, tejidos y organismos. Estas técnicas permiten la multiplicación extensiva de algunos genotipos superiores o de especies en peligro de extinción.

La Biotecnología tiene potencial para reducir el uso de insumos industriales en la agricultura; el riesgo de estrés biótico y abiótico; incrementar los rendimientos y mejorar la calidad de los productos agrícolas. Sin embargo, no representa una solución “mágica” para

alcanzar la seguridad alimentaria que el mundo necesita; pero, en conjunción con otras ciencias y disciplinas, como la autoecología, la sociología y la economía agrícola, puede ser una herramienta poderosa en contra de la pobreza y a favor de la productividad agrícola y el uso sostenible de los recursos naturales.

COMENTARIO FINALEl financiamiento de la ciencia básica es importante para la sociedad como un todo, pero generalmente no lo es para un inversionista en particular. Aquéllos que hacen descubrimientos fundamentales, generalmente no se llevan los beneficios económicos, ya que las leyes de la naturaleza no pueden ser patentadas. Además, es difícil predecir el valor y el plazo en que se lograrán productos derivados con valor comercial.

La inversión en Ciencia Básica es un “bien público” costoso de producir, como la seguridad o la salud pública, pero una vez construidos, quedan

disponibles para ser usados por todos, por lo que sólo pueden ser pagados con fondos públicos. Los gobiernos deberían apoyar la Ciencia Básica, sobre la base de los beneficios obtenidos en la cultura general de la población, el conocimiento producido, los productos y tecnologías derivadas y el capital humano desarrollado. Por otra parte, la mayoría de la investigación aplicada debería ser responsabilidad de la iniciativa privada. Cuando se prevé la obtención de beneficios económicos, la iniciativa privada seguramente invertirá.

En este caso, los gobiernos deberían estimular la colaboración entre empresarios y universidades. Algunas excepciones a esta recomendación serían las áreas en que un país tiene un desarrollo incipiente y no existe un sector privado vigoroso, como es el caso de la agricultura en ciertas regiones de México; o bien en temas de interés público, como podrían ser el ambiente, la educación o la salud pública.

Sin ella, no hay progreso ni ciencia aplicada. Ella, por sí sola, expone el empuje de lo más bello que tienen el hombre y la mujer: su necesidad de saber, de orientarse en todo y para todo. A ella compete el conocimiento más vasto: desde el origen del universo hasta la configuración del cerebro y del átomo. Su nombre es tan bello como su radical concepto: ciencia pura.

La ciencia pura, aquélla que en sus orígenes no tiene en cuenta su aplicación práctica, es la que ha movido mentes ilustres de filósofos, sociólogos, científicos de todas las ramas, que desde las diversas escuelas - desde Platón hasta el constructivismo-, han disertado sobre ella.

UTILITARISMO Y CIENCIA PURAHoy, cuando el mundo parece moverse sólo en función del utilitarismo, ésta, la ciencia pura, nos recuerda algo fundamental para nuestra esencia como sociedad: la democratización de las innovaciones pasa necesariamente por el libre ejercicio de la ciencia pura, que históricamente ha permitido avanzar no sólo con aplicaciones pragmáticas derivadas de ésta, sino sobre todo, en el análisis de las alternativas para tomar decisiones filosóficas conscientes que nos lleven al servicio de los valores sociales y ambientales de nuestras comunidades.

La importancia de la ciencia pura como fuente infinita de generación de conocimiento es apoyada incluso por los científicos más destacados del país. Una encuesta

realizada con absoluta seriedad, y dada a conocer en 2005 por la Academia Mexicana de la Ciencia, así lo ratifica.

Un cuestionario enviado vía correo electrónico a 10 mil 990 miembros adscritos al Sistema Nacional de Investigadores, y cuyas demandas respondieron cuatro mil 292 investigadores,

expone la postura de la comunidad científica sobre este concepto: Estado, universidades y sector privado deben apoyar por igual a la ciencia pura y a la aplicada. A pregunta sobre si en este momento en México debe favorecerse el desarrollo de la ciencia y la tecnología, apoyando la investigación aplicada sobre la básica, la comunidad científica nacional no dudó: el 81 por ciento de los investigadores opinó que deben fortalecerse ambas por igual; un 10 por ciento se pronunció por respaldar prioritariamente la investigación aplicada sobre la básica, y el resto se inclinó de manera fundamental por la ciencia pura.

Ellos, los científicos y los investigadores, saben que la rentabilidad de la investigación científica no debe ni puede estar reñida con la razón, la paciencia y la tenacidad que ocupa y

preocupa a la ciencia pura, porque la mayor ganancia de ésta no se traduce necesariamente en millones de dólares, euros o yenes, sino en la mejor y más grande divisa: el universo infinito del hombre.

Doctora Patricia Liliana Cerda PérezInvestigadora / UANL

Page 52: Revista Conocimiento 47

nucleicos de Sanger y Coulson. Este momento marcó el inició de la técnica de PCR, que ha revolucionado la Biología Molecular. Este resumen histórico de la Biología Molecular trata de ilustrar las relaciones entre investigación básica, métodos y productos tecnológicos, que a su vez estimulan nuevos descubrimientos y el desarrollo de nuevos productos y tecnologías. Esta interrelación no es lineal, ni tampoco antilineal, y la podemos definir como no-lineal.

AGROBIOTECNOLOGÍA Y AGRICULTURA SUSTENTABLELa población humana mundial rebasó recientemente los 6 mil millones y está creciendo a una tasa anual de 1.5 (México tiene una tasa de 2.5). A pesar de la introducción de nuevas tecnologías de producción agrícola, aún quedan en el

mundo más de 800 millones de personas mal nutridas. Se estima que para el año 2025 se deberá duplicar la producción mundial de alimentos, para satisfacer las demandas de una población más grande y con mayor poder de compra.

La Biotecnología moderna se define como “cualquier técnica que usa un organismo viviente o sustancias provenientes de estos organismos para hacer o modificar un producto, mejorar plantas o animales o desarrollar microorganismos para usos específicos”.

La Biotecnología es producto del desarrollo de varias ciencias y disciplinas, primordialmente de la Biología Molecular, Biología Celular, Ingeniería Genética y el cultivo de tejidos in vitro. Los avances biotecnológicos en Agricultura, Medicina y las Ciencias

del Ambiente está provocando en la sociedad moderna cambios profundos que tienen implicaciones económicas, éticas y sociales tan grandes, que se considera que representan una nueva “revolución”, con alcances aún mayores que los de la Revolución Industrial o la Revolución Verde.

La Agricultura es el cultivo de la tierra y la cría de animales domésticos para la producción de satisfactores de la sociedad humana.

La degradación y erosión de los suelos, la contaminación de agua y aire, la pérdida de recursos genéticos y el aumento en la desnutrición y la pobreza en el medio rural son algunos problemas asociados a los procesos de producción agrícola extensivos. Esta problemática señala la necesidad de convertir los procesos de producción agrícola en sistemas agrícolas sostenibles.

AGRICULTURA SUSTENTABLELa Agricultura sustentable, entendida como “la modalidad que posibilita la satisfacción de las necesidades de la generación humana actual sin menoscabar las posibilidades de las futuras generaciones en satisfacer las propias”, es uno de los mayores retos de la Ciencia y de la sociedad humana. Algunos componentes de la Biotecnolo-gía moderna que contribuyen para alcanzar una agricultura sustentable son:a) Genómica, que aporta valiosa información para la conservación, clasificación y aprovechamiento de la biodiversidad de plantas, animales y microorganismos.

b) Mejoramiento molecular, que permite identificar y evaluar carac-teres deseables en programas de mejoramiento de plantas y animales, a través de la selección asistida por marcadores moleculares.

En 1994 llegaron a los supermercados los tomates transgénicos de larga vida de anaquel (izquierda) y tomates normales (derecha)

En 1985, el cerdo fue primer animal doméstico transgénico

50 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 15

www.conocimientoenlinea.com

La razón no es otra cosa que el análisis de lo que se cree.Franz Schubert (1797-1828); compositor austríaco

Nos despertamos y apagamos el reloj alarma, mientras nuestra cafetera

se encarga de preparar el café a la hora programada: encendemos el televisor con el control remoto, para enterarnos de la temperatura, mientras nos damos a la monumental tarea de alistarnos para una larga jornada de trabajo.

Nos dirigimos en nuestros autos ultramodernos a la oficina o la escuela, y entre el cambio de luces del semáforo contestamos con la modorra mañanera una llamada en nuestro teléfono celular; y así se repiten los días, las semanas, los meses, los años, sin reparar que nuestra vida fluye en la comodidad de tantos y tantos inventos que hacen que nuestro diario devenir sea fácil y simple. Y es la ciencia, son los científicos los artífices de todo esto.

ESTEREOTIPO DEL CIENTÍFICOPero insistimos en confundir lo moderno con lo tecnológico, lo científico con lo extravagante. Tenemos estereotipos tan arraigados de lo que debe ser un científico, que

Catedrática del Departamento de Comunicación / ITESM

Ingeniera Claudia Ordaz

14 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 51

www.conocimientoenlinea.com

de la Biología Molecular. Este nuevo modelo experimental, el virus, permitió que Alfred Hershey y Martha Chase pudieran agregar evidencia concluyente a lo que previamente, en 1944, Oswald Avery había demostrado en bacterias, que los genes no eran proteínas sino ADN.

EL FENÓMENO HEREDITARIOAunque Delbrueck facilitó la colaboración entre físicos y biólogos, no consideró los aspectos químicos que después vendrían a llenar los huecos en el entendimiento del fenómeno hereditario. Linus Pauling utilizó sus conocimientos de química para estudiar la relación entre los enlaces débiles y la estructura de las macromoléculas (proteínas y ácidos nucleicos). El trabajo teórico y experimental de Pauling con la estabilidad de moléculas grandes, sentó las bases para entender la estructura y función de proteínas y ácidos nucleicos. Adicionalmente, el grupo de Pauling utilizó la técnica de cristalografía de ra-yos X, lo que le permitió, en combinación con el uso de modelos a escala, descubrir la estructura en forma de hélice alfa de las proteínas.

En este punto de la historia aparece por primera vez el término “Biología molecular”, introducido en 1938 por Warren Weaver, cuando escribió: “…y gradualmente está apareciendo una nueva rama de la ciencia –la Biología molecular- la cual está comenzando a descubrir muchos secretos relacionados con las unidades básicas de la célula viviente, en la que están siendo utilizadas técnicas sofisticadas para investigar detalles aún más pequeños de ciertos procesos de la vida”.

El período clásico de la Biología Mole-cular se inició en 1953, cuando James Watson y Francis Crick descubrieron la estructura de doble hélice del ADN. Este hecho marca la coincidencia, en lugar y tiempo, de conocimientos, técnicas y productos tecnológicos diversos: los datos de cristalografía de rayos X del ADN de Maurice Wilkins y Rosalind Franklin, el trabajo teórico de Crick con cristalografía y las técnicas de construcción de modelos a escala iniciadas por Pauling.

A partir del descubrimiento de la estructura del ADN, la Biología

molecular centró su interés en la relación entre la estructura de la doble hélice y los procesos de replicación y funcionamiento de los genes. A partir de este momento se considera al gen como una molécula “informativa”; es decir, la secuencia lineal de bases nitrogenadas en una cadena de DNA provee información codificada para dirigir el orden en que se agregan aminoácidos en una cadena polipeptídica de una proteína en formación. El tratar de descifrar la relación entre la secuencia de bases en el DNA y los aminoácidos en la proteína, desató una competencia entre grupos de investigadores, la cual fructificó cuando, en 1966, Marshall Nirenberg y Har Gobind Khorana dilucidaron el código genético. Por los siguientes 15 años,

pareció que el concepto de gen estaba bien firme, dada la relación lineal entre la estructura del gen y de su producto.

GENES TRASLAPADOSSin embargo, a mediados de la década de 1970, se descubrieron los genes traslapados; es decir, cadenas de aminoácidos que pueden ser sintetiza-das a partir de la misma porción de ácido nucleico, simplemente iniciando la “lectura” del gen a partir de diferentes puntos de la secuencia del ADN. En esa

misma década, se descubrió que los genes de especies superiores están divididos en porciones codificadoras (exones) y otras no codificadoras (intrones). Para hacerlo aún más complicado, en 1978 se descubrió que el reacomodo de los exones podría hacerse en formas alternativas, de tal manera que una misma secuencia de ADN puede dar origen a un sinnúmero de cadenas de aminoácidos. En conjunto, estos descubrimientos hicieron que los biólogos moleculares reconsideraran el concepto de gen.

Aunadas a todos estos avances en el conocimiento biológico producido por la investigación básica, se desarrollaron técnicas y tecnologías que en su momento permitieron el desarrollo de experimentos cruciales para someter a prueba hipótesis científicas. Estas técnicas permitieron la manipulación del material hereditario. Por ejemplo, la recombinación de DNA proveniente de especies diferentes se debió al descubrimiento realizado por Stewart Linn y Werner Arber, de las enzimas de restricción, a fines de la década de 1960, las cuales permiten cortar el ADN en sitios específicos, y de las ligasas que “pegan” los fragmentos de ADN. Con estas herramientas genéticas, en 1973 Herbert Boyer y Stanley Cohen desarrollaron el primer experimento de clonación de ADN recombinante, al insertar ADN dentro de un plásmido y usar este plásmido transgénico para transformar una bacteria. Ese mismo año se identificó el plásmido Ti de la bacteria Agrobacterium tumefasciens, el cual ha sido usado ampliamente para ingeniería genética en plantas. En 1977 se establecieron las técnicas para la secuenciación del ADN; es decir, la identificación del orden de bases nitrogenadas que contiene una porción de ADN. Las técnicas de secuenciación se desarrollaron una vez que la clonación de fragmentos de ADN había sido establecida rutinariamente.

Otra tecnología que ha revolucionado las ciencias biológicas y que surgió de esta mezcla de investigación básica, métodos de laboratorio y productos fue la Reacción en Cadena de la Polimerasa (PCR por sus siglas en inglés) la cual fue concebida por Kary Mullis en 1983, cuando trabajaba en un proyecto para diagnosticar enfermedades, usando la técnica de secuenciación de ácidos

pensamos que todos visten de bata blanca y usan lentes de fondo de botella; tienen aspecto desgarbado o, lo que es peor, tienen cara de Ciro Peraloca; son distraídos y desaliñados.

Nos aferramos a la idea de que el hemisferio cerebral nos condena a un tipo de persona, porque nos han hecho creer que el izquierdo es el del pensamiento convergente y el de las ciencias exactas, y el derecho es el del pensamiento divergente y el de las artes.

¿Acaso la ciencia y el arte están divorciados? ¿No se pueden cultivar ambos hemisferios? ¿Un artista no puede ser científico o viceversa?

Contrariamente a lo que parece, la ciencia no puede estar más unida y relacionada con el arte. Son las matemáticas el principio y la base de toda pieza musical; es la aritmética la que define la métrica en la poesía; el arte de la gastronomía es el resultado de la mezcla de sustancias que armonizan los sabores, nada más parecido a un laboratorio químico.

¿Entonces, la ciencia y el arte están peleados? Pues, aunque lo quisieran, no podrían, porque ambas disciplinas subyacen en principios que se encuentran en constante comunión. ¿Qué un artista no puede ser científico o viceversa?

Pues no sé si influya el que sean científicos, pero existen casos de personajes que primero fueron hombres de ciencia y luego se dedicaron al arte en sus tiempos de ocio, o le dedicaron por entero sus vidas. Albert Einstein -el nóbel físico- irrumpía en

la habitación de su amada tocando el violín; Ernesto Sábato, antes de ser escritor, fue físico, y Luis Buñuel, antes de ser cineasta, estudió para biólogo.

TODO NUESTRO MUNDO ES CIENCIA¿Qué seríamos nosotros sin la ciencia? Nada, mi estimado lector. Todo nuestro mundo es ciencia.

El mundo es materia y energía, y esa energía indestructible sólo se transforma. Nuestro universo se rige por leyes naturales que sólo se pueden explicar gracias a la ciencia Todo en el mundo son átomos, que forman moléculas, que forman sustancias, que forman materia y que ésta puede transformarse constantemente.

Cada elemento en el planeta tiene que ver con la química; cada forma de vida tiene que ver con la biología; cada ciclo del año tiene algo de matemática; cada cuerpo en el universo, en movimiento o estático. obedece a alguna ley de la física.

DISCIPLINAS HUMANASDebemos hacer que la juventud, los niños, los adolescentes y en todo caso cada habitante de este mundo se enamore de la ciencia; pero para ello falta reconciliarlos con la escuela, y con los malos maestros que hacen de estas materias un episodio triste y amargo.

Señalarles que las ciencias no son frías como parecen, sino que son de las disciplinas más humanas, porque tratan de explicarnos esa maravillosa simbiosis que guarda el ser

Page 53: Revista Conocimiento 47

nucleicos de Sanger y Coulson. Este momento marcó el inició de la técnica de PCR, que ha revolucionado la Biología Molecular. Este resumen histórico de la Biología Molecular trata de ilustrar las relaciones entre investigación básica, métodos y productos tecnológicos, que a su vez estimulan nuevos descubrimientos y el desarrollo de nuevos productos y tecnologías. Esta interrelación no es lineal, ni tampoco antilineal, y la podemos definir como no-lineal.

AGROBIOTECNOLOGÍA Y AGRICULTURA SUSTENTABLELa población humana mundial rebasó recientemente los 6 mil millones y está creciendo a una tasa anual de 1.5 (México tiene una tasa de 2.5). A pesar de la introducción de nuevas tecnologías de producción agrícola, aún quedan en el

mundo más de 800 millones de personas mal nutridas. Se estima que para el año 2025 se deberá duplicar la producción mundial de alimentos, para satisfacer las demandas de una población más grande y con mayor poder de compra.

La Biotecnología moderna se define como “cualquier técnica que usa un organismo viviente o sustancias provenientes de estos organismos para hacer o modificar un producto, mejorar plantas o animales o desarrollar microorganismos para usos específicos”.

La Biotecnología es producto del desarrollo de varias ciencias y disciplinas, primordialmente de la Biología Molecular, Biología Celular, Ingeniería Genética y el cultivo de tejidos in vitro. Los avances biotecnológicos en Agricultura, Medicina y las Ciencias

del Ambiente está provocando en la sociedad moderna cambios profundos que tienen implicaciones económicas, éticas y sociales tan grandes, que se considera que representan una nueva “revolución”, con alcances aún mayores que los de la Revolución Industrial o la Revolución Verde.

La Agricultura es el cultivo de la tierra y la cría de animales domésticos para la producción de satisfactores de la sociedad humana.

La degradación y erosión de los suelos, la contaminación de agua y aire, la pérdida de recursos genéticos y el aumento en la desnutrición y la pobreza en el medio rural son algunos problemas asociados a los procesos de producción agrícola extensivos. Esta problemática señala la necesidad de convertir los procesos de producción agrícola en sistemas agrícolas sostenibles.

AGRICULTURA SUSTENTABLELa Agricultura sustentable, entendida como “la modalidad que posibilita la satisfacción de las necesidades de la generación humana actual sin menoscabar las posibilidades de las futuras generaciones en satisfacer las propias”, es uno de los mayores retos de la Ciencia y de la sociedad humana. Algunos componentes de la Biotecnolo-gía moderna que contribuyen para alcanzar una agricultura sustentable son:a) Genómica, que aporta valiosa información para la conservación, clasificación y aprovechamiento de la biodiversidad de plantas, animales y microorganismos.

b) Mejoramiento molecular, que permite identificar y evaluar carac-teres deseables en programas de mejoramiento de plantas y animales, a través de la selección asistida por marcadores moleculares.

En 1994 llegaron a los supermercados los tomates transgénicos de larga vida de anaquel (izquierda) y tomates normales (derecha)

En 1985, el cerdo fue primer animal doméstico transgénico

50 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 15

www.conocimientoenlinea.com

La razón no es otra cosa que el análisis de lo que se cree.Franz Schubert (1797-1828); compositor austríaco

Nos despertamos y apagamos el reloj alarma, mientras nuestra cafetera

se encarga de preparar el café a la hora programada: encendemos el televisor con el control remoto, para enterarnos de la temperatura, mientras nos damos a la monumental tarea de alistarnos para una larga jornada de trabajo.

Nos dirigimos en nuestros autos ultramodernos a la oficina o la escuela, y entre el cambio de luces del semáforo contestamos con la modorra mañanera una llamada en nuestro teléfono celular; y así se repiten los días, las semanas, los meses, los años, sin reparar que nuestra vida fluye en la comodidad de tantos y tantos inventos que hacen que nuestro diario devenir sea fácil y simple. Y es la ciencia, son los científicos los artífices de todo esto.

ESTEREOTIPO DEL CIENTÍFICOPero insistimos en confundir lo moderno con lo tecnológico, lo científico con lo extravagante. Tenemos estereotipos tan arraigados de lo que debe ser un científico, que

Catedrática del Departamento de Comunicación / ITESM

Ingeniera Claudia Ordaz

14 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 51

www.conocimientoenlinea.com

de la Biología Molecular. Este nuevo modelo experimental, el virus, permitió que Alfred Hershey y Martha Chase pudieran agregar evidencia concluyente a lo que previamente, en 1944, Oswald Avery había demostrado en bacterias, que los genes no eran proteínas sino ADN.

EL FENÓMENO HEREDITARIOAunque Delbrueck facilitó la colaboración entre físicos y biólogos, no consideró los aspectos químicos que después vendrían a llenar los huecos en el entendimiento del fenómeno hereditario. Linus Pauling utilizó sus conocimientos de química para estudiar la relación entre los enlaces débiles y la estructura de las macromoléculas (proteínas y ácidos nucleicos). El trabajo teórico y experimental de Pauling con la estabilidad de moléculas grandes, sentó las bases para entender la estructura y función de proteínas y ácidos nucleicos. Adicionalmente, el grupo de Pauling utilizó la técnica de cristalografía de ra-yos X, lo que le permitió, en combinación con el uso de modelos a escala, descubrir la estructura en forma de hélice alfa de las proteínas.

En este punto de la historia aparece por primera vez el término “Biología molecular”, introducido en 1938 por Warren Weaver, cuando escribió: “…y gradualmente está apareciendo una nueva rama de la ciencia –la Biología molecular- la cual está comenzando a descubrir muchos secretos relacionados con las unidades básicas de la célula viviente, en la que están siendo utilizadas técnicas sofisticadas para investigar detalles aún más pequeños de ciertos procesos de la vida”.

El período clásico de la Biología Mole-cular se inició en 1953, cuando James Watson y Francis Crick descubrieron la estructura de doble hélice del ADN. Este hecho marca la coincidencia, en lugar y tiempo, de conocimientos, técnicas y productos tecnológicos diversos: los datos de cristalografía de rayos X del ADN de Maurice Wilkins y Rosalind Franklin, el trabajo teórico de Crick con cristalografía y las técnicas de construcción de modelos a escala iniciadas por Pauling.

A partir del descubrimiento de la estructura del ADN, la Biología

molecular centró su interés en la relación entre la estructura de la doble hélice y los procesos de replicación y funcionamiento de los genes. A partir de este momento se considera al gen como una molécula “informativa”; es decir, la secuencia lineal de bases nitrogenadas en una cadena de DNA provee información codificada para dirigir el orden en que se agregan aminoácidos en una cadena polipeptídica de una proteína en formación. El tratar de descifrar la relación entre la secuencia de bases en el DNA y los aminoácidos en la proteína, desató una competencia entre grupos de investigadores, la cual fructificó cuando, en 1966, Marshall Nirenberg y Har Gobind Khorana dilucidaron el código genético. Por los siguientes 15 años,

pareció que el concepto de gen estaba bien firme, dada la relación lineal entre la estructura del gen y de su producto.

GENES TRASLAPADOSSin embargo, a mediados de la década de 1970, se descubrieron los genes traslapados; es decir, cadenas de aminoácidos que pueden ser sintetiza-das a partir de la misma porción de ácido nucleico, simplemente iniciando la “lectura” del gen a partir de diferentes puntos de la secuencia del ADN. En esa

misma década, se descubrió que los genes de especies superiores están divididos en porciones codificadoras (exones) y otras no codificadoras (intrones). Para hacerlo aún más complicado, en 1978 se descubrió que el reacomodo de los exones podría hacerse en formas alternativas, de tal manera que una misma secuencia de ADN puede dar origen a un sinnúmero de cadenas de aminoácidos. En conjunto, estos descubrimientos hicieron que los biólogos moleculares reconsideraran el concepto de gen.

Aunadas a todos estos avances en el conocimiento biológico producido por la investigación básica, se desarrollaron técnicas y tecnologías que en su momento permitieron el desarrollo de experimentos cruciales para someter a prueba hipótesis científicas. Estas técnicas permitieron la manipulación del material hereditario. Por ejemplo, la recombinación de DNA proveniente de especies diferentes se debió al descubrimiento realizado por Stewart Linn y Werner Arber, de las enzimas de restricción, a fines de la década de 1960, las cuales permiten cortar el ADN en sitios específicos, y de las ligasas que “pegan” los fragmentos de ADN. Con estas herramientas genéticas, en 1973 Herbert Boyer y Stanley Cohen desarrollaron el primer experimento de clonación de ADN recombinante, al insertar ADN dentro de un plásmido y usar este plásmido transgénico para transformar una bacteria. Ese mismo año se identificó el plásmido Ti de la bacteria Agrobacterium tumefasciens, el cual ha sido usado ampliamente para ingeniería genética en plantas. En 1977 se establecieron las técnicas para la secuenciación del ADN; es decir, la identificación del orden de bases nitrogenadas que contiene una porción de ADN. Las técnicas de secuenciación se desarrollaron una vez que la clonación de fragmentos de ADN había sido establecida rutinariamente.

Otra tecnología que ha revolucionado las ciencias biológicas y que surgió de esta mezcla de investigación básica, métodos de laboratorio y productos fue la Reacción en Cadena de la Polimerasa (PCR por sus siglas en inglés) la cual fue concebida por Kary Mullis en 1983, cuando trabajaba en un proyecto para diagnosticar enfermedades, usando la técnica de secuenciación de ácidos

pensamos que todos visten de bata blanca y usan lentes de fondo de botella; tienen aspecto desgarbado o, lo que es peor, tienen cara de Ciro Peraloca; son distraídos y desaliñados.

Nos aferramos a la idea de que el hemisferio cerebral nos condena a un tipo de persona, porque nos han hecho creer que el izquierdo es el del pensamiento convergente y el de las ciencias exactas, y el derecho es el del pensamiento divergente y el de las artes.

¿Acaso la ciencia y el arte están divorciados? ¿No se pueden cultivar ambos hemisferios? ¿Un artista no puede ser científico o viceversa?

Contrariamente a lo que parece, la ciencia no puede estar más unida y relacionada con el arte. Son las matemáticas el principio y la base de toda pieza musical; es la aritmética la que define la métrica en la poesía; el arte de la gastronomía es el resultado de la mezcla de sustancias que armonizan los sabores, nada más parecido a un laboratorio químico.

¿Entonces, la ciencia y el arte están peleados? Pues, aunque lo quisieran, no podrían, porque ambas disciplinas subyacen en principios que se encuentran en constante comunión. ¿Qué un artista no puede ser científico o viceversa?

Pues no sé si influya el que sean científicos, pero existen casos de personajes que primero fueron hombres de ciencia y luego se dedicaron al arte en sus tiempos de ocio, o le dedicaron por entero sus vidas. Albert Einstein -el nóbel físico- irrumpía en

la habitación de su amada tocando el violín; Ernesto Sábato, antes de ser escritor, fue físico, y Luis Buñuel, antes de ser cineasta, estudió para biólogo.

TODO NUESTRO MUNDO ES CIENCIA¿Qué seríamos nosotros sin la ciencia? Nada, mi estimado lector. Todo nuestro mundo es ciencia.

El mundo es materia y energía, y esa energía indestructible sólo se transforma. Nuestro universo se rige por leyes naturales que sólo se pueden explicar gracias a la ciencia Todo en el mundo son átomos, que forman moléculas, que forman sustancias, que forman materia y que ésta puede transformarse constantemente.

Cada elemento en el planeta tiene que ver con la química; cada forma de vida tiene que ver con la biología; cada ciclo del año tiene algo de matemática; cada cuerpo en el universo, en movimiento o estático. obedece a alguna ley de la física.

DISCIPLINAS HUMANASDebemos hacer que la juventud, los niños, los adolescentes y en todo caso cada habitante de este mundo se enamore de la ciencia; pero para ello falta reconciliarlos con la escuela, y con los malos maestros que hacen de estas materias un episodio triste y amargo.

Señalarles que las ciencias no son frías como parecen, sino que son de las disciplinas más humanas, porque tratan de explicarnos esa maravillosa simbiosis que guarda el ser

Page 54: Revista Conocimiento 47

52 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 13

www.conocimientoenlinea.com

establecimiento del cálculo matemático y la mecánica newtoniana; es decir, la Revolución Industrial no se basó en la ciencia básica de su propio tiempo.

Una revolución de alcances aún ma-yores que la industrial, está ocurriendo actualmente en nuestra sociedad. Se inició en la década de 1930 y se le denomina “Revolución Biológica”. Entre sus principales desarrollos están la ingeniería genética y la biotecnología moderna. A diferencia de la Revolución Industrial, el cimiento de esta nueva etapa de cambio acelerado es el conocimiento científico generado por la investigación básica que se desarrolla en ciencias como la química, física y biología, y por avances tecnológicos en la informática, cibernética y electrónica.

De esta forma, la conexión entre Ciencia y Tecnología no es ni lineal, ni anti-lineal; es, más que todo no-lineal. En otras palabras, la investigación moderna exitosa ha demostrado que es resultado de una interacción entre conocimientos básicos, inicialmente no relacionados, tecnología y productos, los cuales forman parte de un tejido fuertemente anudado.

En este ensayo revisaremos la historia de la Biología Molecular, desde la perspectiva de la investigación básica y la interdisciplinariedad que le dio origen, así como de las aplicaciones que surgieron de ella, como la Ingeniería Genética y la biotecnología moderna, con ejemplos de sus aplicaciones en la Agricultura.

HISTORIA DE LA BIOLOGÍA MOLECULARA pesar de su gran importancia actual, el origen de la Biología molecular es recien-te, ya que se remonta a la década de 1930. La fundación de la Biología Molecular es un ejemplo de interdisciplinariedad, ya que en ella trabajaron genetistas, físicos y químicos, alrededor de un problema o interés común: la estructura y función del gen. Aunque a principios del siglo XX se redescubrieron las Leyes de Mendel, no se conocían los mecanismos de duplicación, mutación y expresión de los genes. En 1910, un grupo liderado por Thomas H. Morgan fue el primero en demostrar que los cromosomas eran las unidades que llevan los genes. En 1927, un discípulo de Morgan, Hermann

J. Muller, utilizó por primera vez los rayos X para causar mutaciones en la mosca de la fruta y utilizó esta técnica para investigar el tamaño y la estructura del gen. Para 1936, Muller reconoció que como genetista, estaba limitado para poder explicar las propiedades y funciones fundamentales de los genes, y en un famoso escrito de 1936 concluyó: “el genetista no tiene posibilidad de analizar más allá las propiedades del gen. Aquí el físico, así como el químico, deben intervenir. ¿Quién es voluntario para hacerlo?”.

En la siguiente década, varios físicos de primer nivel pusieron su atención en el

problema biológico de la herencia. Erwin Schroedinger propuso una explicación meramente Física a la estructura del gen: “es un cristal aperiódico”. Max Delbrueck llegó a la biología motivado por una conferencia de su maestro Niels Bohr, en la que este último propuso, a diferencia de Schroedinger, la complementariedad de la Física y la Biología. Delbrueck decidió que la mosca era demasiado compleja, y decidió utilizar un virus que ataca bacterias (fago). Delbrueck y otro físico convertido en biólogo, Salvador Luria, fundaron el “Grupo Fago” a principios de la década de 1940, lo cual marcó un punto muy importante en la fundación

James Watson y Francis Crick descubrieron la estructura del ADN en 1953

En cierta ocasión, el gran Víctor Hugo nos habló del poder que tiene una idea, sobre todo aquélla a la que le ha llegado su tiempo.

Pero, ¿qué mejor que hablar de aquélla que no descanse más en la mente de su creador, sino que sea compartida y aprovechada para el beneficio de la humanidad?

De esto está compuesto el progreso humano: de una consecución de ideas y de nuestra capacidad de asombro e inquisitiva mental que ha derivado en el desarrollo de la mercancía más cara y preciada en la actualidad: el conocimiento.

Ésta es nuestra percepción y aprendizaje en nuestro encuentro con la misma naturaleza.

Tal vez se puede definir como un binomio inseparable entre la investigación básica y la investigación aplicada; es decir, la suma de la ciencia y la tecnología.

Hablar de conocimiento es hablar de un sistema de valor, en donde se genera

Maestro Rodrigo Soto Mercadotecnia Social

riqueza económica y social, soberanía, calidad de vida, entre otros factores; pero, sobre todo se marcan muchas de las ventajas competitivas de un país sobre otro.

INVERSIONES Y GENERACIÓN DE RIQUEZAA pesar de que el mundo está plano, como lo comenta Thomas Friedman, pues la globalización y competitividad han permeado el conocimiento en las sociedades; muchos países se han avocado a la estrategia de contrastar con mayor fuerza su característica única e irrepetible para atraer inversiones y generar riqueza hacia dentro y hacia fuera de su territorio.

Tal es el caso de Alemania, país que aprovecha la percepción que se le tiene, como aquél de poetas y grandes pensadores, aquél de las tres copas del mundo, de científicos como Einstein, de músicos como Beethoven, filósofos como Kant, mentes enciclopédicas como Leibniz, entre otros grandes, para posicionarse y colocarse la etiqueta de “Tierra de las Ideas”, por no decir del conocimiento.

Este concepto pareciera pretencioso, pero si analizamos un poco la historia y el crecimiento científico y económico de este país, nos daremos cuenta de lo interesante que resulta su estrategia. Para ello me basaré en el reporte “Invest in Germany – Land of Ideas”.

SISTEMA EDUCATIVO DUALPrimero, es necesario mencionar que ellos utilizan un “sistema educativo dual”, en donde las instituciones guber-namentales, privadas y de educación se encuentran alineadas en cuanto a las necesidades de la economía. Es decir, las universidades crean perfiles de estudiantes que las mismas empresas van a requerir en su fuerza laboral, en áreas como mecatrónica, tecnologías de información, electrónica, biotecnología, por mencionar algunas.

Claro que este método educativo no es nuevo.

Los alemanes afirman que en 1810 Wilhelm von Humboldt estableció la Universidad de Berlín, primera institución educativa que tuvo como precepto combinar la investigación

La ciencia está formada por un cuerpo de conocimientos, ordenados y sistematizados en forma de hipótesis, modelos y leyes científicas,

y por la investigación que genera los nuevos conocimientos que se agregan, o bien que sustituyen, a otros previamente aceptados.

La investigación científica se subdivide en básica y aplicada. Generalmente, la investigación básica o “pura” se asocia a la curiosidad y se conceptualiza como la búsqueda del conocimiento por el simple placer de entender mejor el universo. Esta investigación se considera íntimamente ligada al proceso de descubrimiento. En cambio, la investigación aplicada usa información disponible para solucionar un problema, o bien para desarrollar una aplicación práctica o mejorar un método ya existente.

La discusión sobre la conveniencia de utilizar recursos públicos pa-ra apoyar la investigación básica se ha venido dando por muchos años, particularmente en países en vías

de desarrollo. Esta discusión no es superficial, sino que enfrenta dos concepciones filosóficas; es decir, dos formas de ver cómo se genera la tecnolo-gía. La primera utiliza un “modelo li-neal”, donde la investigación básica lleva a la investigación aplicada, la cual a su vez se convierte en desarrollo industrial y, entonces, en nuevos productos.

El otro modelo es anti-lineal; es decir, se piensa que el avance tecnológico no proviene del conocimiento básico.

REVOLUCIÓN INDUSTRIALLos grandes cambios tecnológicos que ocurrieron durante el siglo XVII, tales como la invención del motor de vapor, las máquinas textiles y los desarrollos de nuevas técnicas metalúrgicas, desencadenaron cambios profundos en la organización social, política y econó-mica de la sociedad occidental. A estos cambios se les denominó “Revolución Industrial”, basada en principios de ingeniería mecánica y en conocimiento científico que estuvieron disponibles mucho antes de la revolución científica que estaba ocurriendo en ese mismo siglo y que trajo como resultado el

Doctor Gilberto Eduardo Salinas GarcíaProfesor investigador del Laboratorio de GenéticaFacultad de Agronomía / UANL

12 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 53

www.conocimientoenlinea.com

con la enseñanza, situación a la que actualmente se apegan las universidades, al asociarse con centros de investigación en ciencia y desarrollo tecnológico, así como con parques de innovación y tecnología.

Por otro lado, de acuerdo a su presentación de país (Invest in Germany), en Alemania, 167 de sus 366 universidades (el país con mayor número en la Unión Europea), están dedicadas a las ciencias, y en ellas la enseñanza hace mucho énfasis en la relevancia práctica. Pero también entienden la importancia de la ciencia básica pura, pues cuentan con alrededor de dos mil millones de euros dedicados a apoyar la investigación en diversas universidades.

CREACIÓN DEL PRIMER KINDERGARTENA su vez, no debemos olvidar que fue Friedrich Frobel quien, en 1840, instituyó el primer “kindergarten”, con el objetivo de que los niños se interesaran en el conocimiento jugando, con el afán de que no perdieran esa capacidad de cuestionarse, de preguntarse el porqué de las cosas. De esta forma entiendo la importancia de la ciencia en la educación básica, la cual va creando la semilla de los futuros ingenieros que todos los países necesitan para sumar a su PIB.

Esta variable es medular, pues gran parte de la escasez de alumnos que estudien ciencias y se gradúen profesionalmente en un grado científico o de ingeniería, se debe a formatos muy estrictos para explicar la ciencia, falta de motivación hacia el estudiante, entre otros factores; en suma, se necesitan innovadoras formas para presentar las ciencias y darles mercado entre los niños y jóvenes.

Los alemanes saben esto y por ello, a pesar de su frialdad, muestran creatividad para enseñar la ciencia y poner sonrisas en sus alumnos al aprenderla. Además, dedican fuertes sumas de dinero a la educación de su población en general, pues este rubro ha crecido 38 por ciento en los últimos siete años.

CENTROS DE INNOVACIÓN E INCUBACIÓNSiguiendo el reporte (Invest in Germany), se comenta que existen 397 centros de innovación e incubación dedicados a atender las necesidades de 12 mil compañías ya establecidas o las conocidas “start ups”, lo que da como resultado que, de acuerdo a datos del reporte, en promedio cada 23 minutos se está registrando una patente alemana en la Oficina de Patentes Europea.

Lo anterior proviene de una gran cultura histórica de investigación científica, sobre todo en el área básica, que después aplica los conocimientos adquiridos para su comercialización.

Ellos están conscientes de la importancia de la búsqueda del conocimiento, por el simple placer de conocer, por el afán de responder preguntas y comprender el mundo que nos rodea.

Aunque muchas veces estas investigaciones no tienen aplicación comercial inmediata, las teorías obtenidas han revolucionado campos como el de la física, con la Relatividad

Page 55: Revista Conocimiento 47

52 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 13

www.conocimientoenlinea.com

establecimiento del cálculo matemático y la mecánica newtoniana; es decir, la Revolución Industrial no se basó en la ciencia básica de su propio tiempo.

Una revolución de alcances aún ma-yores que la industrial, está ocurriendo actualmente en nuestra sociedad. Se inició en la década de 1930 y se le denomina “Revolución Biológica”. Entre sus principales desarrollos están la ingeniería genética y la biotecnología moderna. A diferencia de la Revolución Industrial, el cimiento de esta nueva etapa de cambio acelerado es el conocimiento científico generado por la investigación básica que se desarrolla en ciencias como la química, física y biología, y por avances tecnológicos en la informática, cibernética y electrónica.

De esta forma, la conexión entre Ciencia y Tecnología no es ni lineal, ni anti-lineal; es, más que todo no-lineal. En otras palabras, la investigación moderna exitosa ha demostrado que es resultado de una interacción entre conocimientos básicos, inicialmente no relacionados, tecnología y productos, los cuales forman parte de un tejido fuertemente anudado.

En este ensayo revisaremos la historia de la Biología Molecular, desde la perspectiva de la investigación básica y la interdisciplinariedad que le dio origen, así como de las aplicaciones que surgieron de ella, como la Ingeniería Genética y la biotecnología moderna, con ejemplos de sus aplicaciones en la Agricultura.

HISTORIA DE LA BIOLOGÍA MOLECULARA pesar de su gran importancia actual, el origen de la Biología molecular es recien-te, ya que se remonta a la década de 1930. La fundación de la Biología Molecular es un ejemplo de interdisciplinariedad, ya que en ella trabajaron genetistas, físicos y químicos, alrededor de un problema o interés común: la estructura y función del gen. Aunque a principios del siglo XX se redescubrieron las Leyes de Mendel, no se conocían los mecanismos de duplicación, mutación y expresión de los genes. En 1910, un grupo liderado por Thomas H. Morgan fue el primero en demostrar que los cromosomas eran las unidades que llevan los genes. En 1927, un discípulo de Morgan, Hermann

J. Muller, utilizó por primera vez los rayos X para causar mutaciones en la mosca de la fruta y utilizó esta técnica para investigar el tamaño y la estructura del gen. Para 1936, Muller reconoció que como genetista, estaba limitado para poder explicar las propiedades y funciones fundamentales de los genes, y en un famoso escrito de 1936 concluyó: “el genetista no tiene posibilidad de analizar más allá las propiedades del gen. Aquí el físico, así como el químico, deben intervenir. ¿Quién es voluntario para hacerlo?”.

En la siguiente década, varios físicos de primer nivel pusieron su atención en el

problema biológico de la herencia. Erwin Schroedinger propuso una explicación meramente Física a la estructura del gen: “es un cristal aperiódico”. Max Delbrueck llegó a la biología motivado por una conferencia de su maestro Niels Bohr, en la que este último propuso, a diferencia de Schroedinger, la complementariedad de la Física y la Biología. Delbrueck decidió que la mosca era demasiado compleja, y decidió utilizar un virus que ataca bacterias (fago). Delbrueck y otro físico convertido en biólogo, Salvador Luria, fundaron el “Grupo Fago” a principios de la década de 1940, lo cual marcó un punto muy importante en la fundación

James Watson y Francis Crick descubrieron la estructura del ADN en 1953

En cierta ocasión, el gran Víctor Hugo nos habló del poder que tiene una idea, sobre todo aquélla a la que le ha llegado su tiempo.

Pero, ¿qué mejor que hablar de aquélla que no descanse más en la mente de su creador, sino que sea compartida y aprovechada para el beneficio de la humanidad?

De esto está compuesto el progreso humano: de una consecución de ideas y de nuestra capacidad de asombro e inquisitiva mental que ha derivado en el desarrollo de la mercancía más cara y preciada en la actualidad: el conocimiento.

Ésta es nuestra percepción y aprendizaje en nuestro encuentro con la misma naturaleza.

Tal vez se puede definir como un binomio inseparable entre la investigación básica y la investigación aplicada; es decir, la suma de la ciencia y la tecnología.

Hablar de conocimiento es hablar de un sistema de valor, en donde se genera

Maestro Rodrigo Soto Mercadotecnia Social

riqueza económica y social, soberanía, calidad de vida, entre otros factores; pero, sobre todo se marcan muchas de las ventajas competitivas de un país sobre otro.

INVERSIONES Y GENERACIÓN DE RIQUEZAA pesar de que el mundo está plano, como lo comenta Thomas Friedman, pues la globalización y competitividad han permeado el conocimiento en las sociedades; muchos países se han avocado a la estrategia de contrastar con mayor fuerza su característica única e irrepetible para atraer inversiones y generar riqueza hacia dentro y hacia fuera de su territorio.

Tal es el caso de Alemania, país que aprovecha la percepción que se le tiene, como aquél de poetas y grandes pensadores, aquél de las tres copas del mundo, de científicos como Einstein, de músicos como Beethoven, filósofos como Kant, mentes enciclopédicas como Leibniz, entre otros grandes, para posicionarse y colocarse la etiqueta de “Tierra de las Ideas”, por no decir del conocimiento.

Este concepto pareciera pretencioso, pero si analizamos un poco la historia y el crecimiento científico y económico de este país, nos daremos cuenta de lo interesante que resulta su estrategia. Para ello me basaré en el reporte “Invest in Germany – Land of Ideas”.

SISTEMA EDUCATIVO DUALPrimero, es necesario mencionar que ellos utilizan un “sistema educativo dual”, en donde las instituciones guber-namentales, privadas y de educación se encuentran alineadas en cuanto a las necesidades de la economía. Es decir, las universidades crean perfiles de estudiantes que las mismas empresas van a requerir en su fuerza laboral, en áreas como mecatrónica, tecnologías de información, electrónica, biotecnología, por mencionar algunas.

Claro que este método educativo no es nuevo.

Los alemanes afirman que en 1810 Wilhelm von Humboldt estableció la Universidad de Berlín, primera institución educativa que tuvo como precepto combinar la investigación

La ciencia está formada por un cuerpo de conocimientos, ordenados y sistematizados en forma de hipótesis, modelos y leyes científicas,

y por la investigación que genera los nuevos conocimientos que se agregan, o bien que sustituyen, a otros previamente aceptados.

La investigación científica se subdivide en básica y aplicada. Generalmente, la investigación básica o “pura” se asocia a la curiosidad y se conceptualiza como la búsqueda del conocimiento por el simple placer de entender mejor el universo. Esta investigación se considera íntimamente ligada al proceso de descubrimiento. En cambio, la investigación aplicada usa información disponible para solucionar un problema, o bien para desarrollar una aplicación práctica o mejorar un método ya existente.

La discusión sobre la conveniencia de utilizar recursos públicos pa-ra apoyar la investigación básica se ha venido dando por muchos años, particularmente en países en vías

de desarrollo. Esta discusión no es superficial, sino que enfrenta dos concepciones filosóficas; es decir, dos formas de ver cómo se genera la tecnolo-gía. La primera utiliza un “modelo li-neal”, donde la investigación básica lleva a la investigación aplicada, la cual a su vez se convierte en desarrollo industrial y, entonces, en nuevos productos.

El otro modelo es anti-lineal; es decir, se piensa que el avance tecnológico no proviene del conocimiento básico.

REVOLUCIÓN INDUSTRIALLos grandes cambios tecnológicos que ocurrieron durante el siglo XVII, tales como la invención del motor de vapor, las máquinas textiles y los desarrollos de nuevas técnicas metalúrgicas, desencadenaron cambios profundos en la organización social, política y econó-mica de la sociedad occidental. A estos cambios se les denominó “Revolución Industrial”, basada en principios de ingeniería mecánica y en conocimiento científico que estuvieron disponibles mucho antes de la revolución científica que estaba ocurriendo en ese mismo siglo y que trajo como resultado el

Doctor Gilberto Eduardo Salinas GarcíaProfesor investigador del Laboratorio de GenéticaFacultad de Agronomía / UANL

12 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 53

www.conocimientoenlinea.com

con la enseñanza, situación a la que actualmente se apegan las universidades, al asociarse con centros de investigación en ciencia y desarrollo tecnológico, así como con parques de innovación y tecnología.

Por otro lado, de acuerdo a su presentación de país (Invest in Germany), en Alemania, 167 de sus 366 universidades (el país con mayor número en la Unión Europea), están dedicadas a las ciencias, y en ellas la enseñanza hace mucho énfasis en la relevancia práctica. Pero también entienden la importancia de la ciencia básica pura, pues cuentan con alrededor de dos mil millones de euros dedicados a apoyar la investigación en diversas universidades.

CREACIÓN DEL PRIMER KINDERGARTENA su vez, no debemos olvidar que fue Friedrich Frobel quien, en 1840, instituyó el primer “kindergarten”, con el objetivo de que los niños se interesaran en el conocimiento jugando, con el afán de que no perdieran esa capacidad de cuestionarse, de preguntarse el porqué de las cosas. De esta forma entiendo la importancia de la ciencia en la educación básica, la cual va creando la semilla de los futuros ingenieros que todos los países necesitan para sumar a su PIB.

Esta variable es medular, pues gran parte de la escasez de alumnos que estudien ciencias y se gradúen profesionalmente en un grado científico o de ingeniería, se debe a formatos muy estrictos para explicar la ciencia, falta de motivación hacia el estudiante, entre otros factores; en suma, se necesitan innovadoras formas para presentar las ciencias y darles mercado entre los niños y jóvenes.

Los alemanes saben esto y por ello, a pesar de su frialdad, muestran creatividad para enseñar la ciencia y poner sonrisas en sus alumnos al aprenderla. Además, dedican fuertes sumas de dinero a la educación de su población en general, pues este rubro ha crecido 38 por ciento en los últimos siete años.

CENTROS DE INNOVACIÓN E INCUBACIÓNSiguiendo el reporte (Invest in Germany), se comenta que existen 397 centros de innovación e incubación dedicados a atender las necesidades de 12 mil compañías ya establecidas o las conocidas “start ups”, lo que da como resultado que, de acuerdo a datos del reporte, en promedio cada 23 minutos se está registrando una patente alemana en la Oficina de Patentes Europea.

Lo anterior proviene de una gran cultura histórica de investigación científica, sobre todo en el área básica, que después aplica los conocimientos adquiridos para su comercialización.

Ellos están conscientes de la importancia de la búsqueda del conocimiento, por el simple placer de conocer, por el afán de responder preguntas y comprender el mundo que nos rodea.

Aunque muchas veces estas investigaciones no tienen aplicación comercial inmediata, las teorías obtenidas han revolucionado campos como el de la física, con la Relatividad

Page 56: Revista Conocimiento 47

54 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 11

www.conocimientoenlinea.com

Teoría General de la Relatividad. Esto sucedió cuando ciertas observaciones de la variación del punto del perihelio de Mercurio no podían ser explicadas adecuadamente por la gravitación. La teoría General de la Relatividad explica maravillosamente ésta y muchas otras observaciones posteriores.

Además, las ecuaciones de Newton se derivan de la simplificación de la Teoría de la Relatividad cuando las aplicamos a bajas velocidades (comparadas con las de la luz). La razón por la que no se enseña la relatividad en las escuelas es que la gravedad es suficiente para explicar y predecir adecuadamente (hasta los límites de nuestras habilidades de medición) los fenómenos que normalmente estudiamos. No es necesario complicarnos la vida innecesariamente. Incidentalmente, si trabajamos con las ecuaciones de la gravedad, podemos simplificarlas y derivar directamente las Tres Leyes de Kepler del Movimiento Planetario que se utilizaban antes de Newton para predecir la posición de los planetas en el sistema solar. ¿No es maravilloso?

EL MÉTODO CIENTÍFICOAsí, llegamos a la conclusión de que el método científico, visto con nuevos ojos, es en realidad la mejor manera que tenemos de conocer el mundo a nuestro alrededor… de hacer Ciencia. Hay que resaltar que la ciencia es por definición “Ciencia Básica” ya que el fin último es

el conocer algo. La “ciencia aplicada” no existe como tal, aunque la tecnología es el resultado de la aplicación de la ciencia. Esto puede parecer simple semántica, pero no lo es en el fondo. De ahí surge la imperante necesidad de conocer la ciencia para poder aplicarla. Es triste ver cómo el sistema educativo actual, en un afán de graduar ciudadanos con capacidades técnicas, omite el enseñar la ciencia básica y se salta inmediatamente a la resolución de problemas particulares, que generalmente son resueltos entrenando a los alumnos a seguir una serie de secuencias y pasos predeterminados. Indicativo de esto es la eterna pregunta del estudiante: “¿qué formula utilizo para resolver este problema?”. Éste es un síntoma claro de la falta de comprensión de fondo del problema. Es como enseñar a los alumnos a construir una casa sin antes construir cimientos. Puede que la casa se mantenga firme por un tiempo, pero eventualmente se desmorona por falta de apoyo.

No solamente los estudiantes de universidad deben saber de ciencia, sino que el público en general también debe estar versado en los principios básicos de la Ciencia. Esto indudablemente los hace mejores ciudadanos, capaces de tomar decisiones basadas en la consideración objetiva de las evidencias disponibles.

Estos ciudadanos estarían mejor preparados para valorar hechos a su alrededor y las declaraciones de sus semejantes. Serían votantes informados que elegirían gobernantes calificados para representarlos adecuadamente. En un mundo cambiante donde el calentamiento global, la pobreza y las enfermedades son fenómenos que impactan directamente a nuestra civilización, es imprescindible estar informado y ser capaz de valorar esa información para tomar decisiones acertadas. La creación de conocimiento es de vital importancia para el progreso del país. De ahí la necesidad de apoyar a los científicos. La aplicación de ese conocimiento es lo que lleva a los avances tecnológicos y eventualmente la prosperidad económica. Un país que no crea conocimiento se atiene a los altos costos y dependencias involucrados en la importación de tecnología y conocimientos del extranjero.

Un ejemplo clásico de este caso es la teoría de la Gravitación. Cuando Isaac Newton la postuló inicialmente hace más de 400 años, ésta lograba explicar los movimientos de los objetos celestes a la perfección. No fue sino hasta principios del siglo pasado cuando Albert Einstein complementó el Modelo de la Gravitación de Newton con la

Johannes Kepler (Weil der Stadt, Alemania, 27 de diciembre de 1571 - Ratisbona, Alemania, 15 de noviembre de 1630), figura clave en la Revolución Científica, astrónomo y matemático alemán; fundamentalmente conocido por sus leyes sobre el movimiento de los planetas. Fue colaborador de Tycho Brahe.

Mapa del mundo, de Tabulae Rudolphine

de Albert Einstein; el Electromagnetismo, de Maxwell; el Principio de Incertidumbre, de Heisenberg, entre muchos más.

76 PREMIOS NOBEL ALEMANESGracias a ese cuestionamiento natural, los científicos alemanes ostentan alrededor de 76 premios Nobel, 65 de ellos en áreas relacionadas con las ciencias naturales y la medicina.

Tan sólo el Max Planck Gesellschaft (MPG) ha logrado igualar a universidades americanas en la producción de premios Nobel; por ello, los científicos alemanes han tenido la satisfacción de ser los más citados (en ciertos meses) en revistas de ciencia prestigiadas, en áreas como física, química y materiales.

Como comenté anteriormente, Alemania ha comprendido el lugar de los actores que impulsan el desarrollo científico; motivo por el cual las universidades, los institutos de investigación y las compañías forman “clústeres” para compartir su conocimiento y pericia en alguna materia, a la vez que inyectan activos a la economía de los intangibles.

Éstos (intangibles), de acuerdo a “The World in 2007”, de la revista The Economist, aportan más de la mitad de la capitalización del mercado de las compañías que cotizan en la bolsa de Estados Unidos.

Es decir, las compañías buscan el talento en sus contrataciones,

ejemplificado en individuos capacitados fuertemente en áreas del conocimiento, manejo de patentes y el conocido “know–how”. De ahí que la propiedad intelectual sea celosamente protegida en la Tierra de las Ideas.

En el reporte (Invest in Germany) se nos muestra otro

dato muy interesante de la composición de infraestructura

científica en este país: estamos hablando de 257 institutos que

emplean a 70 mil personas que hacen investigación en diferentes y diversas áreas de la ciencia y la tecnología, y que posteriormente patentan sus trabajos.

En síntesis, la estrategia alemana tiene un engrane central llamado:

“coopetition”; es decir, la fusión de la competencia con la cooperación, pues se ha comprendido que la vinculación entre los

actores de la ciencia y tecnología deben unir esfuerzos en el sentido de la creación de valor a

través de la inversión en activos que no podemos ver, ni tocar: los intangibles.

TALENTO Y CAPITAL INTELECTUALTalento y capital intelectual es lo que mueve las divisas de los países; entre otros aspectos, esto es lo que está haciendo que perdamos competitividad ante otros países, como es el caso de la India y China.

Este último es el que nos ha superado como principal socio comercial de Estados Unidos.

En nuestro caso particular, el dinero colocado en educación y sobre todo en educación para la ciencia, así como en investigación básica, no debe ser visto como un gasto, sino como una inversión a largo plazo, pues esta suma de activos intangibles es equivalente al desarrollo regional.

Para terminar, voy a mencionar lo que dice Wikipedia: “la ciencia básica es el corazón de todos los descubrimientos, y el progreso está basado en experimentos controlados”.

Algo de todo esto debemos extrapolar a nuestro modelo económico y de investigación científica y tecnológica.

Bibliografíahttp://www.land-of-ideas.org

10 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 55

www.conocimientoenlinea.com

considerada cuidadosa y objetivamente para validar nuestros modelos.

Si nuestro modelo es imperfecto, cosa que invariablemente sucede tarde o temprano, hay que hacer una “Revisión” o adaptación al mismo. Este proceso de remodelación de un modelo (valga la redundancia) es análogo a reparar y/o dar mantenimiento a un automóvil que no funciona del todo bien. Para lograr esto necesitamos de herramientas. En este caso las herramientas son lo que comúnmente denominamos como las Ciencias. A través de los conocimientos y postulados particulares de las diversas ciencias es como nosotros podemos modificar nuestros modelos de los fenómenos naturales que queremos comprender.

Por ejemplo, la Física nos ayuda a entender la naturaleza y comportamiento de los objetos; la Química nos ayuda a comprender las propiedades de la materia y cómo cambian éstas al transformarse de un compuesto a otro, y las Matemáticas nos ayudan a expre-sar los fenómenos de forma numérica, general y concisa (muchas veces pienso que la Matemática es el lenguaje numérico de la Ciencia). En el método científico también se utilizan como herramientas algunas otras disciplinas que comúnmente no se consideran como Ciencias per se. Por ejemplo, el sentido de la estética nos puede ayudar a completar un modelo, y la inspiración nos ayuda a conectar ideas y crear nuevas alternativas. El modificar un modelo puede utilizar una gran diversidad de herramientas mentales a nuestra disposición. El trabajo no termina una vez modificado el modelo para ajustarse a las observaciones comparativas.

El modelo por definición es incompleto. Tal vez funcione lo suficiente como para resolver cierto tipo de problemas, pero eventualmente surgirán observaciones que el modelo no pueda explicar completamente. En tal caso hay que “Renovar” nuestro modelo. Esto no quiere decir que el modelo anterior es incorrec-to ya que funcionó adecuadamente por un tiempo. Simplemente se dice que el modelo anterior estaba ‘incompleto’. En estos casos, el nuevo modelo debe también simplificarse o solucionar los problemas que cubría el modelo anterior.

Sir Isaac Newton, (4 de enero de 1643 – 31 de marzo, 1727) fue un científico, físico, filósofo, alquimista y matemático inglés, autor de los Philosophiae Naturalis Principia Mathematica, más conocidos como “los Principia”, donde describió la Ley de Gravitación Universal y estableció las bases de la Mecánica Clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos científicos destacan los trabajos sobre la naturaleza de la luz y la óptica (que se presentan principalmente en el Opticks) y el desarrollo del cálculo matemático.

Director del Centro de Altos Estudios e Investigación Pedagógica

Profesor Ismael Vidales Delgado

En términos llanos, la investigación en ciencia básica consiste en examinar un tema para aumentar los conocimientos sobre éste.

En este sentido, es un tema inagotable, pues jamás se habrá dicho la última palabra en ningún tema, y, por lo tanto, siempre estaremos en espera de nuevas revelaciones deducidas de la investigación.

La información reunida a partir de la investigación en ciencia básica es fundamental para la aplicación de los nuevos conocimientos, las nuevas revelaciones, en lo que llamaríamos “ciencia aplicada”.

Así es como funciona esto. Por ejemplo, los científicos estudian cierto tipo de células cancerosas para observar cómo se multiplican y crecen, en el laboratorio o en animales.

Page 57: Revista Conocimiento 47

54 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 11

www.conocimientoenlinea.com

Teoría General de la Relatividad. Esto sucedió cuando ciertas observaciones de la variación del punto del perihelio de Mercurio no podían ser explicadas adecuadamente por la gravitación. La teoría General de la Relatividad explica maravillosamente ésta y muchas otras observaciones posteriores.

Además, las ecuaciones de Newton se derivan de la simplificación de la Teoría de la Relatividad cuando las aplicamos a bajas velocidades (comparadas con las de la luz). La razón por la que no se enseña la relatividad en las escuelas es que la gravedad es suficiente para explicar y predecir adecuadamente (hasta los límites de nuestras habilidades de medición) los fenómenos que normalmente estudiamos. No es necesario complicarnos la vida innecesariamente. Incidentalmente, si trabajamos con las ecuaciones de la gravedad, podemos simplificarlas y derivar directamente las Tres Leyes de Kepler del Movimiento Planetario que se utilizaban antes de Newton para predecir la posición de los planetas en el sistema solar. ¿No es maravilloso?

EL MÉTODO CIENTÍFICOAsí, llegamos a la conclusión de que el método científico, visto con nuevos ojos, es en realidad la mejor manera que tenemos de conocer el mundo a nuestro alrededor… de hacer Ciencia. Hay que resaltar que la ciencia es por definición “Ciencia Básica” ya que el fin último es

el conocer algo. La “ciencia aplicada” no existe como tal, aunque la tecnología es el resultado de la aplicación de la ciencia. Esto puede parecer simple semántica, pero no lo es en el fondo. De ahí surge la imperante necesidad de conocer la ciencia para poder aplicarla. Es triste ver cómo el sistema educativo actual, en un afán de graduar ciudadanos con capacidades técnicas, omite el enseñar la ciencia básica y se salta inmediatamente a la resolución de problemas particulares, que generalmente son resueltos entrenando a los alumnos a seguir una serie de secuencias y pasos predeterminados. Indicativo de esto es la eterna pregunta del estudiante: “¿qué formula utilizo para resolver este problema?”. Éste es un síntoma claro de la falta de comprensión de fondo del problema. Es como enseñar a los alumnos a construir una casa sin antes construir cimientos. Puede que la casa se mantenga firme por un tiempo, pero eventualmente se desmorona por falta de apoyo.

No solamente los estudiantes de universidad deben saber de ciencia, sino que el público en general también debe estar versado en los principios básicos de la Ciencia. Esto indudablemente los hace mejores ciudadanos, capaces de tomar decisiones basadas en la consideración objetiva de las evidencias disponibles.

Estos ciudadanos estarían mejor preparados para valorar hechos a su alrededor y las declaraciones de sus semejantes. Serían votantes informados que elegirían gobernantes calificados para representarlos adecuadamente. En un mundo cambiante donde el calentamiento global, la pobreza y las enfermedades son fenómenos que impactan directamente a nuestra civilización, es imprescindible estar informado y ser capaz de valorar esa información para tomar decisiones acertadas. La creación de conocimiento es de vital importancia para el progreso del país. De ahí la necesidad de apoyar a los científicos. La aplicación de ese conocimiento es lo que lleva a los avances tecnológicos y eventualmente la prosperidad económica. Un país que no crea conocimiento se atiene a los altos costos y dependencias involucrados en la importación de tecnología y conocimientos del extranjero.

Un ejemplo clásico de este caso es la teoría de la Gravitación. Cuando Isaac Newton la postuló inicialmente hace más de 400 años, ésta lograba explicar los movimientos de los objetos celestes a la perfección. No fue sino hasta principios del siglo pasado cuando Albert Einstein complementó el Modelo de la Gravitación de Newton con la

Johannes Kepler (Weil der Stadt, Alemania, 27 de diciembre de 1571 - Ratisbona, Alemania, 15 de noviembre de 1630), figura clave en la Revolución Científica, astrónomo y matemático alemán; fundamentalmente conocido por sus leyes sobre el movimiento de los planetas. Fue colaborador de Tycho Brahe.

Mapa del mundo, de Tabulae Rudolphine

de Albert Einstein; el Electromagnetismo, de Maxwell; el Principio de Incertidumbre, de Heisenberg, entre muchos más.

76 PREMIOS NOBEL ALEMANESGracias a ese cuestionamiento natural, los científicos alemanes ostentan alrededor de 76 premios Nobel, 65 de ellos en áreas relacionadas con las ciencias naturales y la medicina.

Tan sólo el Max Planck Gesellschaft (MPG) ha logrado igualar a universidades americanas en la producción de premios Nobel; por ello, los científicos alemanes han tenido la satisfacción de ser los más citados (en ciertos meses) en revistas de ciencia prestigiadas, en áreas como física, química y materiales.

Como comenté anteriormente, Alemania ha comprendido el lugar de los actores que impulsan el desarrollo científico; motivo por el cual las universidades, los institutos de investigación y las compañías forman “clústeres” para compartir su conocimiento y pericia en alguna materia, a la vez que inyectan activos a la economía de los intangibles.

Éstos (intangibles), de acuerdo a “The World in 2007”, de la revista The Economist, aportan más de la mitad de la capitalización del mercado de las compañías que cotizan en la bolsa de Estados Unidos.

Es decir, las compañías buscan el talento en sus contrataciones,

ejemplificado en individuos capacitados fuertemente en áreas del conocimiento, manejo de patentes y el conocido “know–how”. De ahí que la propiedad intelectual sea celosamente protegida en la Tierra de las Ideas.

En el reporte (Invest in Germany) se nos muestra otro

dato muy interesante de la composición de infraestructura

científica en este país: estamos hablando de 257 institutos que

emplean a 70 mil personas que hacen investigación en diferentes y diversas áreas de la ciencia y la tecnología, y que posteriormente patentan sus trabajos.

En síntesis, la estrategia alemana tiene un engrane central llamado:

“coopetition”; es decir, la fusión de la competencia con la cooperación, pues se ha comprendido que la vinculación entre los

actores de la ciencia y tecnología deben unir esfuerzos en el sentido de la creación de valor a

través de la inversión en activos que no podemos ver, ni tocar: los intangibles.

TALENTO Y CAPITAL INTELECTUALTalento y capital intelectual es lo que mueve las divisas de los países; entre otros aspectos, esto es lo que está haciendo que perdamos competitividad ante otros países, como es el caso de la India y China.

Este último es el que nos ha superado como principal socio comercial de Estados Unidos.

En nuestro caso particular, el dinero colocado en educación y sobre todo en educación para la ciencia, así como en investigación básica, no debe ser visto como un gasto, sino como una inversión a largo plazo, pues esta suma de activos intangibles es equivalente al desarrollo regional.

Para terminar, voy a mencionar lo que dice Wikipedia: “la ciencia básica es el corazón de todos los descubrimientos, y el progreso está basado en experimentos controlados”.

Algo de todo esto debemos extrapolar a nuestro modelo económico y de investigación científica y tecnológica.

Bibliografíahttp://www.land-of-ideas.org

10 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 55

www.conocimientoenlinea.com

considerada cuidadosa y objetivamente para validar nuestros modelos.

Si nuestro modelo es imperfecto, cosa que invariablemente sucede tarde o temprano, hay que hacer una “Revisión” o adaptación al mismo. Este proceso de remodelación de un modelo (valga la redundancia) es análogo a reparar y/o dar mantenimiento a un automóvil que no funciona del todo bien. Para lograr esto necesitamos de herramientas. En este caso las herramientas son lo que comúnmente denominamos como las Ciencias. A través de los conocimientos y postulados particulares de las diversas ciencias es como nosotros podemos modificar nuestros modelos de los fenómenos naturales que queremos comprender.

Por ejemplo, la Física nos ayuda a entender la naturaleza y comportamiento de los objetos; la Química nos ayuda a comprender las propiedades de la materia y cómo cambian éstas al transformarse de un compuesto a otro, y las Matemáticas nos ayudan a expre-sar los fenómenos de forma numérica, general y concisa (muchas veces pienso que la Matemática es el lenguaje numérico de la Ciencia). En el método científico también se utilizan como herramientas algunas otras disciplinas que comúnmente no se consideran como Ciencias per se. Por ejemplo, el sentido de la estética nos puede ayudar a completar un modelo, y la inspiración nos ayuda a conectar ideas y crear nuevas alternativas. El modificar un modelo puede utilizar una gran diversidad de herramientas mentales a nuestra disposición. El trabajo no termina una vez modificado el modelo para ajustarse a las observaciones comparativas.

El modelo por definición es incompleto. Tal vez funcione lo suficiente como para resolver cierto tipo de problemas, pero eventualmente surgirán observaciones que el modelo no pueda explicar completamente. En tal caso hay que “Renovar” nuestro modelo. Esto no quiere decir que el modelo anterior es incorrec-to ya que funcionó adecuadamente por un tiempo. Simplemente se dice que el modelo anterior estaba ‘incompleto’. En estos casos, el nuevo modelo debe también simplificarse o solucionar los problemas que cubría el modelo anterior.

Sir Isaac Newton, (4 de enero de 1643 – 31 de marzo, 1727) fue un científico, físico, filósofo, alquimista y matemático inglés, autor de los Philosophiae Naturalis Principia Mathematica, más conocidos como “los Principia”, donde describió la Ley de Gravitación Universal y estableció las bases de la Mecánica Clásica mediante las leyes que llevan su nombre. Entre sus otros descubrimientos científicos destacan los trabajos sobre la naturaleza de la luz y la óptica (que se presentan principalmente en el Opticks) y el desarrollo del cálculo matemático.

Director del Centro de Altos Estudios e Investigación Pedagógica

Profesor Ismael Vidales Delgado

En términos llanos, la investigación en ciencia básica consiste en examinar un tema para aumentar los conocimientos sobre éste.

En este sentido, es un tema inagotable, pues jamás se habrá dicho la última palabra en ningún tema, y, por lo tanto, siempre estaremos en espera de nuevas revelaciones deducidas de la investigación.

La información reunida a partir de la investigación en ciencia básica es fundamental para la aplicación de los nuevos conocimientos, las nuevas revelaciones, en lo que llamaríamos “ciencia aplicada”.

Así es como funciona esto. Por ejemplo, los científicos estudian cierto tipo de células cancerosas para observar cómo se multiplican y crecen, en el laboratorio o en animales.

Page 58: Revista Conocimiento 47

56 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 9

www.conocimientoenlinea.com

que nos rodea. Por ejemplo, probamos cosas para saber si son comestibles y golpeamos objetos para estudiar la resistencia de los materiales. Aunque no parezca, todo esto es Ciencia. El niño utiliza las herramientas a su alcance para conocer el ambiente a su alrededor con el propósito de desarrollarse.

EL MÉTODO CIENTÍFICODe adultos hacemos lo mismo casi sin darnos cuenta. ¿Cuántos de nosotros no hemos leído instructivos o preguntado a amigos sobre el funcionamiento de algún equipo electrónico? Otros de nosotros simplemente presionamos los botones secuencialmente, observamos las reacciones, e intentamos nuevas combinaciones, hasta obtener los resultados deseados.

De igual manera, el “método científico” tradicional que nos enseñaron en la escuela como una secuencia cuasi-lineal de etapas (observación, hipótesis, experimentación y conclusiones) es una simplificación de un proceso humano más elegante y rico en otros elementos. Una alternativa más general de la construcción y funcionamiento del método científico puede ser ilustrada con el diagrama de flujo que se presenta a continuación.

(a la ‘Matrix’) ni existe solamente en la mente de las personas. Ésta es la base fundamental de todas las ciencias y cabe enfatizar su importancia de nuevo: el “Mundo Real” existe y se comporta de manera independiente respecto de nuestras percepciones.

Nuestra labor es entender este comportamiento de alguna manera, para así aprovechar ese conocimiento en nuestras vidas. Eso lo logramos a través de la elaboración de un “Modelo”, el cual se puede definir como una simplificación conceptual que posee características similares y se comporta de forma similar al fenómeno que estamos estudiando. Un ejemplo puede ser un modelo a escala de un avión que compramos en una tienda y que ensamblamos con el propósito de poseer una miniatura para exhibición. Muchos modelos son simplemente ideas o secuencias de ideas y no objetos concretos. El modelo no es el objeto del mundo real, sino una aproximación. La idea es tener un modelo lo más parecido posible al fenómeno del mundo real; aunque esto es imposible de lograr, ya que entonces el modelo sería indistinguible del fenómeno. Sería como hacer una persona idéntica a ti en todos los aspectos (físicos y mentales) como un modelo que te representara.

CONEXIÓN ENTRE EL MUNDOREAL Y EL MODELOEn el diagrama hay una flecha de un sentido que conecta al mundo real con el modelo y simboliza el hecho de que no podemos hacer un modelo idéntico al fenómeno del mundo real (en tal caso la flecha sería de dos sentidos). Este proceso de formar un modelo inicial de algún fenómeno natural está repleto de preconceptos y observaciones iniciales por parte del que intenta formar el modelo. Algunas veces los llamamos “prejuicios”, y muchas veces algunos de estos preconceptos son erróneos y es difícil identificarlos y tratar de desecharlos; sobre todo cuando estos preconceptos son modelos que nosotros dábamos como acertados. Un ejemplo clásico me sucedió cuando compré un nuevo teléfono celular. Mi modelo de su funcionamiento se basaba en mi antiguo teléfono y me costó esfuerzo acostumbrarme al nuevo sistema de operación. El antiguo modelo de operación simplemente ya no aplicaba del todo.

¿Cómo podemos mejorar nuestro modelo? En la práctica el método más eficiente de hacer esto es realizando “Observaciones Comparativas” de forma congruente y deliberada para comprobar la veracidad de nuestro modelo. Éstos pueden tomar la forma de experimentos en laboratorios, observaciones, pruebas, cuestionarios, etcétera. La idea general es poner a prueba nuestro modelo comparándolo con lo que sucede en el mundo real. En este paso es crucial el ser cuidadosos y honestos con nosotros mismos.

En ocasiones, nuestro tan querido modelo simplemente no concuerda con las observaciones realizadas, y es común que nos sintamos tentados a ignorar selectivamente los resultados de las observaciones que no apoyan lo que deseamos que suceda. Nuestra capacidad para auto-engañarnos puede ser impresionante, y nuestros sentimientos y añoranzas filtran la información recibida de alguna forma. Simplemente es difícil confesar que a veces estamos equivocados (tenemos un modelo inadecuado), y cambiar de opinión (adoptar un nuevo modelo). Ejemplos de esto abundan. La mayoría de las pseudociencias (parapsicología, OVNIs, astrología, embrujos, todo tipo de adivinación, homeopatía, existencia de espíritus y fantasmas, etcétera) son consecuencia directa de no saber cómo realizar observaciones comparativas honestas para comprobar nuestros modelos y/o de selectivamente ignorar los resultados que contradigan ciertos ideales que desesperadamente deseamos sean verídicos. Toda la evidencia, sin excepción, debe ser cotejada y

Comenzamos con la existencia de un “Mundo Real”; es decir que todo lo que nos rodea existe en verdad, independientemente de nuestras percepciones, y que tiene un comportamiento definido. En este mundo no existen ambigüedades, y continúa existiendo aunque no lo podamos percibir. Cuando un árbol cae en el bosque siempre hace ruido. Si no lo escuchamos es porque estamos muy lejos o no tenemos instrumentos de grabación presentes. En otras palabras, el Universo en que vivimos no es virtual

Esta investigación básica no produce necesariamente resultados relevantes e inmediatos para el tratamiento de un paciente en particular, pero estos conocimientos nuevos son esenciales para producir nuevos descubrimien-tos, generalizaciones razonables, y aplicación a casos concretos de cierto tipo de cáncer.

BENEFICIOS Y APLICACIONESSi miramos el valor de la investigación en ciencia médica, nos resultan perfectamente comprensibles los beneficios y las aplicaciones para pro-ducir curaciones o aliviar el dolor. Cualquiera entendería que la investiga-ción proporcionaría información:-Sobre los factores genéticos y medioambientales que aumentan el riesgo de padecer enfermedades, lo que es útil para su prevención y tratamiento oportunos.-Para idear tratamientos nuevos, con nuevos fármacos que curan o reducen los síntomas de las enfermedades.-Para nuevos procedimientos qui-rúrgicos que mejoren el tratamiento y salven vidas.-Para el desarrollo de dispositivos que mejoren la calidad de vida, como prótesis diversas, audífonos, etcétera.

La investigación no debe ser obra de esfuerzos personales, sino instituciona-les y de políticas de estado; el financiamiento relevante debe provenir del gobierno y los particulares que de hecho lo aportan, pero nadie desconoce que el presupuesto es vergonzosamente insignificante.

RECORTES PRESUPUESTALES A LA INVESTIGACIÓNA esto agreguemos que en ciertos campos del conocimiento, como la educación y las ciencias sociales en general, la investigación es práctica-mente menospreciada o está en manos de pequeños grupos que pocas veces producen información relevante, pues el financiamiento oficial o cuasi, los ha refugiado en el país de las cifras alegres y complacientes, y las noticias con las que nos encontramos a diario no hablan de investigadores ni de investigaciones, sino de recortes presupuestales para la investigación básica.

La Ley de Ciencia y Tecnología, de recien-te aprobación, ya se ve como anciana

con bordón. El texto de esta ley incluye una lista de prioridades para decidir qué actividades científicas y tecnológicas deben ser apoyadas, en el entendido de que las que no aparezcan en el listado, nada tienen que esperar en cuanto a recibir apoyos gubernamentales.

Vista en esta perspectiva la ley, advertimos que orienta los presupuestos únicamente a temas que contribuyan a resolver los problemas del país, pero se olvida que se limita entonces el quehacer investigativo a la investigación aplicada, misma que no existe si antes no se realizó la investigación básica; por ello, las posibilidades de aplicar conocimientos para sacar adelante al país se ven lejanos, y se propicia que una vez más la improvisación, las corazonadas, la petulancia y la arrogancia sean las

bases de las políticas públicas y precipiten la caída libre de México en un precipicio que ya nos resulta familiar.

IMPORTANCIA DE LA INVESTIGACIÓN BÁSICAEs una lástima que los tomadores de decisiones ignoren que la investigación aplicada que reclaman, como solución a los problemas que nos aquejan, tiene sus raíces en la investigación básica o investigación pura. Allí tiene su origen y fortaleza. La investigación aplicada raras veces tiene una sola fuente o una sola línea de trabajo, porque se nutre de conocimientos diversos obtenidos de diversos proyectos de investigación básica.

Por ello ofenden con frecuencia comentarios como: ¿para qué sirve la investigación básica? ¿En qué se va a aplicar? La investigación básica no tiene por que ser útil o aplicable a un requerimiento específico. Su función no es esa; lástima que los funcionarios que otorgan los financiamientos sean tan ignorantes.

¿Cómo pueden entender que los grandes creadores de música, la filosofía, la epistemología y los conocimientos, jamás pensaron en aplicaciones inmediatas? Ésas vinieron gracias a la tecnología, pero el tema es que los políticos, no saben deslindar situaciones tan simples, y niegan el presupuesto lo mismo a la investigación científica que a la tecnología, que es la aplicación de los conocimientos producidos por la investigación básica, fundamental y pura.

8 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 57

www.conocimientoenlinea.com

Doctor Pedro A. Valdés SadaDepartamento de Física y Matemáticas y Centro de Investigación en Ciencias Planetarias de México, de la Universidad de Monterrey

los minerales; las Matemáticas, que estudian los números, etcétera. De esta manera hemos distribuido la ciencia en diversas disciplinas que se ocupan de estudiar aspectos muy particulares de la naturaleza. También tenemos la impresión general de que hay poca comunicación entre estas disciplinas, y de que sus participantes, los científicos, son genios excéntricos que trabajan aisladamente en laboratorios en los que utilizan procedimientos bastante estrictos y complicados que caen bajo la denominación general del “método científico”.

TODOS NACEMOS SIENDO CIENTÍFICOSPues bien, casi todo lo descrito anteriormente son malas impresiones y exageraciones de lo que es la Ciencia. El origen de la palabra y su significado general son correctos. Pero la Ciencia no se limita a estudiar la naturaleza, ni es practicada solamente por científicos. Todos nosotros somos partícipes de esta actividad humana en casi todo momento de nuestras vidas. Es más, todos nacemos siendo científicos. Somos muy curiosos durante la infancia, y queremos averiguar todo lo posible sobre el mundo

Escrito por Ivy Nevares , conceptos de Keith Raniere

Un pequeño y abarrotado escritorio con lápices y un libro: estas eran mis herramientas de supervivencia en el turbulento mar de imágenes, nombres, diagramas, números, fórmulas y teorías que constituían la clase de ciencias naturales. El maestro, un hombre desaliñado de cuarenta y tantos años, estaba de pie frente a una larga mesa de cubierta oscura y equipada con un lavabo y extrañas mangueras. En el fondo, una pecera burbujeaba ominosa y perpetuamente, con libros en cada flanco y repleta de curiosidades vivientes y resbalosas.

Ciencias naturales de la niñez: un paramecio es un microorganismo con cilios; un átomo consiste de protones, neutrones y electrones; trabajo es igual a fuerza por distancia; hay nueve (¡cuéntenlos!) planetas; el peluquín del Maestro Rogoff se deslizó de su brillosa cabeza, cayendo irrecuperablemente en la pecera perpetuamente burbujeante repleta de guppys. Para los guppys, el cabello falso asemeja algas cuando éste se sumerge en agua; perdón, “H

2O”. Para muchos, las ciencias naturales eran una serie de datos, historias y algunos descubrimientos divertidos para pasar el rato.

Al leer por primera vez los recuerdos de mi mentor, Keith Raniere, los míos no me parecieron tan ricos. Excepto que me podía identificar con la pecera, y podía recordar lo incómodo que eran las mesas del laboratorio de ciencias: elevadas islas de madera, oscuras superficies, un lavabo y lo que parecía un número excesivo de mangueras y palancas. Habiendo leído sus palabras, dos eventos específicos sobresalieron en mi propia historia de la ciencia como los “más memorables” (revelaré el segundo más adelante en este artículo). El primero ocurrió en sexto año de primaria donde, durante un examen sorpresa para el cual no me preparé, intenté convencerme de que podía adivinar la respuesta correcta jugando el siguiente juego mental: leería cada una de las respuestas a las preguntas de opción múltiple en mi cabeza, usando la voz de Miss Mojica; lo que sonara más como algo que Miss Mojica diría, esa sería “la buena”. Después de recibir los resultados de ese examen, jamás volví a jugar ese juego.

Sin importar cuán vagos o bloqueados parezcan estar nuestros recuerdos, todos nos podemos relacionar con estos tipos de experiencias. De niños, se nos enseña a creer que ciertos hechos (ciertos puntos de conocimiento) son “ciencia”. Aprendemos o adoptamos estas cosas ciegamente. Si ocurrió que Ud. era un(a) niño(a) de memoria excepcional, o si era un(a) niño(a) hábil para las adivinanzas (créame, mejoré mis habilidades), entonces lo más probable es que se haya sacado un diez en ciencias naturales. ¿Pero era realmente “ciencia” lo que Ud. estaba aprendiendo?

Si nuestra ciencia está determinada por los hechos científicos que aprendemos, entonces tenemos graves problemas. Considere por un momento a Plutón. Plutón era considerado un planeta de nuestro sistema solar: tanto mi mentor como yo nos encontramos con esto durante nuestra educación básica. Recientemente, Plutón quedó reducido a la condición de planeta enano; un triste evento para quienes nos habíamos encariñado de Plutón. Si el enunciado “Plutón es un planeta” es ciencia, ¿qué le pasa a nuestra ciencia cuando los datos cambian?

¿Qué es una ciencia? Ciencia es una palabra de origen griego que se traduce al español como conocimiento. Hacer ciencia es buscar el conocimiento de algo. Generalmente asociamos el concepto de ciencia con la idea de conocer algo relacionado con el mundo natural que nos rodea. Dicho de otra manera, las ciencias pretenden conocer la naturaleza.

Así, tenemos por ejemplo la ciencia de la Astronomía, que estudia el Universo; la Biología, que estudia los seres vivos; la Geología, que estudia las rocas y

Page 59: Revista Conocimiento 47

56 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 9

www.conocimientoenlinea.com

que nos rodea. Por ejemplo, probamos cosas para saber si son comestibles y golpeamos objetos para estudiar la resistencia de los materiales. Aunque no parezca, todo esto es Ciencia. El niño utiliza las herramientas a su alcance para conocer el ambiente a su alrededor con el propósito de desarrollarse.

EL MÉTODO CIENTÍFICODe adultos hacemos lo mismo casi sin darnos cuenta. ¿Cuántos de nosotros no hemos leído instructivos o preguntado a amigos sobre el funcionamiento de algún equipo electrónico? Otros de nosotros simplemente presionamos los botones secuencialmente, observamos las reacciones, e intentamos nuevas combinaciones, hasta obtener los resultados deseados.

De igual manera, el “método científico” tradicional que nos enseñaron en la escuela como una secuencia cuasi-lineal de etapas (observación, hipótesis, experimentación y conclusiones) es una simplificación de un proceso humano más elegante y rico en otros elementos. Una alternativa más general de la construcción y funcionamiento del método científico puede ser ilustrada con el diagrama de flujo que se presenta a continuación.

(a la ‘Matrix’) ni existe solamente en la mente de las personas. Ésta es la base fundamental de todas las ciencias y cabe enfatizar su importancia de nuevo: el “Mundo Real” existe y se comporta de manera independiente respecto de nuestras percepciones.

Nuestra labor es entender este comportamiento de alguna manera, para así aprovechar ese conocimiento en nuestras vidas. Eso lo logramos a través de la elaboración de un “Modelo”, el cual se puede definir como una simplificación conceptual que posee características similares y se comporta de forma similar al fenómeno que estamos estudiando. Un ejemplo puede ser un modelo a escala de un avión que compramos en una tienda y que ensamblamos con el propósito de poseer una miniatura para exhibición. Muchos modelos son simplemente ideas o secuencias de ideas y no objetos concretos. El modelo no es el objeto del mundo real, sino una aproximación. La idea es tener un modelo lo más parecido posible al fenómeno del mundo real; aunque esto es imposible de lograr, ya que entonces el modelo sería indistinguible del fenómeno. Sería como hacer una persona idéntica a ti en todos los aspectos (físicos y mentales) como un modelo que te representara.

CONEXIÓN ENTRE EL MUNDOREAL Y EL MODELOEn el diagrama hay una flecha de un sentido que conecta al mundo real con el modelo y simboliza el hecho de que no podemos hacer un modelo idéntico al fenómeno del mundo real (en tal caso la flecha sería de dos sentidos). Este proceso de formar un modelo inicial de algún fenómeno natural está repleto de preconceptos y observaciones iniciales por parte del que intenta formar el modelo. Algunas veces los llamamos “prejuicios”, y muchas veces algunos de estos preconceptos son erróneos y es difícil identificarlos y tratar de desecharlos; sobre todo cuando estos preconceptos son modelos que nosotros dábamos como acertados. Un ejemplo clásico me sucedió cuando compré un nuevo teléfono celular. Mi modelo de su funcionamiento se basaba en mi antiguo teléfono y me costó esfuerzo acostumbrarme al nuevo sistema de operación. El antiguo modelo de operación simplemente ya no aplicaba del todo.

¿Cómo podemos mejorar nuestro modelo? En la práctica el método más eficiente de hacer esto es realizando “Observaciones Comparativas” de forma congruente y deliberada para comprobar la veracidad de nuestro modelo. Éstos pueden tomar la forma de experimentos en laboratorios, observaciones, pruebas, cuestionarios, etcétera. La idea general es poner a prueba nuestro modelo comparándolo con lo que sucede en el mundo real. En este paso es crucial el ser cuidadosos y honestos con nosotros mismos.

En ocasiones, nuestro tan querido modelo simplemente no concuerda con las observaciones realizadas, y es común que nos sintamos tentados a ignorar selectivamente los resultados de las observaciones que no apoyan lo que deseamos que suceda. Nuestra capacidad para auto-engañarnos puede ser impresionante, y nuestros sentimientos y añoranzas filtran la información recibida de alguna forma. Simplemente es difícil confesar que a veces estamos equivocados (tenemos un modelo inadecuado), y cambiar de opinión (adoptar un nuevo modelo). Ejemplos de esto abundan. La mayoría de las pseudociencias (parapsicología, OVNIs, astrología, embrujos, todo tipo de adivinación, homeopatía, existencia de espíritus y fantasmas, etcétera) son consecuencia directa de no saber cómo realizar observaciones comparativas honestas para comprobar nuestros modelos y/o de selectivamente ignorar los resultados que contradigan ciertos ideales que desesperadamente deseamos sean verídicos. Toda la evidencia, sin excepción, debe ser cotejada y

Comenzamos con la existencia de un “Mundo Real”; es decir que todo lo que nos rodea existe en verdad, independientemente de nuestras percepciones, y que tiene un comportamiento definido. En este mundo no existen ambigüedades, y continúa existiendo aunque no lo podamos percibir. Cuando un árbol cae en el bosque siempre hace ruido. Si no lo escuchamos es porque estamos muy lejos o no tenemos instrumentos de grabación presentes. En otras palabras, el Universo en que vivimos no es virtual

Esta investigación básica no produce necesariamente resultados relevantes e inmediatos para el tratamiento de un paciente en particular, pero estos conocimientos nuevos son esenciales para producir nuevos descubrimien-tos, generalizaciones razonables, y aplicación a casos concretos de cierto tipo de cáncer.

BENEFICIOS Y APLICACIONESSi miramos el valor de la investigación en ciencia médica, nos resultan perfectamente comprensibles los beneficios y las aplicaciones para pro-ducir curaciones o aliviar el dolor. Cualquiera entendería que la investiga-ción proporcionaría información:-Sobre los factores genéticos y medioambientales que aumentan el riesgo de padecer enfermedades, lo que es útil para su prevención y tratamiento oportunos.-Para idear tratamientos nuevos, con nuevos fármacos que curan o reducen los síntomas de las enfermedades.-Para nuevos procedimientos qui-rúrgicos que mejoren el tratamiento y salven vidas.-Para el desarrollo de dispositivos que mejoren la calidad de vida, como prótesis diversas, audífonos, etcétera.

La investigación no debe ser obra de esfuerzos personales, sino instituciona-les y de políticas de estado; el financiamiento relevante debe provenir del gobierno y los particulares que de hecho lo aportan, pero nadie desconoce que el presupuesto es vergonzosamente insignificante.

RECORTES PRESUPUESTALES A LA INVESTIGACIÓNA esto agreguemos que en ciertos campos del conocimiento, como la educación y las ciencias sociales en general, la investigación es práctica-mente menospreciada o está en manos de pequeños grupos que pocas veces producen información relevante, pues el financiamiento oficial o cuasi, los ha refugiado en el país de las cifras alegres y complacientes, y las noticias con las que nos encontramos a diario no hablan de investigadores ni de investigaciones, sino de recortes presupuestales para la investigación básica.

La Ley de Ciencia y Tecnología, de recien-te aprobación, ya se ve como anciana

con bordón. El texto de esta ley incluye una lista de prioridades para decidir qué actividades científicas y tecnológicas deben ser apoyadas, en el entendido de que las que no aparezcan en el listado, nada tienen que esperar en cuanto a recibir apoyos gubernamentales.

Vista en esta perspectiva la ley, advertimos que orienta los presupuestos únicamente a temas que contribuyan a resolver los problemas del país, pero se olvida que se limita entonces el quehacer investigativo a la investigación aplicada, misma que no existe si antes no se realizó la investigación básica; por ello, las posibilidades de aplicar conocimientos para sacar adelante al país se ven lejanos, y se propicia que una vez más la improvisación, las corazonadas, la petulancia y la arrogancia sean las

bases de las políticas públicas y precipiten la caída libre de México en un precipicio que ya nos resulta familiar.

IMPORTANCIA DE LA INVESTIGACIÓN BÁSICAEs una lástima que los tomadores de decisiones ignoren que la investigación aplicada que reclaman, como solución a los problemas que nos aquejan, tiene sus raíces en la investigación básica o investigación pura. Allí tiene su origen y fortaleza. La investigación aplicada raras veces tiene una sola fuente o una sola línea de trabajo, porque se nutre de conocimientos diversos obtenidos de diversos proyectos de investigación básica.

Por ello ofenden con frecuencia comentarios como: ¿para qué sirve la investigación básica? ¿En qué se va a aplicar? La investigación básica no tiene por que ser útil o aplicable a un requerimiento específico. Su función no es esa; lástima que los funcionarios que otorgan los financiamientos sean tan ignorantes.

¿Cómo pueden entender que los grandes creadores de música, la filosofía, la epistemología y los conocimientos, jamás pensaron en aplicaciones inmediatas? Ésas vinieron gracias a la tecnología, pero el tema es que los políticos, no saben deslindar situaciones tan simples, y niegan el presupuesto lo mismo a la investigación científica que a la tecnología, que es la aplicación de los conocimientos producidos por la investigación básica, fundamental y pura.

8 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 57

www.conocimientoenlinea.com

Doctor Pedro A. Valdés SadaDepartamento de Física y Matemáticas y Centro de Investigación en Ciencias Planetarias de México, de la Universidad de Monterrey

los minerales; las Matemáticas, que estudian los números, etcétera. De esta manera hemos distribuido la ciencia en diversas disciplinas que se ocupan de estudiar aspectos muy particulares de la naturaleza. También tenemos la impresión general de que hay poca comunicación entre estas disciplinas, y de que sus participantes, los científicos, son genios excéntricos que trabajan aisladamente en laboratorios en los que utilizan procedimientos bastante estrictos y complicados que caen bajo la denominación general del “método científico”.

TODOS NACEMOS SIENDO CIENTÍFICOSPues bien, casi todo lo descrito anteriormente son malas impresiones y exageraciones de lo que es la Ciencia. El origen de la palabra y su significado general son correctos. Pero la Ciencia no se limita a estudiar la naturaleza, ni es practicada solamente por científicos. Todos nosotros somos partícipes de esta actividad humana en casi todo momento de nuestras vidas. Es más, todos nacemos siendo científicos. Somos muy curiosos durante la infancia, y queremos averiguar todo lo posible sobre el mundo

Escrito por Ivy Nevares , conceptos de Keith Raniere

Un pequeño y abarrotado escritorio con lápices y un libro: estas eran mis herramientas de supervivencia en el turbulento mar de imágenes, nombres, diagramas, números, fórmulas y teorías que constituían la clase de ciencias naturales. El maestro, un hombre desaliñado de cuarenta y tantos años, estaba de pie frente a una larga mesa de cubierta oscura y equipada con un lavabo y extrañas mangueras. En el fondo, una pecera burbujeaba ominosa y perpetuamente, con libros en cada flanco y repleta de curiosidades vivientes y resbalosas.

Ciencias naturales de la niñez: un paramecio es un microorganismo con cilios; un átomo consiste de protones, neutrones y electrones; trabajo es igual a fuerza por distancia; hay nueve (¡cuéntenlos!) planetas; el peluquín del Maestro Rogoff se deslizó de su brillosa cabeza, cayendo irrecuperablemente en la pecera perpetuamente burbujeante repleta de guppys. Para los guppys, el cabello falso asemeja algas cuando éste se sumerge en agua; perdón, “H

2O”. Para muchos, las ciencias naturales eran una serie de datos, historias y algunos descubrimientos divertidos para pasar el rato.

Al leer por primera vez los recuerdos de mi mentor, Keith Raniere, los míos no me parecieron tan ricos. Excepto que me podía identificar con la pecera, y podía recordar lo incómodo que eran las mesas del laboratorio de ciencias: elevadas islas de madera, oscuras superficies, un lavabo y lo que parecía un número excesivo de mangueras y palancas. Habiendo leído sus palabras, dos eventos específicos sobresalieron en mi propia historia de la ciencia como los “más memorables” (revelaré el segundo más adelante en este artículo). El primero ocurrió en sexto año de primaria donde, durante un examen sorpresa para el cual no me preparé, intenté convencerme de que podía adivinar la respuesta correcta jugando el siguiente juego mental: leería cada una de las respuestas a las preguntas de opción múltiple en mi cabeza, usando la voz de Miss Mojica; lo que sonara más como algo que Miss Mojica diría, esa sería “la buena”. Después de recibir los resultados de ese examen, jamás volví a jugar ese juego.

Sin importar cuán vagos o bloqueados parezcan estar nuestros recuerdos, todos nos podemos relacionar con estos tipos de experiencias. De niños, se nos enseña a creer que ciertos hechos (ciertos puntos de conocimiento) son “ciencia”. Aprendemos o adoptamos estas cosas ciegamente. Si ocurrió que Ud. era un(a) niño(a) de memoria excepcional, o si era un(a) niño(a) hábil para las adivinanzas (créame, mejoré mis habilidades), entonces lo más probable es que se haya sacado un diez en ciencias naturales. ¿Pero era realmente “ciencia” lo que Ud. estaba aprendiendo?

Si nuestra ciencia está determinada por los hechos científicos que aprendemos, entonces tenemos graves problemas. Considere por un momento a Plutón. Plutón era considerado un planeta de nuestro sistema solar: tanto mi mentor como yo nos encontramos con esto durante nuestra educación básica. Recientemente, Plutón quedó reducido a la condición de planeta enano; un triste evento para quienes nos habíamos encariñado de Plutón. Si el enunciado “Plutón es un planeta” es ciencia, ¿qué le pasa a nuestra ciencia cuando los datos cambian?

¿Qué es una ciencia? Ciencia es una palabra de origen griego que se traduce al español como conocimiento. Hacer ciencia es buscar el conocimiento de algo. Generalmente asociamos el concepto de ciencia con la idea de conocer algo relacionado con el mundo natural que nos rodea. Dicho de otra manera, las ciencias pretenden conocer la naturaleza.

Así, tenemos por ejemplo la ciencia de la Astronomía, que estudia el Universo; la Biología, que estudia los seres vivos; la Geología, que estudia las rocas y

Page 60: Revista Conocimiento 47

58 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 7

www.conocimientoenlinea.com

Esto no quiere decir que el enunciado “Plutón es (o no es) un planeta” no sea parte de la ciencia: después de todo, la ciencia sí incluye al cuerpo de conocimientos acumulados a través de la historia de la humanidad. Incluso nuestra creencia de que el mundo era plano y sostenido por tres elefantes y una tortuga (tan ridículo como suena eso ahora) es parte de la ciencia. Sin la referencia de un planeta “plano”, quizás no hubiéramos sido capaces de entender

lo que es un planeta “redondo”. Y ahora, conforme han evolucionado nuestras distinciones acerca de lo “redondo”, podemos decir que la Tierra es un “esferoide oblongo”. “Plano”, “redondo” y “esferoide oblongo” (cada uno “verdadero” en su momento) forman parte de nuestra ciencia y pueden ser entendidos como refinamientos progresivos del mismo tema. Pero lo mismo se puede decir de la mantequilla: hace unos pocos años, los científicos

dijeron que la mantequilla era mala por su alto nivel de colesterol; ahora la margarina, el sustituto de la mantequilla, ha resultado ser igual de mala.

Si Ud. está viendo más allá de los puntos específicos de datos… de plano a redondo a esferoide oblongo a… de “la mantequilla es mala, la margarina es buena” a “la mantequilla es buena, la margarina es mala” a… es posible que esté ya dándose cuenta.

Sin que lo supieran los involucrados, lo que se nos estaba enseñando no era ciencia en lo absoluto. Sin embargo, como un ladrón en la oscuridad de la noche, la experiencia de la ciencia nos tomó por sorpresa y reclamó nuestras mentes como su trofeo.

El segundo recuerdo, tristemente, se adelanta algunos años hasta la secundaria. Un día, al estudiar moluscos en la clase de biología de Miss McIlvain, ella sacó un recipiente de plástico lleno de especimenes suspendidos en un líquido transparente. Casi al final se su presentación, apuntó hacia una pequeña masa obscura y velluda y dijo, “…y esta es la lengua de un fumador crónico.” Sin importar dónde estaba mi mente en ese momento, en un instante fue arrebatada de vuelta. “¡¿Es una qué?!” Sentí escalofríos. Miré a mis compañeros de clase, que parecían sentir la misma repulsión que yo, y después otra vez a mi maestra. Momentos después, Miss McIlvain reía: “No deben creerse todo lo que oyen, aún si se los dice su maestra.” Ese día, aprendí que era posible que el mundo no se acabara si cuestionaba lo que me decían.

Este podría parecer un punto trivial pero, honestamente, ¿a cuántos de nosotros se nos enseña que es bueno cuestionar lo que se nos enseña? Si Ud. es padre de familia o alguna vez ha lidiado con niños, ¿se ha visto recurriendo a la respuesta universal de “¡porque yo digo!”? Tradicionalmente, no se nos enseña cómo pensar; se nos enseña qué pensar: ¡piénselo! Aprender qué pensar es fácil: todo lo que hay que hacer es memorizar y luego repetir el conocimiento en los momentos más apropiados. Pero aprender cómo pensar es completamente diferente: debemos estar dispuestos a salir al mundo y probar nuestras hipótesis; debemos ser lo suficientemente fuertes para fracasar, para estar equivocados; y, sobre todo,

debemos estar dispuestos a adueñarnos del hecho de que, a fin de cuentas, realmente no sabemos nada.

De nuevo, un componente de la ciencia es lo que sabemos; podemos llamar a esto el “contenido” de la ciencia. Más importantemente, la ciencia es un proceso; es una forma de llegar a saber. Con respecto al proceso y contenido de la ciencia, Keith Raniere denota: “La

ciencia es un proceso de conocer; es un proceso a través del cual observamos, cuantificamos y explicamos nuestra percepción de la realidad. Como contenido, la ciencia es conocimiento organizado, donde la organización es consistente y reproducible, por lo tanto verificable.”

¿Qué pasa cuando intentamos definir a la ciencia por completo solamente en base a su contenido? Imagine vivir en Europa del siglo XVII, por los tiempos de Galileo. A través de la ciencia (proceso), llegamos al modelo geocéntrico del universo (contenido): creímos que el sol y los planetas giraban alrededor de la Tierra. En algún momento, científicos, magistrados religiosos y autoridades públicas reemplazaron el proceso de la ciencia con el conocimiento que había sido derivado a través de la ciencia. ¿Cuáles fueron las consecuencias de dicho acto? Lo que vimos fue que cualquier cuestionamiento de la “ciencia” (realmente, el contenido del modelo geocéntrico) podía ser castigado con cárcel, excomunión y, en algunos casos, la muerte. Lo que no vimos, pero seguimos experimentando como repercusiones, fue la destrucción de la exploración científica adicional por miedo al castigo: preguntas que nunca se hicieron, hipótesis que nunca se plantearon, experimentos que nunca se probaron, inventos que nunca se crearon. Las ideas y conceptos gestantes en las mentes de grandes pensadores que fueron silenciados murieron con ellos y, al hacerlo, fueron permanentemente negadas a todas las generaciones por venir.

Soneto a la cienciapor Edgar Allan Poe¡Ciencia! ¡verdadera hija del tiempo tú eres! que alteras todas las cosas con tus escrutadores ojos.¿Por qué devoras así el corazón del poeta, buitre, cuyas alas son obtusas realidades?¿Cómo debería él amarte? o ¿cómo puede juzgarte sabia?Aquel a quien no dejas en su vagar buscar un tesoro en los enjoyados cielos, ¿Aunque se elevara con intrépida ala?¿No has arrebatado a Diana de su carro?¿Ni expulsado a las Hamadríades del bosque para buscar abrigo en alguna feliz estrella?¿No has arrancado a las Náyades de la inundación, al Elfo de la verde hierba, y a mí del sueño de verano bajo el tamarindo?

ciudadanos americanos tienen que considerar fuertemente su postura hacia el resto del mundo; deben ser más sensitivos.

Los tres puntos más relevantes de esta mesa en geopolítica, de acuerdo al director ejecutivo de la Fundación Helen Suzman de Sudáfrica, Raenette Taljaard, fueron:1. Dispersión del poder, pasando de un mundo unipolar hacia uno multipolar.2. Nuevas fuentes de distribución de países, dando lugar a mayores influencias.3. Amenazas por actores no estatales.

CAMBIO CLIMÁTICOAl Gore nos ha ilustrado y tratado de educar con un video didáctico sobre las consecuencias inmediatas del calentamiento global. Más que una campaña política, Gore señala cómo las variaciones de temperatura pueden provocar que millones de personas se conviertan en refugiados al perder su patrimonio, e incluso que muchos de estos millones perezcan ante la reacción de la “madre naturaleza” debido a la acción de nosotros como huéspedes de ella.

El simple cambio en nuestros hábitos diarios puede contribuir fuertemente a reducir las emisiones de gases contaminantes. Tal es el caso de desconectar aparatos eléctricos que no estemos usando, utilizar focos que ahorren energía, usar el auto cuando realmente lo necesitemos, entre muchos otros.

Por el lado industrial, Steve Chu, director del Laboratorio Nacional Lawrence Berkeley, mencionó que “50 por ciento de la energía que usa Estados Unidos puede eventualmente ser renovable”, y también que “la ciencia debe entrar con nuevas

soluciones para el cambio climático, ya sea por medio de combustibles renovables o leyes contra el uso de las emisiones de carbono”.

Para las mesas de negocios y finanzas, geopolítica, economía, ciencia, tecnología y sociedad, se pidió que se evalúen los aspectos que tendrán mayor peso en las economías en los años venideros, y de los mismos cuáles son más apremiantes, debido a que la población no está lista para ellos.

Los resultados fueron el cambio climático y los mercados emergentes como los de mayor impacto en el futuro de las economías y de nueva cuenta el cambio climático aunado a la inequidad como las variables que menos tienen preparación para ser enfrentadas en el transcurso de los años.

CIENCIA Y EDUCACIÓNEn este tema tan relevante y materia prima para el desarrollo de cualquier país, se discutió la creación de un Fondo Global para la Educación, que además de llevar la educación para todos como lo señala el programa Milenio de las Naciones Unidas, centra su preocupación en la mejora de la calidad de la misma.

Los panelistas coincidieron en que la educación debe ser universal y también debe crear ciudadanos globales comprometidos con la sociedad, que actúen con tolerancia y responsabilidad social.

CIENCIA MÉDICALa falta de acceso a los niveles básicos de cuidado médico fue una preocupación en Davos. Existe una clara necesidad de llevar la medicina a los lugares más alejados. La mención fue en el sentido de crear una medicina preventiva y no correctiva, al igual que mejor planeación en la distribución de los asentamientos humanos y la migración de los mismos hacia las ciudades con miras a mejorar la calidad de vida.

La educación de la población va a tener un efecto positivo, a la hora de crearles conciencia en sus hábitos y la relación de los mismos con las enfermedades. Es increíble pensar cómo enfermedades que se pensaba ya erradicadas, puedan dar señales de nuevos brotes en áreas remotas del globo. La investigación científica será de gran ayuda para hacer accesibles a los seres humanos, vacunas para males comunes y que en realidad las medidas sean planeadas y controladas, no sólo para corregir errores.

Para finalizar esta síntesis, Davos y su “Montaña Mágica” más que un espacio de discusión y diálogo debe ser vigilado de cerca para que los participantes en verdad se comprometan con sus propuestas, y que los ricos (por así decirlo) busquen la igualdad o mejorar la calidad de vida de los que menos tienen, así como no olvidar a la clase media, que muchas veces es la que sustenta los engranes de la maquinaria económica, y. por último, no olvidar el tema del planeta, que es nuestro hogar y que un esfuerzo pequeño de cambio de hábitos y cuidado del medio ambiente se va replicando como publicidad de boca en boca. Estamos en el vértice de un nuevo cambio disruptivo; de nosotros depende pasar a la siguiente etapa evolutiva y no quedar en una promesa de la naturaleza.

6 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 59

www.conocimientoenlinea.com

Actualmente soy un científico. Me suscribo a la religión de la ciencia, la cual tiene como artículo de fe el no creer en la fe. Esto significa que la ciencia debe cuestionar sus propias raíces. Al principio, esto parece una paradoja irresoluble; un cazador ineludible enjaulando a un zorro imposible de atrapar. Las respuestas o contenido de la ciencia (microorganismos, átomos, fórmulas, planetas y peluquines) no son la ciencia en sí. La ciencia no es contenido; de hecho, la ciencia es independiente del contenido. La ciencia es un proceso.

No puedo decir que he tenido “numerosas” experiencias donde, al observar a otra persona actuar en el mundo, me quedo muda. No me estoy refiriendo a quedarme muda como lo que experimentamos en un momento de asombro, cuando lo que percibimos tanto excede nuestras expectativas de excelencia, belleza o magnificencia, que nos quedamos sin nada más que la enormidad del silencio para empezar a asimilar lo que acabamos de experimentar. A lo que me estoy refiriendo es a quedarse mudo por otra razón: por una especie de shock inspirado por observar a uno o varios miembros de nuestra especie genuinamente sobresalir en el campo de lo absurdo.

Hace unas pocas semanas, una colega me invitó a ver un documental que recién fue transmitido en la televisión por cable estadounidense. El documental presentaba lo que muchos científicos y “expertos” creen son las siete principales amenazas a la seguridad de la humanidad. El calentamiento global, como era de esperarse, fue clasificado como la amenaza número uno. Habiéndome familiarizado de manera más íntima recientemente con el tema al escribir nuestro último artículo, El problema de los problemas, sentía curiosidad de ver cómo una de las principales cadenas de televisión podría presentar el tema.

El documental presentaba a un número de científicos y expertos actualmente trabajando con, o por lo menos expresando opiniones acerca de, calentamiento global. En un punto en particular del documental, resaltaron las siguientes declaraciones de un profesor universitario y la coautora de un libro acerca de cambio climático:

Profesor: Me parece extraordinario que haya alguien que pueda considerar al calentamiento global (al cambio climático) un debate. Claramente no es un debate. Coautora: No hay discusión creíble de

si es calentamiento ni si es debido a la actividad humana. Eso está muy claro.

Profesor: Tiene Ud. a toda la comunidad de ciencias del cambio climático básicamente en un lado, y en el otro lado tiene Ud. a quienes serán para ahora media docena de inconformes que están fingiendo que no está sucediendo.

Momentos después, el reportero entrevistó a un prominente político estadounidense que ha adoptado al calentamiento global como el centro de su plataforma política. El reportero preguntó, “¿Hay alguna duda entre los científicos de que el calentamiento global está ocurriendo, que es peligroso y que los humanos lo están causando?” A esto el político respondió, “No, el debate se acabó.”

Una cosa es ser testigo de que la prensa cometa un error; desafortunadamente, es algo que he llegado a esperar de la mayoría de los reporteros. Sin embargo, es algo extremadamente diferente experimentar a fuentes al parecer respetables derrumbándose, una tras otra, en una hecatombe de tales proporciones. Para cuando oí el último de estos tres enunciados, estaba muda. Después de una breve conversación acerca de mi experiencia con Keith Raniere, empecé a entender la intensidad de mi reacción.

En El problema de los problemas, examiné los principales argumentos acerca de calentamiento global (los llamados “hechos” utilizados para apoyar las siguientes seis conclusiones): 1. el calentamiento global está ocurriendo; 2. es una tendencia que continuará en el futuro; 3. los seres humanos estamos causando el calentamiento global; 4. el calentamiento global aniquilará a la vida en el planeta si no hacemos algo al respecto; 5. podemos hacer algo al respecto; 6. debemos hacer algo al respecto. Entienda que, para el público que nada sospecha, todas

estas parecen ser preocupaciones válidas. Desafortunadamente, quien haya formulado estas conclusiones aparentemente omitió dos pequeños elementos necesarios en cualquier proceso científico: exactitud y precisión.

La exactitud es la condición de ser consistentemente mensurable con lo que llamamos la “realidad”. La precisión es la habilidad para distinguir entre dos o más cosas; por lo tanto, los grados de precisión están determinados por cuantas distinciones pueda uno hacer acerca de una medición en particular. Para entender la diferencia entre exactitud y precisión, Keith Raniere brinda el siguiente ejemplo: suponga, después de pesarse en varias básculas, concluye Ud. que pesa 50 kilos. Si se sube a una báscula que indica que pesa 70 kilos, es posible decir que la báscula es inexacta: no concuerda con mediciones verificadas independientemente. Sin embargo, todas las cosas medidas son exactas dentro de una cierta precisión. Por lo tanto, las básculas que miden su peso en 50 kilos son al parecer exactas entre sí, mientras que la báscula que mide su peso en 70 kilos es exacta dentro de una precisión de 20 kilos. Sin embargo, si las múltiples básculas son sólo precisas en incrementos de 50 kilos, ¡Ud. podría de hecho pesar 70 kilos y todas ellas le indicarían que pesa 50! Ahora bien, si tiene Ud. dos básculas y una mide el peso en incrementos de medio kilo y la otra en incrementos de 50 gramos, es posible decir que la báscula con el mayor grado de distinciones (incrementos de 50 gramos) es más precisa. Por lo tanto, si su peso es de hecho de 50.2 kilos, pero una de las básculas registra su peso en 50 kilos, la báscula que registra 50.2 es más precisa. También , la báscula equipada para hacer distinciones consistentes entre los días en los que está Ud. en su peso “normal” y los días en los que pesa 50 gramos más o menos tiene mayor precisión que la báscula que le indica que pesa consistentemente lo mismo, a pesar de estas fluctuaciones.

menos calificados, y han aumentado la manufactura que también ha empujado el precio de algunos energéticos, como el del petróleo.

Por su lado, el vicepresidente ejecutivo del Banco de China, Min Zhu, dijo que la manufactura agrega valor, pero son los financieros quienes toman las decisiones estratégicas. De ahí la importancia, como sabemos, de la mente–factura sobre la mano–factura.

Las conclusiones de la sesión, señaladas por Kristin J. Forbes, profesora de Economía del MIT fueron:-El flujo del capital privado y la reducción de transparencia de los mercados globales de capital están redistribuyendo el control económico en formas difíciles de detectar. -Estamos presenciando un cambio en el poder económico, debido al surgimiento de un nuevo poder industrial en las economías emergentes.-La globalización económica está contribuyendo al poder de negociación del trabajo al capital y de trabajadores menos calificados y trabajadores mejor calificados.

Sintetizando la mesa económica en palabras de Kristin J. Forbes, tenemos tres puntos:1.Los mercados emergentes como poderes económicos.2. Aumento en la ansiedad debido a la inequidad y la seguridad del empleo, primordialmente en la clase media.3.Crecimiento en los mercados privados de capital.

CIENCIAS FINANCIERASPara Muhtar A. Kent, director y COO (Chief Operation Officer) de Coca Cola, en el futuro se seguirán incorporando consumidores de las economías emergentes a los mercados de los países desarrollados; por lo que es imperativo conocer sus necesidades, deseos y anhelos.

Cristóbal Conde, presidente y CEO (Chief Executive Officer) de Sungard, dice que las opiniones de los directivos no son “dogma de fe”, sino que deben sustentar cada una de sus decisiones con datos duros, confiables y científicamente probados a la hora de tomar decisiones.

GUERRA ENTRE TALENTO Y CAPITALPara Thomas A. Stewart , editor en jefe de Harvard Business Review, “existe una constante guerra entre talento y capital”, situación que se ejemplifica con el poder que tienen los CEO, y la influencia y acceso a la información de toda la sociedad relacionada con la empresa renueva la importancia de la responsabilidad social de toda organización.

Las conclusiones de los panelistas son de que el poder del consumidor, como han señalado expertos mercadólogos, continúa creciendo, y que los nuevos consumidores de los mercados emergentes están transformando y redefiniendo los negocios alrededor del mundo.

Para esta sesión, los tres factores de cambio en los negocios y en las finanzas, vistos desde la perspectiva de Scott J. Freidheim, administrador en jefe de Lehman Brothers en Estados Unidos, fueron:

1. La importancia de los mercados emergentes.2. La responsabilidad social de las empresas y la sustentabilidad.3. Las corporaciones quedan atrás, mayor importancia del consumidor.

CIENCIAS POLÍTICASTres son las variables que deben estar en la mente de todos los tomadores de decisiones en el mundo:1. Las amenazas de terrorismo y guerra.2. Las fuentes de energía y su distribución.3. El surgimiento de un mundo multipolar en donde ciertas naciones están inhibiendo el dominio de Estados Unidos.

La megalomanía y las viejas vendettas de grupos de poder ponen en riesgo el desarrollo de las economías a lo largo del mundo. Los casos concretos son los atentados terroristas, así como las pruebas nucleares que amenazan el crecimiento estable y compartido.

También la ventaja comparativa de ciertos países, al contar con grandes reservas de petróleo, provoca que utilicen políticas intimidantes dentro y fuera de su territorio; los terrenos de negociación se están llevando de acuerdo con la disponibilidad del famoso “oro negro”. De igual forma, India y China, primordialmente, están redistribuyendo el mapa geopolítico y las agendas de negociación de los líderes empresariales. También las comunidades virtuales del internet (blogs) se han congre-gado como nuevas fuerzas críticas del actuar político de las na-ciones. Pei Minxin, director asociado del Programa Chino de la Organización de Paz Internacional Carnegie, consideró que los

Page 61: Revista Conocimiento 47

58 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 7

www.conocimientoenlinea.com

Esto no quiere decir que el enunciado “Plutón es (o no es) un planeta” no sea parte de la ciencia: después de todo, la ciencia sí incluye al cuerpo de conocimientos acumulados a través de la historia de la humanidad. Incluso nuestra creencia de que el mundo era plano y sostenido por tres elefantes y una tortuga (tan ridículo como suena eso ahora) es parte de la ciencia. Sin la referencia de un planeta “plano”, quizás no hubiéramos sido capaces de entender

lo que es un planeta “redondo”. Y ahora, conforme han evolucionado nuestras distinciones acerca de lo “redondo”, podemos decir que la Tierra es un “esferoide oblongo”. “Plano”, “redondo” y “esferoide oblongo” (cada uno “verdadero” en su momento) forman parte de nuestra ciencia y pueden ser entendidos como refinamientos progresivos del mismo tema. Pero lo mismo se puede decir de la mantequilla: hace unos pocos años, los científicos

dijeron que la mantequilla era mala por su alto nivel de colesterol; ahora la margarina, el sustituto de la mantequilla, ha resultado ser igual de mala.

Si Ud. está viendo más allá de los puntos específicos de datos… de plano a redondo a esferoide oblongo a… de “la mantequilla es mala, la margarina es buena” a “la mantequilla es buena, la margarina es mala” a… es posible que esté ya dándose cuenta.

Sin que lo supieran los involucrados, lo que se nos estaba enseñando no era ciencia en lo absoluto. Sin embargo, como un ladrón en la oscuridad de la noche, la experiencia de la ciencia nos tomó por sorpresa y reclamó nuestras mentes como su trofeo.

El segundo recuerdo, tristemente, se adelanta algunos años hasta la secundaria. Un día, al estudiar moluscos en la clase de biología de Miss McIlvain, ella sacó un recipiente de plástico lleno de especimenes suspendidos en un líquido transparente. Casi al final se su presentación, apuntó hacia una pequeña masa obscura y velluda y dijo, “…y esta es la lengua de un fumador crónico.” Sin importar dónde estaba mi mente en ese momento, en un instante fue arrebatada de vuelta. “¡¿Es una qué?!” Sentí escalofríos. Miré a mis compañeros de clase, que parecían sentir la misma repulsión que yo, y después otra vez a mi maestra. Momentos después, Miss McIlvain reía: “No deben creerse todo lo que oyen, aún si se los dice su maestra.” Ese día, aprendí que era posible que el mundo no se acabara si cuestionaba lo que me decían.

Este podría parecer un punto trivial pero, honestamente, ¿a cuántos de nosotros se nos enseña que es bueno cuestionar lo que se nos enseña? Si Ud. es padre de familia o alguna vez ha lidiado con niños, ¿se ha visto recurriendo a la respuesta universal de “¡porque yo digo!”? Tradicionalmente, no se nos enseña cómo pensar; se nos enseña qué pensar: ¡piénselo! Aprender qué pensar es fácil: todo lo que hay que hacer es memorizar y luego repetir el conocimiento en los momentos más apropiados. Pero aprender cómo pensar es completamente diferente: debemos estar dispuestos a salir al mundo y probar nuestras hipótesis; debemos ser lo suficientemente fuertes para fracasar, para estar equivocados; y, sobre todo,

debemos estar dispuestos a adueñarnos del hecho de que, a fin de cuentas, realmente no sabemos nada.

De nuevo, un componente de la ciencia es lo que sabemos; podemos llamar a esto el “contenido” de la ciencia. Más importantemente, la ciencia es un proceso; es una forma de llegar a saber. Con respecto al proceso y contenido de la ciencia, Keith Raniere denota: “La

ciencia es un proceso de conocer; es un proceso a través del cual observamos, cuantificamos y explicamos nuestra percepción de la realidad. Como contenido, la ciencia es conocimiento organizado, donde la organización es consistente y reproducible, por lo tanto verificable.”

¿Qué pasa cuando intentamos definir a la ciencia por completo solamente en base a su contenido? Imagine vivir en Europa del siglo XVII, por los tiempos de Galileo. A través de la ciencia (proceso), llegamos al modelo geocéntrico del universo (contenido): creímos que el sol y los planetas giraban alrededor de la Tierra. En algún momento, científicos, magistrados religiosos y autoridades públicas reemplazaron el proceso de la ciencia con el conocimiento que había sido derivado a través de la ciencia. ¿Cuáles fueron las consecuencias de dicho acto? Lo que vimos fue que cualquier cuestionamiento de la “ciencia” (realmente, el contenido del modelo geocéntrico) podía ser castigado con cárcel, excomunión y, en algunos casos, la muerte. Lo que no vimos, pero seguimos experimentando como repercusiones, fue la destrucción de la exploración científica adicional por miedo al castigo: preguntas que nunca se hicieron, hipótesis que nunca se plantearon, experimentos que nunca se probaron, inventos que nunca se crearon. Las ideas y conceptos gestantes en las mentes de grandes pensadores que fueron silenciados murieron con ellos y, al hacerlo, fueron permanentemente negadas a todas las generaciones por venir.

Soneto a la cienciapor Edgar Allan Poe¡Ciencia! ¡verdadera hija del tiempo tú eres! que alteras todas las cosas con tus escrutadores ojos.¿Por qué devoras así el corazón del poeta, buitre, cuyas alas son obtusas realidades?¿Cómo debería él amarte? o ¿cómo puede juzgarte sabia?Aquel a quien no dejas en su vagar buscar un tesoro en los enjoyados cielos, ¿Aunque se elevara con intrépida ala?¿No has arrebatado a Diana de su carro?¿Ni expulsado a las Hamadríades del bosque para buscar abrigo en alguna feliz estrella?¿No has arrancado a las Náyades de la inundación, al Elfo de la verde hierba, y a mí del sueño de verano bajo el tamarindo?

ciudadanos americanos tienen que considerar fuertemente su postura hacia el resto del mundo; deben ser más sensitivos.

Los tres puntos más relevantes de esta mesa en geopolítica, de acuerdo al director ejecutivo de la Fundación Helen Suzman de Sudáfrica, Raenette Taljaard, fueron:1. Dispersión del poder, pasando de un mundo unipolar hacia uno multipolar.2. Nuevas fuentes de distribución de países, dando lugar a mayores influencias.3. Amenazas por actores no estatales.

CAMBIO CLIMÁTICOAl Gore nos ha ilustrado y tratado de educar con un video didáctico sobre las consecuencias inmediatas del calentamiento global. Más que una campaña política, Gore señala cómo las variaciones de temperatura pueden provocar que millones de personas se conviertan en refugiados al perder su patrimonio, e incluso que muchos de estos millones perezcan ante la reacción de la “madre naturaleza” debido a la acción de nosotros como huéspedes de ella.

El simple cambio en nuestros hábitos diarios puede contribuir fuertemente a reducir las emisiones de gases contaminantes. Tal es el caso de desconectar aparatos eléctricos que no estemos usando, utilizar focos que ahorren energía, usar el auto cuando realmente lo necesitemos, entre muchos otros.

Por el lado industrial, Steve Chu, director del Laboratorio Nacional Lawrence Berkeley, mencionó que “50 por ciento de la energía que usa Estados Unidos puede eventualmente ser renovable”, y también que “la ciencia debe entrar con nuevas

soluciones para el cambio climático, ya sea por medio de combustibles renovables o leyes contra el uso de las emisiones de carbono”.

Para las mesas de negocios y finanzas, geopolítica, economía, ciencia, tecnología y sociedad, se pidió que se evalúen los aspectos que tendrán mayor peso en las economías en los años venideros, y de los mismos cuáles son más apremiantes, debido a que la población no está lista para ellos.

Los resultados fueron el cambio climático y los mercados emergentes como los de mayor impacto en el futuro de las economías y de nueva cuenta el cambio climático aunado a la inequidad como las variables que menos tienen preparación para ser enfrentadas en el transcurso de los años.

CIENCIA Y EDUCACIÓNEn este tema tan relevante y materia prima para el desarrollo de cualquier país, se discutió la creación de un Fondo Global para la Educación, que además de llevar la educación para todos como lo señala el programa Milenio de las Naciones Unidas, centra su preocupación en la mejora de la calidad de la misma.

Los panelistas coincidieron en que la educación debe ser universal y también debe crear ciudadanos globales comprometidos con la sociedad, que actúen con tolerancia y responsabilidad social.

CIENCIA MÉDICALa falta de acceso a los niveles básicos de cuidado médico fue una preocupación en Davos. Existe una clara necesidad de llevar la medicina a los lugares más alejados. La mención fue en el sentido de crear una medicina preventiva y no correctiva, al igual que mejor planeación en la distribución de los asentamientos humanos y la migración de los mismos hacia las ciudades con miras a mejorar la calidad de vida.

La educación de la población va a tener un efecto positivo, a la hora de crearles conciencia en sus hábitos y la relación de los mismos con las enfermedades. Es increíble pensar cómo enfermedades que se pensaba ya erradicadas, puedan dar señales de nuevos brotes en áreas remotas del globo. La investigación científica será de gran ayuda para hacer accesibles a los seres humanos, vacunas para males comunes y que en realidad las medidas sean planeadas y controladas, no sólo para corregir errores.

Para finalizar esta síntesis, Davos y su “Montaña Mágica” más que un espacio de discusión y diálogo debe ser vigilado de cerca para que los participantes en verdad se comprometan con sus propuestas, y que los ricos (por así decirlo) busquen la igualdad o mejorar la calidad de vida de los que menos tienen, así como no olvidar a la clase media, que muchas veces es la que sustenta los engranes de la maquinaria económica, y. por último, no olvidar el tema del planeta, que es nuestro hogar y que un esfuerzo pequeño de cambio de hábitos y cuidado del medio ambiente se va replicando como publicidad de boca en boca. Estamos en el vértice de un nuevo cambio disruptivo; de nosotros depende pasar a la siguiente etapa evolutiva y no quedar en una promesa de la naturaleza.

6 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 59

www.conocimientoenlinea.com

Actualmente soy un científico. Me suscribo a la religión de la ciencia, la cual tiene como artículo de fe el no creer en la fe. Esto significa que la ciencia debe cuestionar sus propias raíces. Al principio, esto parece una paradoja irresoluble; un cazador ineludible enjaulando a un zorro imposible de atrapar. Las respuestas o contenido de la ciencia (microorganismos, átomos, fórmulas, planetas y peluquines) no son la ciencia en sí. La ciencia no es contenido; de hecho, la ciencia es independiente del contenido. La ciencia es un proceso.

No puedo decir que he tenido “numerosas” experiencias donde, al observar a otra persona actuar en el mundo, me quedo muda. No me estoy refiriendo a quedarme muda como lo que experimentamos en un momento de asombro, cuando lo que percibimos tanto excede nuestras expectativas de excelencia, belleza o magnificencia, que nos quedamos sin nada más que la enormidad del silencio para empezar a asimilar lo que acabamos de experimentar. A lo que me estoy refiriendo es a quedarse mudo por otra razón: por una especie de shock inspirado por observar a uno o varios miembros de nuestra especie genuinamente sobresalir en el campo de lo absurdo.

Hace unas pocas semanas, una colega me invitó a ver un documental que recién fue transmitido en la televisión por cable estadounidense. El documental presentaba lo que muchos científicos y “expertos” creen son las siete principales amenazas a la seguridad de la humanidad. El calentamiento global, como era de esperarse, fue clasificado como la amenaza número uno. Habiéndome familiarizado de manera más íntima recientemente con el tema al escribir nuestro último artículo, El problema de los problemas, sentía curiosidad de ver cómo una de las principales cadenas de televisión podría presentar el tema.

El documental presentaba a un número de científicos y expertos actualmente trabajando con, o por lo menos expresando opiniones acerca de, calentamiento global. En un punto en particular del documental, resaltaron las siguientes declaraciones de un profesor universitario y la coautora de un libro acerca de cambio climático:

Profesor: Me parece extraordinario que haya alguien que pueda considerar al calentamiento global (al cambio climático) un debate. Claramente no es un debate. Coautora: No hay discusión creíble de

si es calentamiento ni si es debido a la actividad humana. Eso está muy claro.

Profesor: Tiene Ud. a toda la comunidad de ciencias del cambio climático básicamente en un lado, y en el otro lado tiene Ud. a quienes serán para ahora media docena de inconformes que están fingiendo que no está sucediendo.

Momentos después, el reportero entrevistó a un prominente político estadounidense que ha adoptado al calentamiento global como el centro de su plataforma política. El reportero preguntó, “¿Hay alguna duda entre los científicos de que el calentamiento global está ocurriendo, que es peligroso y que los humanos lo están causando?” A esto el político respondió, “No, el debate se acabó.”

Una cosa es ser testigo de que la prensa cometa un error; desafortunadamente, es algo que he llegado a esperar de la mayoría de los reporteros. Sin embargo, es algo extremadamente diferente experimentar a fuentes al parecer respetables derrumbándose, una tras otra, en una hecatombe de tales proporciones. Para cuando oí el último de estos tres enunciados, estaba muda. Después de una breve conversación acerca de mi experiencia con Keith Raniere, empecé a entender la intensidad de mi reacción.

En El problema de los problemas, examiné los principales argumentos acerca de calentamiento global (los llamados “hechos” utilizados para apoyar las siguientes seis conclusiones): 1. el calentamiento global está ocurriendo; 2. es una tendencia que continuará en el futuro; 3. los seres humanos estamos causando el calentamiento global; 4. el calentamiento global aniquilará a la vida en el planeta si no hacemos algo al respecto; 5. podemos hacer algo al respecto; 6. debemos hacer algo al respecto. Entienda que, para el público que nada sospecha, todas

estas parecen ser preocupaciones válidas. Desafortunadamente, quien haya formulado estas conclusiones aparentemente omitió dos pequeños elementos necesarios en cualquier proceso científico: exactitud y precisión.

La exactitud es la condición de ser consistentemente mensurable con lo que llamamos la “realidad”. La precisión es la habilidad para distinguir entre dos o más cosas; por lo tanto, los grados de precisión están determinados por cuantas distinciones pueda uno hacer acerca de una medición en particular. Para entender la diferencia entre exactitud y precisión, Keith Raniere brinda el siguiente ejemplo: suponga, después de pesarse en varias básculas, concluye Ud. que pesa 50 kilos. Si se sube a una báscula que indica que pesa 70 kilos, es posible decir que la báscula es inexacta: no concuerda con mediciones verificadas independientemente. Sin embargo, todas las cosas medidas son exactas dentro de una cierta precisión. Por lo tanto, las básculas que miden su peso en 50 kilos son al parecer exactas entre sí, mientras que la báscula que mide su peso en 70 kilos es exacta dentro de una precisión de 20 kilos. Sin embargo, si las múltiples básculas son sólo precisas en incrementos de 50 kilos, ¡Ud. podría de hecho pesar 70 kilos y todas ellas le indicarían que pesa 50! Ahora bien, si tiene Ud. dos básculas y una mide el peso en incrementos de medio kilo y la otra en incrementos de 50 gramos, es posible decir que la báscula con el mayor grado de distinciones (incrementos de 50 gramos) es más precisa. Por lo tanto, si su peso es de hecho de 50.2 kilos, pero una de las básculas registra su peso en 50 kilos, la báscula que registra 50.2 es más precisa. También , la báscula equipada para hacer distinciones consistentes entre los días en los que está Ud. en su peso “normal” y los días en los que pesa 50 gramos más o menos tiene mayor precisión que la báscula que le indica que pesa consistentemente lo mismo, a pesar de estas fluctuaciones.

menos calificados, y han aumentado la manufactura que también ha empujado el precio de algunos energéticos, como el del petróleo.

Por su lado, el vicepresidente ejecutivo del Banco de China, Min Zhu, dijo que la manufactura agrega valor, pero son los financieros quienes toman las decisiones estratégicas. De ahí la importancia, como sabemos, de la mente–factura sobre la mano–factura.

Las conclusiones de la sesión, señaladas por Kristin J. Forbes, profesora de Economía del MIT fueron:-El flujo del capital privado y la reducción de transparencia de los mercados globales de capital están redistribuyendo el control económico en formas difíciles de detectar. -Estamos presenciando un cambio en el poder económico, debido al surgimiento de un nuevo poder industrial en las economías emergentes.-La globalización económica está contribuyendo al poder de negociación del trabajo al capital y de trabajadores menos calificados y trabajadores mejor calificados.

Sintetizando la mesa económica en palabras de Kristin J. Forbes, tenemos tres puntos:1.Los mercados emergentes como poderes económicos.2. Aumento en la ansiedad debido a la inequidad y la seguridad del empleo, primordialmente en la clase media.3.Crecimiento en los mercados privados de capital.

CIENCIAS FINANCIERASPara Muhtar A. Kent, director y COO (Chief Operation Officer) de Coca Cola, en el futuro se seguirán incorporando consumidores de las economías emergentes a los mercados de los países desarrollados; por lo que es imperativo conocer sus necesidades, deseos y anhelos.

Cristóbal Conde, presidente y CEO (Chief Executive Officer) de Sungard, dice que las opiniones de los directivos no son “dogma de fe”, sino que deben sustentar cada una de sus decisiones con datos duros, confiables y científicamente probados a la hora de tomar decisiones.

GUERRA ENTRE TALENTO Y CAPITALPara Thomas A. Stewart , editor en jefe de Harvard Business Review, “existe una constante guerra entre talento y capital”, situación que se ejemplifica con el poder que tienen los CEO, y la influencia y acceso a la información de toda la sociedad relacionada con la empresa renueva la importancia de la responsabilidad social de toda organización.

Las conclusiones de los panelistas son de que el poder del consumidor, como han señalado expertos mercadólogos, continúa creciendo, y que los nuevos consumidores de los mercados emergentes están transformando y redefiniendo los negocios alrededor del mundo.

Para esta sesión, los tres factores de cambio en los negocios y en las finanzas, vistos desde la perspectiva de Scott J. Freidheim, administrador en jefe de Lehman Brothers en Estados Unidos, fueron:

1. La importancia de los mercados emergentes.2. La responsabilidad social de las empresas y la sustentabilidad.3. Las corporaciones quedan atrás, mayor importancia del consumidor.

CIENCIAS POLÍTICASTres son las variables que deben estar en la mente de todos los tomadores de decisiones en el mundo:1. Las amenazas de terrorismo y guerra.2. Las fuentes de energía y su distribución.3. El surgimiento de un mundo multipolar en donde ciertas naciones están inhibiendo el dominio de Estados Unidos.

La megalomanía y las viejas vendettas de grupos de poder ponen en riesgo el desarrollo de las economías a lo largo del mundo. Los casos concretos son los atentados terroristas, así como las pruebas nucleares que amenazan el crecimiento estable y compartido.

También la ventaja comparativa de ciertos países, al contar con grandes reservas de petróleo, provoca que utilicen políticas intimidantes dentro y fuera de su territorio; los terrenos de negociación se están llevando de acuerdo con la disponibilidad del famoso “oro negro”. De igual forma, India y China, primordialmente, están redistribuyendo el mapa geopolítico y las agendas de negociación de los líderes empresariales. También las comunidades virtuales del internet (blogs) se han congre-gado como nuevas fuerzas críticas del actuar político de las na-ciones. Pei Minxin, director asociado del Programa Chino de la Organización de Paz Internacional Carnegie, consideró que los

Page 62: Revista Conocimiento 47

60 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 5

www.conocimientoenlinea.com

En la ciencia, denota Keith Raniere, la exactitud se discute conjuntamente con la precisión: no existe un concepto de exactitud por sí sola.

Lo que descubrí en mi investigación para El problema de los problemas fue que tanto exactitud como precisión hacían mucha falta en la mayoría de la “evidencia científica” que sustentaba cualquiera de las seis conclusiones acerca de calentamiento global. Por ejemplo, la mayoría de los reportes de temperatura climática utilizados para probar que la temperatura de la Tierra está en aumento fueron generados en base a temperaturas tomadas del suelo, las cuales, indican los climatólogos, con frecuencia resultan engañosas. Datos de instrumentos más precisos, como las mediciones satelitales, fueron típicamente omitidos. Esto, podríamos alegar, puede ser simplemente una “cuestión de precisión”. Es similar a decir, “¿A quién le importa si la temperatura de la tierra está aumentando dos décimas

de grado o dos grados al año? ¡El punto es que la temperatura está subiendo!” Dependiendo de la exactitud y precisión con la que medimos, los errores en nuestras mediciones de calentamiento global se multiplican con cada extrapolación: de los datos en bruto, a la interpretación, a la hipótesis, al pronóstico, y así sucesivamente. Es muy posible que el planeta se esté enfriando y, debido a errores en la medición, percibimos que se está calentando. Los modelos, como los que presentaron los proponentes del calentamiento global, están simplemente diseñados para mostrar los efectos de un conjunto de factores bajo ciertos supuestos. En las ciencias computacionales, hay un concepto llamado “GIGO” que representa las siglas en inglés de “basura entra, basura sale” (Garbage In, Garbage Out). GIGO declara que cuando se alimentan datos fallidos a la computadora, la información que emerge también es fallida (nota: tanto “factores” como “supuestos” forman parte de los datos

entrantes). Por lo tanto, si aceptamos los datos sin referencia a la precisión, el “calentamiento global” puede no ser más que un artefacto de la imprecisión.

Precaución lectores: aún hay más. Si consideramos que las variaciones de temperatura de la Tierra sólo han sido registradas desde mediados del siglo XIX (y, por cierto, con variaciones considerables de precisión en los instrumentos de medición) y comparamos esos 150 años con las aproximaciones de las variaciones climáticas durante lo que hemos estimado es la vida total del planeta (actualmente, 4,567 millones de años), los hallazgos prácticamente carecen de significado. Así que lo que observamos como una gran variación (fluctuaciones en nuestros 150 años de datos) en el esquema completo (4,567 millones de años), es en realidad una pequeña variación. Esto trae a la mente una cita de la película Gran Cañón (Grand Canyon, en inglés): “Es un segundo el que hemos estado aquí, la totalidad de nosotros. ¿Y uno de nosotros? Ese pedazo de tiempo es demasiado pequeño para tener nombre. Esas rocas se estaban riendo de mí, lo pude ver. Fue algo realmente gracioso para el Gran Cañón. ¿Sabes cómo se sintió? Me sentí como una pulga que aterriza en el trasero de una vaca que está pastando junto al camino por el que pasas a 120 Km./h.”

Aún si nuestra ciencia fuera lo suficientemente exacta y precisa para medir nuestro supuesto calentamiento global, predecirlo hacia el futuro es un asunto enteramente diferente. Predecir el calentamiento global puede ser tan difícil como predecir la bolsa de valores. ¡Puede incluso ser tan difícil como predecir el clima!

Mientras más entendemos proceso y contenido, más aparente se vuelve cualquier corrupción del proceso o falsificación del contenido. Recientemente, vi otro documental acerca del calentamiento global que recientemente ha recibido mucha atención y también, tristemente, apoyo por parte del público estadounidense. En el film, el mismo político entrevistado en el otro documental aparece impartiendo una conferencia sobre calentamiento global al público de un auditorio. Detrás de él está una gigantesca pantalla de plasma

El poder de la conectividad del mundo es una realidad; “el internet ha probado tener beneficios tanto para los jóvenes como los adultos”, comentó Peter Schwartz, de Global Business Network.

A su vez, la globalización ha permitido, como lo dice Daniel Shapiro, director asociado del Proyecto de Negociación en la Universidad de Harvard, “que la gente te haya leído, haya oído de ti, pero en realidad no te conozca”, para él el mundo virtual se incrementa, pero la conexión humana se pierde. La interacción de los individuos se ha transformado, el mundo de los bits y bytes les permite trasladarse a cualquier parte del mundo, obtener información en segundos, cambiar de identidad o tener una vida alterna en un mundo de fantasía.

Continúa el miedo de que surjan nuevos Big Brothers en el escenario y se teme tanto por la privacidad, anonimato y seguridad de todos los que navegamos en el mundo de los bits y bytes. Es muy difícil controlar el flujo de información, dice Shai Hagáis, presidente del Grupo de Tecnología y Productos y miembro del Comité Ejecutivo, SAP de Alemania.

Aunque, claro, nuestra identificación y conexión con el mundo se ve reducida a los dispositivos electro–mecánicos que usamos

diariamente, como computadoras, celulares, reproductores de música, localizadores, entre diversos más.

En tecnología y sociedad, Agassi identificó tres puntos convergentes en la ecuación del cambio de poder, que son:1. Desplazamiento de la inteligencia individual a la colectiva.2. Nuevos poderes en la demografía.3. Individuos que agregan valor real y virtual.

CIENCIAS ECONÓMICASEl contexto al que se enfrentan los líderes es que existe una gran disparidad entre la distribución del ingreso; tan sólo podemos decir que, en promedio, el 20 por ciento de la población controla el 74 por ciento de los ingresos, y se piensa que en 2015 vamos a tener 700 millones de pobres que viven con menos de un dólar diario, según datos proyectados de Gap Minder.

Sin embargo, “las economías emergentes pueden ser comparadas al Renacimiento o la Revolución Industrial en una escala histórica”, según Eric Pooley, editor de Time. Por su parte, Nouriel Roubini, profesor y director de la Economía Global, dijo que China e India han añadido alrededor de dos mil 200 millones de trabajadores; han presionado a los trabajadores

Page 63: Revista Conocimiento 47

60 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 5

www.conocimientoenlinea.com

En la ciencia, denota Keith Raniere, la exactitud se discute conjuntamente con la precisión: no existe un concepto de exactitud por sí sola.

Lo que descubrí en mi investigación para El problema de los problemas fue que tanto exactitud como precisión hacían mucha falta en la mayoría de la “evidencia científica” que sustentaba cualquiera de las seis conclusiones acerca de calentamiento global. Por ejemplo, la mayoría de los reportes de temperatura climática utilizados para probar que la temperatura de la Tierra está en aumento fueron generados en base a temperaturas tomadas del suelo, las cuales, indican los climatólogos, con frecuencia resultan engañosas. Datos de instrumentos más precisos, como las mediciones satelitales, fueron típicamente omitidos. Esto, podríamos alegar, puede ser simplemente una “cuestión de precisión”. Es similar a decir, “¿A quién le importa si la temperatura de la tierra está aumentando dos décimas

de grado o dos grados al año? ¡El punto es que la temperatura está subiendo!” Dependiendo de la exactitud y precisión con la que medimos, los errores en nuestras mediciones de calentamiento global se multiplican con cada extrapolación: de los datos en bruto, a la interpretación, a la hipótesis, al pronóstico, y así sucesivamente. Es muy posible que el planeta se esté enfriando y, debido a errores en la medición, percibimos que se está calentando. Los modelos, como los que presentaron los proponentes del calentamiento global, están simplemente diseñados para mostrar los efectos de un conjunto de factores bajo ciertos supuestos. En las ciencias computacionales, hay un concepto llamado “GIGO” que representa las siglas en inglés de “basura entra, basura sale” (Garbage In, Garbage Out). GIGO declara que cuando se alimentan datos fallidos a la computadora, la información que emerge también es fallida (nota: tanto “factores” como “supuestos” forman parte de los datos

entrantes). Por lo tanto, si aceptamos los datos sin referencia a la precisión, el “calentamiento global” puede no ser más que un artefacto de la imprecisión.

Precaución lectores: aún hay más. Si consideramos que las variaciones de temperatura de la Tierra sólo han sido registradas desde mediados del siglo XIX (y, por cierto, con variaciones considerables de precisión en los instrumentos de medición) y comparamos esos 150 años con las aproximaciones de las variaciones climáticas durante lo que hemos estimado es la vida total del planeta (actualmente, 4,567 millones de años), los hallazgos prácticamente carecen de significado. Así que lo que observamos como una gran variación (fluctuaciones en nuestros 150 años de datos) en el esquema completo (4,567 millones de años), es en realidad una pequeña variación. Esto trae a la mente una cita de la película Gran Cañón (Grand Canyon, en inglés): “Es un segundo el que hemos estado aquí, la totalidad de nosotros. ¿Y uno de nosotros? Ese pedazo de tiempo es demasiado pequeño para tener nombre. Esas rocas se estaban riendo de mí, lo pude ver. Fue algo realmente gracioso para el Gran Cañón. ¿Sabes cómo se sintió? Me sentí como una pulga que aterriza en el trasero de una vaca que está pastando junto al camino por el que pasas a 120 Km./h.”

Aún si nuestra ciencia fuera lo suficientemente exacta y precisa para medir nuestro supuesto calentamiento global, predecirlo hacia el futuro es un asunto enteramente diferente. Predecir el calentamiento global puede ser tan difícil como predecir la bolsa de valores. ¡Puede incluso ser tan difícil como predecir el clima!

Mientras más entendemos proceso y contenido, más aparente se vuelve cualquier corrupción del proceso o falsificación del contenido. Recientemente, vi otro documental acerca del calentamiento global que recientemente ha recibido mucha atención y también, tristemente, apoyo por parte del público estadounidense. En el film, el mismo político entrevistado en el otro documental aparece impartiendo una conferencia sobre calentamiento global al público de un auditorio. Detrás de él está una gigantesca pantalla de plasma

El poder de la conectividad del mundo es una realidad; “el internet ha probado tener beneficios tanto para los jóvenes como los adultos”, comentó Peter Schwartz, de Global Business Network.

A su vez, la globalización ha permitido, como lo dice Daniel Shapiro, director asociado del Proyecto de Negociación en la Universidad de Harvard, “que la gente te haya leído, haya oído de ti, pero en realidad no te conozca”, para él el mundo virtual se incrementa, pero la conexión humana se pierde. La interacción de los individuos se ha transformado, el mundo de los bits y bytes les permite trasladarse a cualquier parte del mundo, obtener información en segundos, cambiar de identidad o tener una vida alterna en un mundo de fantasía.

Continúa el miedo de que surjan nuevos Big Brothers en el escenario y se teme tanto por la privacidad, anonimato y seguridad de todos los que navegamos en el mundo de los bits y bytes. Es muy difícil controlar el flujo de información, dice Shai Hagáis, presidente del Grupo de Tecnología y Productos y miembro del Comité Ejecutivo, SAP de Alemania.

Aunque, claro, nuestra identificación y conexión con el mundo se ve reducida a los dispositivos electro–mecánicos que usamos

diariamente, como computadoras, celulares, reproductores de música, localizadores, entre diversos más.

En tecnología y sociedad, Agassi identificó tres puntos convergentes en la ecuación del cambio de poder, que son:1. Desplazamiento de la inteligencia individual a la colectiva.2. Nuevos poderes en la demografía.3. Individuos que agregan valor real y virtual.

CIENCIAS ECONÓMICASEl contexto al que se enfrentan los líderes es que existe una gran disparidad entre la distribución del ingreso; tan sólo podemos decir que, en promedio, el 20 por ciento de la población controla el 74 por ciento de los ingresos, y se piensa que en 2015 vamos a tener 700 millones de pobres que viven con menos de un dólar diario, según datos proyectados de Gap Minder.

Sin embargo, “las economías emergentes pueden ser comparadas al Renacimiento o la Revolución Industrial en una escala histórica”, según Eric Pooley, editor de Time. Por su parte, Nouriel Roubini, profesor y director de la Economía Global, dijo que China e India han añadido alrededor de dos mil 200 millones de trabajadores; han presionado a los trabajadores

Davos y la Ciencia

Maestro Rodrigo SotoMercadotecnia Social

Estamos en la región de los Alpes de Suiza, en el cantón de los Grisones (único cantón con tres lenguas oficiales: alemán, italiano y romanche) pero esta vez no nos acompaña Hans Castorp, personaje de Thomas Mann en

la novela La Montaña Mágica, para visitar en el sanatorio a su primo Joachim Ziemssen. En esta ocasión, los faros luminosos se encuentran enfocados en la reunión del Foro Económico Mundial.

Este evento congrega a unos dos mil líderes de negocios, políticos, académicos, representantes religiosos y de organizaciones no gubernamentales, entre otros, que forman un complejo grupo de hombres y mujeres poderosos, de alrededor de 100 países, cuyas decisiones se comportan al estilo “efecto mariposa”, pues su sola rúbrica en una política económica tiene un efecto impactante en todo el globo terráqueo.

El precepto de creación del Foro, de acuerdo con su fundador, profesor Klaus Schwab en 1971, es que los negocios no pueden operar en una esfera al vacío (o en una Torre de Marfil), y que todos los grandes retos a que se enfrenta la humanidad deben ser abordados por todos los actores de una sociedad.

Más que un club privado de ricos, el Foro cree que el desarrollo económico ha creado una mejor calidad de vida para millones de individuos y ofrece esperanza de mejora a millones más. El tema central de esta reunión anual número 37 fue “La Ecuación del Cambio de Poder”; es decir, el surgimiento de nuevos actores, en el cual los 100 mil millones de neuronas del cerebro juegan un rol central en esta economía basada en el conocimiento; pero también surgen nuevos agentes que ponen en tela de juicio el desarrollo de los países, como es el caso de los cambios en el medio ambiente con el conocido “Calentamiento Global”, sin olvidar la búsqueda de la equidad de distribución en el ingreso.

A continuación se presenta una síntesis de algunos temas destacados de este evento, obtenidos de www.weforum.org.

CIENCIA, TECNOLOGÍA Y SOCIEDADLos expertos señalan que la tecnología tiende a ser un factor de progreso social, un cambio disruptivo en las economías, y que difícilmente se le puede catalogar en términos de moralidad; simplemente es un medio, herramienta o vehículo sujeto en gran medida al uso que se le da, según la mayoría de los panelistas.

4 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 61

www.conocimientoenlinea.com

o proyección, inicialmente totalmente negra. Conforme inicia su presentación, una línea roja empieza a cortar a través de la oscuridad de la pantalla tras de él, disparándose y cayendo en pronunciado zigzagueo, gradualmente aumentando. El político apunta a la pantalla e indica que la línea fue tomada de una gráfica indicando el aumento en la temperatura de nuestro planeta. Tengo que admitirlo, con el fondo negro y los altibajos pronunciados, ¡la línea roja se veía bastante siniestra! ¿Sabe Ud. lo que significa una línea zigzagueante sin ejes, etiquetas, intervalos de confianza o barras de error? Significa una línea zigzagueante y ya.Cuando le comuniqué a Keith Raniere la declaración del científico sobre el supuesto consenso entre la comunidad científica respecto al calentamiento global, contestó, “Si alguna vez llega a haber consenso entre científicos, es un serio problema. Al momento que un

científico cree que se ha descubierto una respuesta absoluta, él o ella deja de ser un científico.” He de confirmar que esta ha sido mi experiencia de él: aún cuando parece llegar a las conclusiones más lógicas, las somete a más cuestionamientos. Esto es lo que muchas personas típicamente interpretan como el escape del escéptico: cuestionar por cuestionar, ser un abogado del diablo por el afán (o la emoción, para algunos) de serlo. Sin embargo, encuentro que él cuestiona con la intención de refinar su comprensión del tema en cuestión.

Sustituir o falsificar el proceso de la ciencia con su contenido es el acto de destruir a la ciencia misma. Por esto pagamos no sólo con nuestras vidas; pagamos con nuestra libertad de pensamiento y expresión, y la de los demás. Si todos los grandes pensadores del mundo son silenciados, es posible (quizás en alguna futura generación) que alguien quizás vuelva a cuestionar, descubra e impulse el conocimiento prohibido. Sin embargo, hasta que llegue ese momento, si es que llega, cada persona excluida del conocimiento habrá dejado su huella en esta Tierra. Cada uno habrá creado tecnología, erigido estructuras, creado programas educativos, etc., sobre una premisa falsa. De muchas formas, estos efectos son irreversibles; la causa (nuestra forma de pensar) puede ser reversible, pero sólo si estamos dispuestos a transformarla.

Como científicos, mientras más “tengamos la razón”, más necesitamos cuestionar; y cuestionar verdaderamente aniquilando nuestra “razón” asumiendo que estamos “equivocados”. “Tener la razón” o “estar equivocado” en sí es una ceguera al proceso de la ciencia. Es sustituir a la ciencia misma por su contenido o resultados. Este pobre impostor es una flor negando sus raíces. En el caso del calentamiento global, al sentir que “tenemos razón” respecto al tema y atacar a quienes están “equivocados”, hemos destruido nuestro proceso (ciencia) para poder proteger nuestra conclusión (posición). El arte de cuestionar es ciencia; el arte de tomar posiciones, política.

– Keith Raniere

Acerca de Executive Success Programs, Inc.

Executive Success Programs, Inc.MR (ESP) ofrece programas de entrenamiento enfocados en crear consistencia en todas las áreas y ayudar a desarrollar las habilidades prácticas, emocionales e intelectuales que la gente necesita para alcanzar su máximo potencial. Todos los programas de ESP utilizan una tecnología punta con patente en trámite llamada Cuestionamiento Racional MR, una ciencia basada en la creencia que entre más consistentes sean las creencias y patrones de conducta de un individuo, más exitoso será en todo lo que haga. El Cuestionamiento RacionalMR permite a las personas volver a examinar e incorporar percepciones que pueden ser la base de limitaciones autoimpuestas.

Mayores informes: [email protected]

Es un buen ejercicio matinal para un científico investigador descartar una hipótesis favorita todos los días antes de desayunar. Le mantiene

jóven.

– Konrad Lorenz

Irónicamente, quienes abogan por el calentamiento global están creando conciencia sobre una crisis global, sólo que poco tiene que ver con la temperatura de la tierra. Lo que actualmente es presentado como “ciencia” por la maquinaria del calentamiento global es en vez simplemente un vasto conjunto de opiniones impulsadas por motivos personales o políticos. Si logran engañar al público y a la comunidad científica para que crean que la opinión es ciencia, nuestro concepto y entendimiento de la ciencia será reemplazado por un impostor.

Si no hacemos algo al respecto, la humanidad olvidará que el impostor es un impostor y en esa negligencia, daremos el golpe final a la ciencia. Creo que nuestro pensamiento, el intelecto humano, ha facilitado que la humanidad trascendiera una forma más primitiva de condición humana. Hemos dejado atrás la forma más primitiva de vivir en cuevas, para crear sistemas sociales tan complejos como los sistemas que nos maravillan en el cosmos. Hemos hecho esto a través de nuestra ciencia, la cual, en mi opinión, es una de las más puras y más nobles formas de expresión del pensamiento humano.

Adulterar y corromper a la ciencia como proceso y como contenido, lo cual va en aumento en nuestro mundo (particularmente en las campañas acerca del calentamiento global) es una lenta pero definitiva sentencia de muerte para la ciencia en sí. La muerte de la ciencia no es sólo un crimen contra el intelecto humano; es un crimen contra la humanidad.

D.R. © 2006, Executive Success Programs, Inc.MR

Traducido del inglés por Farouk Rojas

Page 64: Revista Conocimiento 47

62 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 3

www.conocimientoenlinea.com

Por Carlos Joloy

Por segundo año consecutivo, la Asociación Estatal de Periodistas “José Alvarado Santos” entregó el premio anual “Francisco Cerda

Muñoz” a profesionistas destacados en seis áreas del periodismo. Aprovechando la celebración del día del periodista, el pasado 29 de enero se llevó a cabo la ceremonia de entrega de los galardones en el Teatro Universitario, de la Universidad Autónoma de Nuevo León.

LOS GALARDONADOSJosé Ángel Pequeño, presidente de la asociación y Miguel C. Barragán, presidente del comité de otorgamiento, entregaron los premios a: Félix Cortés Camarillo, de Multimedios Televisión, reconocido como periodista del año; Adriana Flores Rosales, reportera de Milenio, reconocida con el premio de prensa escrita; José Luis Portugal, de Grupo Radio Alegría, con el galardón de periodista de medios electrónicos.

En la categoría de editorialista distinguido se reconoció a Diego Enrique Osorno, de Milenio; Silvino Jaramillo, de El Porvenir, se hizo acreedor al premio de maestro periodista, y en la nueva categoría de periodismo cibernético, el premio fue para Ramón Alberto Garza.

En el evento José Ángel Pequeño comentó que con este tipo de acciones se busca reconocer profesionalmente a los periodistas para estimularlos a alcanzar mejores objetivos. “Por eso es que hemos instituido el premio anual de periodismo ‘Francisco Cerda Muñoz’, para promover y estimular la superación profesional, un reconocimiento a la investigación, al trabajo sobresaliente y especializado del periodismo”.

RECONOCIMIENTO A LA LABOR DE FRANCISCO CERDALuego de entregar los premios, Miguel C. Barragán, presidente del comité de otorgamiento, hizo mención del trabajo

realizado por Francisco Cerda Muñoz que, dijo, ha logrado trascender el tiempo. Gracias a ese trabajo y esas enseñanzas, se otorgó un reconocimiento especial a la familia del desaparecido periodista, como constancia de que la memoria de Cerda Muñoz sigue presente.

El reconocimiento fue recibido por Rogelio Cerda Pérez, secretario general de Gobierno de Nuevo León, e hijo del periodista. Otro premio fue entregado a Miguel C. Barragán, por su labor al frente del Comité de Otorgamiento, que estuvo conformado por Luis Eugenio Todd, Jorge Villegas, Héctor González, Leopoldo Espinosa y Agustín Rodríguez Carranza.

Silvino Jaramillo Osorio fue el encargado de tomar la palabra en representación de los galardonados, y expresó su gratitud por el reconocimiento; mencionó que los periodistas trabajan para servir a la comunidad y que es motivo de mucha alegría cuando la sociedad reconoce el trabajo de los periodistas mediante un premio de este tipo.

“El periodismo no busca premios en su trabajo, sino el fruto de su servicio; el único premio que recibe el periodista por su trabajo es la satisfacción del deber cumplido en el servicio a la comunidad. Para servir trabaja el periodista; ésa es su única preocupación”, explicó.

POR UN PERIODISMO CRÍTICOY COMPROMETIDOPor último, a nombre del comité de otorgamiento, Luis Eugenio Todd, director de la Coordinación de Ciencia y Tecnología del Estado, pronunció un mensaje en el evento, y aprovechó para hacer un llamado a la comunidad de periodistas a que abandone la frivolidad de las relaciones actuales de la sociedad y ejerza un periodismo libre y crítico comprometido con un ideario.

Al entrevistarse, durante su es-tancia en la Cumbre Económica Mundial en Davos, Suiza, del 24 al 28 de enero, con

presidentes y directivos de importantes corporaciones internacionales en los ámbitos de la industria química y de la biotecnología; de los servicios médicos; de la construcción de semiconductores y componentes para la industria electrónica y de la computación, así como con Luis Alberto Moreno, gobernador del Banco Interamericano de Desarrollo (BID), y con Jean Charest, premier de Québec, el gobernador de Nuevo León, José Natividad González Parás, promovió la imagen de Nuevo León, participando en diversas mesas redondas, y explorando las posibilidades de nuevas inversiones para el Estado.

Tal es el caso de las empresas: Microsoft, con la cual se estudia la realización de proyectos importantes para la entidad, tanto en la formación de la industria de tecnologías de información y software, como con programas vinculados con la modernización y digitalización de procesos en la educación; Infosis, importante empresa india en materia de tecnologías de información y software, que explora la posibilidad de invertir en la entidad, y SIEMENS, de Alemania, en un proyecto para el establecimiento en Nuevo León de un Centro de Desarrollo Tecnológico de esa empresa.

REUNIÓN CON EL GOBERNADOR DEL BIDUna de las más importantes reuniones la tuvo el gobernador González Parás el día 26, con el gobernador del Banco Interamericano de Desarrollo, Luis Alberto Moreno, con quien revisó proyectos de procesamiento de desechos sólidos de basura y de financiamiento pa-ra Agua y Drenaje de Monterrey, así como otros recursos internacionales para

impulsar el Proyecto Monterrey Ciudad Internacional del Conocimiento.

En este caso, González Parás confirmó una primera aportación de 100 mil dó-lares, la que posteriormente crecerá, y que se entregará al Instituto de Innovación y Transferencia Tecnológica. “Es un primer apoyo de financiamiento directo no reembolsable, al que habrán de seguir otros para la configuración conceptual y técnica del modelo que Nuevo León ha venido impulsando en materia de Ciudad Internacional de Conocimiento”, dijo.

El gobernador de Nuevo León mencionó que ya se trabaja con funcionarios y asesores del BID, y el equipo de Innova-ción y Transferencia Tecnológica, para que este modelo sea presentado como un esquema ejemplar en Washington, durante la reunión del BID, con dos propósitos: que sea conocido también en otros lados, pero con miras a obtener más apoyos del organismo internacional para el frente de innovación que se realiza en Nuevo León.

Durante su entrevista con Jean Charest, Primer Ministro de Québec, se fortalecieron los vínculos de comunicación con Nuevo León y se habló de que durante el mes de marzo un grupo de empresarios canadienses harán una visita a nuestro Estado, pues están interesados en invertir en el ámbito de los servicios médicos, y en participar en el Forum Universal de las Culturas.

En esta visita, el mandatario estatal participó también en una mesa redonda con los jefes de gobierno de ciudades importantes del mundo, en la cual se discutieron los cambios naturales que sufren las urbes al convertirse en centro de innovación. También participaron en ella: Gavin Mewsom, de San Francisco; Ken Livingstone, alcalde de Londres; Raymund Bachan, ministro de Economía, Innovación, y Relaciones Internacionales de Québec, Canadá, y Valentina Matvinko, gobernadora de San Petesburgo, Federación Rusa, quienes describieron sus respectivas experien-cias al dirigir ciudades de innovación.

A efecto de darles seguimiento y que todas estas acciones se traduzcan en inversiones concretas, en la mayor parte de estos acuerdos y conversaciones, González Parás estuvo acompañado del secretario de Desarrollo Económico, Alejandro Páez.

Page 65: Revista Conocimiento 47

62 CONOCIMIENTO

www.conocimientoenlinea.com

CONOCIMIENTO 3

www.conocimientoenlinea.com

Por Carlos Joloy

Por segundo año consecutivo, la Asociación Estatal de Periodistas “José Alvarado Santos” entregó el premio anual “Francisco Cerda

Muñoz” a profesionistas destacados en seis áreas del periodismo. Aprovechando la celebración del día del periodista, el pasado 29 de enero se llevó a cabo la ceremonia de entrega de los galardones en el Teatro Universitario, de la Universidad Autónoma de Nuevo León.

LOS GALARDONADOSJosé Ángel Pequeño, presidente de la asociación y Miguel C. Barragán, presidente del comité de otorgamiento, entregaron los premios a: Félix Cortés Camarillo, de Multimedios Televisión, reconocido como periodista del año; Adriana Flores Rosales, reportera de Milenio, reconocida con el premio de prensa escrita; José Luis Portugal, de Grupo Radio Alegría, con el galardón de periodista de medios electrónicos.

En la categoría de editorialista distinguido se reconoció a Diego Enrique Osorno, de Milenio; Silvino Jaramillo, de El Porvenir, se hizo acreedor al premio de maestro periodista, y en la nueva categoría de periodismo cibernético, el premio fue para Ramón Alberto Garza.

En el evento José Ángel Pequeño comentó que con este tipo de acciones se busca reconocer profesionalmente a los periodistas para estimularlos a alcanzar mejores objetivos. “Por eso es que hemos instituido el premio anual de periodismo ‘Francisco Cerda Muñoz’, para promover y estimular la superación profesional, un reconocimiento a la investigación, al trabajo sobresaliente y especializado del periodismo”.

RECONOCIMIENTO A LA LABOR DE FRANCISCO CERDALuego de entregar los premios, Miguel C. Barragán, presidente del comité de otorgamiento, hizo mención del trabajo

realizado por Francisco Cerda Muñoz que, dijo, ha logrado trascender el tiempo. Gracias a ese trabajo y esas enseñanzas, se otorgó un reconocimiento especial a la familia del desaparecido periodista, como constancia de que la memoria de Cerda Muñoz sigue presente.

El reconocimiento fue recibido por Rogelio Cerda Pérez, secretario general de Gobierno de Nuevo León, e hijo del periodista. Otro premio fue entregado a Miguel C. Barragán, por su labor al frente del Comité de Otorgamiento, que estuvo conformado por Luis Eugenio Todd, Jorge Villegas, Héctor González, Leopoldo Espinosa y Agustín Rodríguez Carranza.

Silvino Jaramillo Osorio fue el encargado de tomar la palabra en representación de los galardonados, y expresó su gratitud por el reconocimiento; mencionó que los periodistas trabajan para servir a la comunidad y que es motivo de mucha alegría cuando la sociedad reconoce el trabajo de los periodistas mediante un premio de este tipo.

“El periodismo no busca premios en su trabajo, sino el fruto de su servicio; el único premio que recibe el periodista por su trabajo es la satisfacción del deber cumplido en el servicio a la comunidad. Para servir trabaja el periodista; ésa es su única preocupación”, explicó.

POR UN PERIODISMO CRÍTICOY COMPROMETIDOPor último, a nombre del comité de otorgamiento, Luis Eugenio Todd, director de la Coordinación de Ciencia y Tecnología del Estado, pronunció un mensaje en el evento, y aprovechó para hacer un llamado a la comunidad de periodistas a que abandone la frivolidad de las relaciones actuales de la sociedad y ejerza un periodismo libre y crítico comprometido con un ideario.

Al entrevistarse, durante su es-tancia en la Cumbre Económica Mundial en Davos, Suiza, del 24 al 28 de enero, con

presidentes y directivos de importantes corporaciones internacionales en los ámbitos de la industria química y de la biotecnología; de los servicios médicos; de la construcción de semiconductores y componentes para la industria electrónica y de la computación, así como con Luis Alberto Moreno, gobernador del Banco Interamericano de Desarrollo (BID), y con Jean Charest, premier de Québec, el gobernador de Nuevo León, José Natividad González Parás, promovió la imagen de Nuevo León, participando en diversas mesas redondas, y explorando las posibilidades de nuevas inversiones para el Estado.

Tal es el caso de las empresas: Microsoft, con la cual se estudia la realización de proyectos importantes para la entidad, tanto en la formación de la industria de tecnologías de información y software, como con programas vinculados con la modernización y digitalización de procesos en la educación; Infosis, importante empresa india en materia de tecnologías de información y software, que explora la posibilidad de invertir en la entidad, y SIEMENS, de Alemania, en un proyecto para el establecimiento en Nuevo León de un Centro de Desarrollo Tecnológico de esa empresa.

REUNIÓN CON EL GOBERNADOR DEL BIDUna de las más importantes reuniones la tuvo el gobernador González Parás el día 26, con el gobernador del Banco Interamericano de Desarrollo, Luis Alberto Moreno, con quien revisó proyectos de procesamiento de desechos sólidos de basura y de financiamiento pa-ra Agua y Drenaje de Monterrey, así como otros recursos internacionales para

impulsar el Proyecto Monterrey Ciudad Internacional del Conocimiento.

En este caso, González Parás confirmó una primera aportación de 100 mil dó-lares, la que posteriormente crecerá, y que se entregará al Instituto de Innovación y Transferencia Tecnológica. “Es un primer apoyo de financiamiento directo no reembolsable, al que habrán de seguir otros para la configuración conceptual y técnica del modelo que Nuevo León ha venido impulsando en materia de Ciudad Internacional de Conocimiento”, dijo.

El gobernador de Nuevo León mencionó que ya se trabaja con funcionarios y asesores del BID, y el equipo de Innova-ción y Transferencia Tecnológica, para que este modelo sea presentado como un esquema ejemplar en Washington, durante la reunión del BID, con dos propósitos: que sea conocido también en otros lados, pero con miras a obtener más apoyos del organismo internacional para el frente de innovación que se realiza en Nuevo León.

Durante su entrevista con Jean Charest, Primer Ministro de Québec, se fortalecieron los vínculos de comunicación con Nuevo León y se habló de que durante el mes de marzo un grupo de empresarios canadienses harán una visita a nuestro Estado, pues están interesados en invertir en el ámbito de los servicios médicos, y en participar en el Forum Universal de las Culturas.

En esta visita, el mandatario estatal participó también en una mesa redonda con los jefes de gobierno de ciudades importantes del mundo, en la cual se discutieron los cambios naturales que sufren las urbes al convertirse en centro de innovación. También participaron en ella: Gavin Mewsom, de San Francisco; Ken Livingstone, alcalde de Londres; Raymund Bachan, ministro de Economía, Innovación, y Relaciones Internacionales de Québec, Canadá, y Valentina Matvinko, gobernadora de San Petesburgo, Federación Rusa, quienes describieron sus respectivas experien-cias al dirigir ciudades de innovación.

A efecto de darles seguimiento y que todas estas acciones se traduzcan en inversiones concretas, en la mayor parte de estos acuerdos y conversaciones, González Parás estuvo acompañado del secretario de Desarrollo Económico, Alejandro Páez.

CONOCIMIENTO 63

www.conocimientoenlinea.com

Adrianna Gómez GalindoEs doctora en Didáctica de las Ciencias Experimentales por la Universidad Autónoma de Barcelona, España. Sus líneas de investigación actuales se enfocan en el desarrollo y análisis de innovación para favorecer la construcción de explicaciones científicas escolares en Educación Básica. Forma parte del equipo de Educación en Ciencias, de la Unidad Monterrey del CINVESTAV.

Zygmunt HaduchNació en Plowce-Sanok, Polonia. Es ingeniero mecánico y tiene una Maestría en Mecánica, por la Universidad Politécnica de Cracovia (PC), en Polonia. Hizo estudios de posgrado en la Facultad de Construcción de Barcos y Máquinas, en Zagreb, ahora Croacia. Su Doctorado en Ciencias Técnicas es de la Universidad PC. Es miembro del Sistema Nacional de Investigadores, nivel III. De 1993 a 2004, recibió de la UDEM once premios en concursos de investigación vinculados a la docencia; en 2000, el Gobierno del Estado de Nuevo León le otorgó dos premios TECNOS.

Pedro A. Valdés SadaEs ingeniero en Química y de Sistemas; licenciado en Astronomía, área en la cual también cuenta con una maestría y un doctorado. Actualmente trabaja como profesor titular en el Departamento de Física y Matemáticas en la Universidad de Monterrey, dónde además de dar clases realiza investigaciones científicas en los campos de Astronomía Planetaria y Astronomía Estelar.

David Gómez AlmaguerEs médico cirujano y partero por la Universidad Autónoma de Nuevo León, y tiene una destacada trayectoria como médico, investigador y docente. Hizo la Residencia en Medicina Interna y tiene la Especialidad en Hematología, por la Universidad Nacional Autónoma de México, ambas realizadas en el Instituto Nacional de Ciencias Médicas y Nutrición Doctor Salvador Zubirán. Desde 1981, ha sido catedrático en la Facultad de Medicina de la UANL y es miembro del Sistema Nacional de Investigadores, nivel II. Actualmente funge como jefe del Servicio de Hematología del Hospital Universitario.

Mario ÁlvarezEs doctor y maestro en Ingeniería Química y Bioquímica, maestro en Ingeniería de Procesos e ingeniero bioquímico. Es profesor investigador de planta de la División de Ingeniería y Arquitectura del Tecnológico de Monterrey, Campus Monterrey, desde 1993, en el Centro de Biotecnología, del cual actualmente es director. Además, es coordinador del Claustro de Profesores de la Maestría en Biotecnología, coordinador de la Maestría en Biotecnología, y del Doctorado en Ciencias de la Ingeniería con especialidad en Biotecnología. Ha publicado 18 artículos científicos en revistas arbitradas internacionales de primer nivel.

Juan Manuel Barbarín CastilloEs ingeniero químico y tiene una Maestría en Ingeniería Sanitaria, ambos grados académicos de la Universidad Autónoma de Nuevo León. Su Doctorado PhD en Termodinámica de Fluidos Densos es de la Universidad de Sheffield, en Inglaterra. Ha sido catedrático en las facultades de Ciencias Químicas, Ingeniería Civil, Ciencias de la Tierra, Ciencias Forestales y Medicina. Ha realizado investigación en las áreas de química e ingeniería ambiental; ciencias de la tierra, fisicoquímica, ingeniería química y evaluación de la calidad del agua.

Salvador Said-FernándezEs médico veterinario zootecnista por la Universidad Veracruzana, maestro y doctor en ciencias con especialidad en biología celular. Es investigador titular C y director del Centro de Investigación Biomédica del Noreste (IMSS). Ha publicado más de 80 artículos en revistas indexadas y diez capítulos en libros. Actualmente es miembro del SNI, nivel II y miembro numerario de la Academia Nacional de Medicina. Sus principales líneas de investigación son la biología celular y molecular de protozoarios parásitos, así como la epidemiología, diagnóstico y control de la tuberculosis pulmonar.

Gilberto E. Salinas GarcíaOriginario de Monterrey, Nuevo León, es ingeniero agrónomo fitotecnista por la Universidad Autónoma de Nuevo León y tiene una Maestría en Ciencias, con especialidad en Genética del Colegio de Posgraduados en Chapingo, Estado de México. En la Universidad de Birmingham, Inglaterra, obtuvo una Maestría en Ciencias, con especialidad en Genética Aplicada y un Doctorado, con especialidad en Biotecnología aplicada al mejoramiento de cultivos. Desde 1980 es profesor investigador en la Facultad de Agronomía de la UANL.

Gerardo Castañón ÁvilaEstudió la carrera de Ingeniería Física en el Tecnológico de Monterrey, es maestro en Física (óptica) y cuenta con una maestría y doctorado en Electrónica e Ingeniería Computacional por la Universidad Estatal de Nueva York. Actualmente, y desde septiembre de 2002, trabaja en el Centro de Electrónica y Telecomunicaciones del ITESM Campus Monterrey.

Autores invitados:

Supervivencia de la Ciencia BásicaNúmero 47, del 2 al 15 de febrero de 2007-01-29

¿Qué es la ciencia?.........................................................................................8

Ciencia básica, Ciencia aplicada y Productos tecnológicos. Sus relaciones no lineales..........................................................................12

Ciencia básica y Ciencia clínica...............................................................17

La Ciencia básica y la Medicina................................................................21

Conversión de la Ciencia en desarrollo tecnológico, a través de la industria farmacéutica.....................................................26

Importancia de la Química en la historia de la humanidad...........................................................................................30

La revolución de los materiales...............................................................34

Comunicaciones ópticas: Tendencias y oportunidades....................39

Actividad científica escolar, con sentido para los alumnos..........................................................................................42 La Física en la nueva era de la triple hélice..........................................45

La Ciencia pura, fuente infinita de generación de conocimiento...........................................................................................49

Ciencia y Arte, una simbiosis perfecta..................................................50

Viaje a la tierra de las ideas......................................................................52

CONTENIDO

Las evaluaciones educativas, tanto nacionales como locales, muestran información preocupante con respecto a las competencias de lectura y pensamiento lógico-matemático en los adolescentes. Por una parte,

señalan que los estudiantes egresan de secundaria con rezagos en el desarrollo de las capacidades de comprensión lectora y de razonamiento matemático, ya que más del 50 por ciento se encuentran por debajo del nivel básico al concluir sus estudios. Por otro lado, los altos índices de reprobación durante el primer semestre del bachillerato, -donde un 49 por ciento reprueba las asignaturas del área de Matemática-, nos lleva a suponer que los estudiantes presentan problemas en su aprendizaje al ingresar a la educación media, en especial, en las asignaturas correspondientes a estas áreas del conocimiento.

Maestra Daría Elizondo Garza

Ante esta realidad, el CECyTE-NL plantea la necesidad de explorar los factores que inciden en el estudiante para el desarrollo de las competencias de expresión oral y escrita, y de pensamiento matemático, así como de conocer los siguien-tes aspectos: ¿cuáles son las competencias de comunicación, de comprensión lectora y de pensamiento lógico matemático que desarrollan los alumnos del bachillerato?; ¿qué factores inciden en el desarrollo de estas competencias?; ¿qué papel juegan las prácticas de enseñanza y de aprendizaje que se dan en el aula? y ¿apoyan los recursos didácticos el desarrollo de estas competencias?

Estas interrogantes fueron la base para el desarrollo de una investigación de tipo exploratorio-descriptivo-participativo que

Page 66: Revista Conocimiento 47

64 CONOCIMIENTO

www.conocimientoenlinea.com

planteó como objetivo el fortalecer las prácticas de enseñanza que emplean los maestros de las asignaturas de Lectura Expresión oral y escrita I y Álgebra del sistema CECyTE-NL, a través del trabajo colegiado y el acompañamiento de expertos y de investigadores, con el fin de propiciar aprendizajes significativos y relevantes en los alumnos.

PARTICIPACIÓN DE MAESTROS Y ALUMNOSEn el desarrollo de este trabajo participaron dos grupos: uno referencial, integrado por los maestros y alumnos de nueve planteles del sistema CECyTE-NL, y el otro experimental, compuesto por maestros y alumnos de dos planteles: “La Estanzuela” y “Marín”. En el primer caso la participación fue solamente en el proceso de evaluación; es decir, en la resolución del mismo examen diseñado para la población experimental; y en el segundo, con la aplicación de las estrategias diseñadas para fortalecer la práctica docente de los maestros (trabajo colegiado, secuencias didácticas y exámenes).

Las estrategias de trabajo colegiado y acompañamiento de expertos se realizaron en dos momentos previos al inicio de las Unidades Dos y Tres de cada curso. El equipo de trabajo realizó la planeación didáctica de los contenidos curriculares a desarrollar en cada unidad, y elaboró los documentos -Secuencias Didácticas- para los alumnos. Estas reuniones fueron asistidas por un experto de la asignatura, quien aclaró las dudas sobre los contenidos y los ejercicios a trabajar en cada momento. Finalmente el colegiado elaboró los exámenes para evaluar los contenidos abordados en cada Unidad.

INFORMACIÓN DE PRIMERA MANOLos momentos de intervención –tra-bajo de campo-, se realizaron a través de las visitas a los dos planteles señalados como experimentales, con el fin de recoger información de manera directa, mediante guías de observación, entrevistas a maestros y alumnos, así como la aplicación de instrumentos y recolección de evidencias empíricas.

El análisis de la información permitió comparar los resultados obtenidos en los dos grupos de población, para posteriormente determinar si se

estableció una relación directa entre las estrategias implementadas y los resultados obtenidos.

LOS PROMEDIOSLa información cuantitativa muestra los siguientes promedios, considerando únicamente el examen: 51.6 en el diagnóstico, 66.9 en la segunda Unidad y 46.5 en la tercera. En la segunda Unidad se registra un avance de 15.3 puntos porcentuales, que los maestros atribuyen entre otras cosas, a que los contenidos fueron revisados ampliamente y no se suspendieron las actividades escolares. El promedio en la tercera Unidad registra una baja de hasta 28 puntos porcentuales respecto a los de la Unidad dos. En opinión de dos maestros responsables de estas asignaturas, se debió a que los contenidos de esta Unidad son más amplios, no presentan una secuencia con los de las Unidades anteriores, y a que no se cumplieron las veinte sesiones frente a grupo.

Respecto a los promedios obtenidos por los nueve planteles que participaron como grupo de referencia, se registra un incremento de 3.3 puntos entre el examen diagnóstico (51.5) y el promedio de las dos Unidades (54.8); mientras que el grupo experimental tuvo un incremento de 4.5 puntos, 50.4 en el diagnóstico y 54.9 en las dos Unidades.

Los planteles del grupo de referencia que presentaron mayor avance son Salinas Victoria y Aramberri, con 5.5 y 5.2 respectivamente. En el grupo experimental fue el plantel de La

Estanzuela el que registró un avance del 7.2, comparado con el de Marín, que registró 1.8.

MEJOR PRÁCTICA DEL DOCENTELa recopilación de información cualitativa nos permitió observar que el trabajo colegiado fortaleció de manera indirecta la práctica del docente, pues mediante el diálogo directo sobre los puntos centrales de cada Unidad, el intercambio de experiencias y la colaboración, se logró una actitud diferente de los docentes ante el grupo, lo que se confirmó al realizar las visitas áulicas.

La elaboración de las dosificaciones para cada Unidad aseguró que la planeación del trabajo docente se estableciera de antemano, sirviendo de guía para el desarrollo de los contenidos del programa, tanto en extensión como en profundidad.

El documento de apoyo para los alumnos –Secuencias Didácticas-, les permitió construir sus aprendizajes de una manera didáctica y relacionada con su entorno. En opinión de maestros y alumnos, el documento facilitó los aprendizajes, pues era más claro y entendible que la Antología de la materia.

Los resultados obtenidos por el grupo experimental y el grupo de referencia muestran que las estrategias empleadas tuvieron una influencia en los resultados obtenidos, mas no se puede afirmar que fueron los únicos factores que los determinaron.

-

EDITORIAL

DESCARTESPienso, luego existo

1596 a 1650

La ciencia, madre generosa que crea el conocimiento para mejorar la calidad de vida del ser humano.

Ésta es la época de la globalización inexorable a la que tenemos que adaptarnos, y aprovechar su im-

pacto para compartir lo bueno que en materia de conocimiento representa la investigación científica y tecnológica mundial.

Mucha gente soslaya la importancia de la investigación, porque tiene una fijación mimética de la circunstancia histórica al libre comercio y adecua la transferencia y la innovación tecnológicas, así como la competiti-vidad, solamente al proceso productivo y a la generación de riqueza material.

Sin embargo, los filósofos contem-poráneos han hecho una llamada de atención, porque si bien la distribución del poder empieza a alterarse con base en las corrientes comerciales de China y de India, pero sobre todo en la nueva sociedad del conocimiento y del desarrollo tecnológico acelerado, los grandes problemas del mundo, entre ellos los de la marginación, la pobreza y las nuevas enfermedades, requieren un tratamiento basado en la investigación científica básica y en la generación de nuevas ideas verdaderamente transformadoras que corrijan esta enorme inequidad social que flagela al mundo.

En la reunión de Davos, por ejemplo, a la que nuestro gobernador fue invitado especialmente, lo cual debería ser un motivo de orgullo para Nuevo León, por la confluencia de líderes mundiales en ese pequeño cantón suizo, se trataron problemas de ciencia imperativos para la solución de las grandes catástrofes que afectan a

muchas áreas del mundo en materias tan diversas como el calentamiento global, la vacunación masiva, el tratamiento de los nuevos padecimientos que empiezan a renacer y el uso de la investigación para transferir conocimientos aprovechando la globalización, generar innovación tecnológica y solucionar los grandes problemas de salud y de una sociedad marginal que afecta a más de la mitad de la población mundial.

En esta edición hacemos un alto en el camino para recoger opiniones sobre

la llamada ciencia básica, que, como dice Federico Mayor Zaragoza: es imperativa para avanzar, porque sin ella no hay nada que aplicar y porque representa la génesis del conocimiento que posteriormente se transfiere a través de la innovación tecnológica para una producción más eficiente y una competitividad que debe generar mayor calidad en el bienestar del ser humano.

Se describe también, en este documento, la participación del gobernador en Davos, que algunos sectores soslayan, porque no se dan cuenta de que un gobernante con formación académica no piensa solamente en la solución de problemas circunstanciales, sino también en la generación de una nueva corriente conceptual verdaderamente transformadora y de cambios en los proyectos de administración pública que sean permanentes, no sólo flor de un día, sino cosecha reiterada de beneficio social.

Ésa es la diferencia entre un político de circunstancia y un estadista con visión del futuro.

Page 67: Revista Conocimiento 47

64 CONOCIMIENTO

www.conocimientoenlinea.com

planteó como objetivo el fortalecer las prácticas de enseñanza que emplean los maestros de las asignaturas de Lectura Expresión oral y escrita I y Álgebra del sistema CECyTE-NL, a través del trabajo colegiado y el acompañamiento de expertos y de investigadores, con el fin de propiciar aprendizajes significativos y relevantes en los alumnos.

PARTICIPACIÓN DE MAESTROS Y ALUMNOSEn el desarrollo de este trabajo participaron dos grupos: uno referencial, integrado por los maestros y alumnos de nueve planteles del sistema CECyTE-NL, y el otro experimental, compuesto por maestros y alumnos de dos planteles: “La Estanzuela” y “Marín”. En el primer caso la participación fue solamente en el proceso de evaluación; es decir, en la resolución del mismo examen diseñado para la población experimental; y en el segundo, con la aplicación de las estrategias diseñadas para fortalecer la práctica docente de los maestros (trabajo colegiado, secuencias didácticas y exámenes).

Las estrategias de trabajo colegiado y acompañamiento de expertos se realizaron en dos momentos previos al inicio de las Unidades Dos y Tres de cada curso. El equipo de trabajo realizó la planeación didáctica de los contenidos curriculares a desarrollar en cada unidad, y elaboró los documentos -Secuencias Didácticas- para los alumnos. Estas reuniones fueron asistidas por un experto de la asignatura, quien aclaró las dudas sobre los contenidos y los ejercicios a trabajar en cada momento. Finalmente el colegiado elaboró los exámenes para evaluar los contenidos abordados en cada Unidad.

INFORMACIÓN DE PRIMERA MANOLos momentos de intervención –tra-bajo de campo-, se realizaron a través de las visitas a los dos planteles señalados como experimentales, con el fin de recoger información de manera directa, mediante guías de observación, entrevistas a maestros y alumnos, así como la aplicación de instrumentos y recolección de evidencias empíricas.

El análisis de la información permitió comparar los resultados obtenidos en los dos grupos de población, para posteriormente determinar si se

estableció una relación directa entre las estrategias implementadas y los resultados obtenidos.

LOS PROMEDIOSLa información cuantitativa muestra los siguientes promedios, considerando únicamente el examen: 51.6 en el diagnóstico, 66.9 en la segunda Unidad y 46.5 en la tercera. En la segunda Unidad se registra un avance de 15.3 puntos porcentuales, que los maestros atribuyen entre otras cosas, a que los contenidos fueron revisados ampliamente y no se suspendieron las actividades escolares. El promedio en la tercera Unidad registra una baja de hasta 28 puntos porcentuales respecto a los de la Unidad dos. En opinión de dos maestros responsables de estas asignaturas, se debió a que los contenidos de esta Unidad son más amplios, no presentan una secuencia con los de las Unidades anteriores, y a que no se cumplieron las veinte sesiones frente a grupo.

Respecto a los promedios obtenidos por los nueve planteles que participaron como grupo de referencia, se registra un incremento de 3.3 puntos entre el examen diagnóstico (51.5) y el promedio de las dos Unidades (54.8); mientras que el grupo experimental tuvo un incremento de 4.5 puntos, 50.4 en el diagnóstico y 54.9 en las dos Unidades.

Los planteles del grupo de referencia que presentaron mayor avance son Salinas Victoria y Aramberri, con 5.5 y 5.2 respectivamente. En el grupo experimental fue el plantel de La

Estanzuela el que registró un avance del 7.2, comparado con el de Marín, que registró 1.8.

MEJOR PRÁCTICA DEL DOCENTELa recopilación de información cualitativa nos permitió observar que el trabajo colegiado fortaleció de manera indirecta la práctica del docente, pues mediante el diálogo directo sobre los puntos centrales de cada Unidad, el intercambio de experiencias y la colaboración, se logró una actitud diferente de los docentes ante el grupo, lo que se confirmó al realizar las visitas áulicas.

La elaboración de las dosificaciones para cada Unidad aseguró que la planeación del trabajo docente se estableciera de antemano, sirviendo de guía para el desarrollo de los contenidos del programa, tanto en extensión como en profundidad.

El documento de apoyo para los alumnos –Secuencias Didácticas-, les permitió construir sus aprendizajes de una manera didáctica y relacionada con su entorno. En opinión de maestros y alumnos, el documento facilitó los aprendizajes, pues era más claro y entendible que la Antología de la materia.

Los resultados obtenidos por el grupo experimental y el grupo de referencia muestran que las estrategias empleadas tuvieron una influencia en los resultados obtenidos, mas no se puede afirmar que fueron los únicos factores que los determinaron.

-

EDITORIAL

DESCARTESPienso, luego existo

1596 a 1650

La ciencia, madre generosa que crea el conocimiento para mejorar la calidad de vida del ser humano.

Ésta es la época de la globalización inexorable a la que tenemos que adaptarnos, y aprovechar su im-

pacto para compartir lo bueno que en materia de conocimiento representa la investigación científica y tecnológica mundial.

Mucha gente soslaya la importancia de la investigación, porque tiene una fijación mimética de la circunstancia histórica al libre comercio y adecua la transferencia y la innovación tecnológicas, así como la competiti-vidad, solamente al proceso productivo y a la generación de riqueza material.

Sin embargo, los filósofos contem-poráneos han hecho una llamada de atención, porque si bien la distribución del poder empieza a alterarse con base en las corrientes comerciales de China y de India, pero sobre todo en la nueva sociedad del conocimiento y del desarrollo tecnológico acelerado, los grandes problemas del mundo, entre ellos los de la marginación, la pobreza y las nuevas enfermedades, requieren un tratamiento basado en la investigación científica básica y en la generación de nuevas ideas verdaderamente transformadoras que corrijan esta enorme inequidad social que flagela al mundo.

En la reunión de Davos, por ejemplo, a la que nuestro gobernador fue invitado especialmente, lo cual debería ser un motivo de orgullo para Nuevo León, por la confluencia de líderes mundiales en ese pequeño cantón suizo, se trataron problemas de ciencia imperativos para la solución de las grandes catástrofes que afectan a

muchas áreas del mundo en materias tan diversas como el calentamiento global, la vacunación masiva, el tratamiento de los nuevos padecimientos que empiezan a renacer y el uso de la investigación para transferir conocimientos aprovechando la globalización, generar innovación tecnológica y solucionar los grandes problemas de salud y de una sociedad marginal que afecta a más de la mitad de la población mundial.

En esta edición hacemos un alto en el camino para recoger opiniones sobre

la llamada ciencia básica, que, como dice Federico Mayor Zaragoza: es imperativa para avanzar, porque sin ella no hay nada que aplicar y porque representa la génesis del conocimiento que posteriormente se transfiere a través de la innovación tecnológica para una producción más eficiente y una competitividad que debe generar mayor calidad en el bienestar del ser humano.

Se describe también, en este documento, la participación del gobernador en Davos, que algunos sectores soslayan, porque no se dan cuenta de que un gobernante con formación académica no piensa solamente en la solución de problemas circunstanciales, sino también en la generación de una nueva corriente conceptual verdaderamente transformadora y de cambios en los proyectos de administración pública que sean permanentes, no sólo flor de un día, sino cosecha reiterada de beneficio social.

Ésa es la diferencia entre un político de circunstancia y un estadista con visión del futuro.

CONSEJO EDITORIALIngeniero Juan Antonio González AréchigaPresidenteLicenciado Omar Cervantes RodríguezDirector de ComunicaciónSocial del Gobierno del EstadoIngeniero Xavier Lozano MartínezM. C. Silvia Patricia Mora CastroDoctor Mario César Salinas CarmonaDoctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

DIRECTORIOIngeniero Antonio Zárate NegrónDirector del Programa Ciudad Internacional Del ConocimientoDoctor Luis Eugenio ToddDirector General

LA REVISTA CONOCIMIENTO ES EDITADA POR LA COORDINACIÓN DE CIENCIA Y TECNOLOGÍA DE NUEVO LEÓN, Y ABRE SUS PÁGINAS A LAS INSTITUCIONES DE EDUCACIÓN SUPERIOR PARA LA PUBLICACIÓN DE ARTÍCULOS Y NOTICIAS DE CARÁCTER CIENTÍFICO. TELÉFONOS EN LA REDACCIÓN: 83 46 74 99 Y 83 46 73 51 [email protected] REGISTRO SOLICITADO PREVIAMENTE CON EL NOMBRE DE CONOCIMIENTO.

LAS OPINIONES EXPRESADAS EN LOS ARTÍCULOS SON RESPONSABILIDAD EXCLUSIVA DE SUS AUTORES.

Félix Ramos GamiñoDirector EditorialMaestro Rodrigo SotoSecretario EditorialProfesor Ismael Vidales DelgadoEducaciónLicenciado Juan Roberto ZavalaCiencia en FamiliaDoctor Jorge N. Valero GilCiencias Económicas y SocialesDoctor Juan Lauro AguirreCiencias Básicas y del AmbienteIngeniero Gabriel ToddDesarrollo Urbano y SocialDoctor David Gómez AlmaguerCiencias MédicasContador Público José Cárdenas CavazosCiencias Políticas y/o de Administración Pública

Doctora Liliana Patricia Cerda PérezCiencias de la ComunicaciónLicenciados Jorge Pedraza yClaudia OrdazLa Ciencia es CulturaDoctor Óscar Salas FraireEducación Física y DeporteDoctor Mario César SalinasLas Universidades y la CienciaLicenciada Alma TrejoLicenciado Carlos JoloyRedacciónLicenciado Víctor Eduardo Armendáriz RuizDiseñadorArquitecto Rafael Adame DoriaArte GráficoProfesor Oliverio Anaya RodríguezCirculación y Administración

El CECyTE-NL es un sistema que ofrece EL BACHILLERATO BIVALENTE, que otorga a los estudiantes tanto el certificado de preparatoria, como el título de técnico profesional, lo cual les permite incorporarse de inmediato al ámbito laboral, así como continuar preparándose en una escuela de nivel superior.

COLEGIO DE ESTUDIOS CIENTÍFICOS Y TECNOLÓGICOS DE NUEVO LEÓN

¡Magnífica opción educativa

para la juventud!

El único sistema con:11 planteles para bachillerato tecnológico (CECyTE) 8 planteles con bachillerato general (EMSAD)

¡Presente en 19 municipios!

El sistema más amigable, con:Cuotas muy bajas,que incluyen los librosDiferentes tipos de becas en efectivoPréstamos para pequeños emprendedoresActividades artísticas y culturalesSistema semestralTitulación automática

Informes en:Oficinas centrales: Teléfono 81 51 76 00, Ext. 112En los planteles CECyTE: Allende, Apodaca, Aramberri, Cadereyta, La Estanzuela, García, General Escobedo, Linares, Marín, Sabinas Hidalgo, y Salinas Victoria.En los planteles EMSAD: Agualeguas, Bustamante, Iturbide, Lampazos, Los Ramones, Mier y Noriega, Rayones, y Zaragoza.

Page 68: Revista Conocimiento 47

Re ConocimientoJuan Roberto Zavala

Doctor Ricardo Martín Cerda Flores

Con importantes investigaciones en las áreas de genética de poblaciones, genética epidemiológica, epidemiología molecular, evolución molecular, genética forense y estadística, en bioinformática y en genómica, Ricardo Martín Cerda Flores es profesor en las facultades de Ciencias Biológicas y Veterinaria de la UANL y jefe de la

División de Genética del Centro de Investigación Biomédica del Noreste, del IMSS. Es autor de siete capítulos en libros y de 82 artículos científicos. Su doctorado en Ciencias Biológicas es de la Universidad de Texas y de la UANL.

Ha recibido numerosos premios, de los que mencionamos: los años 1986 y 1987 obtuvo el Premio Anual de Genética Humana; en 1987 y 1988 la UANL le otorgó los Premios de Investigación, en las categorías de Ciencias Naturales y Biología, y los años 2003 y 2005 ganó los primeros lugares en investigación, dentro de los Congresos Internacionales de Salud organizados por la Clínica Vitro.

A personajes nuestros en la Ciencia Básica

Ingeniero René Mario Montante Pardo

Destacado investigador en el campo de las matemáticas, especialmente en el área de calculo matricial, René Mario Montante Pardo es creador del “Método Montante”, utilizado mundialmente, con el que se resuelven sistemas de ecuaciones lineales; determinantes; se calcula la inversa de una matriz; se calcula la matriz adjunta y resuelve los problemas de investigación de operaciones,

como el método simples y el simples revisado.

Es ingeniero mecánico y licenciado en matemáticas, ambos grados académicos de la UANL. De 1965 a 2001 fue profesor en la Facultad de Ingeniería Mecánica y Eléctrica, donde se jubiló, y de 1965 a 1973 en la Facultad de Ingeniería Civil, ambas instituciones de la UANL.

Doctor Mauricio Navarro Villalobos

Entusiasta investigador en el campo de la química orgánica, especialmente en síntesis total de productos naturales de relevancia biológica y farmacéutica, Mauricio Navarro Villalobos tiene importantes estudios en ciencias básicas y ha sido investigador asociado en la Universidad Nacional Autónoma de México, en la Universidad de

Illinois y en la Universidad de Yale. Ha sido profesor investigador en el ITESM y actualmente es profesionista de apoyo en esa institución.

Es licenciado en Ciencias Químicas por el ITESM. Tiene una maestría en Ciencias, con especialidad en Síntesis Orgánica y un doctorado PhD en Síntesis Total de Productos Naturales, ambos grados académicos de la Universidad de Yale.

Doctor Enrique Peña Muñoz

Con amplia experiencia en la investigación en el campo de la tribología, mejorando los parámetros que inciden en esta propiedad mecánica, Enrique Peña Muñoz ha realizado también investigación en las áreas de educación, específicamente en la enseñanza de las ciencias. Actualmente es profesor en la UDEM y pertenece a la Academia de Física y Astronomía, de la que fue presidente.

Tiene una maestría y un doctorado en Ciencias de la Ingeniería, ambos grados académicos de la Université de Franche Comté, UFR des Sciences et Techniques, de Besancon, Francia. Es autor de los manuales Prácticas de mecánica clásica y Prácticas de electrónica, publicados en 2003 y 2004 por la UDEM, y de diversos artículos en memorias de congresos y revistas especializadas.

Doctora Rocío Isabel Díaz de la Garza

Con inclinación hacia la ingeniería metabólica vegetal y fotoquímica, y experta en el campo de la producción de ácido fólico en plantas, Rocío Isabel Díaz de la Garza ha sido asistente de investigación de la Universidad de Florida y actualmente es profesora investigadora en el Centro de Biotecnología del ITESM, donde participa en

un proyecto de producción de fármacos en plantas, a través de ingeniería genética.

Es ingeniera química, egresada del Instituto Tecnológico de Ciudad Madero, Tamaulipas, y tiene una maestría en Ciencias, con especialidad en Biotecnología. Su doctorado en Biología Molecular y Celular Vegetal es de la Universidad de Florida. Es autora de dos libros; de numerosos artículos científicos y coautora de las patentes “Uso de los compuestos fenólicos presentes en el aceite esencial de orégano como agente antimicrobiano” y “Materials and Methods for Folate Biofortification in Plants”.

Maestra Perla Elizondo Martínez

Apasionada de la química analítica y de la química inorgánica, Perla Elizondo Martínez ha participado, desde 1991, en la organización de la Olimpiada Nacional de Química y en proyectos para la solución de problemas ambientales. Destaca su participación en la adaptación y validación de técnicas analíticas para la detección de solventes en microambiente y extracción de metales

pesados en medios contaminados. Actualmente es profesora investigadora en la Facultad de Ciencias Químicas de la UANL.

Hizo sus estudios profesionales en la UANL, por la que es química industrial, y tiene una maestría en Ciencias, con especialidad en Química Analítica, de la Facultad de Ciencias Químicas de la misma universidad. Ha realizado estancias de investigación en la Universidad de Santiago de Compostela, España y en la Universidad de Aberdeen, en Escocia.

ww

w.c

on

oci

mie

nto

enli

nea

.com

N

úm

ero 4

7, d

el 2

al

15 d

e fe

bre

ro d

e 2007

Director Luis Eugenio Todd

Ciencia Básica y Ciencia ClínicaDavid Gómez AlmaguerPágina 17

¿Qué es la Ciencia?Pedro A. Valdés SadaPágina 8

Ciencia Básica, Ciencia Aplicada y Productos TecnológicosGilberto Eduardo SalinasPágina 12

La Ciencia Básica y la Medicina Salvador Said-FernándezPágina 21

Conversión de la Ciencia en desarrollo tecnológico, a través de la industria farmacéuticaMario ÁlvarezPágina 26

Importancia de la Química en la historia de la humanidadJuan Manuel Barbarín CastilloPágina 30

Actividad científica escolar Adriana GómezPágina 37

Investigación en Ciencia BásicaIsmael Vidales Delgado Página 55

Autores invitados: Gerardo Antonio Castañón Ávila, Juan Lauro Aguirre, Herminia G. Martínez-Rodríguez, Zygmunt Haduch Suski, Patricia Liliana Cerda Pérez, Keith Raniere

El gobernador, José Natividad González Parás, con Jean Charest,

Premier de Québec, en Davos.

LOUIS PASTEUR (1822 - 1895)