Revista Conocimiento 40

60
www.conocimientoenlinea.com Número 40, del 1 al 14 de septiembre de 2006 Autores invitados: Mario Moisés Álvarez, Gabriel del Río, Marco Rito Palomares, Antonio Alí Pérez, Elva Teresa Aréchiga, Ariel Álvarez Morales, Alba E. Jofre Garfias, Octavio Martínez Director Luis Eugenio Todd Doctor Federico Mayor Zaragoza: la cultura de la paz y la bioseguridad. Ley de Bioseguridad de Organismos Genéticamente Modificados Francisco Bolívar MÉXICO Conferencistas internacionales invitados: Hugo Barrera Saldaña MÉXICO Sergio Serna Saldívar MÉXICO Leonardo Santi ITALIA Luciano Milanesi ITALIA Mary Pat Moyer EE.UU. Bruce Holm EE.UU. Francisco Bolívar MÉXICO Marco A. Meraz MÉXICO Juan López de Silanes MÉXICO Carlos Camacho Gaos MÉXICO Rafael Gual Cosío MÉXICO

description

Revista Ciencia CONOCIMIENTO Tecnología número 40

Transcript of Revista Conocimiento 40

ww

w.c

on

oci

mie

nto

enli

nea

.com

N

úm

ero 4

0, d

el 1

al

14 d

e se

pti

emb

re d

e 2006

Autores invitados: Mario Moisés Álvarez, Gabriel del Río, Marco Rito Palomares, Antonio Alí Pérez, Elva Teresa Aréchiga, Ariel Álvarez Morales, Alba E. Jofre Garfias, Octavio Martínez

Director Luis Eugenio Todd

Doctor Federico Mayor Zaragoza: la cultura de la paz y la bioseguridad.

Ley de Bioseguridad de Organismos Genéticamente Modificados Francisco BolívarMÉXICO

Conferencistas internacionales invitados:

Hugo Barrera SaldañaMÉXICO

Sergio Serna SaldívarMÉXICO

Leonardo SantiITALIA

Luciano MilanesiITALIA

Mary Pat MoyerEE.UU.

Bruce HolmEE.UU.

Francisco BolívarMÉXICO

Marco A. MerazMÉXICO

Juan López de SilanesMÉXICO

Carlos Camacho GaosMÉXICO

Rafael Gual CosíoMÉXICO

Re ConocimientoJuan Roberto Zavala

Doctor Mario Moisés ÁlvarezAutor de numerosos artículos científicos publicados en revistas especializadas, como: Chemical Engineering Science y Journal of Chemical Engineering, y de diversos capítulos en libros como Industrialization of Indigenous Fermented Foods, editorial Marcel Decaer (2004) y Handbook of Industrial Mixing, Science and Practice, editorial Wiley-Interscience (2004), Mario Moisés Álvarez es investigador en las áreas de bioquímica, ingeniería química y bioquímica y física. Actualmente es profesor investigador y director del Centro de Biotecnología del ITESM. Pertenece al Sistema Nacional de Investigadores nivel II.

Es ingeniero bioquímico por el ITESM campus Guaymas. Tiene una Maestría en Ciencias, con especialidad en Ingeniería Química, del ITESM, e hizo otra Maestría con especialidad en Ingeniería Química y Bioquímica en la Rutgers University, en New Jersey, Estados Unidos. Es, además, doctor en Ingeniería Química y Bioquímica por la misma Universidad de Rutgers.

Doctora Elva Teresa Aréchiga Carvajal

Elva Teresa Aréchiga Carvajal es química bacterióloga parasitóloga, por la UANL. Obtuvo su Doctorado en Ciencias, con especialidad en Biotecnología de Plantas, en el Centro de Investigaciones Avanzadas (CINVESTAV). Actualmente realiza una estancia posdoctoral en el Laboratorio de Bioinformática y Genómica comparativa del Departamento de Biotecnología de la Facultad de Medicina de la UANL.

Ha realizado investigación en las áreas de capacidad inmunogénica de proteínas de choque térmico en Clostridium perfringens; en biología molecular del desarrollo y diferenciación de hongos dimórficos en la evolución de la estructura, regulación y función de la familia de la hormona de crecimiento y proteínas relacionadas en primates; de la genómica comparativa a la minería genómica y en la prueba y diseño de organismos genéticamente modificados para la producción de hormona de crecimiento recombinante.

Doctora Olivia Maricela Barrón Cano

Profesora en el ITESM, Olivia Maricela Barrón Cano ha realizado investigación en el uso de abducción como mecanismo lógico de diagnóstico para desarrollo de sistemas expertos; en la integración de diferentes herramientas de software para el análisis de manufacturabilidad de ensambles realizados por robots y en el desarrollo de algoritmos para la identificación de productos lácteos caprinos basados en información genética.

Es ingeniera en Sistemas Electrónicos y tiene una Maestría en Ciencias, con especialidad en Ciencias Computacionales, ambos grados académicos del ITESM, campus Monterrey. Su Doctorado en Inteligencia Artificial es de esta misma institución. Hizo una estancia de investigación, de un año, en la Universidad de Carnegie Mellon, en los Estados Unidos.

Doctora Ana María Guadalupe Rivas Estilla

Investigadora en las áreas de infectología molecular, hepatología y biología molecular en medicina, Ana Maria Guadalupe Rivas Estilla es autora de cuatro capítulos en libros y de 11 artículos científicos publicados en revistas especializadas o en memorias de congresos, como “Identification of Hepatitis C virus (HCV) genotypes in infected patients from the West of Mexico” en la revista Hepatology Research.

Ha sido catedrática en las facultades de medicina de la U de G y de la UANL y es miembro del Sistema Nacional de Investigadores, nivel I. Es química farmacéutica bióloga por la UANL y tiene una Maestría en Ciencias, de la Universidad Nacional Autónoma de México, y un Doctorado en Biología Molecular en Medicina, de la Universidad de Guadalajara (UdeG). El posdoctorado lo hizo en el Albert Einsten College of Medicine, en Nueva York, Estados Unidos, y un segundo en la Universidad de Mc Gill en Montreal, Canadá.

Doctor Marco Antonio Rito Palomares

Con numerosos premios recibidos, como el “Nacional de Ciencia y Tecnología de Alimentos 2002”, otorgado por CONACYT y la compañía Coca Cola; Premio “Rómulo Garza” por Investigación y Desarrollo 2002”, que le confirió el ITESM; Premio a “La Labor Docente” de esta misma institución; y Premio Internacional Foundation for Science (IFS) Jubilee-Award, otorgado por el gobierno sueco, por su contribución al área científica y tecnológica

internacional, Marco Antonio Rito Palomares es investigador en las áreas de biotecnología, alimentos, ingeniería de bioprocesos y separación y purificación de proteínas.

Es ingeniero bioquímico en Alimentos por el Instituto Tecnológico La Paz, en la Paz, Baja California Sur. Tiene una Maestría en Ingeniería Química del ITESM, y un Doctorado en Bioingeniería y Biotecnología por la Universidad Birmingham en Inglaterra. Actualmente es profesor investigador en el ITESM y miembro del Sistema Nacional de Investigadores nivel II.

Doctor José María Viader SalvadóCon un claro interés por las aplicaciones de las herramien-tas de computación y bioinformática a la investigación y desarrollo biotecnológico, José María Viader Salvadó ha realizado también investigación en síntesis estereoquímica de productos de interés biológico; desarrollo y evaluación de métodos rápidos para el diagnóstico de la tuberculosis y en la producción de proteínas recombinantes. Ha sido profesor en las Facultades de Medicina, Ciencias Químicas y actualmente lo es en la de Ciencias Biológicas de la UANL. Pertenece al Sistema Nacional de Investigadores, nivel I.

Es ingeniero químico por el Instituto Químico de Sarriá de la Universidad “Ramón Llull” en Barcelona, España. Su Doctorado en Ingeniería Química, con acentuación en Química Orgánica, lo realizó en Max-Planck-Institut fur Strahlenchemie en la ciudad de Mûlhem a.d. Ruhr, en Alemania, y se lo otorgó el Instituto Químico Sarriá. Es autor de seis capítulos en libros y de numerosos artículos científicos.

A personajes nuestros en Bioinformática y Bioseguridad

CONSEJO EDITORIALIngeniero Juan Antonio González AréchigaPresidenteLicenciado Omar Cervantes RodríguezDirector de ComunicaciónSocial del Gobierno del EstadoIngeniero Xavier Lozano MartínezM. C. Silvia Patricia Mora CastroDoctor Mario César Salinas CarmonaDoctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

DIRECTORIOIngeniero Antonio Zárate NegrónDirector del Programa Ciudad Internacional Del ConocimientoDoctor Luis Eugenio ToddDirector General

LA REVISTA CONOCIMIENTO ES EDITADA POR LA COORDINACIÓN DE CIENCIA Y TECNOLOGÍA DE NUEVO LEÓN, Y ABRE SUS PÁGINAS A LAS INSTITUCIONES DE EDUCACIÓN SUPERIOR PARA LA PUBLICACIÓN DE ARTÍCULOS Y NOTICIAS DE CARÁCTER CIENTÍFICO. TELÉFONOS EN LA REDACCIÓN: 83 46 74 99 Y 83 46 73 51 [email protected] REGISTRO SOLICITADO PREVIAMENTE CON EL NOMBRE DE CONOCIMIENTO.

LAS OPINIONES EXPRESADAS EN LOS ARTÍCULOS SON RESPONSABILIDAD EXCLUSIVA DE SUS AUTORES.

Félix Ramos GamiñoDirector EditorialMaestro Rodrigo SotoSecretario EditorialProfesor Ismael Vidales DelgadoEducaciónLicenciado Juan Roberto ZavalaCiencia en FamiliaDoctor Jorge N. Valero GilCiencias Económicas y SocialesDoctor Juan Lauro AguirreCiencias Básicas y del AmbienteIngeniero Gabriel ToddDesarrollo Urbano y SocialDoctor David Gómez AlmaguerCiencias MédicasContador Público José Cárdenas CavazosCiencias Políticas y/o de Administración Pública

Doctora Liliana Patricia Cerda PérezCiencias de la ComunicaciónLicenciados Jorge Pedraza yClaudia OrdazLa Ciencia es CulturaDoctor Óscar Salas FraireEducación Física y DeporteDoctor Mario César SalinasLas Universidades y la CienciaLicenciada Alma TrejoLicenciado Carlos JoloyRedacciónLicenciado Víctor Eduardo Armendáriz RuizDiseñadorArquitecto Rafael Adame DoriaArte GráficoProfesor Oliverio Anaya RodríguezCirculación y Administración

56

Como parte de las actividades de la exhibición “Picasso: Obra Gráfica”, el 21 de agosto se realizó una velada cultural en la

que el pintor mexicano José Luis Cuevas habló sobre la trayectoria del genio de Málaga, y culminó con los poemas llenos de erotismo del chileno Gonzalo Rojas.

En el Auditorio del Museo Metropolitano de Monterrey, en una sala abarrotada, los regiomontanos escucharon dos poemas dichos por el casi nonagenario poeta chileno, quien se autodefinió como un “místico concupiscente”. Rojas cerró su presentación en el recinto al declamar su poema Qedeshim Qedeshoth, expresión que en fenicio significa “cortesana del templo”.

Con ello, Rojas dejó una “probadita” de su obra poética en la que destacan sobre todo el amor, el erotismo y el compromiso social.

Mala suerte acostarse con fenicias, yo me acostécon una en Cádiz belísimay no supe de mi horóscopo hastamucho después cuando el Mediterráneo me empezó a exigirmás y más oleaje…Remando hacia atrás llegué casi exhausto a laduodécima centuria: todo era blanco, las aves,el océano, el amanecer era blanco.

Con su obra, Rojas sigue arriesgándose en una poesía en la que prevalece el tema del amor y del erotismo, sello constante en su obra. “Claro que me gustan las mujeres”, afirmó al público que de buena gana celebró sus ocurrencias.

CONSEJO A LOS APRENDICES: PERSEVERANCIADijo que toda la poesía se hace por circunstancias. “Todo poema tiene un grado de realidad”, insistió, y después recomendó a los aprendices de escritores perseverancia y proseguir en la lectura. La poeta mexicana Janeth Clariond, enlace entre el poeta y las autoridades del Museo, habló al iniciar el evento y se congratuló de la presencia de dos artistas, uno plástico (Cuevas) y otro escritor, por la convergencia y el encuentro en dicho evento.

Al finalizar, la señora de Todd agradeció la presencia del alcalde Edgar Olaiz, por el apoyo para la realización de la velada cultural realizada con dos grandes artistas: Cuevas y Rojas.“Gracias al maestro Cuevas y al maestro Rojas, llevaremos sus reflexiones en el corazón”, dijo.

Por Alma Trejo

EDITORIAL

DESCARTESPienso, luego existo

1596 a 1650

La violencia ha acompañado al hombre durante toda su historia y la ciencia ha permanecido pasiva ante este grave hecho.

Es evidente que en la época actual, el problema de la seguridad se ha convertido en una alta prioridad de los gobiernos y en una de-

manda permanente de la sociedad, ya que la justificación fundamental de la existencia del Estado es cuidar la seguridad de los ciudadanos.

Esta problemática se ha incrementa-do a raíz del terrorismo organizado y de los fundamentalismos, que, según los futurólogos, orillarán gradual-mente al mundo a guerras diferentes de las convencionales descritas en la historia.

La aparición de la energía nuclear, con su enorme capacidad destruc-tiva, así como de las armas bac-teriológicas y químico-tóxicas, o de la alteración de los componentes genéticos en forma perversa a través de la nutrición, son nuevos retos que la maldad humana les está dando, no sólo a los estadistas o políticos y menos aún a los policías tradicionales, sino principalmente a los científicos.

Por esa razón, el tema de la Bioseguridad y de la Bioinformática, que serán tratados en el Congreso Internacional de Biotecnología “Bio-MONTERREY 2006”, son de gran importancia, porque incluirán la integración de los nuevos avances en el DNA en la prevención de delitos, el control de plagas integrado a un sistema de defensa y seguridad nacional, y también comunitario e individual, que serán factores funda-

mentales del quehacer de la ciencia futura adaptada a la cultura de la paz.

Integrar los nuevos avances en Biotec-nología para un tratamiento más racional de la criminalidad y de la prevención de los delitos, así como apoyar el sistema judicial, cuya impartición de justicia se ve menguado por la falta de ciencia moderna que permita diagnósticos cere-brales sobre la veracidad de los dichos o hechos, son otras ventanas hacia el

horizonte de una nueva Bioseguridad para nuestras familias.

Ésta es un área muy importante, y por esa razón, durante el congreso, será tratada por expertos nacionales y extranjeros, en busca de nuevos rumbos para ampliar la influencia del conocimiento sobre esta temática, tan candente en la época actual, en donde la violencia recibe el apoyo de la tecnología, pero sin el marco ético que la prevenga.

CONSEJO EDITORIALIngeniero Juan Antonio González AréchigaPresidenteLicenciado Omar Cervantes RodríguezDirector de ComunicaciónSocial del Gobierno del EstadoIngeniero Xavier Lozano MartínezM. C. Silvia Patricia Mora CastroDoctor Mario César Salinas CarmonaDoctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

DIRECTORIOIngeniero Antonio Zárate NegrónDirector del Programa Ciudad Internacional Del ConocimientoDoctor Luis Eugenio ToddDirector General

LA REVISTA CONOCIMIENTO ES EDITADA POR LA COORDINACIÓN DE CIENCIA Y TECNOLOGÍA DE NUEVO LEÓN, Y ABRE SUS PÁGINAS A LAS INSTITUCIONES DE EDUCACIÓN SUPERIOR PARA LA PUBLICACIÓN DE ARTÍCULOS Y NOTICIAS DE CARÁCTER CIENTÍFICO. TELÉFONOS EN LA REDACCIÓN: 83 46 74 99 Y 83 46 73 51 [email protected] REGISTRO SOLICITADO PREVIAMENTE CON EL NOMBRE DE CONOCIMIENTO.

LAS OPINIONES EXPRESADAS EN LOS ARTÍCULOS SON RESPONSABILIDAD EXCLUSIVA DE SUS AUTORES.

Félix Ramos GamiñoDirector EditorialMaestro Rodrigo SotoSecretario EditorialProfesor Ismael Vidales DelgadoEducaciónLicenciado Juan Roberto ZavalaCiencia en FamiliaDoctor Jorge N. Valero GilCiencias Económicas y SocialesDoctor Juan Lauro AguirreCiencias Básicas y del AmbienteIngeniero Gabriel ToddDesarrollo Urbano y SocialDoctor David Gómez AlmaguerCiencias MédicasContador Público José Cárdenas CavazosCiencias Políticas y/o de Administración Pública

Doctora Liliana Patricia Cerda PérezCiencias de la ComunicaciónLicenciados Jorge Pedraza yClaudia OrdazLa Ciencia es CulturaDoctor Óscar Salas FraireEducación Física y DeporteDoctor Mario César SalinasLas Universidades y la CienciaLicenciada Alma TrejoLicenciado Carlos JoloyRedacciónLicenciado Víctor Eduardo Armendáriz RuizDiseñadorArquitecto Rafael Adame DoriaArte GráficoProfesor Oliverio Anaya RodríguezCirculación y Administración

56

Como parte de las actividades de la exhibición “Picasso: Obra Gráfica”, el 21 de agosto se realizó una velada cultural en la

que el pintor mexicano José Luis Cuevas habló sobre la trayectoria del genio de Málaga, y culminó con los poemas llenos de erotismo del chileno Gonzalo Rojas.

En el Auditorio del Museo Metropolitano de Monterrey, en una sala abarrotada, los regiomontanos escucharon dos poemas dichos por el casi nonagenario poeta chileno, quien se autodefinió como un “místico concupiscente”. Rojas cerró su presentación en el recinto al declamar su poema Qedeshim Qedeshoth, expresión que en fenicio significa “cortesana del templo”.

Con ello, Rojas dejó una “probadita” de su obra poética en la que destacan sobre todo el amor, el erotismo y el compromiso social.

Mala suerte acostarse con fenicias, yo me acostécon una en Cádiz belísimay no supe de mi horóscopo hastamucho después cuando el Mediterráneo me empezó a exigirmás y más oleaje…Remando hacia atrás llegué casi exhausto a laduodécima centuria: todo era blanco, las aves,el océano, el amanecer era blanco.

Con su obra, Rojas sigue arriesgándose en una poesía en la que prevalece el tema del amor y del erotismo, sello constante en su obra. “Claro que me gustan las mujeres”, afirmó al público que de buena gana celebró sus ocurrencias.

CONSEJO A LOS APRENDICES: PERSEVERANCIADijo que toda la poesía se hace por circunstancias. “Todo poema tiene un grado de realidad”, insistió, y después recomendó a los aprendices de escritores perseverancia y proseguir en la lectura. La poeta mexicana Janeth Clariond, enlace entre el poeta y las autoridades del Museo, habló al iniciar el evento y se congratuló de la presencia de dos artistas, uno plástico (Cuevas) y otro escritor, por la convergencia y el encuentro en dicho evento.

Al finalizar, la señora de Todd agradeció la presencia del alcalde Edgar Olaiz, por el apoyo para la realización de la velada cultural realizada con dos grandes artistas: Cuevas y Rojas.“Gracias al maestro Cuevas y al maestro Rojas, llevaremos sus reflexiones en el corazón”, dijo.

Por Alma Trejo

EDITORIAL

DESCARTESPienso, luego existo

1596 a 1650

La violencia ha acompañado al hombre durante toda su historia y la ciencia ha permanecido pasiva ante este grave hecho.

Es evidente que en la época actual, el problema de la seguridad se ha convertido en una alta prioridad de los gobiernos y en una de-

manda permanente de la sociedad, ya que la justificación fundamental de la existencia del Estado es cuidar la seguridad de los ciudadanos.

Esta problemática se ha incrementa-do a raíz del terrorismo organizado y de los fundamentalismos, que, según los futurólogos, orillarán gradual-mente al mundo a guerras diferentes de las convencionales descritas en la historia.

La aparición de la energía nuclear, con su enorme capacidad destruc-tiva, así como de las armas bac-teriológicas y químico-tóxicas, o de la alteración de los componentes genéticos en forma perversa a través de la nutrición, son nuevos retos que la maldad humana les está dando, no sólo a los estadistas o políticos y menos aún a los policías tradicionales, sino principalmente a los científicos.

Por esa razón, el tema de la Bioseguridad y de la Bioinformática, que serán tratados en el Congreso Internacional de Biotecnología “Bio-MONTERREY 2006”, son de gran importancia, porque incluirán la integración de los nuevos avances en el DNA en la prevención de delitos, el control de plagas integrado a un sistema de defensa y seguridad nacional, y también comunitario e individual, que serán factores funda-

mentales del quehacer de la ciencia futura adaptada a la cultura de la paz.

Integrar los nuevos avances en Biotec-nología para un tratamiento más racional de la criminalidad y de la prevención de los delitos, así como apoyar el sistema judicial, cuya impartición de justicia se ve menguado por la falta de ciencia moderna que permita diagnósticos cere-brales sobre la veracidad de los dichos o hechos, son otras ventanas hacia el

horizonte de una nueva Bioseguridad para nuestras familias.

Ésta es un área muy importante, y por esa razón, durante el congreso, será tratada por expertos nacionales y extranjeros, en busca de nuevos rumbos para ampliar la influencia del conocimiento sobre esta temática, tan candente en la época actual, en donde la violencia recibe el apoyo de la tecnología, pero sin el marco ético que la prevenga.

2 55

El también catedrático de la Escuela de Medicina del Tecnológico de Monterrey destacó que además del enfoque al tratamiento de las lesiones, es necesario atacar el problema desde otros frentes, y uno de los más importantes es la prevención. Subrayó la notable influencia que tiene el alcohol en los accidentes de tráfico, por lo cual aseguró que es necesaria una mayor atención por parte de las autoridades en este sentido.

Dijo que más de la mitad de los conductores que chocaron y fallecieron en la ciudad, tenían niveles muy altos de alcohol en la sangre. También hemos identificado como de mayor fatalidad los viernes después de las once de la noche, hasta las horas del domingo en la madrugada.

En cuanto a la problemática de accidentes que ocurren a causa del consumo del alcohol, no sólo en México, sino en todo el mundo, se presentó en el Congreso una conferencia especifica sobre el tema a cargo del doctor Larry Gentilello.

La principal recomendación consiste en que los médicos, al momento de atender a una persona que sufrió un accidente y presente síntomas de haber ingerido alcohol, sean capaces de hablar con ella y convencerla para que sea canalizada a otros tipos de ayuda para prevenir escenarios más graves.

El alcohol es la causa más común del trauma en nuestra sociedad; debemos tomar en cuenta que al prevenir el uso de alcohol en nuestros pacientes podemos disminuir los casos de trauma, explicó.

Ante las diversas recomendaciones que se presentaron, Arreola Rissa se comprometió a dar seguimiento y generar propuestas formales desde la Asociación Mexicana de Medicina y Cirugía del Trauma para que los conocimientos generados en el Congreso puedan ser de utilidad en la prevención y tratamiento del trauma.

Inaugurando la era genómica en el noreste de México, 3

El descubrimiento de fármacos anticancerígenos de origen natural, 7

Formación de redes colaborativas en Biotecnología, 11

Bioinformática intensiva, herramienta insustituible para el biólogo moderno, 14

Bioinformática, ¿qué es y a quién le interesa?, 19

Ingeniería de bioprocesospara la producción de vacunas, 21

Del laboratorio biomédico a la Bioinformática, 24

Organismos transgénicos para uso agrícola en México, 28

Los grandes desafíos del Siglo XXI en materia de Bioseguridad, 31

Seminario: Formaciónde biotecnólogos, 34

Creación de la carrera de Biotecnología Genómica, 35

Forma el CECyTE Nuevo León técnicos en Biotecnología, 39

El desarrollo de las tecnologías de información como apoyo a la bioseguridad, 40

Contenido Conocimiento

Luis Carlos Aceves GutiérrezEs ingeniero en Sistemas Computacionales y tiene una Maestría en Administración, ambos grados académicos del Tecnológico de Monterrey. En esa institución hizo una especialidad en Comercio Electrónico. Es profesor asociado en el Departamento de Ciencias Computacionales de la Universidad de Monterrey (UDEM) y pertenece a la Cámara Nacional de la Industria de Electrónica, Telecomunicaciones e Informática. Ha sido evaluador de empresas de alta tecnología de la Fundación México-Estados Unidos para la Ciencia.

MOctavio Martínez de la VegaEs profesor titular del Departamento de Ingeniería Genética Cinvestav-Unidad Irapuato, institución en la cual también se desempeña como coordinador académico.

Gabriel del Río GuerraEs profesor de Asignatura A, Biología Celular en la Facultad de Ciencias de la Universidad Nacional Autónoma de México, y es responsable del Instituto de Fisiología Celular de la misma institución.

Ariel Álvarez MoralesEs doctor en Genética Molecular por la Universidad de Sussex, Reino Unido, y realizó una estancia posdoctoral en el Instituto de Microbiología del Instituto Politécnico Federal en Zurich, Suiza. Es investigador titular del Departamento de Ingeniería Genética, Unidad Irapuato del Cinvestav Guanajuato.

Alba E. Jofre-GarfiasEs doctora en Ciencias, en Biotecnología de Plantas. Trabaja como investigadora titular del Departamento de Ingeniería Genética, Unidad Irapuato, del Cinvestav Guanajuato.

Autores invitados:

16

3819

54 3

Hugo Barrera Saldaña. Nació en Ciudad Miguel Alemán, Tamaulipas. Realizó sus estudios profesionales en la Universidad Autónoma de Nuevo León, por la que es licenciado en Biología. Tiene un doctorado en Ciencias Biomédicas de la Universidad de Texas en Houston, Estados Unidos, y un posdoctorado en Biología Molecular por la Universidad Louis Pasteur de Estrasburgo, en Francia. Asimismo, es especialista en Conversión de Tecnología a Capital por la Universidad de Texas, en Austin, y por el Instituto Tecnológico y de Estudios Superiores de Monterrey.

Propuso, fundó y fue primer director de la Unidad de Laboratorios de Ingeniería y Expresión Genéticas en la Facultad de Medicina de la UANL, y propuso y fue primer director del Centro de Biotecnología Genómica del Instituto Politécnico Nacional en Reynosa, Tamaulipas. Ha impartido cursos en Universidades de México, Latinoamérica y España, y actualmente pertenece al Sistema Nacional de Investigadores, en el nivel III. Es miembro de las Academias Nacional de Medicina y Mexicana de Ciencias; es autor de más de 100 publicaciones en revistas científicas como Nature, Science, Journal of Biological Chemistry, Embo Journal y Molecular Medicine y autor del libro Información Genética, su estructura, función y manipulación (1992); y de la patente No. 965082 “Levaduras metilotróficas modificadas genéticamente para la producción y secreción de la hormona del crecimiento humano”. El año 2003, la revista Nature Medicine le dedicó un perfil en su edición de julio. Ha recibido once premios de investigación de la UANL y 15 de carácter nacional. [email protected].

La materia de la biotecnología moderna es inherentemente cercana a las necesidades primarias del hombre, tales como su salud, alimentación y, cada día más, la calidad de su entorno ecológico. Ciertamente existen productos de ella que la sociedad ya asimiló y mucho valora, aunque todavía no entienda bien los procesos que los generaron. Tales son los casos de las hormonas y otras proteínas con propiedades terapéuticas. Baste citar la insulina y el interferón.

Pero también es menester reconocer que existen áreas de la biotecnología en medio de la controversia e incluso censuradas, por causas ya sea genuinas, de preocupaciones por la confiabilidad en las tecnologías emergentes que las sustentan, como es el caso de la clonación terapéutica (dejando fuera la reproductiva, que ni la misma comunidad científica avala aún) o por otras no genuinas –sino más bien tendenciosas, amarillistas o que responden a intereses comerciales siniestros-, pero efectivas, que han logrado establecer un clima adverso para su desarrollo.

México es un país megadiverso en su fauna y flora, todavía dominado demográficamente principalmente por jóvenes que necesitan de una educación y capacitación que les permitan acceder a mejores trabajos y por ende a mejores niveles de vida. A su vez, posee grupos que, aunque muy pocos, son de calidad mundial en la Biotecnología. Ésta ofrece alternativas para explotar en forma renovable, sustentable y segura la megadiversidad de nuestro país.

REVOLUCIÓN DE LA GENÓMICAEl entorno mundial actual para la industria de los sectores de la salud, agroalimentaria y del ambiente todavía está regido por la oportunidad de derivar aplicaciones de la revolución de la genómica. En este entorno, los sectores productivos públicos, sociales y privados del país requieren urgentemente acabar de ingresar a la globalización con la capacidad de innovar sus productos y procesos para agregarles valor, calidad, inocuidad para el ambiente y mayor competitividad.

En México, una de las principales causas de mortalidad son los accidentes de tráfico, y cada quince minutos muere una persona debido a una lesión de los tejidos causada por agentes mecánicos o ‘trauma’. Atendiendo esta situación, se realizó en Monterrey el “XVII Congreso Nacional de Atención del Trauma: Calidad, Excelencia y Equidad”, organizado por la Asociación Mexicana de Medicina y Cirugía del Trauma.

El evento, que se celebró en el Centro Estudiantil del Tecnológico de Monte-rrey del 17 al 19 de agosto, reunió a importantes exponentes del tema provenientes de diferentes países; durante los primeros dos días, los trabajos se dividieron en cuatro diferentes áreas: emergencias y reanimación, cirugía y terapia intensiva, enfermería y medicina prehospitalaria.

MEDIDAS DE PREVENCIÓNCarlos Arreola Rissa, presidente de la Asociación y del Congreso, explicó que la finalidad de las conferencias fue intercambiar experiencias entre los expertos y los asistentes para proponer una forma más eficiente de atención, ya que consideró que en la mayor parte de los accidentes en que fallecen personas, se llega a la conclusión de que se pudo prevenir el deceso aplicando medidas de prevención diferentes a las actuales.

Con el crecimiento de las ciudades, hay mayor población y se incrementan los factores de riesgo. Por ejemplo, las áreas metropolitanas enfrentan los índices más altos de lesiones

y traumatismos por accidentes, y tristemente, como hemos visto en este congreso, la gran mayoría de las lesiones son prevenibles, pero se tiene que tener la opinión de expertos.

Luego de la participación de 50 expositores nacionales y diez provenientes del extranjero en las diferentes conferencias, en cada uno de los temas se concretaron diversas propuestas; una de ellas fue la de desarrollar y establecer un sistema de integración y respuesta conformado por expertos en la medicina de emergencias y que sea capaz de brindar un mejor y más rápido servicio a las víctimas en accidentes de tráfico, principalmente.

Tiene que establecerse un sistema de integración supervisado por expertos; en un campo tan serio no se puede improvisar, ya que el tiempo hace la diferencia, y debemos tener un sistema que garantice la atención

al paciente en estos casos, dijo Arreola Rissa.

PROPUESTA ANTE LAS AUTORIDADESAgregó que la propuesta será promovida por la Asociación que preside ante las autoridades correspondientes, convirtiendo así el resultado del Congreso en una petición real basada en amplias recomendaciones y experiencias que se trataron en el evento.

Por Carlos Joloy

Carlos Arreola Rissa, presidente del XVII Congreso Nacional de Atención del Trauma

2 55

El también catedrático de la Escuela de Medicina del Tecnológico de Monterrey destacó que además del enfoque al tratamiento de las lesiones, es necesario atacar el problema desde otros frentes, y uno de los más importantes es la prevención. Subrayó la notable influencia que tiene el alcohol en los accidentes de tráfico, por lo cual aseguró que es necesaria una mayor atención por parte de las autoridades en este sentido.

Dijo que más de la mitad de los conductores que chocaron y fallecieron en la ciudad, tenían niveles muy altos de alcohol en la sangre. También hemos identificado como de mayor fatalidad los viernes después de las once de la noche, hasta las horas del domingo en la madrugada.

En cuanto a la problemática de accidentes que ocurren a causa del consumo del alcohol, no sólo en México, sino en todo el mundo, se presentó en el Congreso una conferencia especifica sobre el tema a cargo del doctor Larry Gentilello.

La principal recomendación consiste en que los médicos, al momento de atender a una persona que sufrió un accidente y presente síntomas de haber ingerido alcohol, sean capaces de hablar con ella y convencerla para que sea canalizada a otros tipos de ayuda para prevenir escenarios más graves.

El alcohol es la causa más común del trauma en nuestra sociedad; debemos tomar en cuenta que al prevenir el uso de alcohol en nuestros pacientes podemos disminuir los casos de trauma, explicó.

Ante las diversas recomendaciones que se presentaron, Arreola Rissa se comprometió a dar seguimiento y generar propuestas formales desde la Asociación Mexicana de Medicina y Cirugía del Trauma para que los conocimientos generados en el Congreso puedan ser de utilidad en la prevención y tratamiento del trauma.

Inaugurando la era genómica en el noreste de México, 3

El descubrimiento de fármacos anticancerígenos de origen natural, 7

Formación de redes colaborativas en Biotecnología, 11

Bioinformática intensiva, herramienta insustituible para el biólogo moderno, 14

Bioinformática, ¿qué es y a quién le interesa?, 19

Ingeniería de bioprocesospara la producción de vacunas, 21

Del laboratorio biomédico a la Bioinformática, 24

Organismos transgénicos para uso agrícola en México, 28

Los grandes desafíos del Siglo XXI en materia de Bioseguridad, 31

Seminario: Formaciónde biotecnólogos, 34

Creación de la carrera de Biotecnología Genómica, 35

Forma el CECyTE Nuevo León técnicos en Biotecnología, 39

El desarrollo de las tecnologías de información como apoyo a la bioseguridad, 40

Contenido Conocimiento

Luis Carlos Aceves GutiérrezEs ingeniero en Sistemas Computacionales y tiene una Maestría en Administración, ambos grados académicos del Tecnológico de Monterrey. En esa institución hizo una especialidad en Comercio Electrónico. Es profesor asociado en el Departamento de Ciencias Computacionales de la Universidad de Monterrey (UDEM) y pertenece a la Cámara Nacional de la Industria de Electrónica, Telecomunicaciones e Informática. Ha sido evaluador de empresas de alta tecnología de la Fundación México-Estados Unidos para la Ciencia.

MOctavio Martínez de la VegaEs profesor titular del Departamento de Ingeniería Genética Cinvestav-Unidad Irapuato, institución en la cual también se desempeña como coordinador académico.

Gabriel del Río GuerraEs profesor de Asignatura A, Biología Celular en la Facultad de Ciencias de la Universidad Nacional Autónoma de México, y es responsable del Instituto de Fisiología Celular de la misma institución.

Ariel Álvarez MoralesEs doctor en Genética Molecular por la Universidad de Sussex, Reino Unido, y realizó una estancia posdoctoral en el Instituto de Microbiología del Instituto Politécnico Federal en Zurich, Suiza. Es investigador titular del Departamento de Ingeniería Genética, Unidad Irapuato del Cinvestav Guanajuato.

Alba E. Jofre-GarfiasEs doctora en Ciencias, en Biotecnología de Plantas. Trabaja como investigadora titular del Departamento de Ingeniería Genética, Unidad Irapuato, del Cinvestav Guanajuato.

Autores invitados:

16

3819

54 3

Hugo Barrera Saldaña. Nació en Ciudad Miguel Alemán, Tamaulipas. Realizó sus estudios profesionales en la Universidad Autónoma de Nuevo León, por la que es licenciado en Biología. Tiene un doctorado en Ciencias Biomédicas de la Universidad de Texas en Houston, Estados Unidos, y un posdoctorado en Biología Molecular por la Universidad Louis Pasteur de Estrasburgo, en Francia. Asimismo, es especialista en Conversión de Tecnología a Capital por la Universidad de Texas, en Austin, y por el Instituto Tecnológico y de Estudios Superiores de Monterrey.

Propuso, fundó y fue primer director de la Unidad de Laboratorios de Ingeniería y Expresión Genéticas en la Facultad de Medicina de la UANL, y propuso y fue primer director del Centro de Biotecnología Genómica del Instituto Politécnico Nacional en Reynosa, Tamaulipas. Ha impartido cursos en Universidades de México, Latinoamérica y España, y actualmente pertenece al Sistema Nacional de Investigadores, en el nivel III. Es miembro de las Academias Nacional de Medicina y Mexicana de Ciencias; es autor de más de 100 publicaciones en revistas científicas como Nature, Science, Journal of Biological Chemistry, Embo Journal y Molecular Medicine y autor del libro Información Genética, su estructura, función y manipulación (1992); y de la patente No. 965082 “Levaduras metilotróficas modificadas genéticamente para la producción y secreción de la hormona del crecimiento humano”. El año 2003, la revista Nature Medicine le dedicó un perfil en su edición de julio. Ha recibido once premios de investigación de la UANL y 15 de carácter nacional. [email protected].

La materia de la biotecnología moderna es inherentemente cercana a las necesidades primarias del hombre, tales como su salud, alimentación y, cada día más, la calidad de su entorno ecológico. Ciertamente existen productos de ella que la sociedad ya asimiló y mucho valora, aunque todavía no entienda bien los procesos que los generaron. Tales son los casos de las hormonas y otras proteínas con propiedades terapéuticas. Baste citar la insulina y el interferón.

Pero también es menester reconocer que existen áreas de la biotecnología en medio de la controversia e incluso censuradas, por causas ya sea genuinas, de preocupaciones por la confiabilidad en las tecnologías emergentes que las sustentan, como es el caso de la clonación terapéutica (dejando fuera la reproductiva, que ni la misma comunidad científica avala aún) o por otras no genuinas –sino más bien tendenciosas, amarillistas o que responden a intereses comerciales siniestros-, pero efectivas, que han logrado establecer un clima adverso para su desarrollo.

México es un país megadiverso en su fauna y flora, todavía dominado demográficamente principalmente por jóvenes que necesitan de una educación y capacitación que les permitan acceder a mejores trabajos y por ende a mejores niveles de vida. A su vez, posee grupos que, aunque muy pocos, son de calidad mundial en la Biotecnología. Ésta ofrece alternativas para explotar en forma renovable, sustentable y segura la megadiversidad de nuestro país.

REVOLUCIÓN DE LA GENÓMICAEl entorno mundial actual para la industria de los sectores de la salud, agroalimentaria y del ambiente todavía está regido por la oportunidad de derivar aplicaciones de la revolución de la genómica. En este entorno, los sectores productivos públicos, sociales y privados del país requieren urgentemente acabar de ingresar a la globalización con la capacidad de innovar sus productos y procesos para agregarles valor, calidad, inocuidad para el ambiente y mayor competitividad.

En México, una de las principales causas de mortalidad son los accidentes de tráfico, y cada quince minutos muere una persona debido a una lesión de los tejidos causada por agentes mecánicos o ‘trauma’. Atendiendo esta situación, se realizó en Monterrey el “XVII Congreso Nacional de Atención del Trauma: Calidad, Excelencia y Equidad”, organizado por la Asociación Mexicana de Medicina y Cirugía del Trauma.

El evento, que se celebró en el Centro Estudiantil del Tecnológico de Monte-rrey del 17 al 19 de agosto, reunió a importantes exponentes del tema provenientes de diferentes países; durante los primeros dos días, los trabajos se dividieron en cuatro diferentes áreas: emergencias y reanimación, cirugía y terapia intensiva, enfermería y medicina prehospitalaria.

MEDIDAS DE PREVENCIÓNCarlos Arreola Rissa, presidente de la Asociación y del Congreso, explicó que la finalidad de las conferencias fue intercambiar experiencias entre los expertos y los asistentes para proponer una forma más eficiente de atención, ya que consideró que en la mayor parte de los accidentes en que fallecen personas, se llega a la conclusión de que se pudo prevenir el deceso aplicando medidas de prevención diferentes a las actuales.

Con el crecimiento de las ciudades, hay mayor población y se incrementan los factores de riesgo. Por ejemplo, las áreas metropolitanas enfrentan los índices más altos de lesiones

y traumatismos por accidentes, y tristemente, como hemos visto en este congreso, la gran mayoría de las lesiones son prevenibles, pero se tiene que tener la opinión de expertos.

Luego de la participación de 50 expositores nacionales y diez provenientes del extranjero en las diferentes conferencias, en cada uno de los temas se concretaron diversas propuestas; una de ellas fue la de desarrollar y establecer un sistema de integración y respuesta conformado por expertos en la medicina de emergencias y que sea capaz de brindar un mejor y más rápido servicio a las víctimas en accidentes de tráfico, principalmente.

Tiene que establecerse un sistema de integración supervisado por expertos; en un campo tan serio no se puede improvisar, ya que el tiempo hace la diferencia, y debemos tener un sistema que garantice la atención

al paciente en estos casos, dijo Arreola Rissa.

PROPUESTA ANTE LAS AUTORIDADESAgregó que la propuesta será promovida por la Asociación que preside ante las autoridades correspondientes, convirtiendo así el resultado del Congreso en una petición real basada en amplias recomendaciones y experiencias que se trataron en el evento.

Por Carlos Joloy

Carlos Arreola Rissa, presidente del XVII Congreso Nacional de Atención del Trauma

4 53

Diagnósticos pasados y recientes apuntan a la impostergable urgencia de invertir más en la promoción de grupos, centros, posgrados y esfuerzos verdaderos de desarrollo y transferencia de biotecnologías a los sectores productivos nacionales, preferentemente. La solución demanda el apoyo de los grupos académicos mejor consolidados y con mayor visión emprendedora del país, y acciones audaces del sector gobierno para catalizar proyectos de vinculación efectiva academia-empresa.

El noreste de México es terreno fértil para empresas científicas, tecnologías y espíritu emprendedor. Así lo justifican la lejanía y frecuente indiferencia del poder central; las adversidades de la naturaleza semidesértica de su entorno; la influencia pragmática y mercantilista del país vecino del norte; la escasa tradición científica, lenta proliferación de grupos y aún débil coherencia de éstos; la pujanza de los grupos industriales autóctonos, así como la relativamente menor burocratización y politización de las instituciones académicas de nivel superior de la región.

El autor concibió el término Biotecnología Genómica en 1999, para referirse a las aplicaciones que vislumbraba se derivarían de los proyectos genómicos de las plantas, animales y microorganismos en curso o por iniciarse al cierre del siglo pasado. Igual hizo con el término Minería Genómica, para referirse a la búsqueda y valoración en los genomas, de genes y sus partes como potencial de aplicación en la Biotecnología Genómica.

En tales circunstancias, y confiado en que sería fácil encontrar líderes de opinión que compraran y apoyaran la pretenciosa idea de forjar instituciones líderes de la biotecnología en la región, el autor encabezó con sus colegas profesores y estudiantes de posgrado, la aventura de desarrollar y aplicar la biotecnología genómica en el noreste de México. De esta experiencia emanaron dos estrategias que se describen a continuación y que, como se verá, al final llegan al mismo punto: hacer ciencia vanguardista que contribuya a formar buenos investigadores, para que los investigadores, sus estudiantes y técnicos, en equipo y apoyados por una administración comprometida, consigan transferir los descubrimientos e invenciones de la era genómica en aplicaciones biomédicas y biotecnológicas que aporten soluciones a los problemas de importancia en la región.

1. MINERÍA GENÓMICA BIOMÉDICAEn abril de 2003, a 50 años del descubrimiento de la estructura del DNA, se concluye el Proyecto del Genoma Huma-no, después de casi 15 años de haber sido concebido. Durante todo este tiempo, numerosos avances y descubrimientos han sido piezas clave para agilizar la elucidación de la enciclopedia hereditaria de nuestra especie. Hoy se avanza en el inventario e identificación de sus genes, en la descripción de los patrones de expresión de éstos y en tratar de entender los roles y las interacciones entre sí de las proteínas que codifican.

Al participar en la década de 1980 en el proyecto de secuenciación del locus hGH (66 mil 500 nucleótidos) que alberga a los genes de las hormonas del crecimiento (HGH) y lactogénica placentaria (HPL, también conocida como

somatotropina coriónica) humanas, considerado en su momento un record mundial de la secuenciación manual más extensa de una región del genoma humano y evidencia de la factibilidad del Proyecto del Genoma Humano, nuestro laboratorio en Monterrey inauguró la era genómica con una serie de descubrimientos e invenciones (10) que han consolidado sus programas de investigación, posgrado y desarrollo tecnológico.

DESCUBRIMIENTOS E INNOVACIONES TECNOLÓGICASLas diferentes facetas del modelo de investigación y los logros de los proyectos representativos de cada uno de los laboratorios de la ULIEG, desde los cuales el autor y sus colegas de la Facultad de Medicina de la UANL suman y complementan sus conocimientos y destrezas, se ilustran con los siguientes descubrimientos e innovaciones tecnológicas claves que han resultado de tales proyectos:

1. En el Laboratorio de Genómica y Bioinformática se han aislado genes y regiones intergénicas de loci GH de primates, para determinar la estructura de dichos loci y así poder contribuir al entendimiento de la evolución de esta familia génica y al surgimiento de los genes que ahora consituyen el locus respectivo en el genoma humano.

2. En el Laboratorio de Biología Celular se han caracterizado los principales elementos de DNA que controlan la expresión y especificidad tisular de los genes miembros de la familia, a fin de entender cómo fue que cuando el gen ancestral GH se duplicó, la copia eventualmente adquirió funciones en la placenta y allí metabolitos diferentes a los de la glándula pituitaria controlaron la expresión de su nuevo producto: el HPL.

3. En el laboratorio de Genética Molecular se desarrolló un nuevo método para diagnosticar deleciones de los genes de la familia hGH-hPL, con el cual se diagnostican las deficiencias aisladas familiares de las respectivas hormonas codificadas por éstos, siendo de particular importancia la detección de la deleción del gen para HGH, pues de no tratarse se instalaría un enanismo severo y de tratarse habría que esperar posibles complicaciones por el rechazo inmune a la forma recombinante de la hormona.

4. En el Laboratorio de Medicina Molecular se han desarrollado vectores para terapia génica con selectividad para células tumorales de origen hipofisiarios, con los que podrán explorarse nuevos enfoques menos invasivos de tratamiento para los tumores de dicha glándula.

5. En el Laboratorio de Biotecnología se han producido en levaduras las proteínas codificadas por los genes miembros de la familia humana, así como por los genes GHs de varios animales. De hecho, al demostrar que dichas levaduras fueron capaces de producir, secretar, madurar, plegar y por ende generar la hormona en forma abundante y biológicamente activa, se consiguió proteger el nuevo proceso en México y Estados Unidos mediante una patente.

Estos esfuerzos de investigación han propiciado colaboracio-nes que han impulsado el desarrollo de la Genética Humana

Por Carlos Joloy

El Consejo de Participación Ciudadana de Ciencia y Tecnología celebró el pasado 17 de agosto su tercera reunión ordinaria, en la cual se presentaron los avances de importantes proyectos de la dependencia, como

la actualización en el congreso BioMonterrey y en el Sistema Estatal de Información e Interacción Científica y Tecnológica (SEIICYT).

En cuanto al tema del Congreso Internacional que se realizará en la ciudad a partir del 20 de septiembre, el doctor Luis Eugenio Todd, director general de la Coordinación de Ciencia y Tecnología, informó que a menos de un mes de distancia para celebrar el evento, se incluyeron nuevas estrategias de difusión como la Bioferia Infantil, esfuerzo con el que se pretende incluir a los niños en la temática de BioMonterrey 2006 mediante la instalación de módulos interactivos de enseñanza.

“Vamos a hacer un sistema en la parte de abajo de Cintermex, donde los niños van a entrar por una especie de corredor interactivo, y estamos ya planeando con investigadores esa exposición”, señaló el funcionario.

DESTACADOS CONFERENCISTAS EN BIOMONTERREYTodd solicitó a los miembros del Consejo participar en la difusión del Congreso, cada uno desde su propia área de influencia, y además les recomendó considerar nuevos eventos para aprovechar la visita de los importantes conferencistas que participarán en BioMonterrey. En cuanto al Sistema Estatal de

Información, Luis Carlos Aceves, realizó una presentación mediante la cual explicó a los asistentes el funcionamiento de esta herramienta, que permite la recolección de información de científicos y tecnólogos en el estado, les permite estar en contacto para formar comunidades sobre temas específicos y también agrupa a representantes de empresas, para así formar un sistema que recolecte la oferta y la demanda de profesionistas y trabajos en Nuevo León.

CREACIÓN DE NUEVAS COMUNIDADES“En las actividades a realizar tenemos que fomentar el crecimiento de esta base de datos, tenemos que incentivar la creación de nuevas comunidades ya que no nos va a servir de mucho el tener el registro si no hay interacción y así tener también un banco de recursos de información”, dijo Todd.

A pesar de que aún no inicia el programa de difusión para dar a conocer el sistema abiertamente, Aceves agregó que ya existen 121 miembros activos y 102 solicitantes registrados en el SEIICYT, que han llegado por medios propios.

Durante la sesión del Consejo se acordó apoyar la creación de un comité interinstitucional coordinado por José A. Galván, para desarrollar las bases de un concurso, mediante el cual se lanzará una convocatoria a la comunidad para el desarrollo de juguetes educativos infantiles que estimulen el aprendizaje de conceptos científicos y tecnológicos.

Por último se decidió que la próxima reunión del Consejo se llevará a cabo el próximo 20 de octubre.

52 5

Molecular en el país y Latino América. También han generado la capacidad para traducir este conocimiento genómico en aplicaciones diagnósticas, que se ofrecen ya al público en la forma de una treintena de pruebas diagnósticas de enfermedades mendelianas, oncológicas e infecciosas; asimismo, para intentar nuevos procesos para generar nuevos productos terapéuticos, como la referida HGH recombinante producida en levaduras, así como los nuevos vectores adenovirales de replicación selectiva para tumores, cuya

solicitud de patente ha sido recientemente enviada al Instituto Mexicano de la Propiedad Industrial. Recapitulando, el modelo que evolucionó en la ULIEG (ver el cuadro 1) durante estas dos décadas, fue el enfocar los esfuerzos primordialmente a la consolidación de la investigación básica en varias ramas afines de las ciencias biomédicas, cultivando las tecnologías emanadas de dicha investigación e incursionando en la aplicación de éstas en las industrias farmacéutica y biotecnológica nacionales.

Cuadro 1. Desarrollo y aplicación del conocimiento genómico biomédico en la ULIEG.

Familia GH del Genoma

Humano

Genómica

Celular

Genética

Molecular

Salud

Industrial

Clonación y evolución Génetica

Regulación Génica

Estudio de dis-función génica

Desarrollo de nuevas terapias

Optimización de pruebas diagnósticas

Clonación y expre-srón en levaduras

Descubrimiento denuevas GHs.

Control de la producción Transgénica de GHs.

Diagnóstico de enfer-medades genéticas

Protocolos de Terapia génica del cáncer

El Servicio Diagnóstico

Nueva patentepara producir HGHr

Biología

Medicina

Biotecnología

TEMAAPLICACIONES

CIENCIA RAMA TECNOLOGÍA

2. MINERÍA GENÓMICA ALIMENTARIADurante la consolidación de la ULIEG, colaboraciones exitosas en las que se incursionó en los campos pecuario y agrícola, alimentaron la idea de fundar un Centro de Investigación en Biotecnología Moderna en dichos campos, en el noreste del país. Luego de tocar muchas puertas, la oportunidad se presentó en la ciudad de Reynosa en 1999, donde el IPN había construído un par de años atrás un espléndido edificio, el cual propusimos convertir en el CBG. El planeamiento lo sustentamos con la confianza que nos daban la experiencia acumulada, tecnología desarrollada, investigadores formados y redes de colaboraciones con centros de investigación en el país y del extranjero, que habíamos alcanzado en la ULIEG; y lo justificamos con las siguientes cuatro razones principales:

Primero, aportar un nuevo Centro donde al menos se tuviera la capacidad para traducir oportunamente los descubrimientos genómicos en nuevas biotecnologías.Segundo, centrar las preocupaciones y esfuerzos de los investigadores al servicio de la solución de necesidades de los sectores productivos del campo mexicano, buscando agregar valor a sus productos con innovaciones biotecnológicas; y las del equipo administrativo en servir a los investigadores, para favorecer el éxito de la misión del equipo de investigación.Tercero, capitalizar en las oportunidades que representa el poder aliarse con los excelentes centros de investigación afines instalados en el sureste de los Estados Unidos.Cuarto, ofrecer a la juventud del noreste de México una nueva opción de educación de posgrado pertinente y vanguardista, que abra los cauces a todo este talento y lo

Durante 35 años, el Consejo Nacional de Fomento Educativo (CONAFE) ha brindado servicios educativos a la población que por distintos motivos no es atendida por el sistema tradicional. La memoria de

esa actividad, que se realiza a lo largo y ancho del país, permanecerá como parte de una colección fotográfica que se presenta desde el viernes 18 de agosto en las arcadas del Museo Metropolitano de Monterrey.

La licenciada Elvira Lozano de Todd, directora del espacio cultural, inauguró la exhibición en una ceremonia en la que también participaron funcionarios del CONAFE, entre quienes se encontraban el ingeniero Gustavo Rubén García, delegado en Nuevo León; el ingeniero Marco Julio Linares, director de Medios y Publicaciones, y el licenciado Alfredo Jacob Vilalta, subdirector de Educación Inicial y autor de las fotografías que integran la misma.

“Estas fotografías son parte del archivo documental del CONAFE; es una memoria de los diversos aspectos del programa implementado hace más de tres décadas y que tiene como objetivo ofrecer un modelo de educación para la vida”, explicó Linares.

IMPORTANTE ESFUERZO EDUCATIVOEn las fotografías se pueden apreciar distintos aspectos de las actividades que realizan los instructores comunitarios, la infraestructura que proporcionan las comunidades y parte del extenso paisaje en donde se desarrolla este esfuerzo educativo que ofrece el CONAFE.

“A través del CONAFE, los niños de las comunidades más pobres y marginadas del país tienen acceso a una educación inicial de calidad y a la adquisición de competencias que les den las bases para que se desarrollen en el futuro y abrirles más posibilidades para que vivan mejor”, puntualizó Linares.

Para Jacob, autor de las fotografías, las imágenes son parte del banco documental con que cuenta el CONAFE, y se toman como parte del plan de trabajo de la institución. “Fue toda una labor de logística desarrollada durante más de un año”,

explicó el funcionario, “durante el cual se visitaron los 31 estados de la República, donde se hicieron las fotografías con cuatro temáticas: infraestructura de educación inicial, materiales didácticos, acceso a las comunidades, y padres de familia, educadores y educandos”.

Durante su trabajo estuvo en contacto con la gente más humilde, pero no por ello menos valiosa de este país. Mencionó entre otros a jornaleros, niños migrantes, cirqueros, habitantes de comunidades indígenas, quienes al igual que los paisajes de zonas rurales lejanas fueron el objeto de esta exhibición fotográfica.

CONAFE NUEVO LEÓNCon la educación a niños que habitan las comunidades aisladas y de alta marginalidad, el CONAFE destaca su compromiso de brindar servicio educativo desde preescolar a sexto de primaria, explicó García.

Bajo la titularidad del doctor Roberto Moreira Flores, el CONAFE atiende actualmente a más de un millón 200 mil estudiantes en todo el país, y ofrece útiles, materiales educativos y equipos en 17 mil espacios regulares, además de los sitios que se adecuan para ofrecer este servicio a las distintas comunidades.

Para dar este servicio, el CONAFE proporciona capacitación, apoyo económico a los instructores que ejercen como docentes; realiza supervisión técnico-pedagógica; suministra material didáctico y extiende las constancias de estudio correspondientes.

Parte del programa, mencionó el funcionario, es vincular la educación a proyectos productivos y de bienestar social en los que participen los niños con sus familias, a fin de favorecer la aplicación de conocimientos en su vida cotidiana.

En Nuevo León, el CONAFE atiende 567 comunidades, con casi 4 mil alumnos de enseñanza básica y 63 de secundaria; ofrece 105 becas a través del programa FIDUCAR, y cuenta con 577 figuras docentes; es decir, capacitadotes que no son empleados de la institución descentralizada, puntualizó García.

Exhibe CONAFE memoria fotográfica de su labor educativa de 35 años

En las arcadas del Museo Metropolitano

Por Alma Trejo

4 53

Diagnósticos pasados y recientes apuntan a la impostergable urgencia de invertir más en la promoción de grupos, centros, posgrados y esfuerzos verdaderos de desarrollo y transferencia de biotecnologías a los sectores productivos nacionales, preferentemente. La solución demanda el apoyo de los grupos académicos mejor consolidados y con mayor visión emprendedora del país, y acciones audaces del sector gobierno para catalizar proyectos de vinculación efectiva academia-empresa.

El noreste de México es terreno fértil para empresas científicas, tecnologías y espíritu emprendedor. Así lo justifican la lejanía y frecuente indiferencia del poder central; las adversidades de la naturaleza semidesértica de su entorno; la influencia pragmática y mercantilista del país vecino del norte; la escasa tradición científica, lenta proliferación de grupos y aún débil coherencia de éstos; la pujanza de los grupos industriales autóctonos, así como la relativamente menor burocratización y politización de las instituciones académicas de nivel superior de la región.

El autor concibió el término Biotecnología Genómica en 1999, para referirse a las aplicaciones que vislumbraba se derivarían de los proyectos genómicos de las plantas, animales y microorganismos en curso o por iniciarse al cierre del siglo pasado. Igual hizo con el término Minería Genómica, para referirse a la búsqueda y valoración en los genomas, de genes y sus partes como potencial de aplicación en la Biotecnología Genómica.

En tales circunstancias, y confiado en que sería fácil encontrar líderes de opinión que compraran y apoyaran la pretenciosa idea de forjar instituciones líderes de la biotecnología en la región, el autor encabezó con sus colegas profesores y estudiantes de posgrado, la aventura de desarrollar y aplicar la biotecnología genómica en el noreste de México. De esta experiencia emanaron dos estrategias que se describen a continuación y que, como se verá, al final llegan al mismo punto: hacer ciencia vanguardista que contribuya a formar buenos investigadores, para que los investigadores, sus estudiantes y técnicos, en equipo y apoyados por una administración comprometida, consigan transferir los descubrimientos e invenciones de la era genómica en aplicaciones biomédicas y biotecnológicas que aporten soluciones a los problemas de importancia en la región.

1. MINERÍA GENÓMICA BIOMÉDICAEn abril de 2003, a 50 años del descubrimiento de la estructura del DNA, se concluye el Proyecto del Genoma Huma-no, después de casi 15 años de haber sido concebido. Durante todo este tiempo, numerosos avances y descubrimientos han sido piezas clave para agilizar la elucidación de la enciclopedia hereditaria de nuestra especie. Hoy se avanza en el inventario e identificación de sus genes, en la descripción de los patrones de expresión de éstos y en tratar de entender los roles y las interacciones entre sí de las proteínas que codifican.

Al participar en la década de 1980 en el proyecto de secuenciación del locus hGH (66 mil 500 nucleótidos) que alberga a los genes de las hormonas del crecimiento (HGH) y lactogénica placentaria (HPL, también conocida como

somatotropina coriónica) humanas, considerado en su momento un record mundial de la secuenciación manual más extensa de una región del genoma humano y evidencia de la factibilidad del Proyecto del Genoma Humano, nuestro laboratorio en Monterrey inauguró la era genómica con una serie de descubrimientos e invenciones (10) que han consolidado sus programas de investigación, posgrado y desarrollo tecnológico.

DESCUBRIMIENTOS E INNOVACIONES TECNOLÓGICASLas diferentes facetas del modelo de investigación y los logros de los proyectos representativos de cada uno de los laboratorios de la ULIEG, desde los cuales el autor y sus colegas de la Facultad de Medicina de la UANL suman y complementan sus conocimientos y destrezas, se ilustran con los siguientes descubrimientos e innovaciones tecnológicas claves que han resultado de tales proyectos:

1. En el Laboratorio de Genómica y Bioinformática se han aislado genes y regiones intergénicas de loci GH de primates, para determinar la estructura de dichos loci y así poder contribuir al entendimiento de la evolución de esta familia génica y al surgimiento de los genes que ahora consituyen el locus respectivo en el genoma humano.

2. En el Laboratorio de Biología Celular se han caracterizado los principales elementos de DNA que controlan la expresión y especificidad tisular de los genes miembros de la familia, a fin de entender cómo fue que cuando el gen ancestral GH se duplicó, la copia eventualmente adquirió funciones en la placenta y allí metabolitos diferentes a los de la glándula pituitaria controlaron la expresión de su nuevo producto: el HPL.

3. En el laboratorio de Genética Molecular se desarrolló un nuevo método para diagnosticar deleciones de los genes de la familia hGH-hPL, con el cual se diagnostican las deficiencias aisladas familiares de las respectivas hormonas codificadas por éstos, siendo de particular importancia la detección de la deleción del gen para HGH, pues de no tratarse se instalaría un enanismo severo y de tratarse habría que esperar posibles complicaciones por el rechazo inmune a la forma recombinante de la hormona.

4. En el Laboratorio de Medicina Molecular se han desarrollado vectores para terapia génica con selectividad para células tumorales de origen hipofisiarios, con los que podrán explorarse nuevos enfoques menos invasivos de tratamiento para los tumores de dicha glándula.

5. En el Laboratorio de Biotecnología se han producido en levaduras las proteínas codificadas por los genes miembros de la familia humana, así como por los genes GHs de varios animales. De hecho, al demostrar que dichas levaduras fueron capaces de producir, secretar, madurar, plegar y por ende generar la hormona en forma abundante y biológicamente activa, se consiguió proteger el nuevo proceso en México y Estados Unidos mediante una patente.

Estos esfuerzos de investigación han propiciado colaboracio-nes que han impulsado el desarrollo de la Genética Humana

Por Carlos Joloy

El Consejo de Participación Ciudadana de Ciencia y Tecnología celebró el pasado 17 de agosto su tercera reunión ordinaria, en la cual se presentaron los avances de importantes proyectos de la dependencia, como

la actualización en el congreso BioMonterrey y en el Sistema Estatal de Información e Interacción Científica y Tecnológica (SEIICYT).

En cuanto al tema del Congreso Internacional que se realizará en la ciudad a partir del 20 de septiembre, el doctor Luis Eugenio Todd, director general de la Coordinación de Ciencia y Tecnología, informó que a menos de un mes de distancia para celebrar el evento, se incluyeron nuevas estrategias de difusión como la Bioferia Infantil, esfuerzo con el que se pretende incluir a los niños en la temática de BioMonterrey 2006 mediante la instalación de módulos interactivos de enseñanza.

“Vamos a hacer un sistema en la parte de abajo de Cintermex, donde los niños van a entrar por una especie de corredor interactivo, y estamos ya planeando con investigadores esa exposición”, señaló el funcionario.

DESTACADOS CONFERENCISTAS EN BIOMONTERREYTodd solicitó a los miembros del Consejo participar en la difusión del Congreso, cada uno desde su propia área de influencia, y además les recomendó considerar nuevos eventos para aprovechar la visita de los importantes conferencistas que participarán en BioMonterrey. En cuanto al Sistema Estatal de

Información, Luis Carlos Aceves, realizó una presentación mediante la cual explicó a los asistentes el funcionamiento de esta herramienta, que permite la recolección de información de científicos y tecnólogos en el estado, les permite estar en contacto para formar comunidades sobre temas específicos y también agrupa a representantes de empresas, para así formar un sistema que recolecte la oferta y la demanda de profesionistas y trabajos en Nuevo León.

CREACIÓN DE NUEVAS COMUNIDADES“En las actividades a realizar tenemos que fomentar el crecimiento de esta base de datos, tenemos que incentivar la creación de nuevas comunidades ya que no nos va a servir de mucho el tener el registro si no hay interacción y así tener también un banco de recursos de información”, dijo Todd.

A pesar de que aún no inicia el programa de difusión para dar a conocer el sistema abiertamente, Aceves agregó que ya existen 121 miembros activos y 102 solicitantes registrados en el SEIICYT, que han llegado por medios propios.

Durante la sesión del Consejo se acordó apoyar la creación de un comité interinstitucional coordinado por José A. Galván, para desarrollar las bases de un concurso, mediante el cual se lanzará una convocatoria a la comunidad para el desarrollo de juguetes educativos infantiles que estimulen el aprendizaje de conceptos científicos y tecnológicos.

Por último se decidió que la próxima reunión del Consejo se llevará a cabo el próximo 20 de octubre.

52 5

Molecular en el país y Latino América. También han generado la capacidad para traducir este conocimiento genómico en aplicaciones diagnósticas, que se ofrecen ya al público en la forma de una treintena de pruebas diagnósticas de enfermedades mendelianas, oncológicas e infecciosas; asimismo, para intentar nuevos procesos para generar nuevos productos terapéuticos, como la referida HGH recombinante producida en levaduras, así como los nuevos vectores adenovirales de replicación selectiva para tumores, cuya

solicitud de patente ha sido recientemente enviada al Instituto Mexicano de la Propiedad Industrial. Recapitulando, el modelo que evolucionó en la ULIEG (ver el cuadro 1) durante estas dos décadas, fue el enfocar los esfuerzos primordialmente a la consolidación de la investigación básica en varias ramas afines de las ciencias biomédicas, cultivando las tecnologías emanadas de dicha investigación e incursionando en la aplicación de éstas en las industrias farmacéutica y biotecnológica nacionales.

Cuadro 1. Desarrollo y aplicación del conocimiento genómico biomédico en la ULIEG.

Familia GH del Genoma

Humano

Genómica

Celular

Genética

Molecular

Salud

Industrial

Clonación y evolución Génetica

Regulación Génica

Estudio de dis-función génica

Desarrollo de nuevas terapias

Optimización de pruebas diagnósticas

Clonación y expre-srón en levaduras

Descubrimiento denuevas GHs.

Control de la producción Transgénica de GHs.

Diagnóstico de enfer-medades genéticas

Protocolos de Terapia génica del cáncer

El Servicio Diagnóstico

Nueva patentepara producir HGHr

Biología

Medicina

Biotecnología

TEMAAPLICACIONES

CIENCIA RAMA TECNOLOGÍA

2. MINERÍA GENÓMICA ALIMENTARIADurante la consolidación de la ULIEG, colaboraciones exitosas en las que se incursionó en los campos pecuario y agrícola, alimentaron la idea de fundar un Centro de Investigación en Biotecnología Moderna en dichos campos, en el noreste del país. Luego de tocar muchas puertas, la oportunidad se presentó en la ciudad de Reynosa en 1999, donde el IPN había construído un par de años atrás un espléndido edificio, el cual propusimos convertir en el CBG. El planeamiento lo sustentamos con la confianza que nos daban la experiencia acumulada, tecnología desarrollada, investigadores formados y redes de colaboraciones con centros de investigación en el país y del extranjero, que habíamos alcanzado en la ULIEG; y lo justificamos con las siguientes cuatro razones principales:

Primero, aportar un nuevo Centro donde al menos se tuviera la capacidad para traducir oportunamente los descubrimientos genómicos en nuevas biotecnologías.Segundo, centrar las preocupaciones y esfuerzos de los investigadores al servicio de la solución de necesidades de los sectores productivos del campo mexicano, buscando agregar valor a sus productos con innovaciones biotecnológicas; y las del equipo administrativo en servir a los investigadores, para favorecer el éxito de la misión del equipo de investigación.Tercero, capitalizar en las oportunidades que representa el poder aliarse con los excelentes centros de investigación afines instalados en el sureste de los Estados Unidos.Cuarto, ofrecer a la juventud del noreste de México una nueva opción de educación de posgrado pertinente y vanguardista, que abra los cauces a todo este talento y lo

Durante 35 años, el Consejo Nacional de Fomento Educativo (CONAFE) ha brindado servicios educativos a la población que por distintos motivos no es atendida por el sistema tradicional. La memoria de

esa actividad, que se realiza a lo largo y ancho del país, permanecerá como parte de una colección fotográfica que se presenta desde el viernes 18 de agosto en las arcadas del Museo Metropolitano de Monterrey.

La licenciada Elvira Lozano de Todd, directora del espacio cultural, inauguró la exhibición en una ceremonia en la que también participaron funcionarios del CONAFE, entre quienes se encontraban el ingeniero Gustavo Rubén García, delegado en Nuevo León; el ingeniero Marco Julio Linares, director de Medios y Publicaciones, y el licenciado Alfredo Jacob Vilalta, subdirector de Educación Inicial y autor de las fotografías que integran la misma.

“Estas fotografías son parte del archivo documental del CONAFE; es una memoria de los diversos aspectos del programa implementado hace más de tres décadas y que tiene como objetivo ofrecer un modelo de educación para la vida”, explicó Linares.

IMPORTANTE ESFUERZO EDUCATIVOEn las fotografías se pueden apreciar distintos aspectos de las actividades que realizan los instructores comunitarios, la infraestructura que proporcionan las comunidades y parte del extenso paisaje en donde se desarrolla este esfuerzo educativo que ofrece el CONAFE.

“A través del CONAFE, los niños de las comunidades más pobres y marginadas del país tienen acceso a una educación inicial de calidad y a la adquisición de competencias que les den las bases para que se desarrollen en el futuro y abrirles más posibilidades para que vivan mejor”, puntualizó Linares.

Para Jacob, autor de las fotografías, las imágenes son parte del banco documental con que cuenta el CONAFE, y se toman como parte del plan de trabajo de la institución. “Fue toda una labor de logística desarrollada durante más de un año”,

explicó el funcionario, “durante el cual se visitaron los 31 estados de la República, donde se hicieron las fotografías con cuatro temáticas: infraestructura de educación inicial, materiales didácticos, acceso a las comunidades, y padres de familia, educadores y educandos”.

Durante su trabajo estuvo en contacto con la gente más humilde, pero no por ello menos valiosa de este país. Mencionó entre otros a jornaleros, niños migrantes, cirqueros, habitantes de comunidades indígenas, quienes al igual que los paisajes de zonas rurales lejanas fueron el objeto de esta exhibición fotográfica.

CONAFE NUEVO LEÓNCon la educación a niños que habitan las comunidades aisladas y de alta marginalidad, el CONAFE destaca su compromiso de brindar servicio educativo desde preescolar a sexto de primaria, explicó García.

Bajo la titularidad del doctor Roberto Moreira Flores, el CONAFE atiende actualmente a más de un millón 200 mil estudiantes en todo el país, y ofrece útiles, materiales educativos y equipos en 17 mil espacios regulares, además de los sitios que se adecuan para ofrecer este servicio a las distintas comunidades.

Para dar este servicio, el CONAFE proporciona capacitación, apoyo económico a los instructores que ejercen como docentes; realiza supervisión técnico-pedagógica; suministra material didáctico y extiende las constancias de estudio correspondientes.

Parte del programa, mencionó el funcionario, es vincular la educación a proyectos productivos y de bienestar social en los que participen los niños con sus familias, a fin de favorecer la aplicación de conocimientos en su vida cotidiana.

En Nuevo León, el CONAFE atiende 567 comunidades, con casi 4 mil alumnos de enseñanza básica y 63 de secundaria; ofrece 105 becas a través del programa FIDUCAR, y cuenta con 577 figuras docentes; es decir, capacitadotes que no son empleados de la institución descentralizada, puntualizó García.

Exhibe CONAFE memoria fotográfica de su labor educativa de 35 años

En las arcadas del Museo Metropolitano

Por Alma Trejo

6 51

actitud emprendedora de sus egresados. Enseguida, buscar alianzas con los mejores grupos académicos de la región y del sureste de Estados Unidos. Finalmente, planear, desarrollar y llevar al nivel de vanguardistas, las investigaciones que permitan hacer del CBG el centro por excelencia de innovación de biotecnologías al servicio de los productores de la región.

Para favorecer el éxito del plan anterior, también se puso especial atención en la integración de un equipo administrativo y gerencial que tuviera la sensibilidad y la vocación de servicio para entender y atender las necesidades de los académicos; así como, en una labor intensa de gestoría con los productores de la región, para que vieran al nuevo centro como suyo y demandaran de éste que no se desviara de su misión para que no se convirtiera en un elefante blanco más.

Cuadro 3. Desarrollando y aplicando la biotecnología genómica en el CB.

CONCLUSIONESLa genómica es una ciencia y, por ende, no es sujeto de juicios de valor, pues sólo busca generar conocimiento. Lo que sí debe regularse es la aplicación de este conocimiento en la forma de las tecnologías que emana. La Biotecnología Genómica es tan útil y versátil porque permite explotar la herencia de los seres vivos. Como el hombre depende de éstos para producir alimentos, medicamentos y procesos de producción industrial más limpios, e incluso tecnologías para biorremediar contaminaciones, ha permeado muchos aspectos de la vida contemporánea y lo sigue y seguirá haciendo cada día más.

Buscando una mayor soberanía científica y tecnológica para desarrollar los sectores productivos del área de la salud, agropecuaria y del medio ambiente, aquí se describen dos esfuerzos y sus respectivas experiencias: Un centro de biomedicina y otro de Biotecnología agropecuaria.

AGRADECIMIENTOSEl autor agradece el apoyo de los doctores Herminia Martínez Rodríguez, Agnes Revol Richard, Rocío Ortiz López, Augusto Rojas Martínez, Gerardo Padilla Rivas, Ana Maria Rivas Estilla, Francisco Velazquez Vadillo, Diana Reséndez Pérez, Jorge Ascacio, Alberto Mendoza Herrera, Ana María Sifuentes Rincón, Mario Alberto Rodríguez Pérez, Felipe Serrano Medina, Cuauhtémoc Jacques Hernández, C. Patricia Larralde Corona y José Luis Hernández Mendoza.

enfoque a la transformación y modernización del campo mexicano.

Hoy el CBG cuenta ya con una excelente plantilla de investigadores, una espléndida infraestructura experimental, cinco generaciones de brillantes graduados de su programa de maestría, y sus primeras publicaciones internacionales. Lo anterior, como producto de los proyectos vinculados con los sectores productivos públicos y privados de los siguientes laboratorios que lo conforman y que desarrollan las siguientes líneas de investigación (ver el cuadro 2):

Biotecnología Animal

1. Genotipificación de especies animales de interés económico y ecológico.

2. Genotipificación de patógenos (técnica de identificación molecular de variantes de patógenos).

3. Diagnóstico de patógenos (técnicas de detección basadas en PCR y anticuerpos).

Biotecnología Industrial

1. Aislamiento de hongos fitopatógenos del sorgo y de cítricos, y búsqueda de antagonistas (hongos y levaduras).

2. Optimización del cultivo de Azospirillum spp mediante el estudio de flujos metabólicos.

Biotecnología Vegetal

1. Interacción molecular planta– microorganismo.

2. Detección de alimentos genéticamente modificados.

3. Diversidad genética en plantas, hongos y otros organismos.

4. Resistencia genética a enfermedades en cultivos (frijol).

Biotecnología Ambiental

1. Evaluación de contaminantes genotóxicos en agua, suelo y aire mediante el bioensayo con Drosophila melanogaster.

2. Aislamiento y caracterización molecular de bacterias entomopatógenas.

Bioinformática

1. Diseño de Bases de Datos para su aplicación en el mejoramiento genético asistido en ganado bovino de la región Noreste del país.

Mejoramiento Genéticoy de la Salud del Ganado

Mejoramiento de la Producción Agrícola

Mejoramiento Genéticoy de la Salud de los Recursos Pesqueros

Genotoxicidad Ambiental

Contaminación Acuícola

Control biológico de enfermedades

Producción de bio-fertilizantes

AGRICOLAAGRICOLAPECUARIAPECUARIA INDUSTRIALINDUSTRIALAMBIENTALAMBIENTALACUICOLA ACUICOLA

PROBLE

MAS /

OPORTU

NIDADES

TECNOLO

GÍAS

CIENCIA

GenotipificaciónSelección Basada en QTL´s

Diagnóstico Molecular Vacunas

MicropropagaciónHidroponia

Selección de SimbiontesAlternativas de Producción

Evaluación de Riesgo Genotóxico

Diagnóstico de Entropatógenos

Tecnología de FermentacionesEscalamiento de

Procesos

GenotipificaciónSelección Basada en QTL´s

Diagnóstico Molecular Vacunas

Identificación de QTL´sEpidemiología de

InfeccionesResistencia Genética

a Enfermedades

Interacción Planta-Microorg.Resistencia Genética

a EnfermedadesEcologia de Plagas

Control BiológicoGenética de Peces

Resistencia a Infecciones

Microbiología IndustrialBioingeniería

Modelo para Evaluar Genotóxicos

Ecología de EntropatógenosImpacto Ambiental

Cuadro 2. Líneas de investigación en biotecnología genómica del CBG y sus proyectos.

Recapitulando, el modelo que evolucionó en la CBG (ver el cua-dro 3) durante este poco más de su primer lustro de su existen-cia, fue el de iniciar enfocando los esfuerzos primordialmente a las necesidades más importantes de asistencia tecnológica y a los grandes rezagos de formación de recursos humanos, del campo mexicano en el noreste de México. Luego, en base al diagnóstico anterior, identificar las tecnologías que pudieran ser las más eficaces y eficientes para solucionar dichas necesidades y problemas más apremiantes. De la mano, proceder a diseñar el programa de posgrado más idóneo para la misión del Centro, que por lo tanto debería privilegiar una

Paradójicamente, la irrupción de los muchos jóvenes en el siglo pasado tenía un origen preciso y explicito: eran el producto del Baby Boom, que elevó en forma extraordinaria las tasas de natalidad al fin de las zozobras de la Segunda Guerra Mundial.

El crecimiento, menos explosivo pero de mayor duración que el Baby boom, es el de la generación longeva de hoy en día. No es un problema que vaya a desaparecer por el simple paso del tiempo. Se deja de ser joven con sólo que pasen los años. Los ancianos seguirán siendo ancianos, y multiplicándose, con el paso de los años.

Se imponen, pues, soluciones perennes e integrales. Vamos, hay que rediseñar el sistema jurídico, el proceso laboral, la asistencia social y el sistema económico.

MARCO JURÍDICOHay que modificar las regulaciones para reactivar a los mayores de edad como sujetos de crédito. Conforme a las reglas actuales, una persona mayor de 65 años, así siga trabajando y tenga buenas expectativas de vida, no puede tramitar una tarjeta de crédito o un préstamo bancario o hipotecario.

Si es un hecho que el adulto mayor ve reducidos sus ingresos drásticamente cuando cesa su trabajo formal, deben proveerse salidas fiscales para eximir sus ingresos de la carga normal de impuestos. Cancelárselos como una aportación del estado a su bienestar.

Hay que legislar exenciones para las familias que den alojamiento y alimentos a los abuelos. Eximir a las empresas que contratan adultos mayores de las prestaciones aplicables a ellos, como el Infonavit, el IMSS y los impuestos sobre nóminas. Dejarlos que conviertan esas prestaciones en la reducción de la jornada y aun de la cantidad de días a la semana que laboran esos adultos mayores.

LA CIUDADDebe legislarse normatividad exigible a los ayuntamientos y a los gobiernos estatales, que los alienten a crear zonas peatonales, dar diseño más amigable a pasos peatonales, a los omnibuses, a las aceras, a los edificios públicos.

En aeropuertos y centrales de autobuses, exigir que haya desfibriladores de urgencia en las áreas públicas, para atender a ese segmento vulnerable de la población; tal y como ya se hace en otros países.

LA CASAEstimular la creatividad de los constructores de vivienda para que diseñen modelos transgeneracionales: que sirvan a la familia durante toda su vida, sin importar la edad de los habitantes.

Subsidiar a los adultos mayores para el rediseño amigable de sus viviendas ya existentes; cancelar desniveles, suavizar las puertas y ventanas, dotar de barras los baños y los corredores, colocar botones de aviso para pedir auxilio médico.

OCUPACIONNo es válido ver a los adultos mayores como becarios en vacaciones., Esto es, sólo pensar en su entretenimiento y subsistencia simple.

Hay que verlos como adultos con experiencias por compartir, maestros para los aprendices, asesores para los activos. Vaya, crear bolsas de trabajo temporal, de tiempo reducido, a domicilio.

Crear sistemas de turismo regional., como los que operan estupendamente en Chile. Turismo barato, adecuado a las

fuerzas disminuidas de los usuarios, en transportes cómodos y recorridos considerados.

Las Casas del Abuelo, como las de Cuba, deben proveer entretenimiento pero también ocupaciones y adiestramiento para una nueva “carrera”, así como cursos para enriquecer la vida espiritual y educar la sensibilidad frente a las expresiones artísticas.

Siguiendo el ejemplo de las facilidades que se dan a los invidentes con libros en Braille, auspiciar la edición de periódicos, revistas y libros en tipografía de buen tamaño. Reabrirles, así, el arcón de la imaginación.

ASISTENCIA A LA SALUDHay que acelerar la formación de médicos y enfermeras con énfasis gerontólogico y geriátrico.

Las enfermedades crónicas de los adultos mayores, el cuidado de su salud y la supervisión de prácticas personales sanas demandan la atención de personal capacitado especialmente para atender a los mayores. Atenderlos con una empatía educada y sensible.

Establecer depósitos de auxiliares para la locomoción, como sillas de ruedas, bastones, muletas, camas de hospital, andadores; disponibles con cuotas de mera amortización.

Multiplicar las opciones de visitas médicas y de enfermera a los domicilios de los mayores con dificultades de desplazamiento.

Sólo hemos enumerado algunas de las acciones que se deben instrumentar para la atención integral del adulto mayor. Para dimensionar el problema en su justa proporción y darle un enfoque científico y social hay que alentar la investigación.

Y hacerlo pronto. Porque hay un anciano que ya empieza a posesionarse de nuestro espejo.

50 7

Sergio O. Serna Saldívar. Nació en Monterrey, Nuevo León. Es ingeniero agrónomo zootecnista por el Instituto Tecnológico y de Estudios Superiores de Monterrey. Tiene Maestría en Nutrición Científica, y Doctorado en Ciencia y Tecnología de Alimentos, ambos por la Universidad de Texas A&M. Es miembro del Sistema Nacional de Investigadores, Nivel III, y regresó a México a través del Programa de Repatriación de Científicos CONACyT.

Ha sido profesor asociado en la Universidad de Sonora; profesor adjunto en la Universidad de Texas A&M, donde además fue investigador científico, y actualmente es catedrático en el ITESM.

Es autor de tres libros: Manufactura y control de calidad de productos basados en cereales”, Los alimentos mágicos de las culturas indígenas de México y Química, almacenamiento e industrialización de los cereales.

Ha recibido numerosos premios y distinciones; entre los más recientes destacan: el premio Excellence Teaching Award, que le otorgó la American Association of Cereal Chemists en 2004; Premio Nacional Científico y Tecnológico “Luis Elizondo” en 2003, y Reconocimiento Nacional al Servicio Social Comunitario 2003.

El descubrimiento de fármacos de origen natural para la prevención y tratamiento del cáncer es un proceso altamente complicado y tortuoso, con escasas posibilidades de éxito. Hasta cierto punto es una

aventura científica, donde el investigador debe contar con muy buena suerte. Sin embargo, las nuevas herramientas de trabajo, especialmente de análisis instrumental de compuestos químicos y de tamizaje para observar el potencial de estos compuestos in vitro permiten identificar

un mayor número de compuestos con potencial para pasar a las pruebas más rigurosas y tardadas de análisis in vivo con animales de laboratorio y estudios clínicos con seres humanos.

Los importantes avances en química analítica instrumental, cultivo de células y biología molecular permiten a los investigadores de hoy en día trabajar mucho más eficientemente, en comparación con los pioneros de la

El problema social del Siglo XX fue la explosión demográfica que pobló los países con demasiados jóvenes.

Por ellos, y bajo su presión, hubo que adelantar la activación de su ciudadanía, proveer universidades y oportunidades de empleo,

aumentar sensiblemente la oferta del entretenimiento y modificar los esquemas morales y religiosos.

El problema social del Siglo XXI, en cambio, es la explosión de la longevidad, que va poblando gradualmente a los países con adultos mayores.

Menos estridentes que los jóvenes del Siglo Veinte, los miembros de la Ola Gris no ejercen mayor presión sobre el tejido social para pedir adecuaciones que se acomoden a la vida prolongada y a los problemas que acarrea. Saben que, fatalmente, todos los

que toman decisiones reaccionarán ante un proceso que los va englobando a ellos.

ACCIONES LEGALES Y MOVIMIENTOS SOCIALESPor esa razón y por la experiencia de la rebelión juvenil de los años 60, de la que esos adultos mayores fueron protagonistas o víctimas, se han propiciado acciones

legales y movimientos sociales, que buscan responder a las necesidades de ellos, antes de que crezca su

inconformidad ante la incomprensión social.

El punto de partida para plantear la problemática de los adultos mayores es admitir que el mundo, la

sociedad y las instituciones no fueron diseñados para la vida longeva.

Los esquemas de pensiones, por ejemplo, contemplaban que los jubilados disfrutarían pocos años esa partida. No tomaron en

cuenta que las generaciones actuales, con el avance del bienestar social, con una medicina prodigiosa, vivirían más allá de los 75 años.CIUDADES DISEÑADAS PARA LOS JÓVENESCiudades, viviendas, equipamiento, fueron diseñados para una población joven y vigorosa; no para adultos mayores de piernas frágiles y sentidos disminuidos.

Doctora Carmen SoberónInvestigadora de los problemas de los adultos mayores

6 51

actitud emprendedora de sus egresados. Enseguida, buscar alianzas con los mejores grupos académicos de la región y del sureste de Estados Unidos. Finalmente, planear, desarrollar y llevar al nivel de vanguardistas, las investigaciones que permitan hacer del CBG el centro por excelencia de innovación de biotecnologías al servicio de los productores de la región.

Para favorecer el éxito del plan anterior, también se puso especial atención en la integración de un equipo administrativo y gerencial que tuviera la sensibilidad y la vocación de servicio para entender y atender las necesidades de los académicos; así como, en una labor intensa de gestoría con los productores de la región, para que vieran al nuevo centro como suyo y demandaran de éste que no se desviara de su misión para que no se convirtiera en un elefante blanco más.

Cuadro 3. Desarrollando y aplicando la biotecnología genómica en el CB.

CONCLUSIONESLa genómica es una ciencia y, por ende, no es sujeto de juicios de valor, pues sólo busca generar conocimiento. Lo que sí debe regularse es la aplicación de este conocimiento en la forma de las tecnologías que emana. La Biotecnología Genómica es tan útil y versátil porque permite explotar la herencia de los seres vivos. Como el hombre depende de éstos para producir alimentos, medicamentos y procesos de producción industrial más limpios, e incluso tecnologías para biorremediar contaminaciones, ha permeado muchos aspectos de la vida contemporánea y lo sigue y seguirá haciendo cada día más.

Buscando una mayor soberanía científica y tecnológica para desarrollar los sectores productivos del área de la salud, agropecuaria y del medio ambiente, aquí se describen dos esfuerzos y sus respectivas experiencias: Un centro de biomedicina y otro de Biotecnología agropecuaria.

AGRADECIMIENTOSEl autor agradece el apoyo de los doctores Herminia Martínez Rodríguez, Agnes Revol Richard, Rocío Ortiz López, Augusto Rojas Martínez, Gerardo Padilla Rivas, Ana Maria Rivas Estilla, Francisco Velazquez Vadillo, Diana Reséndez Pérez, Jorge Ascacio, Alberto Mendoza Herrera, Ana María Sifuentes Rincón, Mario Alberto Rodríguez Pérez, Felipe Serrano Medina, Cuauhtémoc Jacques Hernández, C. Patricia Larralde Corona y José Luis Hernández Mendoza.

enfoque a la transformación y modernización del campo mexicano.

Hoy el CBG cuenta ya con una excelente plantilla de investigadores, una espléndida infraestructura experimental, cinco generaciones de brillantes graduados de su programa de maestría, y sus primeras publicaciones internacionales. Lo anterior, como producto de los proyectos vinculados con los sectores productivos públicos y privados de los siguientes laboratorios que lo conforman y que desarrollan las siguientes líneas de investigación (ver el cuadro 2):

Biotecnología Animal

1. Genotipificación de especies animales de interés económico y ecológico.

2. Genotipificación de patógenos (técnica de identificación molecular de variantes de patógenos).

3. Diagnóstico de patógenos (técnicas de detección basadas en PCR y anticuerpos).

Biotecnología Industrial

1. Aislamiento de hongos fitopatógenos del sorgo y de cítricos, y búsqueda de antagonistas (hongos y levaduras).

2. Optimización del cultivo de Azospirillum spp mediante el estudio de flujos metabólicos.

Biotecnología Vegetal

1. Interacción molecular planta– microorganismo.

2. Detección de alimentos genéticamente modificados.

3. Diversidad genética en plantas, hongos y otros organismos.

4. Resistencia genética a enfermedades en cultivos (frijol).

Biotecnología Ambiental

1. Evaluación de contaminantes genotóxicos en agua, suelo y aire mediante el bioensayo con Drosophila melanogaster.

2. Aislamiento y caracterización molecular de bacterias entomopatógenas.

Bioinformática

1. Diseño de Bases de Datos para su aplicación en el mejoramiento genético asistido en ganado bovino de la región Noreste del país.

Mejoramiento Genéticoy de la Salud del Ganado

Mejoramiento de la Producción Agrícola

Mejoramiento Genéticoy de la Salud de los Recursos Pesqueros

Genotoxicidad Ambiental

Contaminación Acuícola

Control biológico de enfermedades

Producción de bio-fertilizantes

AGRICOLAAGRICOLAPECUARIAPECUARIA INDUSTRIALINDUSTRIALAMBIENTALAMBIENTALACUICOLA ACUICOLA

PROBLE

MAS /

OPORTU

NIDADES

TECNOLO

GÍAS

CIENCIA

GenotipificaciónSelección Basada en QTL´s

Diagnóstico Molecular Vacunas

MicropropagaciónHidroponia

Selección de SimbiontesAlternativas de Producción

Evaluación de Riesgo Genotóxico

Diagnóstico de Entropatógenos

Tecnología de FermentacionesEscalamiento de

Procesos

GenotipificaciónSelección Basada en QTL´s

Diagnóstico Molecular Vacunas

Identificación de QTL´sEpidemiología de

InfeccionesResistencia Genética

a Enfermedades

Interacción Planta-Microorg.Resistencia Genética

a EnfermedadesEcologia de Plagas

Control BiológicoGenética de Peces

Resistencia a Infecciones

Microbiología IndustrialBioingeniería

Modelo para Evaluar Genotóxicos

Ecología de EntropatógenosImpacto Ambiental

Cuadro 2. Líneas de investigación en biotecnología genómica del CBG y sus proyectos.

Recapitulando, el modelo que evolucionó en la CBG (ver el cua-dro 3) durante este poco más de su primer lustro de su existen-cia, fue el de iniciar enfocando los esfuerzos primordialmente a las necesidades más importantes de asistencia tecnológica y a los grandes rezagos de formación de recursos humanos, del campo mexicano en el noreste de México. Luego, en base al diagnóstico anterior, identificar las tecnologías que pudieran ser las más eficaces y eficientes para solucionar dichas necesidades y problemas más apremiantes. De la mano, proceder a diseñar el programa de posgrado más idóneo para la misión del Centro, que por lo tanto debería privilegiar una

Paradójicamente, la irrupción de los muchos jóvenes en el siglo pasado tenía un origen preciso y explicito: eran el producto del Baby Boom, que elevó en forma extraordinaria las tasas de natalidad al fin de las zozobras de la Segunda Guerra Mundial.

El crecimiento, menos explosivo pero de mayor duración que el Baby boom, es el de la generación longeva de hoy en día. No es un problema que vaya a desaparecer por el simple paso del tiempo. Se deja de ser joven con sólo que pasen los años. Los ancianos seguirán siendo ancianos, y multiplicándose, con el paso de los años.

Se imponen, pues, soluciones perennes e integrales. Vamos, hay que rediseñar el sistema jurídico, el proceso laboral, la asistencia social y el sistema económico.

MARCO JURÍDICOHay que modificar las regulaciones para reactivar a los mayores de edad como sujetos de crédito. Conforme a las reglas actuales, una persona mayor de 65 años, así siga trabajando y tenga buenas expectativas de vida, no puede tramitar una tarjeta de crédito o un préstamo bancario o hipotecario.

Si es un hecho que el adulto mayor ve reducidos sus ingresos drásticamente cuando cesa su trabajo formal, deben proveerse salidas fiscales para eximir sus ingresos de la carga normal de impuestos. Cancelárselos como una aportación del estado a su bienestar.

Hay que legislar exenciones para las familias que den alojamiento y alimentos a los abuelos. Eximir a las empresas que contratan adultos mayores de las prestaciones aplicables a ellos, como el Infonavit, el IMSS y los impuestos sobre nóminas. Dejarlos que conviertan esas prestaciones en la reducción de la jornada y aun de la cantidad de días a la semana que laboran esos adultos mayores.

LA CIUDADDebe legislarse normatividad exigible a los ayuntamientos y a los gobiernos estatales, que los alienten a crear zonas peatonales, dar diseño más amigable a pasos peatonales, a los omnibuses, a las aceras, a los edificios públicos.

En aeropuertos y centrales de autobuses, exigir que haya desfibriladores de urgencia en las áreas públicas, para atender a ese segmento vulnerable de la población; tal y como ya se hace en otros países.

LA CASAEstimular la creatividad de los constructores de vivienda para que diseñen modelos transgeneracionales: que sirvan a la familia durante toda su vida, sin importar la edad de los habitantes.

Subsidiar a los adultos mayores para el rediseño amigable de sus viviendas ya existentes; cancelar desniveles, suavizar las puertas y ventanas, dotar de barras los baños y los corredores, colocar botones de aviso para pedir auxilio médico.

OCUPACIONNo es válido ver a los adultos mayores como becarios en vacaciones., Esto es, sólo pensar en su entretenimiento y subsistencia simple.

Hay que verlos como adultos con experiencias por compartir, maestros para los aprendices, asesores para los activos. Vaya, crear bolsas de trabajo temporal, de tiempo reducido, a domicilio.

Crear sistemas de turismo regional., como los que operan estupendamente en Chile. Turismo barato, adecuado a las

fuerzas disminuidas de los usuarios, en transportes cómodos y recorridos considerados.

Las Casas del Abuelo, como las de Cuba, deben proveer entretenimiento pero también ocupaciones y adiestramiento para una nueva “carrera”, así como cursos para enriquecer la vida espiritual y educar la sensibilidad frente a las expresiones artísticas.

Siguiendo el ejemplo de las facilidades que se dan a los invidentes con libros en Braille, auspiciar la edición de periódicos, revistas y libros en tipografía de buen tamaño. Reabrirles, así, el arcón de la imaginación.

ASISTENCIA A LA SALUDHay que acelerar la formación de médicos y enfermeras con énfasis gerontólogico y geriátrico.

Las enfermedades crónicas de los adultos mayores, el cuidado de su salud y la supervisión de prácticas personales sanas demandan la atención de personal capacitado especialmente para atender a los mayores. Atenderlos con una empatía educada y sensible.

Establecer depósitos de auxiliares para la locomoción, como sillas de ruedas, bastones, muletas, camas de hospital, andadores; disponibles con cuotas de mera amortización.

Multiplicar las opciones de visitas médicas y de enfermera a los domicilios de los mayores con dificultades de desplazamiento.

Sólo hemos enumerado algunas de las acciones que se deben instrumentar para la atención integral del adulto mayor. Para dimensionar el problema en su justa proporción y darle un enfoque científico y social hay que alentar la investigación.

Y hacerlo pronto. Porque hay un anciano que ya empieza a posesionarse de nuestro espejo.

50 7

Sergio O. Serna Saldívar. Nació en Monterrey, Nuevo León. Es ingeniero agrónomo zootecnista por el Instituto Tecnológico y de Estudios Superiores de Monterrey. Tiene Maestría en Nutrición Científica, y Doctorado en Ciencia y Tecnología de Alimentos, ambos por la Universidad de Texas A&M. Es miembro del Sistema Nacional de Investigadores, Nivel III, y regresó a México a través del Programa de Repatriación de Científicos CONACyT.

Ha sido profesor asociado en la Universidad de Sonora; profesor adjunto en la Universidad de Texas A&M, donde además fue investigador científico, y actualmente es catedrático en el ITESM.

Es autor de tres libros: Manufactura y control de calidad de productos basados en cereales”, Los alimentos mágicos de las culturas indígenas de México y Química, almacenamiento e industrialización de los cereales.

Ha recibido numerosos premios y distinciones; entre los más recientes destacan: el premio Excellence Teaching Award, que le otorgó la American Association of Cereal Chemists en 2004; Premio Nacional Científico y Tecnológico “Luis Elizondo” en 2003, y Reconocimiento Nacional al Servicio Social Comunitario 2003.

El descubrimiento de fármacos de origen natural para la prevención y tratamiento del cáncer es un proceso altamente complicado y tortuoso, con escasas posibilidades de éxito. Hasta cierto punto es una

aventura científica, donde el investigador debe contar con muy buena suerte. Sin embargo, las nuevas herramientas de trabajo, especialmente de análisis instrumental de compuestos químicos y de tamizaje para observar el potencial de estos compuestos in vitro permiten identificar

un mayor número de compuestos con potencial para pasar a las pruebas más rigurosas y tardadas de análisis in vivo con animales de laboratorio y estudios clínicos con seres humanos.

Los importantes avances en química analítica instrumental, cultivo de células y biología molecular permiten a los investigadores de hoy en día trabajar mucho más eficientemente, en comparación con los pioneros de la

El problema social del Siglo XX fue la explosión demográfica que pobló los países con demasiados jóvenes.

Por ellos, y bajo su presión, hubo que adelantar la activación de su ciudadanía, proveer universidades y oportunidades de empleo,

aumentar sensiblemente la oferta del entretenimiento y modificar los esquemas morales y religiosos.

El problema social del Siglo XXI, en cambio, es la explosión de la longevidad, que va poblando gradualmente a los países con adultos mayores.

Menos estridentes que los jóvenes del Siglo Veinte, los miembros de la Ola Gris no ejercen mayor presión sobre el tejido social para pedir adecuaciones que se acomoden a la vida prolongada y a los problemas que acarrea. Saben que, fatalmente, todos los

que toman decisiones reaccionarán ante un proceso que los va englobando a ellos.

ACCIONES LEGALES Y MOVIMIENTOS SOCIALESPor esa razón y por la experiencia de la rebelión juvenil de los años 60, de la que esos adultos mayores fueron protagonistas o víctimas, se han propiciado acciones

legales y movimientos sociales, que buscan responder a las necesidades de ellos, antes de que crezca su

inconformidad ante la incomprensión social.

El punto de partida para plantear la problemática de los adultos mayores es admitir que el mundo, la

sociedad y las instituciones no fueron diseñados para la vida longeva.

Los esquemas de pensiones, por ejemplo, contemplaban que los jubilados disfrutarían pocos años esa partida. No tomaron en

cuenta que las generaciones actuales, con el avance del bienestar social, con una medicina prodigiosa, vivirían más allá de los 75 años.CIUDADES DISEÑADAS PARA LOS JÓVENESCiudades, viviendas, equipamiento, fueron diseñados para una población joven y vigorosa; no para adultos mayores de piernas frágiles y sentidos disminuidos.

Doctora Carmen SoberónInvestigadora de los problemas de los adultos mayores

8 49

industria farmacéutica. Lo idóneo es contar con dos o tres buenos candidatos a fármacos, y cruzar los dedos para que alguno llegue a cristalizar y ser eventualmente comercializado. El tiempo que demora la investigación generalmente para llevar al mercado un fármaco es de un mínimo de 10-12.5 años (Fig. 1).

El descubrimiento de fármacos demanda una fuerte y sofisticada infraestructura de trabajo y de un grupo multidisciplinario de investigadores altamente calificados en las ciencias de la química, nutrición, biotecnología, toxicología, bioingeniería y medicina. Es fundamental el registro de la patente o la protección de los descubrimientos e ideas, debido al fuerte grado de competitividad en la industria farmacéutica. Muestra de esto es que en los últimos cinco años se han aprobado entre siete mil y ocho mil patentes anuales en biotecnología, principalmente farmacéutica. Pocos son los centros de investigación y universidades que incursionan seriamente en esta difícil área de investigación. De cientos o miles de compuestos con potencial, solamente uno o unos cuantos llegan a un mercado cada día más competido, y todavía menos llegan a ser los famosos blockbusters o medicamentos que tienen ventas que ascienden a más de un millón de dólares anuales.

RIQUEZA NACIONAL EN PLANTAS NATIVASLos pasos secuenciales para el descubrimiento de fármacos naturales empieza con la selección del material o planta (Figura 1). Los investigadores mexicanos contamos con diversas regiones ricas en plantas nativas que aún no han sido estudiadas,

6 meses

6 meses

6 meses

6 meses

1 año

6 meses

6 meses

2 años

6 años

Fig. 1. Ruta crítica y tiempos promedios para la obtención de fármacos anticancerígenos.

y con uno de los países que tienen mayor biodiversidad. Juegan un papel crítico la intuición del investigador y las experiencias previas. Plantas que pertenecen a las mismas familias comparten compuestos químicos con estructuras y propiedades semejantes.

Las raíces, tallos, hojas, flor o inflorescencia y frutos pueden contener los compuestos de interés. El estado de madurez, condiciones ambientales y estres pueden afectar significativamente la concentración y bioactividad de los extractos obtenidos. Estos materiales generalmente son cuidadosamente secados o inclusive liofilizados (secado por congelamiento) antes de ser tratados con solventes orgánicos. Una vez que se ha identificado un material con potencial, es sumamente importante hacer una revisión exhaustiva de los diversos acervos bibliograficos y patentes para ver si en realidad éste es novedoso, y por lo tanto la investigación es original. Es realmente desastroso y pérdida de tiempo y recursos trabajar con algún compuesto que ya fue patentado.

Los diversos materiales de la planta son sujetos a procesos de extracción con solventes orgánicos que extraen selectivamente a familias de compuestos con potencial farmacológico. Típicamente se utiliza metanol, etanol, agua, acetato de etilo, acetona, cloroformo, butanol y otros solventes solos o combinados que tienen diferentes grados de polaridad. En los extractos se analiza cualitativa y cuantitativamente la presencia de familias de compuestos. Las pruebas más utilizadas son capacidad antioxidante, fenólicos totales, flavonoides, antocianinas, taninos, terpenos, fitoesteroles, carotenos etcétera.

INHIBIR POBLACIÓN DE CÉLULAS CANCERÍGENASPosteriormente se corren ensayos in vitro para cuantificar la proliferación de células cancerosas variadas, donde destacan las de mama (MCF-7), colon (caco 2), hígado (HepG2), próstata, leucemia megaloblástica y linfoblástica y otras (Figura 1). Estas pruebas de tamizaje son claves, ya que de una simple corrida que demora no más de una semana, se pueden probar más de 50 diferentes extractos, más controles positivos y negativos. Aquellos extractos

Gracias el esfuerzo por brindar un mejor servicio a la comunidad, el Colegio de Estudios Científicos y Tecnológicos, plantel Marín, se hizo

acreedor al reconocimiento “Premio Nuevo León a la Calidad 2006”, que entrega el Gobierno del Estado en coordinación con organismos intermedios, como el Centro de Productividad de Monterrey.

Durante la ceremonia de la decimoséptima entrega del premio, que se llevó a cabo el pasado 28 de agosto, se explicó que durante este periodo se logró la participación de 151 organizaciones aspirantes en diferentes rubros: empresas privadas, instituciones educativas y dependencias de gobierno. Sobre este particular, Gustavo Alarcón Martínez, secretario de Desarrollo Económico, explicó que mediante este incentivo se busca un ambiente de competitividad,

pero con el propósito de que todos los participantes ganen al modernizarse y ofrecer mejores servicios.

EN BUSCA DE LA MEJORA CONTINUA“Convencionalmente, en situaciones de competencia, lo que uno gana el otro lo pierde; sin embargo, en nuestro enfoque de competitividad, el propósito es que todos ganen; la visión sistémica de la competitividad implica que ésta atraviesa todas las partes de la sociedad, pues la mejora continua en los procesos de un sector beneficia siempre directa o indirectamente a todos los demás”, comentó.

A la par del CECyTE, se entregaron siete premios más en el rubro de educación, tres en el área de industria y servicios y uno dedicado al sector gobierno.

La ceremonia fue encabezada por el gobernador, José Natividad González Parás, quien subrayó la necesidad de que el gobierno sea el encargado de

contribuir al avance de la sociedad mediante incentivos a la mejora continua en calidad. “Los gobiernos tenemos la responsabilidad de buscar que los elementos de la competitivi-dad se den y entre ellos están los relativos a la vigencia plena del estado de derecho, están los relacionados a que las burocracias se conviertan en cauces y no en diques de la actividad privada y de la actividad social, y está el imperativo de la mejora regulatoria”.

En el evento participaron también: Alejandro Rodríguez, presidente del Centro de Productividad de Monterrey; Rubén Contreras Ramírez, director general de los Premios Nacionales de Calidad, Exportación y Tecnología; así como autoridades estatales y representantes de organismos locales. Para recibir el premio dedicado al CECyTE plantel Marín, se contó con la presencia de Carlos Rodríguez Acevedo, Maria Magdalena Cruz Valenzuela e Isabel Gutiérrez Chavarría.

Por Carlos Joloy

48 9

que muestren potencial deben ser probados en diferentes concentraciones, para así obtener una curva EC

50; es decir, la concentración necesaria para inhibir al 50 por ciento la población de las células cancerígenas.

Es importante mencionar que de las células antes citadas, los dos modelos más frecuentemente utilizados son el de cáncer de mama y el de colon. Las primeras son hormono o estrógeno dependientes, mientras que las segundas no lo son. Esto permite a los investigadores saber si el extracto tiene potencial para uno solo o para los dos tipos de cánceres. Lo idóneo es que el extracto tenga capacidad de inhibir los dos tipos de cultivos celulares para que tenga más posibilidades de llegar al mercado.

El cultivo de células de mamífero no es una labor sencilla, ya que se requiere de importantes cuidados en términos de medios de cultivo, temperatura y atmósfera de incubación. Generalmente estas células se cultivan a 37°C en una atmósfera que contiene cinco por ciento de bióxido de carbono.

Una vez que se identifica un extracto crudo con potencial, el mismo es fraccionado con el objeto de ir separando gradualmente compuestos afines o inclusive compuestos específicos (Figura 1). El fraccionamiento y aislamiento de compuestos fitoquímicos todavía se realiza mediante uso de columnas de afinidad, donde se aplican secuencialmente solventes orgánicos con diferente polaridad para ir separando fracciones.

AISLAMIENTO DE COMPUESTOS QUÍMICOSHoy en día es ampliamente practicada la denominada cromatografía preparativa, donde bajo los principios descritos anteriormente y de una manera automatizada, se pueden ir aislando compuestos químicos específicos que eluyeron a diferentes tiempos. La versión más novedosa de cromatografía preparativa consiste en un cromatógrafo de partición centrífuga donde en una sola corrida pueden separarse de un extracto crudo cientos de subfracciones.

La cromatografía preparativa permite obtener suficiente muestra de diferentes subfracciones para repetir los bioensayos in vitro con células cancerígenas (Figura 1). De esta manera, de un extracto crudo que contiene cientos de compuestos químicos, se pueden aislar e identificar aquellos compuestos específicos o fármacos en potencia con mayor bioactividad.

La separación y aislamiento de los compuestos químicos no implica necesariamente su inmediata identificación. Para hacer la identificación puntual se utilizan equipos altamente sofisticados, entre los cuales destacan los espectómetros de masas, equipados con detectores de trampa de iones o tiempo de vuelo o TOF (Figura 1). La combinación de ambas técnicas analíticas permite determinar la masa del compuesto de interés así como de sus fragmentos químicos.

BIBLIOTECA ELECTRÓNICALa huella digital de ese compuesto o espectro de masa es comparado con miles de compuestos químicos contenidos en una biblioteca electrónica que tiene la computadora de los espectrómetros de masas. Existe la posibilidad de que el compuesto químico de interés no se encuentre en la biblioteca, ya que puede ser una molécula que no ha sido previamente identificada o que sea un isómero (compuesto con mismo peso molecular pero diferente estructura química).

La identificación de la estructura química de nuevos compuestos generalmente se realiza mediante Resonancia Magnética Nuclear.

La parte más crítica en el descubrimiento de fármacos son los ensayos con animales de laboratorio, ya que al pasar exitosamente las pruebas in vivo se magnifica la probabilidad de tener el mismo éxito con humanos. En los estudios anticancerígenos in vivo, generalmente se utilizan ratas que padecen de cáncer de mama o colon, que fueron previamente inducidas con DMBA (dimetil bencil antraceno) o AOM (azoxymetano), respectivamente. También se tiene la opción de utilizar ratas modificadas genéticamente que expresan en su gran mayoría el cáncer motivo de estudio.

El reto con estos animales es que tienen un sistema inmunológico muy comprometido, y por consiguiente se necesita de un bioterio especialmente diseñado para prevenir infecciones. Los estudios in vivo son muy efectivos y realistas, ya que el fármaco en potencia es administrado oralmente (intraesofágico) o por vía intravenosa o intramuscular, lo que permite observar si los mismos previenen la aparición de tumores o son efectivos en revertir tumores ya existentes. Los estudios postmortem son críticos y valiosos, ya que indican la histopatología que caracteriza a los diversos tipos de tumores.

Es la ciencia que pasó de las meras descripciones a los enfoques dinámicos de evidencias; a la disciplina general conocida como biología de los sistemas y a la combinación de productos de disciplinas integradoras

en diferentes niveles de organización. La Bioinformática y la Bioseguridad no sólo representan áreas de oportunidad científica en el Tercer Milenio, sino que fundamentalmente se traducen en posibilidades de avances sanitarios, económicos y hasta políticos, para millones de hombres y mujeres que viven en los países pobres.

En el despertar del presente siglo, la Biología llega a erigirse también en una Ciencia de la Información. Ella nos dice, desde que nacemos, cuál es nuestro mapa genético y, con base en ello, cómo debemos vivir para prevenir enfermedades, para fortalecernos, para crecer y hasta para morir.

De la sencilla biología computacional de los años 70, hemos pasado a una biología genómica, donde más allá de definiciones y conceptos formales, se logra integrar la información pertinente para formar un cuadro completo de la actividad de la célula, y estudiar así su comportamiento fisiológico y sus posibles alteraciones en potenciales procesos patológicos.

La Bioinformática es un complejo procesamiento donde funcionan varias computadoras, acopladas entre sí en clusters, como si se tratara de una sola estación de trabajo y, a través de ello, se tienen enormes cantidades de información sobre los organismos vivos sujetos a análisis.

COMITÉS DE BIOINFORMÁTICA Y BIOSEGURIDADCon base en ello, la comunidad internacional asume hoy la urgencia de establecer Comités de Bioinformática y Bioseguridad, donde se establezcan las regulaciones necesarias para el manejo de organismos vivos modificados genéticamente y que, en la agricultura transgénica, tienen ahora mismo su mayor potencial de expresión y crecimiento.

A través de ella y de la ingeniería genética, la ciencia se ha tornado completamente multidisciplinaria. Matemáticas, Física, Información de Sistemas están cotidiana y felizmente

unidas. Los científicos, a través de la genómica, la microbiología industrial, de la patología molecular, han forjado desde fines del siglo pasado y en los albores de éste, un nuevo rostro para la ciencia.

Es el rostro de la bioseguridad destinada a reducir los riesgos de transmisión de microorganismos de fuentes reconocidas, o no reconocidas, de infección en el ramo de la salud; de las políticas y procedimientos adaptados a aminorar los peligros que puedan resultar de la aplicación de biotecnología a la agricultura; es el rostro de una ciencia que piensa en el mapa genético de niños caucásicos, negros, orientales, mestizos, no para buscar inútiles esquemas eugenésicos, sino para hablarnos de la grandeza que la raza humana tiene en sus distintos mapas genéticos y colores.

Investigadora / UANLDoctora Patricia Liliana Cerda Pérez

8 49

industria farmacéutica. Lo idóneo es contar con dos o tres buenos candidatos a fármacos, y cruzar los dedos para que alguno llegue a cristalizar y ser eventualmente comercializado. El tiempo que demora la investigación generalmente para llevar al mercado un fármaco es de un mínimo de 10-12.5 años (Fig. 1).

El descubrimiento de fármacos demanda una fuerte y sofisticada infraestructura de trabajo y de un grupo multidisciplinario de investigadores altamente calificados en las ciencias de la química, nutrición, biotecnología, toxicología, bioingeniería y medicina. Es fundamental el registro de la patente o la protección de los descubrimientos e ideas, debido al fuerte grado de competitividad en la industria farmacéutica. Muestra de esto es que en los últimos cinco años se han aprobado entre siete mil y ocho mil patentes anuales en biotecnología, principalmente farmacéutica. Pocos son los centros de investigación y universidades que incursionan seriamente en esta difícil área de investigación. De cientos o miles de compuestos con potencial, solamente uno o unos cuantos llegan a un mercado cada día más competido, y todavía menos llegan a ser los famosos blockbusters o medicamentos que tienen ventas que ascienden a más de un millón de dólares anuales.

RIQUEZA NACIONAL EN PLANTAS NATIVASLos pasos secuenciales para el descubrimiento de fármacos naturales empieza con la selección del material o planta (Figura 1). Los investigadores mexicanos contamos con diversas regiones ricas en plantas nativas que aún no han sido estudiadas,

6 meses

6 meses

6 meses

6 meses

1 año

6 meses

6 meses

2 años

6 años

Fig. 1. Ruta crítica y tiempos promedios para la obtención de fármacos anticancerígenos.

y con uno de los países que tienen mayor biodiversidad. Juegan un papel crítico la intuición del investigador y las experiencias previas. Plantas que pertenecen a las mismas familias comparten compuestos químicos con estructuras y propiedades semejantes.

Las raíces, tallos, hojas, flor o inflorescencia y frutos pueden contener los compuestos de interés. El estado de madurez, condiciones ambientales y estres pueden afectar significativamente la concentración y bioactividad de los extractos obtenidos. Estos materiales generalmente son cuidadosamente secados o inclusive liofilizados (secado por congelamiento) antes de ser tratados con solventes orgánicos. Una vez que se ha identificado un material con potencial, es sumamente importante hacer una revisión exhaustiva de los diversos acervos bibliograficos y patentes para ver si en realidad éste es novedoso, y por lo tanto la investigación es original. Es realmente desastroso y pérdida de tiempo y recursos trabajar con algún compuesto que ya fue patentado.

Los diversos materiales de la planta son sujetos a procesos de extracción con solventes orgánicos que extraen selectivamente a familias de compuestos con potencial farmacológico. Típicamente se utiliza metanol, etanol, agua, acetato de etilo, acetona, cloroformo, butanol y otros solventes solos o combinados que tienen diferentes grados de polaridad. En los extractos se analiza cualitativa y cuantitativamente la presencia de familias de compuestos. Las pruebas más utilizadas son capacidad antioxidante, fenólicos totales, flavonoides, antocianinas, taninos, terpenos, fitoesteroles, carotenos etcétera.

INHIBIR POBLACIÓN DE CÉLULAS CANCERÍGENASPosteriormente se corren ensayos in vitro para cuantificar la proliferación de células cancerosas variadas, donde destacan las de mama (MCF-7), colon (caco 2), hígado (HepG2), próstata, leucemia megaloblástica y linfoblástica y otras (Figura 1). Estas pruebas de tamizaje son claves, ya que de una simple corrida que demora no más de una semana, se pueden probar más de 50 diferentes extractos, más controles positivos y negativos. Aquellos extractos

Gracias el esfuerzo por brindar un mejor servicio a la comunidad, el Colegio de Estudios Científicos y Tecnológicos, plantel Marín, se hizo

acreedor al reconocimiento “Premio Nuevo León a la Calidad 2006”, que entrega el Gobierno del Estado en coordinación con organismos intermedios, como el Centro de Productividad de Monterrey.

Durante la ceremonia de la decimoséptima entrega del premio, que se llevó a cabo el pasado 28 de agosto, se explicó que durante este periodo se logró la participación de 151 organizaciones aspirantes en diferentes rubros: empresas privadas, instituciones educativas y dependencias de gobierno. Sobre este particular, Gustavo Alarcón Martínez, secretario de Desarrollo Económico, explicó que mediante este incentivo se busca un ambiente de competitividad,

pero con el propósito de que todos los participantes ganen al modernizarse y ofrecer mejores servicios.

EN BUSCA DE LA MEJORA CONTINUA“Convencionalmente, en situaciones de competencia, lo que uno gana el otro lo pierde; sin embargo, en nuestro enfoque de competitividad, el propósito es que todos ganen; la visión sistémica de la competitividad implica que ésta atraviesa todas las partes de la sociedad, pues la mejora continua en los procesos de un sector beneficia siempre directa o indirectamente a todos los demás”, comentó.

A la par del CECyTE, se entregaron siete premios más en el rubro de educación, tres en el área de industria y servicios y uno dedicado al sector gobierno.

La ceremonia fue encabezada por el gobernador, José Natividad González Parás, quien subrayó la necesidad de que el gobierno sea el encargado de

contribuir al avance de la sociedad mediante incentivos a la mejora continua en calidad. “Los gobiernos tenemos la responsabilidad de buscar que los elementos de la competitivi-dad se den y entre ellos están los relativos a la vigencia plena del estado de derecho, están los relacionados a que las burocracias se conviertan en cauces y no en diques de la actividad privada y de la actividad social, y está el imperativo de la mejora regulatoria”.

En el evento participaron también: Alejandro Rodríguez, presidente del Centro de Productividad de Monterrey; Rubén Contreras Ramírez, director general de los Premios Nacionales de Calidad, Exportación y Tecnología; así como autoridades estatales y representantes de organismos locales. Para recibir el premio dedicado al CECyTE plantel Marín, se contó con la presencia de Carlos Rodríguez Acevedo, Maria Magdalena Cruz Valenzuela e Isabel Gutiérrez Chavarría.

Por Carlos Joloy

48 9

que muestren potencial deben ser probados en diferentes concentraciones, para así obtener una curva EC

50; es decir, la concentración necesaria para inhibir al 50 por ciento la población de las células cancerígenas.

Es importante mencionar que de las células antes citadas, los dos modelos más frecuentemente utilizados son el de cáncer de mama y el de colon. Las primeras son hormono o estrógeno dependientes, mientras que las segundas no lo son. Esto permite a los investigadores saber si el extracto tiene potencial para uno solo o para los dos tipos de cánceres. Lo idóneo es que el extracto tenga capacidad de inhibir los dos tipos de cultivos celulares para que tenga más posibilidades de llegar al mercado.

El cultivo de células de mamífero no es una labor sencilla, ya que se requiere de importantes cuidados en términos de medios de cultivo, temperatura y atmósfera de incubación. Generalmente estas células se cultivan a 37°C en una atmósfera que contiene cinco por ciento de bióxido de carbono.

Una vez que se identifica un extracto crudo con potencial, el mismo es fraccionado con el objeto de ir separando gradualmente compuestos afines o inclusive compuestos específicos (Figura 1). El fraccionamiento y aislamiento de compuestos fitoquímicos todavía se realiza mediante uso de columnas de afinidad, donde se aplican secuencialmente solventes orgánicos con diferente polaridad para ir separando fracciones.

AISLAMIENTO DE COMPUESTOS QUÍMICOSHoy en día es ampliamente practicada la denominada cromatografía preparativa, donde bajo los principios descritos anteriormente y de una manera automatizada, se pueden ir aislando compuestos químicos específicos que eluyeron a diferentes tiempos. La versión más novedosa de cromatografía preparativa consiste en un cromatógrafo de partición centrífuga donde en una sola corrida pueden separarse de un extracto crudo cientos de subfracciones.

La cromatografía preparativa permite obtener suficiente muestra de diferentes subfracciones para repetir los bioensayos in vitro con células cancerígenas (Figura 1). De esta manera, de un extracto crudo que contiene cientos de compuestos químicos, se pueden aislar e identificar aquellos compuestos específicos o fármacos en potencia con mayor bioactividad.

La separación y aislamiento de los compuestos químicos no implica necesariamente su inmediata identificación. Para hacer la identificación puntual se utilizan equipos altamente sofisticados, entre los cuales destacan los espectómetros de masas, equipados con detectores de trampa de iones o tiempo de vuelo o TOF (Figura 1). La combinación de ambas técnicas analíticas permite determinar la masa del compuesto de interés así como de sus fragmentos químicos.

BIBLIOTECA ELECTRÓNICALa huella digital de ese compuesto o espectro de masa es comparado con miles de compuestos químicos contenidos en una biblioteca electrónica que tiene la computadora de los espectrómetros de masas. Existe la posibilidad de que el compuesto químico de interés no se encuentre en la biblioteca, ya que puede ser una molécula que no ha sido previamente identificada o que sea un isómero (compuesto con mismo peso molecular pero diferente estructura química).

La identificación de la estructura química de nuevos compuestos generalmente se realiza mediante Resonancia Magnética Nuclear.

La parte más crítica en el descubrimiento de fármacos son los ensayos con animales de laboratorio, ya que al pasar exitosamente las pruebas in vivo se magnifica la probabilidad de tener el mismo éxito con humanos. En los estudios anticancerígenos in vivo, generalmente se utilizan ratas que padecen de cáncer de mama o colon, que fueron previamente inducidas con DMBA (dimetil bencil antraceno) o AOM (azoxymetano), respectivamente. También se tiene la opción de utilizar ratas modificadas genéticamente que expresan en su gran mayoría el cáncer motivo de estudio.

El reto con estos animales es que tienen un sistema inmunológico muy comprometido, y por consiguiente se necesita de un bioterio especialmente diseñado para prevenir infecciones. Los estudios in vivo son muy efectivos y realistas, ya que el fármaco en potencia es administrado oralmente (intraesofágico) o por vía intravenosa o intramuscular, lo que permite observar si los mismos previenen la aparición de tumores o son efectivos en revertir tumores ya existentes. Los estudios postmortem son críticos y valiosos, ya que indican la histopatología que caracteriza a los diversos tipos de tumores.

Es la ciencia que pasó de las meras descripciones a los enfoques dinámicos de evidencias; a la disciplina general conocida como biología de los sistemas y a la combinación de productos de disciplinas integradoras

en diferentes niveles de organización. La Bioinformática y la Bioseguridad no sólo representan áreas de oportunidad científica en el Tercer Milenio, sino que fundamentalmente se traducen en posibilidades de avances sanitarios, económicos y hasta políticos, para millones de hombres y mujeres que viven en los países pobres.

En el despertar del presente siglo, la Biología llega a erigirse también en una Ciencia de la Información. Ella nos dice, desde que nacemos, cuál es nuestro mapa genético y, con base en ello, cómo debemos vivir para prevenir enfermedades, para fortalecernos, para crecer y hasta para morir.

De la sencilla biología computacional de los años 70, hemos pasado a una biología genómica, donde más allá de definiciones y conceptos formales, se logra integrar la información pertinente para formar un cuadro completo de la actividad de la célula, y estudiar así su comportamiento fisiológico y sus posibles alteraciones en potenciales procesos patológicos.

La Bioinformática es un complejo procesamiento donde funcionan varias computadoras, acopladas entre sí en clusters, como si se tratara de una sola estación de trabajo y, a través de ello, se tienen enormes cantidades de información sobre los organismos vivos sujetos a análisis.

COMITÉS DE BIOINFORMÁTICA Y BIOSEGURIDADCon base en ello, la comunidad internacional asume hoy la urgencia de establecer Comités de Bioinformática y Bioseguridad, donde se establezcan las regulaciones necesarias para el manejo de organismos vivos modificados genéticamente y que, en la agricultura transgénica, tienen ahora mismo su mayor potencial de expresión y crecimiento.

A través de ella y de la ingeniería genética, la ciencia se ha tornado completamente multidisciplinaria. Matemáticas, Física, Información de Sistemas están cotidiana y felizmente

unidas. Los científicos, a través de la genómica, la microbiología industrial, de la patología molecular, han forjado desde fines del siglo pasado y en los albores de éste, un nuevo rostro para la ciencia.

Es el rostro de la bioseguridad destinada a reducir los riesgos de transmisión de microorganismos de fuentes reconocidas, o no reconocidas, de infección en el ramo de la salud; de las políticas y procedimientos adaptados a aminorar los peligros que puedan resultar de la aplicación de biotecnología a la agricultura; es el rostro de una ciencia que piensa en el mapa genético de niños caucásicos, negros, orientales, mestizos, no para buscar inútiles esquemas eugenésicos, sino para hablarnos de la grandeza que la raza humana tiene en sus distintos mapas genéticos y colores.

Investigadora / UANLDoctora Patricia Liliana Cerda Pérez

10 47

ESTUDIOS TOXICOLÓGICOS, DE FARMACOCINÉTICA Y FARMACODINÁMICACuando un compuesto muestra potencial in vivo, los siguientes pasos son realizar estudios toxicológicos y de farmacocinética y farmacodinámica (Figura 1). Los estudios toxicológicos incluyen pruebas de DL

50, toxicología reproductiva y teratogénica. Los estudios de toxicología aguda de DL

50 cuantifican la dosis del fármaco necesaria para matar al 50 por ciento de la población en estudio. En los estudios de toxicología reproductiva se observan los efectos en fertilidad, número de individuos por camada, peso de la camada, porcentaje de sobrevivencia y malformaciones en los recién nacidos.

Los estudios de farmacocinética y farmacodinámica permiten determinar la tasa de absorción del fármaco, su transformación química en el cuerpo, su vida media y sus principales modos de excreción, así como identificar aquellos órganos del cuerpo donde el fármaco se encuentra en mayor concentración. Esto es sumamente importante para planear las vías de administración del fármaco, dosis y la frecuencia de aplicación del medicamento. Las pruebas toxicológicas son claves, ya que si el fármaco experimental produce algún efecto nocivo, esto es suficiente para que sea descartado y se descontinúe la investigación que ya ha tomado varios años.

Paralelamente a los estudios in vivo, se investiga la biología molecular asociada a la inhibición del cáncer. Destacan estudios de antiangiogénesis, inhibición de quinasas, mecanismos de apoptosis o muerte celular programada, actividad estrogénica, etcétera. Estos estudios son claves para poder entender y eventualmente modificar la bioactividad del fármaco en potencia mediante modificación química o técnicas modernas de química combinatoria. La actividad antiangiogénica es clave para prevenir el crecimiento de los tumores y metástasis de los cánceres.

COMPUESTOS ANTICANCERÍGENOSLa mayoría de los compuestos anticancerígenos descubiertos reciente-mente o que están en las últimas etapas de experimentación tienen un fuerte efecto antiangiogénico; es decir que retardan o inhiben el importante paso de crear la

vascularización o irrigación sanguínea necesaria para que el tumor crezca desmedidamente y posteriormente sea metastásico. Existen modelos para estudiar angiogénesis, donde destacan el ensayo de neovascularización sobre la membrana corioalantoidea de embrión de pollo y otros de crecimiento de células endoteliales humanas en placa in vitro.

Es importante mencionar que una vez que se demuestra fehacientemente la efectividad de un fármaco experimen-tal en animales de laboratorio, y que la experimentación está protegida por una patente, las compañias farmacéuticas muestran un especial interés por adquirir los derechos del uso comercial, con el objetivo de continuar la investigación en un modo de fast track o acelerado prosiguiendo con las pruebas clínicas con humanos.

Está bien establecido que en esta industria altamente competitiva, el tiempo de llegada al mercado es de vital importancia. Se dice que un retardo de días o meses representa pérdidas potenciales de millones de dolares. Un fármaco protegido con una patente que muestre alto potencial anticancerígeno probado con animales de laboratorio, puede llegar a costar entre 10 y 15 millones de dólares.

EL PASO A EXPERIMENTOS CON HUMANOS

Una vez que el compuesto muestra alta efectividad in vivo y no causa problemas toxicológicos y se tiene bien documentada su farmacocinética y dinámica, puede pasar a estudios clínicos con humanos o de fase III. Para poder realizar experimentación con humanos se debe realizar una propuesta o protocolo de trabajo, donde se detallan los objetivos y la metodología del estudio, para que sea aprobado por un comité especializado que incluye expertos en estudios clínicos y en ética. Los protocolos clínicos aprobados, generalmente se prueban primero con pacientes terminales que conscientemente acceden o aprue-ban la administración del fármaco

experimental junto con la terapia convencional que estén llevando. Los datos clínicos generados son sumamente valiosos y críticos para observar efectos terapéuticos comparados, constantes de bioquímica sanguínea y efectos secundarios. Los datos y experiencias adquiridas permiten plantear estudios con mayor número de pacientes hasta llegar a protocolos donde se utilice el fármaco experimental en pacientes no-terminales. Los estudios clínicos son indudablemente los más tardados y costosos. Por lo general, estos estudios, que llegan a costar hasta 50 millones de dólares, son realizados con recursos de las compañias farmacéuticas.

DISEÑO DE BIOPROCESOSOtras áreas de oportunidad en investigación son el diseño de bioproce-sos que optimicen el rendimiento del fármaco en potencia, sin afectar su bioactividad, y la modificación química de las moléculas para impartirles mayor actividad y/o que prolonguen su vida media en el cuerpo y/o reducir sus efectos secundarios.

Las principales líneas de investigación en bioprocesos están enfocadas a la recuperación efectiva del metabolito. Técnicas sofisticadas como cromatografía preparativa, ultrafiltración, sonicación, separación supercrítica con CO

2 y en fases acuosas son utilizadas para separar, extraer y purificar el compuesto químico bioactivo.

El Tecnológico de Monterrey, a través de sus nuevas infraestructuras en el Centro de Biotecnología y Escuela de Medicina e investigadores en las áreas de biotecnología, química, ingeniería de bioprocesos y medicina, está impulsando fuertemente la investigación básica y aplicada para descubrir y eventualmente desarrollar fármacos principalmente derivados de plantas nativas mexicanas.

Esperamos que algunos de los fitoquímicos que hasta hoy han mostrado excelente potencial in vitro e in vivo lleguen en el futuro corto al mercado y beneficien al creciente número de pacientes que contraen cáncer. El mejoramiento en la expectativa y calidad de vida de estos pacientes recompensa por mucho los nobles esfuerzos que se están realizando en investigación.

¿QUÉ ES LA BIOMETRÍA?La biometría consiste en dispositivos de seguridad aplicados a la verificación de la identidad de un individuo de forma automática. Se basa principalmente en las características biológicas, psicológicas y conductuales del individuo; utilizando patrones fisiológicos, digitalizados y almacenados. Los rasgos que comúnmente emplea son: huellas digitales, de vasos sanguíneos en la mano o retina, del rostro, el tamaño, forma y largo de los dedos e incluso el olor de la persona.

¿CUÁL ES SU ORIGEN?Su origen se remonta a finales del siglo XIX, con las huellas dactilares, y desde entonces su uso ha ido ganando popularidad en los sistemas de seguridad aplicados alrededor del orbe. En la actualidad, existen sistemas automáticos que escanean y digitalizan huellas- cuyos usos no se limitan sólo a bancos y prisiones, sino que ya se puede encontrar en ATM´s en Estados Unidos e Inglaterra.

¿CÓMO FUNCIONAN?Los sistemas biométricos se componen de un hardware y un software; el primero captura la característica concreta del individuo, y el segundo interpreta la información y determina su aceptabilidad o rechazo, todo en función de los datos que han sido almacenados por medio de un registro inicial de la característica biométrica que mida el dispositivo en cuestión. Ese registro inicial o toma de muestra es lo que determina la eficacia del sistema. En el caso de las huellas dactilares, un usuario coloca el dedo en un sensor que hace la lectura digital de su huella; después, el programa guardará la información como un modelo; la próxima vez que ese usuario intente acceder al sistema deberá repetir la operación y el software verificará que los datos corresponden con el modelo.

El mismo principio rige para la identificación por el iris/retina, con ayuda de videocámara, el rostro, la mano completa, etcétera. Las tasas de exactitud en la verificación dependen en gran medida de dos factores: el cambio que se puede producir en las personas, debido a accidentes o a envejecimiento, y las condiciones ambientales, como humedad en el aire, suciedad y sudor; en especial en la lectura que implique el

uso de las manos. (Fernández, Elvira, Tecnología: Identificación Biométrica: la llave del futuro 2000).

TIPOS BIOMÉTRICOSCada sistema biométrico utiliza una cierta clase de interfaz, un sensor o mecanismo de captura determinado y un software específico. La identificación por geometría de la mano o huellas digitales, la más extendida, crea una imagen digital tridimensional, que es capturada, calibrada y guardada en un archivo. Para la identificación por el ojo existen dos sistemas: topografía del iris, identificando en pocos segundos más de cuatro mil puntos, y topografía de la retina, midiendo con luz infrarroja de baja intensidad 320 puntos predefinidos en el diagrama de las venas. (Ibidem).

El reconocimiento facial compara las características faciales con una imagen previamente escaneada, lo mismo que la identificación por voz con un patrón pregrabado, que analiza la presión del aire y las vibraciones sobre la laringe. La identificación por firma mide el tiempo, la presión, la velocidad, el ángulo de colocación del lápiz y la velocidad de las curvas, todo a través de un lápiz óptico con el que la persona firma en un soporte específico o pad. Por último, los sensores de olor, aún en desarrollo, utilizan un proceso químico similar al que se produce entre la nariz y el cerebro, sin que los perfumes sean capaces de enmascarar el olor particular de cada uno. (Ibidem)

La biometría es el sistema de bioseguridad que se está haciendo cada vez más familiar hoy en día, aunado a que en la actualidad vivimos “la era del miedo” y nos doblegamos ante los temores de ataques terroristas. Los países del primer mundo están enfrascados en una loca carrera por la construcción de bases de datos, ya sea para control migratorio, en penitenciarias, y hospitales, por lo que muy pronto la identificación por huellas dactilares, la geografía de la mano, el reconocimiento facial, del iris o de la voz se convertirán en los nuevos passwords de entrada a múltiples sistemas, incluso a nuestra propia vivienda.

46 11

El profesor Leonardo Santi, presidente del Congreso Internacional bioMonterrey 06, es también presidente del Centro de Biotecnología Avanzada de Génova, Italia; jefe del Departamento de Oncología, Biología y Genética de la Escuela de Posgraduados en Oncología, y de la University School for Technicians in Biotechnology. Ha escrito más de 250 documentos científicos en oncología experimental y patología oncológica, con énfasis en cáncer de pulmón, tumores ocupacionales y modificantes biológicos de respuesta.

Además de otras responsabilidades, es presidente del Comité Nacional Italiano para Bioseguridad y Biotecnología. También es coordinador del Comité Nacional de Cáncer, del Ministerio de Salud.

Santi es miembro de una gran variedad de organizaciones científicas nacionales e internacionales y funge también como parte del consejo editorial de diversas publicaciones científicas internacionales, así como de los siguientes comités: Grupo Europeo sobre Ciencias de la Vida (Comisión Europea, Bruselas), Foro Europeo de Investigación sobre el Cáncer (Comisión Europea, Bruselas), coordinador de los Comités Italo-Americano e Italo-Británico sobre Biotecnología, y miembro de la Comisión Internacional sobre Biosociedad (Cámara Internacional de Comercio, París).

El estereotipo del científico en solitario, encerrado en un laboratorio de investigación, ensimismado en sus ideas y reservado en compartirlas, no tiene sentido en el universo moderno de la investigación.

INTERDISCIPLINARIDAD EN BIOTECNOLOGÍAEn muchas de las disciplinas científicas del hoy día, y en Biotecnología quizá aún más decisivamente, la colaboración entre investigadores y entre grupos de investigación provee una gran ventaja competitiva y amplía el horizonte de alcances. Esto es una consecuencia lógica del carácter multidisciplinario e interdisciplinario de la Biotecnología (ver Figura 1).

La ciencia eje del conjunto de disciplinas que hoy llamamos Biotecnología, es la Bioquímica. La Bioquímica en sí misma es

una ciencia híbrida, donde se aplican los fundamentos básicos de química al entendimiento de los procesos metabólicos ocurrentes en organismos vivos, y al entendimiento de la estructura y función de las moléculas que intervienen en estos procesos. La Bioquímica, como ciencia central, requiere del soporte de áreas “duras”, como la Fisicoquímica, y de ciencias

Doctor Mario Moisés ÁlvarezProfesor investigador Director del Centro de BiotecnologíaTecnológico de Monterrey

Figura 1. La Biotecnología, multidisciplinaria e interdisciplinaria.

Ni idea tenía de lo sucedido en Londres a principios de agosto. “Juro que en mis próximas vacaciones estaré conectada un poco al mundo real -aunque el mundo que suponemos real se asemeje cada vez más a uno

ficticio o a uno sacado de una película de acción- porque así el shock será más leve”, digo al llegar al “Charles de Gaulle” y ver acordonar un área porque alguien dejó una maleta olvidada –suponiendo que se tratase de un conato de bomba-; al observar a gente al borde de un ataque de nervios, mujeres llorando, otras personas desmayadas por las largas filas para ser interrogadas y luego dos revisiones para poder ingresar en el avión. Es decir que pagamos el derecho a ser cuestionados e invadidos de nuestra privacidad y, para colmo de males, sin previo aviso te tiran de tu bolso todo lo parecido a un gel –sanitizador para manos, lápiz labial, etcétera. Por eso digo que juro a la próxima estar más conectada a la realidad.

Aun así, no se salvan los aeropuertos de que se infiltre gente no deseada -terroristas en el peor de los casos-; hace tan sólo unos días, un menor de edad se “coló” en un avión en el Aeropuerto de Gatwick sin pasaporte y sin pase de

abordar. Es por eso que prefiero pasar por todo este trance de interrogatorios y revisiones para evitar cualquier sorpresa. Así sea que me tomen una huella dactilar y una fotografía de mi rostro. Aunque esta medida se ha establecido desde 2004 – y desde hace un año hasta la fecha han sido fotografiados y se han tomado huellas digitales de más de 61 millones de personas- como un modo de control y vigilancia en los puntos de entrada a los Estados Unidos.

Un comunicado de US-VISIT se justifica arguyendo que: La tecnología biométrica protege a los visitantes, lo que hace prácticamente imposible que cualquier otra persona tome su identidad en caso de que sus documentos de viaje sean robados o duplicados. Con este programa han sido detenidos mil cien delincuentes.

Con ello la tecnología biométrica es la bioseguridad del presente y del futuro, ya que se concentra en el registro de las características que hacen único al ser humano, como las huellas dactilares, la voz, el iris, el rostro o el ADN; características que son la contraseña más segura que pueda existir.

Catedrática del Departamento de Comunicación / ITESMIngeniera Claudia Ordaz

10 47

ESTUDIOS TOXICOLÓGICOS, DE FARMACOCINÉTICA Y FARMACODINÁMICACuando un compuesto muestra potencial in vivo, los siguientes pasos son realizar estudios toxicológicos y de farmacocinética y farmacodinámica (Figura 1). Los estudios toxicológicos incluyen pruebas de DL

50, toxicología reproductiva y teratogénica. Los estudios de toxicología aguda de DL

50 cuantifican la dosis del fármaco necesaria para matar al 50 por ciento de la población en estudio. En los estudios de toxicología reproductiva se observan los efectos en fertilidad, número de individuos por camada, peso de la camada, porcentaje de sobrevivencia y malformaciones en los recién nacidos.

Los estudios de farmacocinética y farmacodinámica permiten determinar la tasa de absorción del fármaco, su transformación química en el cuerpo, su vida media y sus principales modos de excreción, así como identificar aquellos órganos del cuerpo donde el fármaco se encuentra en mayor concentración. Esto es sumamente importante para planear las vías de administración del fármaco, dosis y la frecuencia de aplicación del medicamento. Las pruebas toxicológicas son claves, ya que si el fármaco experimental produce algún efecto nocivo, esto es suficiente para que sea descartado y se descontinúe la investigación que ya ha tomado varios años.

Paralelamente a los estudios in vivo, se investiga la biología molecular asociada a la inhibición del cáncer. Destacan estudios de antiangiogénesis, inhibición de quinasas, mecanismos de apoptosis o muerte celular programada, actividad estrogénica, etcétera. Estos estudios son claves para poder entender y eventualmente modificar la bioactividad del fármaco en potencia mediante modificación química o técnicas modernas de química combinatoria. La actividad antiangiogénica es clave para prevenir el crecimiento de los tumores y metástasis de los cánceres.

COMPUESTOS ANTICANCERÍGENOSLa mayoría de los compuestos anticancerígenos descubiertos reciente-mente o que están en las últimas etapas de experimentación tienen un fuerte efecto antiangiogénico; es decir que retardan o inhiben el importante paso de crear la

vascularización o irrigación sanguínea necesaria para que el tumor crezca desmedidamente y posteriormente sea metastásico. Existen modelos para estudiar angiogénesis, donde destacan el ensayo de neovascularización sobre la membrana corioalantoidea de embrión de pollo y otros de crecimiento de células endoteliales humanas en placa in vitro.

Es importante mencionar que una vez que se demuestra fehacientemente la efectividad de un fármaco experimen-tal en animales de laboratorio, y que la experimentación está protegida por una patente, las compañias farmacéuticas muestran un especial interés por adquirir los derechos del uso comercial, con el objetivo de continuar la investigación en un modo de fast track o acelerado prosiguiendo con las pruebas clínicas con humanos.

Está bien establecido que en esta industria altamente competitiva, el tiempo de llegada al mercado es de vital importancia. Se dice que un retardo de días o meses representa pérdidas potenciales de millones de dolares. Un fármaco protegido con una patente que muestre alto potencial anticancerígeno probado con animales de laboratorio, puede llegar a costar entre 10 y 15 millones de dólares.

EL PASO A EXPERIMENTOS CON HUMANOS

Una vez que el compuesto muestra alta efectividad in vivo y no causa problemas toxicológicos y se tiene bien documentada su farmacocinética y dinámica, puede pasar a estudios clínicos con humanos o de fase III. Para poder realizar experimentación con humanos se debe realizar una propuesta o protocolo de trabajo, donde se detallan los objetivos y la metodología del estudio, para que sea aprobado por un comité especializado que incluye expertos en estudios clínicos y en ética. Los protocolos clínicos aprobados, generalmente se prueban primero con pacientes terminales que conscientemente acceden o aprue-ban la administración del fármaco

experimental junto con la terapia convencional que estén llevando. Los datos clínicos generados son sumamente valiosos y críticos para observar efectos terapéuticos comparados, constantes de bioquímica sanguínea y efectos secundarios. Los datos y experiencias adquiridas permiten plantear estudios con mayor número de pacientes hasta llegar a protocolos donde se utilice el fármaco experimental en pacientes no-terminales. Los estudios clínicos son indudablemente los más tardados y costosos. Por lo general, estos estudios, que llegan a costar hasta 50 millones de dólares, son realizados con recursos de las compañias farmacéuticas.

DISEÑO DE BIOPROCESOSOtras áreas de oportunidad en investigación son el diseño de bioproce-sos que optimicen el rendimiento del fármaco en potencia, sin afectar su bioactividad, y la modificación química de las moléculas para impartirles mayor actividad y/o que prolonguen su vida media en el cuerpo y/o reducir sus efectos secundarios.

Las principales líneas de investigación en bioprocesos están enfocadas a la recuperación efectiva del metabolito. Técnicas sofisticadas como cromatografía preparativa, ultrafiltración, sonicación, separación supercrítica con CO

2 y en fases acuosas son utilizadas para separar, extraer y purificar el compuesto químico bioactivo.

El Tecnológico de Monterrey, a través de sus nuevas infraestructuras en el Centro de Biotecnología y Escuela de Medicina e investigadores en las áreas de biotecnología, química, ingeniería de bioprocesos y medicina, está impulsando fuertemente la investigación básica y aplicada para descubrir y eventualmente desarrollar fármacos principalmente derivados de plantas nativas mexicanas.

Esperamos que algunos de los fitoquímicos que hasta hoy han mostrado excelente potencial in vitro e in vivo lleguen en el futuro corto al mercado y beneficien al creciente número de pacientes que contraen cáncer. El mejoramiento en la expectativa y calidad de vida de estos pacientes recompensa por mucho los nobles esfuerzos que se están realizando en investigación.

¿QUÉ ES LA BIOMETRÍA?La biometría consiste en dispositivos de seguridad aplicados a la verificación de la identidad de un individuo de forma automática. Se basa principalmente en las características biológicas, psicológicas y conductuales del individuo; utilizando patrones fisiológicos, digitalizados y almacenados. Los rasgos que comúnmente emplea son: huellas digitales, de vasos sanguíneos en la mano o retina, del rostro, el tamaño, forma y largo de los dedos e incluso el olor de la persona.

¿CUÁL ES SU ORIGEN?Su origen se remonta a finales del siglo XIX, con las huellas dactilares, y desde entonces su uso ha ido ganando popularidad en los sistemas de seguridad aplicados alrededor del orbe. En la actualidad, existen sistemas automáticos que escanean y digitalizan huellas- cuyos usos no se limitan sólo a bancos y prisiones, sino que ya se puede encontrar en ATM´s en Estados Unidos e Inglaterra.

¿CÓMO FUNCIONAN?Los sistemas biométricos se componen de un hardware y un software; el primero captura la característica concreta del individuo, y el segundo interpreta la información y determina su aceptabilidad o rechazo, todo en función de los datos que han sido almacenados por medio de un registro inicial de la característica biométrica que mida el dispositivo en cuestión. Ese registro inicial o toma de muestra es lo que determina la eficacia del sistema. En el caso de las huellas dactilares, un usuario coloca el dedo en un sensor que hace la lectura digital de su huella; después, el programa guardará la información como un modelo; la próxima vez que ese usuario intente acceder al sistema deberá repetir la operación y el software verificará que los datos corresponden con el modelo.

El mismo principio rige para la identificación por el iris/retina, con ayuda de videocámara, el rostro, la mano completa, etcétera. Las tasas de exactitud en la verificación dependen en gran medida de dos factores: el cambio que se puede producir en las personas, debido a accidentes o a envejecimiento, y las condiciones ambientales, como humedad en el aire, suciedad y sudor; en especial en la lectura que implique el

uso de las manos. (Fernández, Elvira, Tecnología: Identificación Biométrica: la llave del futuro 2000).

TIPOS BIOMÉTRICOSCada sistema biométrico utiliza una cierta clase de interfaz, un sensor o mecanismo de captura determinado y un software específico. La identificación por geometría de la mano o huellas digitales, la más extendida, crea una imagen digital tridimensional, que es capturada, calibrada y guardada en un archivo. Para la identificación por el ojo existen dos sistemas: topografía del iris, identificando en pocos segundos más de cuatro mil puntos, y topografía de la retina, midiendo con luz infrarroja de baja intensidad 320 puntos predefinidos en el diagrama de las venas. (Ibidem).

El reconocimiento facial compara las características faciales con una imagen previamente escaneada, lo mismo que la identificación por voz con un patrón pregrabado, que analiza la presión del aire y las vibraciones sobre la laringe. La identificación por firma mide el tiempo, la presión, la velocidad, el ángulo de colocación del lápiz y la velocidad de las curvas, todo a través de un lápiz óptico con el que la persona firma en un soporte específico o pad. Por último, los sensores de olor, aún en desarrollo, utilizan un proceso químico similar al que se produce entre la nariz y el cerebro, sin que los perfumes sean capaces de enmascarar el olor particular de cada uno. (Ibidem)

La biometría es el sistema de bioseguridad que se está haciendo cada vez más familiar hoy en día, aunado a que en la actualidad vivimos “la era del miedo” y nos doblegamos ante los temores de ataques terroristas. Los países del primer mundo están enfrascados en una loca carrera por la construcción de bases de datos, ya sea para control migratorio, en penitenciarias, y hospitales, por lo que muy pronto la identificación por huellas dactilares, la geografía de la mano, el reconocimiento facial, del iris o de la voz se convertirán en los nuevos passwords de entrada a múltiples sistemas, incluso a nuestra propia vivienda.

46 11

El profesor Leonardo Santi, presidente del Congreso Internacional bioMonterrey 06, es también presidente del Centro de Biotecnología Avanzada de Génova, Italia; jefe del Departamento de Oncología, Biología y Genética de la Escuela de Posgraduados en Oncología, y de la University School for Technicians in Biotechnology. Ha escrito más de 250 documentos científicos en oncología experimental y patología oncológica, con énfasis en cáncer de pulmón, tumores ocupacionales y modificantes biológicos de respuesta.

Además de otras responsabilidades, es presidente del Comité Nacional Italiano para Bioseguridad y Biotecnología. También es coordinador del Comité Nacional de Cáncer, del Ministerio de Salud.

Santi es miembro de una gran variedad de organizaciones científicas nacionales e internacionales y funge también como parte del consejo editorial de diversas publicaciones científicas internacionales, así como de los siguientes comités: Grupo Europeo sobre Ciencias de la Vida (Comisión Europea, Bruselas), Foro Europeo de Investigación sobre el Cáncer (Comisión Europea, Bruselas), coordinador de los Comités Italo-Americano e Italo-Británico sobre Biotecnología, y miembro de la Comisión Internacional sobre Biosociedad (Cámara Internacional de Comercio, París).

El estereotipo del científico en solitario, encerrado en un laboratorio de investigación, ensimismado en sus ideas y reservado en compartirlas, no tiene sentido en el universo moderno de la investigación.

INTERDISCIPLINARIDAD EN BIOTECNOLOGÍAEn muchas de las disciplinas científicas del hoy día, y en Biotecnología quizá aún más decisivamente, la colaboración entre investigadores y entre grupos de investigación provee una gran ventaja competitiva y amplía el horizonte de alcances. Esto es una consecuencia lógica del carácter multidisciplinario e interdisciplinario de la Biotecnología (ver Figura 1).

La ciencia eje del conjunto de disciplinas que hoy llamamos Biotecnología, es la Bioquímica. La Bioquímica en sí misma es

una ciencia híbrida, donde se aplican los fundamentos básicos de química al entendimiento de los procesos metabólicos ocurrentes en organismos vivos, y al entendimiento de la estructura y función de las moléculas que intervienen en estos procesos. La Bioquímica, como ciencia central, requiere del soporte de áreas “duras”, como la Fisicoquímica, y de ciencias

Doctor Mario Moisés ÁlvarezProfesor investigador Director del Centro de BiotecnologíaTecnológico de Monterrey

Figura 1. La Biotecnología, multidisciplinaria e interdisciplinaria.

Ni idea tenía de lo sucedido en Londres a principios de agosto. “Juro que en mis próximas vacaciones estaré conectada un poco al mundo real -aunque el mundo que suponemos real se asemeje cada vez más a uno

ficticio o a uno sacado de una película de acción- porque así el shock será más leve”, digo al llegar al “Charles de Gaulle” y ver acordonar un área porque alguien dejó una maleta olvidada –suponiendo que se tratase de un conato de bomba-; al observar a gente al borde de un ataque de nervios, mujeres llorando, otras personas desmayadas por las largas filas para ser interrogadas y luego dos revisiones para poder ingresar en el avión. Es decir que pagamos el derecho a ser cuestionados e invadidos de nuestra privacidad y, para colmo de males, sin previo aviso te tiran de tu bolso todo lo parecido a un gel –sanitizador para manos, lápiz labial, etcétera. Por eso digo que juro a la próxima estar más conectada a la realidad.

Aun así, no se salvan los aeropuertos de que se infiltre gente no deseada -terroristas en el peor de los casos-; hace tan sólo unos días, un menor de edad se “coló” en un avión en el Aeropuerto de Gatwick sin pasaporte y sin pase de

abordar. Es por eso que prefiero pasar por todo este trance de interrogatorios y revisiones para evitar cualquier sorpresa. Así sea que me tomen una huella dactilar y una fotografía de mi rostro. Aunque esta medida se ha establecido desde 2004 – y desde hace un año hasta la fecha han sido fotografiados y se han tomado huellas digitales de más de 61 millones de personas- como un modo de control y vigilancia en los puntos de entrada a los Estados Unidos.

Un comunicado de US-VISIT se justifica arguyendo que: La tecnología biométrica protege a los visitantes, lo que hace prácticamente imposible que cualquier otra persona tome su identidad en caso de que sus documentos de viaje sean robados o duplicados. Con este programa han sido detenidos mil cien delincuentes.

Con ello la tecnología biométrica es la bioseguridad del presente y del futuro, ya que se concentra en el registro de las características que hacen único al ser humano, como las huellas dactilares, la voz, el iris, el rostro o el ADN; características que son la contraseña más segura que pueda existir.

Catedrática del Departamento de Comunicación / ITESMIngeniera Claudia Ordaz

12 45

humanísticas clave, como la Ética. Desde luego, Biotecnología evoca aplicación en su mismo nombre (tecnologías relacionadas con los entes biológicos). La Biotecnología debe conducir del conocimiento fundamental a la aplicación tecnológica de ese conocimiento. Así, en su frente de aplicación, el biotecnólogo debe valerse de herramientas de ingeniería y de conocimientos en las áreas de Administración de la Tecnología y Economía.

Y respondiendo a esa naturaleza multidisciplinaria, los problemas de investigación en el área de Biotecnología son más exitosamente atacados, si se enfrentan desde los varios ángulos de estas disciplinas complementarias. Cada vez más, la norma de trabajo en las empresas dedicadas a la Biotecnología es el trabajo “transversal a varias disciplinas” (across disciplines). Así, biólogos, químicos, ingenieros, físicos, computólogos, resuelven problemas complejos. En el diseño racional de un nuevo fármaco, la cercana interacción de expertos en modelación computacional de estructuras, químicos, farmacólogos y físicos, produce recomendaciones a un grupo de químicos sintéticos para el mejor diseño del proceso de síntesis; por ejemplo, de un nuevo fármaco anti-Alzheimer de naturaleza proteica.

ESTRICTO RIGOR ÉTICOSin embargo, no es ése el mismo grupo que se encargará de “escalar” esa síntesis para posibilitar su uso comercial masivo. Será necesario que los químicos, microbiólogos e ingenieros moleculares interactúen con ingenieros bioquímicos de proceso, primero en el laboratorio, luego en plantas piloto, y finalmente en escala producción, para que esta nueva molécula se convierta en fármaco. Y en paralelo al proceso de diseño del fármaco, y de escalamiento del mismo, un grupo de farmacólogos, asistidos por expertos en estadística y médicos con expertise en pruebas clínicas, se encargan de transitar la nueva biomolécula de pruebas en líneas celulares, a pruebas en animales y luego voluntarios humanos, bajo el más estricto rigor ético a fin de validar que el nuevo fármaco es efectivo, pero también seguro.

Y si ahora hablamos del desarrollo de una nueva vacuna en plantas de plátano, o de un nuevo kit para diagnóstico rápido de cáncer, o de la construcción de una nueva cepa recombinante para atacar un problema de contaminación de subsuelos, el escenario es el mismo: un equipo interdisciplinario es el que más exitosa y rápidamente podría avanzar en la investigación.

ALIANZAS DE TRABAJO, ALIANZAS DE AVANCE EFICIENTEEn las grandes compañías, los equipos de trabajo son armados ad hoc para solucionar un problema o desarrollar un nuevo producto y proceso, de acuerdo a la expertise necesaria, según las particularidades del proyecto. Luego, ese equipo “pasará la batuta” a otro grupo de trabajo (normalmente dentro de la misma compañía) y así sucesivamente, hasta transitar todo el proceso desde la concepción de la idea hasta el lanzamiento comercial. Pero aun en las grandes compañías, cada vez es más frecuente recurrir a la estrategia de outsourcing. Una empresa podrá solicitar a una unidad externa a la compañía, que le ayude trabajando en una porción del proyecto global. Éste es un recurso válido, si la empresa colaboradora fuere pensada como más eficiente en el abordaje de la porción del

proceso que se le confiaría. Esta eficiencia puede deberse a su velocidad de respuesta, a su disponibilidad de recurso humano especializado en una cierta tarea, o a su infraestructura dedicada a esa tarea específica. Por ejemplo, una empresa farmacéutica podrá ser muy eficiente en sus procesos de screening de nuevos fármacos, pero pudiera requerir de ayuda en el escalamiento de sus procesos, o en sus necesidades para ejecutar pruebas clínicas.

Entre empresas pequeñas y medianas, el concepto de outsourcing de servicios especializados y de alianzas para trabajar en proyectos de investigación y desarrollo complejos es vital; simplemente, cuestión de sobrevivencia. Las pequeñas empresas biotec del área de San Diego (Start-ups) forman redes de interacción entre ellas para alcanzar el éxito en sus proyectos. Así, algunas son expertas en ingeniería genética, otras en análisis bioquímico instrumental, otras en operar bio-reactores para producción piloto, otras en montaje y evaluación de pruebas clínicas, otras más en proteómica. Desde luego, estas empresas podrán, y de hecho lo hacen frecuentemente, incluir Universidades o Centros de Investigación en sus redes de alianza estratégica.

ENTRE CENTROS DE INVESTIGACIÓN Y UNIVERSIDADES. ¿POR QUÉ NO COLABORAR? La pregunta obligada es: ¿pudiera esta estrategia de alianzas, vinculación y tendido de redes ser provechosa también entre Centros de Investigación y Universidades? La respuesta conclusiva es afirmativa. No existe una sola razón sólida para negarse a la colaboración entre unidades, y sí un sinúmero de razones para hacerlo rutinariamente. Hoy en día existen grupos de investigación en Biotecnología en casi cada universidad dedicada a la generación de conocimiento.

La amplitud de la Biotecnología y sus aplicaciones, y la natural tendencia y conveniencia a la especialización de los grupos de investigación, resulta en un mapa de múltiples unidades de trabajo en áreas biotecnológicas, cada una especializada en un tipo de investigación. Por otro lado, la naturaleza de la infraestructura requerida para desarrollar biotecnología, obliga a que cada grupo adquiera y mantenga el equipamiento que le es necesario y pertinente a su nicho particular de investigación. Esto, en el marco de los proyectos en Biotecnología, complejos y demandantes de capital de conocimiento y recursos de equipamiento diversos, hace explícita la necesidad de compartir expertise y equipamiento entre distintos grupos. Y así, el lema de “uno + uno es más que dos” adquiere sentido.

POTENCIAL DEL TRABAJO CONJUNTOUn grupo especializado en Bioprocesos puede ser un aliado natural de un grupo fuerte en el desarrollo de microorganismos recombinantes para aplicaciones industriales. La expertise en ingeniería de microorganismos del segundo se complementa con el conocimiento y equipamiento en ingeniería de procesos del primero. Si un grupo de investigación dedicado a la inmunología y la bioquímica de reconocimiento de superficies se alía con uno especializado en la fabricación de microdispositvos, resulta obvio el potencial de su trabajo conjunto en el ámbito del diseño de nuevos kits de diagnóstico rápido de padecimientos o de presencia de sustancias tóxicas o

la Parasitología, la Paleontología, la Genética de Poblaciones y la Evolución. Además, la Estadística es fundamental en el manejo de grandes números y en la elaboración de modelos de muchos parámetros; lo mismo decimos de la Física y la Química en la elaboración de modelos y en el análisis de procesos al nivel molecular.

GENOMA HUMANO, MARCA DE LA NUEVA ERAPoco antes de finalizar el siglo XX fue presentado a la comunidad científica el Genoma Humano, sin duda uno de los hitos históricos que marcan la nueva era.

Esto significó el comienzo de la “revolución genómica”; en ese momento, la bioinformática se refería únicamente a la creación y mantenimiento de base de datos donde se almacenaba información biológica; pero, ahora, la detección y tratamiento de enfermedades y la producción de alimentos genéticamente modificados son parte de los hallazgos de la investigación biotecnológica.

Gracias a la bioinformática puede hoy leerse toda la secuen-cia de moléculas que componen el genoma de un organismo; es decir, el “manual de instrucciones” que rige la formación del mismo y es posible la observación de su comportamiento dinámico bajo diversas condiciones experimentales.

Ahora, lo más popular que se presenta en el campo de la bioinformática es el análisis e interpretación de varios tipos de datos; este proceso es conocido como biocomputación. Dentro de la bioinformática y la biocomputación existen otras subdisciplinas importantes; por ejemplo, el desarrollo e implementación de herramientas que permitan el acceso, uso y manejo de varios tipos de información; y el desarrollo de nuevos algoritmos y estadísticas con los cuales se puedan relacionar partes de un conjunto enorme de datos.

La bioinformática modifica exponencialmente el trabajo de laboratorio, al permitir analizar una mayor cantidad de información que la que se puede conseguir en un experimento de laboratorio, proporcionando pistas que luego se podrán comprobar experimentalmente.

ESTUDIO PROFUNDO DE LOS SISTEMAS VIVOSLas perspectivas que presenta la Bioinformática incluyen ahora el estudio profundo y exhaustivo de los sistemas vivos, la Farmacología, la lucha contra la contaminación del ambiente; en fin, que nos augura grandes promesas de bienestar social y de capacidad de predicción de acontecimientos biológicos de inestimable interés; pues esos conocimientos, aparte de proporcionar una información más completa de los sistemas vivos, pueden ser la base para extrapolar modelos sobre el funcionamiento de nuestra sociedad humana y para el desarrollo de sistemas computarizados en la optimización y distribución de recursos.

El manejo de tanta información escapa a las posibilidades manuales, mecánicas y eléctricas hasta hoy utilizadas; la nueva realidad es el desarrollo de sistemas computarizados que suplirán, sin duda alguna, muchas de nuestras deficiencias en la armonía con la biosfera.

44 13

microorganismos patógenos. Un grupo experto en genómica, aliado a uno experto en proteómica, y con conexiones con uno especializado en metabolómica, hacen un triunvirato imbatible en el área de diseño de nuevos biofármacos. Éstos son sólo ejemplos de una proposición que todos sabemos válida: la colaboración complementaria ofrece beneficios para todas las partes y maximiza las posibilidades de éxito en la resolución de problemas complejos.

En los países de vanguardia tecnológica en Biotecnología, la receta de la colaboración para el éxito ha sido ensayada desde hace tiempo. En las sociedades que aspiramos a generar conocimiento y tecnología eficientemente, el reconocimiento de esa necesidad de agrupación, vinculación y trabajo colaborativo es un deber. La formación de redes de colaboración en Biotecnología entre Institutos, Centros, Universidades, Empresas dedicadas a la Biotecnología de nuestros países latinoamericanos, ofrece una gran ventana de oportunidad al éxito en la retadora aventura de generar nuevas Biotecnologías.

En los países latinoamericanos es particularmente difícil disponer de recursos para el montaje y el mantenimiento de infraestructura avanzada para la investigación.

nozco si hay aún algo de verdad en este estereotipo. Sí quisiera pensar, por el bien de nuestras sociedades, que de haber algo verídico en aquella idea, podremos encontrar ampliamente vencedora la consigna del trabajo colaborativo y de las alianzas estratégicas. También creo, como muchos creemos, que la colaboración entre investigadores, grupos e instituciones, puede y debe motivarse con estrategias y políticas. ¿Quién debe formular esas políticas? Sin duda, se hacen necesarios promotores a todos los niveles. El concepto de formación de redes debe comenzar dentro de cada institución y ser promovido por la institución misma. Por ejemplo, el diseño de los nuevos espacios de investigación resulta en un medio para inducir la idea de trabajo colaborativo. La sola idea de adquirir un cromatógrafo de líquidos para cada profesor-investigador resulta obsoleta e impráctica en este nuevo contexto del compartir recursos para hacer más.

INTERCAMBIO DE IDEASEs así como una zona de análisis instrumental común resulta apropiada y eficaz en reafirmar la idea de recursos de equipamiento disponibles para todos. Espacios abiertos, laboratorios de uso común o compartido, sitios dedicados “por diseño” al intercambio de ideas (espacios físicos y/o virtuales) funcionan como catalizadores del intercambio de ideas. Así, la arquitectura de un edificio puede ser factor motivante de la interacción. Ejemplos de la praxis de este concepto son los diseños del Biodesign Institute, de la Univesidad de Arizona (en Estados Unidos) o del Centro de Biotecnología del Tecnológico de Monterrey (aquí en Nuevo León), por citar dos ejemplos de reciente construcción.

El diseño de los Programas Académicos es otro instrumento útil para vincular unidades de investigación. Explicitar en los programas de Posgrado y Pregrado la pertinencia de realizar estancias de investigación en otras Universidades o Centros de Investigación es un camino. Otro también muy relevante es el diseño de Programas de doble grado entre instituciones en alguna de sus múltiples variantes (Licenciatura-Maestría; Doble Maestría; Maestría con Especialidad o Maestría-Doctorado; Doctorado y Estancia Posdoctoral).

VINCULACIÓN ENTRE INSTITUCIONESTambién las instituciones deben explicitar en sus políticas la intención de vincularse con otras instituciones dedicadas a tareas afines o complementarias en México y en el extranjero. Esta explicitación debería ir acompañada de programas que favorezcan la vinculación de sus investigadores con grupos en otras instituciones: programas de intercambio académico, incentivos por preparación de propuestas de investigación interinstitucionales, incentivos por publicaciones con coauto-res de otras instituciones.

En un nivel más general, los gobiernos estatal y federal y sus dependencias deberán jugar un rol como incentivadotes de colaboración y como promotores de la oferta de capacidades de los grupos de investigación locales tanto en el ámbito nacional como internacional. La colaboración efectiva entre nuestros grupos nos ahorrará tiempo y recursos para llegar a nuestras metas comunes: generar, por medio de la Ciencia, el Conocimiento y la Tecnología, bienestar para nuestras sociedades.

En este contexto, compartir estos recursos es por demás una estrategia de trabajo obvia. También la formación de alianzas con centros e institutos consolidados mundialmente, en Estados Unidos, Canadá, Europa, Asia, etcétera, es una oportunidad que sería criminal desechar, una oportunidad ventana al plano de la vanguardia científica.

POLÍTICA Y DISEÑO PARA LA COLABORACIÓN¿Será cierto que el investigador es, por naturaleza, instintiva-mente reservado, poco comunicativo y territorialista? Desco-

Figura 2. La formación de redes entre unidades de investigación debe ser una de las estrategias de operación de los grupos dedicados a la Biotecnología. La imagen muestra algunos de los centros, departamentos e institutos con los que actualmente colaboramos en el Centro de Biotecnología del Tecnológico de Monterrey. En cada imagen se refiere el sitio electrónico de origen.

Del 20 al 24 de septiembre tendrá lugar en nuestra ciudad el Congreso Internacional y Exhibición de Biotecnología “bioMonterrey06” en cuya agenda figura el tema de

bioinformática, razón por la cual pretendemos acercarnos a éste vocablo.

La bioinformática es el uso de técnicas y herramientas computacionales para el análisis de la información biológica; es una disciplina científica emergente que utiliza tecnología de la información para organizar, analizar y distribuir información biológica con la finalidad de responder preguntas complejas en biología. Es una nueva disciplina, dedicada a manejar las enormes cantidades de información provenientes, tanto de la secuenciación de las macromoléculas (ADN, proteínas y glúcidos) como de las técnicas de análisis masivo del comportamiento de genes y proteínas.

INVESTIGACIÓN MULTIDISCIPLINARIALa bioinformática es también un área de investigación

multidisciplinaria, sustentada básicamente en la Biología, la Computación y la Informática, vivamente interesada en descifrar la incógnita del genoma humano. Recibe el aporte de otras disciplinas biológicas o biomédicas; por ejemplo, la información hereditaria -estudiada por la Genética- se sabe que reside en las macromoléculas, gracias a la Biología Molecular, la Bioquímica y la Química Orgánica); pero su expresión es importante al manifestarse en la funcionalidad, asunto que estudian la Biología Celular, la Histología, la Organografía, la Neurobiología, la Fisiología, la Inmunología, la Biología del Desarrollo, la

Patología, la Oncología…; la reproducción -estudiada por la Embriología- y las relaciones entre los seres vivos -estudiados por las Ciencias del Comportamiento; la Ecología, la Microbiología,

Director del Centro de Altos Estudios e Investigación Pedagógica

Profesor Ismael Vidales Delgado

12 45

humanísticas clave, como la Ética. Desde luego, Biotecnología evoca aplicación en su mismo nombre (tecnologías relacionadas con los entes biológicos). La Biotecnología debe conducir del conocimiento fundamental a la aplicación tecnológica de ese conocimiento. Así, en su frente de aplicación, el biotecnólogo debe valerse de herramientas de ingeniería y de conocimientos en las áreas de Administración de la Tecnología y Economía.

Y respondiendo a esa naturaleza multidisciplinaria, los problemas de investigación en el área de Biotecnología son más exitosamente atacados, si se enfrentan desde los varios ángulos de estas disciplinas complementarias. Cada vez más, la norma de trabajo en las empresas dedicadas a la Biotecnología es el trabajo “transversal a varias disciplinas” (across disciplines). Así, biólogos, químicos, ingenieros, físicos, computólogos, resuelven problemas complejos. En el diseño racional de un nuevo fármaco, la cercana interacción de expertos en modelación computacional de estructuras, químicos, farmacólogos y físicos, produce recomendaciones a un grupo de químicos sintéticos para el mejor diseño del proceso de síntesis; por ejemplo, de un nuevo fármaco anti-Alzheimer de naturaleza proteica.

ESTRICTO RIGOR ÉTICOSin embargo, no es ése el mismo grupo que se encargará de “escalar” esa síntesis para posibilitar su uso comercial masivo. Será necesario que los químicos, microbiólogos e ingenieros moleculares interactúen con ingenieros bioquímicos de proceso, primero en el laboratorio, luego en plantas piloto, y finalmente en escala producción, para que esta nueva molécula se convierta en fármaco. Y en paralelo al proceso de diseño del fármaco, y de escalamiento del mismo, un grupo de farmacólogos, asistidos por expertos en estadística y médicos con expertise en pruebas clínicas, se encargan de transitar la nueva biomolécula de pruebas en líneas celulares, a pruebas en animales y luego voluntarios humanos, bajo el más estricto rigor ético a fin de validar que el nuevo fármaco es efectivo, pero también seguro.

Y si ahora hablamos del desarrollo de una nueva vacuna en plantas de plátano, o de un nuevo kit para diagnóstico rápido de cáncer, o de la construcción de una nueva cepa recombinante para atacar un problema de contaminación de subsuelos, el escenario es el mismo: un equipo interdisciplinario es el que más exitosa y rápidamente podría avanzar en la investigación.

ALIANZAS DE TRABAJO, ALIANZAS DE AVANCE EFICIENTEEn las grandes compañías, los equipos de trabajo son armados ad hoc para solucionar un problema o desarrollar un nuevo producto y proceso, de acuerdo a la expertise necesaria, según las particularidades del proyecto. Luego, ese equipo “pasará la batuta” a otro grupo de trabajo (normalmente dentro de la misma compañía) y así sucesivamente, hasta transitar todo el proceso desde la concepción de la idea hasta el lanzamiento comercial. Pero aun en las grandes compañías, cada vez es más frecuente recurrir a la estrategia de outsourcing. Una empresa podrá solicitar a una unidad externa a la compañía, que le ayude trabajando en una porción del proyecto global. Éste es un recurso válido, si la empresa colaboradora fuere pensada como más eficiente en el abordaje de la porción del

proceso que se le confiaría. Esta eficiencia puede deberse a su velocidad de respuesta, a su disponibilidad de recurso humano especializado en una cierta tarea, o a su infraestructura dedicada a esa tarea específica. Por ejemplo, una empresa farmacéutica podrá ser muy eficiente en sus procesos de screening de nuevos fármacos, pero pudiera requerir de ayuda en el escalamiento de sus procesos, o en sus necesidades para ejecutar pruebas clínicas.

Entre empresas pequeñas y medianas, el concepto de outsourcing de servicios especializados y de alianzas para trabajar en proyectos de investigación y desarrollo complejos es vital; simplemente, cuestión de sobrevivencia. Las pequeñas empresas biotec del área de San Diego (Start-ups) forman redes de interacción entre ellas para alcanzar el éxito en sus proyectos. Así, algunas son expertas en ingeniería genética, otras en análisis bioquímico instrumental, otras en operar bio-reactores para producción piloto, otras en montaje y evaluación de pruebas clínicas, otras más en proteómica. Desde luego, estas empresas podrán, y de hecho lo hacen frecuentemente, incluir Universidades o Centros de Investigación en sus redes de alianza estratégica.

ENTRE CENTROS DE INVESTIGACIÓN Y UNIVERSIDADES. ¿POR QUÉ NO COLABORAR? La pregunta obligada es: ¿pudiera esta estrategia de alianzas, vinculación y tendido de redes ser provechosa también entre Centros de Investigación y Universidades? La respuesta conclusiva es afirmativa. No existe una sola razón sólida para negarse a la colaboración entre unidades, y sí un sinúmero de razones para hacerlo rutinariamente. Hoy en día existen grupos de investigación en Biotecnología en casi cada universidad dedicada a la generación de conocimiento.

La amplitud de la Biotecnología y sus aplicaciones, y la natural tendencia y conveniencia a la especialización de los grupos de investigación, resulta en un mapa de múltiples unidades de trabajo en áreas biotecnológicas, cada una especializada en un tipo de investigación. Por otro lado, la naturaleza de la infraestructura requerida para desarrollar biotecnología, obliga a que cada grupo adquiera y mantenga el equipamiento que le es necesario y pertinente a su nicho particular de investigación. Esto, en el marco de los proyectos en Biotecnología, complejos y demandantes de capital de conocimiento y recursos de equipamiento diversos, hace explícita la necesidad de compartir expertise y equipamiento entre distintos grupos. Y así, el lema de “uno + uno es más que dos” adquiere sentido.

POTENCIAL DEL TRABAJO CONJUNTOUn grupo especializado en Bioprocesos puede ser un aliado natural de un grupo fuerte en el desarrollo de microorganismos recombinantes para aplicaciones industriales. La expertise en ingeniería de microorganismos del segundo se complementa con el conocimiento y equipamiento en ingeniería de procesos del primero. Si un grupo de investigación dedicado a la inmunología y la bioquímica de reconocimiento de superficies se alía con uno especializado en la fabricación de microdispositvos, resulta obvio el potencial de su trabajo conjunto en el ámbito del diseño de nuevos kits de diagnóstico rápido de padecimientos o de presencia de sustancias tóxicas o

la Parasitología, la Paleontología, la Genética de Poblaciones y la Evolución. Además, la Estadística es fundamental en el manejo de grandes números y en la elaboración de modelos de muchos parámetros; lo mismo decimos de la Física y la Química en la elaboración de modelos y en el análisis de procesos al nivel molecular.

GENOMA HUMANO, MARCA DE LA NUEVA ERAPoco antes de finalizar el siglo XX fue presentado a la comunidad científica el Genoma Humano, sin duda uno de los hitos históricos que marcan la nueva era.

Esto significó el comienzo de la “revolución genómica”; en ese momento, la bioinformática se refería únicamente a la creación y mantenimiento de base de datos donde se almacenaba información biológica; pero, ahora, la detección y tratamiento de enfermedades y la producción de alimentos genéticamente modificados son parte de los hallazgos de la investigación biotecnológica.

Gracias a la bioinformática puede hoy leerse toda la secuen-cia de moléculas que componen el genoma de un organismo; es decir, el “manual de instrucciones” que rige la formación del mismo y es posible la observación de su comportamiento dinámico bajo diversas condiciones experimentales.

Ahora, lo más popular que se presenta en el campo de la bioinformática es el análisis e interpretación de varios tipos de datos; este proceso es conocido como biocomputación. Dentro de la bioinformática y la biocomputación existen otras subdisciplinas importantes; por ejemplo, el desarrollo e implementación de herramientas que permitan el acceso, uso y manejo de varios tipos de información; y el desarrollo de nuevos algoritmos y estadísticas con los cuales se puedan relacionar partes de un conjunto enorme de datos.

La bioinformática modifica exponencialmente el trabajo de laboratorio, al permitir analizar una mayor cantidad de información que la que se puede conseguir en un experimento de laboratorio, proporcionando pistas que luego se podrán comprobar experimentalmente.

ESTUDIO PROFUNDO DE LOS SISTEMAS VIVOSLas perspectivas que presenta la Bioinformática incluyen ahora el estudio profundo y exhaustivo de los sistemas vivos, la Farmacología, la lucha contra la contaminación del ambiente; en fin, que nos augura grandes promesas de bienestar social y de capacidad de predicción de acontecimientos biológicos de inestimable interés; pues esos conocimientos, aparte de proporcionar una información más completa de los sistemas vivos, pueden ser la base para extrapolar modelos sobre el funcionamiento de nuestra sociedad humana y para el desarrollo de sistemas computarizados en la optimización y distribución de recursos.

El manejo de tanta información escapa a las posibilidades manuales, mecánicas y eléctricas hasta hoy utilizadas; la nueva realidad es el desarrollo de sistemas computarizados que suplirán, sin duda alguna, muchas de nuestras deficiencias en la armonía con la biosfera.

44 13

microorganismos patógenos. Un grupo experto en genómica, aliado a uno experto en proteómica, y con conexiones con uno especializado en metabolómica, hacen un triunvirato imbatible en el área de diseño de nuevos biofármacos. Éstos son sólo ejemplos de una proposición que todos sabemos válida: la colaboración complementaria ofrece beneficios para todas las partes y maximiza las posibilidades de éxito en la resolución de problemas complejos.

En los países de vanguardia tecnológica en Biotecnología, la receta de la colaboración para el éxito ha sido ensayada desde hace tiempo. En las sociedades que aspiramos a generar conocimiento y tecnología eficientemente, el reconocimiento de esa necesidad de agrupación, vinculación y trabajo colaborativo es un deber. La formación de redes de colaboración en Biotecnología entre Institutos, Centros, Universidades, Empresas dedicadas a la Biotecnología de nuestros países latinoamericanos, ofrece una gran ventana de oportunidad al éxito en la retadora aventura de generar nuevas Biotecnologías.

En los países latinoamericanos es particularmente difícil disponer de recursos para el montaje y el mantenimiento de infraestructura avanzada para la investigación.

nozco si hay aún algo de verdad en este estereotipo. Sí quisiera pensar, por el bien de nuestras sociedades, que de haber algo verídico en aquella idea, podremos encontrar ampliamente vencedora la consigna del trabajo colaborativo y de las alianzas estratégicas. También creo, como muchos creemos, que la colaboración entre investigadores, grupos e instituciones, puede y debe motivarse con estrategias y políticas. ¿Quién debe formular esas políticas? Sin duda, se hacen necesarios promotores a todos los niveles. El concepto de formación de redes debe comenzar dentro de cada institución y ser promovido por la institución misma. Por ejemplo, el diseño de los nuevos espacios de investigación resulta en un medio para inducir la idea de trabajo colaborativo. La sola idea de adquirir un cromatógrafo de líquidos para cada profesor-investigador resulta obsoleta e impráctica en este nuevo contexto del compartir recursos para hacer más.

INTERCAMBIO DE IDEASEs así como una zona de análisis instrumental común resulta apropiada y eficaz en reafirmar la idea de recursos de equipamiento disponibles para todos. Espacios abiertos, laboratorios de uso común o compartido, sitios dedicados “por diseño” al intercambio de ideas (espacios físicos y/o virtuales) funcionan como catalizadores del intercambio de ideas. Así, la arquitectura de un edificio puede ser factor motivante de la interacción. Ejemplos de la praxis de este concepto son los diseños del Biodesign Institute, de la Univesidad de Arizona (en Estados Unidos) o del Centro de Biotecnología del Tecnológico de Monterrey (aquí en Nuevo León), por citar dos ejemplos de reciente construcción.

El diseño de los Programas Académicos es otro instrumento útil para vincular unidades de investigación. Explicitar en los programas de Posgrado y Pregrado la pertinencia de realizar estancias de investigación en otras Universidades o Centros de Investigación es un camino. Otro también muy relevante es el diseño de Programas de doble grado entre instituciones en alguna de sus múltiples variantes (Licenciatura-Maestría; Doble Maestría; Maestría con Especialidad o Maestría-Doctorado; Doctorado y Estancia Posdoctoral).

VINCULACIÓN ENTRE INSTITUCIONESTambién las instituciones deben explicitar en sus políticas la intención de vincularse con otras instituciones dedicadas a tareas afines o complementarias en México y en el extranjero. Esta explicitación debería ir acompañada de programas que favorezcan la vinculación de sus investigadores con grupos en otras instituciones: programas de intercambio académico, incentivos por preparación de propuestas de investigación interinstitucionales, incentivos por publicaciones con coauto-res de otras instituciones.

En un nivel más general, los gobiernos estatal y federal y sus dependencias deberán jugar un rol como incentivadotes de colaboración y como promotores de la oferta de capacidades de los grupos de investigación locales tanto en el ámbito nacional como internacional. La colaboración efectiva entre nuestros grupos nos ahorrará tiempo y recursos para llegar a nuestras metas comunes: generar, por medio de la Ciencia, el Conocimiento y la Tecnología, bienestar para nuestras sociedades.

En este contexto, compartir estos recursos es por demás una estrategia de trabajo obvia. También la formación de alianzas con centros e institutos consolidados mundialmente, en Estados Unidos, Canadá, Europa, Asia, etcétera, es una oportunidad que sería criminal desechar, una oportunidad ventana al plano de la vanguardia científica.

POLÍTICA Y DISEÑO PARA LA COLABORACIÓN¿Será cierto que el investigador es, por naturaleza, instintiva-mente reservado, poco comunicativo y territorialista? Desco-

Figura 2. La formación de redes entre unidades de investigación debe ser una de las estrategias de operación de los grupos dedicados a la Biotecnología. La imagen muestra algunos de los centros, departamentos e institutos con los que actualmente colaboramos en el Centro de Biotecnología del Tecnológico de Monterrey. En cada imagen se refiere el sitio electrónico de origen.

Del 20 al 24 de septiembre tendrá lugar en nuestra ciudad el Congreso Internacional y Exhibición de Biotecnología “bioMonterrey06” en cuya agenda figura el tema de

bioinformática, razón por la cual pretendemos acercarnos a éste vocablo.

La bioinformática es el uso de técnicas y herramientas computacionales para el análisis de la información biológica; es una disciplina científica emergente que utiliza tecnología de la información para organizar, analizar y distribuir información biológica con la finalidad de responder preguntas complejas en biología. Es una nueva disciplina, dedicada a manejar las enormes cantidades de información provenientes, tanto de la secuenciación de las macromoléculas (ADN, proteínas y glúcidos) como de las técnicas de análisis masivo del comportamiento de genes y proteínas.

INVESTIGACIÓN MULTIDISCIPLINARIALa bioinformática es también un área de investigación

multidisciplinaria, sustentada básicamente en la Biología, la Computación y la Informática, vivamente interesada en descifrar la incógnita del genoma humano. Recibe el aporte de otras disciplinas biológicas o biomédicas; por ejemplo, la información hereditaria -estudiada por la Genética- se sabe que reside en las macromoléculas, gracias a la Biología Molecular, la Bioquímica y la Química Orgánica); pero su expresión es importante al manifestarse en la funcionalidad, asunto que estudian la Biología Celular, la Histología, la Organografía, la Neurobiología, la Fisiología, la Inmunología, la Biología del Desarrollo, la

Patología, la Oncología…; la reproducción -estudiada por la Embriología- y las relaciones entre los seres vivos -estudiados por las Ciencias del Comportamiento; la Ecología, la Microbiología,

Director del Centro de Altos Estudios e Investigación Pedagógica

Profesor Ismael Vidales Delgado

14 43

Luciano Milanesi. Es jefe del grupo sobre Bioinformática Médica del Instituto de Tecnologías Biomédicas (ITB) suscrito al Consejo Nacional de Investigación (CNR) de Italia.

Obtuvo su grado profesional en Física Atómica en 1981. En 1986 recibió su grado de Doctorado en Salud y Física Hospitalaria, participando en el desarrollo del proyecto “Infraestructura de Ciclotrón para la aplicación de la Tomografía de Emisión de Positrones en Medicina Nuclear”.

Desde 1987 forma parte del equipo de científicos del ITB, y desde 1988 dirige la División de Bioinformática de este instituto en el marco del “Proyecto del Genoma Humano”. Inicialmente se enfocó al desarrollo de herramientas para el análisis de la secuencia del genoma y la predicción de la estructura de genes en diferentes organismos. Recientemente, su trabajo se dirige hacia el estudio de las funciones de los genes, la predicción promotora, el análisis de expresión genética y el desarrollo de herramientas de datos integrados con la búsqueda de textos biomédicos completos.

En enero de 2004 se convirtió en líder de grupo en la Unidad de Bioinformática del Consorcio Universitario CILEA. Ha participado como investigador principal en diversos proyectos como: “TRADAT” (Bases de Datos de Trascripción y Análisis de Herramientas) de la Comisión Europea (1996-1999); “Genética Molecular” del CNR MIUR (2001-2003); “ORIEL” (Ambiente de Investigación en Línea para las Ciencias de la Vida) de la Comisión Europea (2002-2004); “Bioinformática para el Genoma y Proteoma” MIUR FIRB (2003-2005); entre otros.

Desde 2002 enseña bioinformática para el curso de Biotecnología Médica en la Universidad de Milán, y desde 2003 enseña informática para grados especializados en la misma universidad. También ha ofrecido cátedra en 20 diferentes cursos de Bioinformática en Europa.

El profesor Milanesi es miembro del Consejo Editorial de Briefings in Bioinformatics end IEEE Trans y en NanoBiosciences. Ha realizado contribuciones en varios libros y publicaciones científicas en Bioinformática.

Instituto de Fisiología Celular / [email protected]

Acerca de la Bioinformática.- La bioinformática es un área del conocimiento que emerge de la fusión de la biología con las matemáticas. Tal vez sea ésta una de las disciplinas de mayor auge en la biología en los últimos 25 años, ya que gracias a ella se ha podido acelerar la secuenciación de genomas, diseño de fármacos, diseño de sondas moleculares para diagnóstico, y muchas otras aplicaciones médicas. Además, ésta ha permitido a los científicos especular sobre el origen

de la vida, predecir mecanismos moleculares, entre muchas otras posibles aplicaciones en la biología molecular. ¿Por qué y cómo la bioinformática se ha convertido en fundamental para el desarrollo de la biología? Para dar respuesta a estas preguntas, debemos empezar por hacer algunas definiciones.

Biología es la ciencia que estudia a los seres vivos. Pero, ¿Qué es un ser vivo? Es aquel organismo (conjunto de células)

Doctor Gabriel del Río Guerra Doctor Carlos Polanco González

de programación aplicada, veremos bases de datos más completas y el proyecto del genoma humano tendrá horizontes más ambiciosos.

Nuestra identidad será del dominio público y difícilmente nos podremos esconder bajo una máscara o una falsa identificación.

El beneficio será que la computación biológica traerá frutos suculentos para la historia de la biología evolutiva y los principios de evolución que ha marcado Darwin, y no sólo un control represivo al estilo de 1984, donde no se les otorgue la libertad de acción a los individuos y se les obligue al culto de una personalidad y la obediencia impuesta bajo castigo.

Es tentadora la oferta que el poder gubernamental puede utilizar, bajo el recuerdo de Orwell, diciendo: “déjame ser tu hermano mayor”, o tal vez un control al estilo de John Stuart Mill, donde la libertad del individuo se condiciona para prevenir que lastime a otros o se lastime a sí mismo. Sumando esto, la

bioinformática también debe considerar que el control de los seres humanos, para ofrecerles bioseguridad, seguramente estará apoyado por robots y computadoras, y será necesario incorporar a sus sistemas operativos las leyes de conducta, expuestas en la ciencia ficción de Asimov, pero que aplican fuertemente en la actualidad, las cuales son:1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Grandes cambios nos depara el futuro en este “Mundo Feliz”, aludiendo a la novela de Huxley; por esto debemos tener los ojos abiertos y las conexiones neurales listas para asimilar las sorpresas. Aunque no lo notemos, vivimos en una época deslumbrante.

42 15

capaz de transformar su ambiente, y, al hacerlo, logra reproducirse y mantenerse. Estos procesos realizados por los seres vivos son llevados a cabo por conjuntos de moléculas (una molécula es un conjunto de átomos y un átomo es la partícula fundamental de la materia), características de los seres vivos llamadas proteínas y ácidos nucleicos; algunos de estos ácidos nucleicos son el ADN (Ácido Desoxi-Ribo Nucleico) y el ARN (Ácido Ribo Nucleico). Las unidades fundamentales del ADN o el ARN son los nucleótidos, y para las proteínas son los aminoácidos.

Las Matemáticas constituyen un área de conocimiento que, a pesar de ser de naturaleza completamente abstracta (los matemáticos trabajan con universos y objetos de naturaleza simbólica), es fundamental para la investigación científica y el desarrollo tecnológico. La Ciencia tiene dos pilares clásicos: la teoría y el experimento. Junto con éstos, hoy la Ciencia Informática y la Ciencia Computacional son reconocidas como el tercer pilar de la ciencia (comunicación personal con el doctor en Matemáticas Humberto Carrillo, UNAM). La Bioinformática, sirviéndose de sofisticadas herramientas matemáticas, constituye un importante paradigma de la emergente metodología de investigación de la Ciencia Informática. BREVE RECUENTO HISTÓRICOPara describir cómo se lograron fusionar estas dos disciplinas (las Matemáticas y la Biología), al parecer tan distantes, ahora haremos un breve recuento histórico del quehacer biológico. Por siglos, los biólogos estuvieron dedicados a catalogar a los seres vivos con el afán de conocer la diversidad de formas que la vida puede adoptar. Para finales del siglo XIX, el biólogo austríaco Gregorio Mendel propondría las leyes de la herencia, un fenómeno que describe cómo los hijos adquieren características de los padres.

Durante los primeros 50 años del siglo XX, se acumuló evidencia que identificaba al ADN como la molécula responsable del fenómeno de la herencia dejando a las proteínas el papel de ejecutoras de los procesos en los seres vivos. Para 1954, los doctores Ingleses James Watson y Francis Crick explicarían cómo la información contenida en el ADN se podría transformar en proteína.

Fue en ese año cuando la biología se reconocía como una ciencia computacional: sus esfuerzos se enfocaron a estudiar cómo transformar el conjunto de moléculas de ADN en el conjunto de moléculas de las proteínas. De estos esfuerzos surge la definición de gen: son aquellas regiones del ADN que se traducen en proteína, y genoma es el conjunto de genes y regiones del ADN que regulan la expresión de los mismos.

SECUENCIA DEL GENOMA HUMANOPara mediados de 1980 se habría consolidado la biología molecular y más adelante se obtendría la secuencia del primer genoma completo de un organismo vivo: el ADN del bacteriofago fX174 con 5 mil 368 nucleótidos de longitud. Esto dio origen al primer centro nacional de acopio de secuencias

de ADN y ARN en Estados Unidos, el National Center for Biotechnology Information (http://www.ncbi.nlm.nih.gov/). Finalmente, a principios de 1990, se estableció el consorcio para secuenciar el genoma humano, el cual vio colmados sus esfuerzos a principios de este siglo XXI.

Actualmente se han secuenciado más de 400 genomas de diversos organismos, y muchos otros están por ser secuenciados. Al mismo tiempo, se han generado bases públicas de datos que dan acceso a esta información y otra relacionada con el organismo vivo correspondiente. Este acceso a la información en biología ha transformado de forma definitiva a esta disciplina científica, de tal suerte que un biólogo moderno no puede concebirse aislado de las computadoras, la informática y las matemáticas.

Una vez conocidos todos los genes/proteínas presentes en un organismo, es necesario poder determinar cuáles y en qué condiciones dichos genes/proteínas son utilizados por los seres vivos. Por ejemplo, conociendo todos los genes/proteínas del ser humano, no nos dice cuáles participan en

enfermedades tales como el cáncer o en la enfermedad de Alzheimer. Para dar idea al lector de la dimensión de esta empresa en la que miles de científicos participan hoy en día, usemos como ilustración un organismo pequeño, una bacteria con 1,000 genes.

Este supuesto organismo debe ser capaz de sobrevivir en muy diversas condiciones ambientales (condiciones variadas de humedad, temperatura, fuente de alimentos, etcétera), y para cada una de éstas utiliza un conjunto distinto de genes. Vamos a suponer que para cada condición ambiental, esta bacteria utiliza 100 genes.

El número posible de respuestas distintas con 100 genes que esta bacteria es capaz de generar es de 6.38 x 10139 (¡éste es el

número obtenido al poner el 638 seguido de 137 ceros a la derecha!). Sin embargo, la complejidad de esta empresa no para aquí. Una vez conocidos los genes/proteínas que participan en un proceso (por ejemplo, una enfermedad), es necesario identificar el conjunto de éstos que son críticos para este proceso. Ésos son los genes que pueden ser utilizados en el desarrollo de métodos de diagnóstico molecular o bien como blancos en el desarrollo de drogas para el tratamiento específico de enfermedades.

Nuestra bacteria en realidad es mucho más simple que las bacterias que infectan a los seres humanos (las bacterias del tracto intestinal cuentan con cuatro mil genes o más) o que el ser humano mismo, que cuenta con aproximadamente 30 mil genes. Ya que es humanamente imposible realizar todos estos experimentos para cada organismo en cada una de sus posibles condiciones ambientales, es necesario utilizar modelos matemáticos que permitan simular los mecanismos moleculares de los seres vivos, y en función de estos modelos, identificar a los genes más probables de ser evaluados biológicamente.

El mapeo y control sistémico de la población al estilo de la novela de Orwell, titulada 1984, proponía un escenario que no se había cumplido hasta hace algunos años; recientemente la historia novelesca vuelve a tener cabida en el mundo contemporáneo, debido a la inseguridad internacional y a las constantes amenazas de grupos extremistas en distintas partes del orbe.

Países como Estados Unidos e Inglaterra trabajan arduamente en el uso de técnicas de las matemáticas aplicadas, la estadística y la ciencia computacional para obtener un sistema bioinformático que pueda tener registrados a cada uno de sus habitantes, así como ir creando una base de datos internacional de todas las personas que cruzan por sus fronteras.

¿SOY REALMENTE QUIEN DIGO QUE SOY?A pesar de que los costos de esta biotecnología informática son elevados para incorporar huellas dactilares y escaneo de córneas a las estructuras de seguridad; la revista The Economistseñala que esta herramienta busca resolver la pregunta de: “¿soy realmente quien digo que soy?”.

Es decir, el primer uso es para identificar si la persona es realmente quien dice ser; es así como a un individuo se le toma un registro biométrico de su identidad y después se le compara contra una base de datos (¿Quién es esta persona?). La segunda es verificar que realmente este ser humano es quien clama ser (¿Es esta persona quien dice ser?).

De llevarse a cabo esto, no sólo estamos resolviendo las interrogantes anteriores y proveyendo de seguridad a los países que adopten esta tecnología, sino que también tendremos un control de los ciudadanos, pues desde que salimos de nuestra casa y vamos manejando en nuestro coche, el “kernel gubernamental”, apoyado con sensores de tecnología biométrica sabrá qué tipo de ropa nos gusta, la cantidad de dinero que movemos diariamente, los pagos pendientes que tenemos, la música que escuchamos, dónde vivimos, el trabajo en que nos desempeñamos, los viajes que hacemos, las rutas en que transitamos, las llamadas que hacemos, entre muchas otras cosas más.

La cuestión será decidir si este tipo de información se usa al estilo de Big Brother y se ejerce un manejo al estilo del conocido “Leviatán de Hobbes” con un totalitarismo estalinistaque sabe el todo de cada uno de nosotros, sin respeto a la privacidad, o por el contrario se usa el estilo de John Locke, con su admiración al “cuestionamiento racional” y el conocimiento filosófico de Descartes, para darle su lugar al ser humano, su libertad y no reprimirlo.

EL MEJOR EJEMPLO DE INGENIERÍA EVOLUTIVA NATURALSin embargo, antes de adelantarnos a un escenario novelesco futurista, como si estuviéramos metidos en un libro de Isaac Asimov combinado con un mundo Kafkiano, primero las redes electrónicas de transferencia de bits deben ser seguras y eficientes como el mejor ejemplo de la ingeniería evolutiva natural: el cerebro, que, según el doctor Michio Kaku, de la Universidad de Nueva York y cocreador de la Teoría de Cuerdas, puede procesar billones de bytes por segundo, sin esfuerzo aparente y sin sudar; caso contrario al de una máquina, que para hacer este tipo de cálculo requeriría de una extensión aproximada de una cuadra en tamaño y una gran reserva de agua para enfriarla. Lo que es seguro es que con el advenimiento del mapeo genómico de los seres humanos, ligado a la biología computacional y los modelos matemáticos

Maestro Rodrigo Soto Mercadotecnia Social

14 43

Luciano Milanesi. Es jefe del grupo sobre Bioinformática Médica del Instituto de Tecnologías Biomédicas (ITB) suscrito al Consejo Nacional de Investigación (CNR) de Italia.

Obtuvo su grado profesional en Física Atómica en 1981. En 1986 recibió su grado de Doctorado en Salud y Física Hospitalaria, participando en el desarrollo del proyecto “Infraestructura de Ciclotrón para la aplicación de la Tomografía de Emisión de Positrones en Medicina Nuclear”.

Desde 1987 forma parte del equipo de científicos del ITB, y desde 1988 dirige la División de Bioinformática de este instituto en el marco del “Proyecto del Genoma Humano”. Inicialmente se enfocó al desarrollo de herramientas para el análisis de la secuencia del genoma y la predicción de la estructura de genes en diferentes organismos. Recientemente, su trabajo se dirige hacia el estudio de las funciones de los genes, la predicción promotora, el análisis de expresión genética y el desarrollo de herramientas de datos integrados con la búsqueda de textos biomédicos completos.

En enero de 2004 se convirtió en líder de grupo en la Unidad de Bioinformática del Consorcio Universitario CILEA. Ha participado como investigador principal en diversos proyectos como: “TRADAT” (Bases de Datos de Trascripción y Análisis de Herramientas) de la Comisión Europea (1996-1999); “Genética Molecular” del CNR MIUR (2001-2003); “ORIEL” (Ambiente de Investigación en Línea para las Ciencias de la Vida) de la Comisión Europea (2002-2004); “Bioinformática para el Genoma y Proteoma” MIUR FIRB (2003-2005); entre otros.

Desde 2002 enseña bioinformática para el curso de Biotecnología Médica en la Universidad de Milán, y desde 2003 enseña informática para grados especializados en la misma universidad. También ha ofrecido cátedra en 20 diferentes cursos de Bioinformática en Europa.

El profesor Milanesi es miembro del Consejo Editorial de Briefings in Bioinformatics end IEEE Trans y en NanoBiosciences. Ha realizado contribuciones en varios libros y publicaciones científicas en Bioinformática.

Instituto de Fisiología Celular / [email protected]

Acerca de la Bioinformática.- La bioinformática es un área del conocimiento que emerge de la fusión de la biología con las matemáticas. Tal vez sea ésta una de las disciplinas de mayor auge en la biología en los últimos 25 años, ya que gracias a ella se ha podido acelerar la secuenciación de genomas, diseño de fármacos, diseño de sondas moleculares para diagnóstico, y muchas otras aplicaciones médicas. Además, ésta ha permitido a los científicos especular sobre el origen

de la vida, predecir mecanismos moleculares, entre muchas otras posibles aplicaciones en la biología molecular. ¿Por qué y cómo la bioinformática se ha convertido en fundamental para el desarrollo de la biología? Para dar respuesta a estas preguntas, debemos empezar por hacer algunas definiciones.

Biología es la ciencia que estudia a los seres vivos. Pero, ¿Qué es un ser vivo? Es aquel organismo (conjunto de células)

Doctor Gabriel del Río Guerra Doctor Carlos Polanco González

de programación aplicada, veremos bases de datos más completas y el proyecto del genoma humano tendrá horizontes más ambiciosos.

Nuestra identidad será del dominio público y difícilmente nos podremos esconder bajo una máscara o una falsa identificación.

El beneficio será que la computación biológica traerá frutos suculentos para la historia de la biología evolutiva y los principios de evolución que ha marcado Darwin, y no sólo un control represivo al estilo de 1984, donde no se les otorgue la libertad de acción a los individuos y se les obligue al culto de una personalidad y la obediencia impuesta bajo castigo.

Es tentadora la oferta que el poder gubernamental puede utilizar, bajo el recuerdo de Orwell, diciendo: “déjame ser tu hermano mayor”, o tal vez un control al estilo de John Stuart Mill, donde la libertad del individuo se condiciona para prevenir que lastime a otros o se lastime a sí mismo. Sumando esto, la

bioinformática también debe considerar que el control de los seres humanos, para ofrecerles bioseguridad, seguramente estará apoyado por robots y computadoras, y será necesario incorporar a sus sistemas operativos las leyes de conducta, expuestas en la ciencia ficción de Asimov, pero que aplican fuertemente en la actualidad, las cuales son:1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Grandes cambios nos depara el futuro en este “Mundo Feliz”, aludiendo a la novela de Huxley; por esto debemos tener los ojos abiertos y las conexiones neurales listas para asimilar las sorpresas. Aunque no lo notemos, vivimos en una época deslumbrante.

42 15

capaz de transformar su ambiente, y, al hacerlo, logra reproducirse y mantenerse. Estos procesos realizados por los seres vivos son llevados a cabo por conjuntos de moléculas (una molécula es un conjunto de átomos y un átomo es la partícula fundamental de la materia), características de los seres vivos llamadas proteínas y ácidos nucleicos; algunos de estos ácidos nucleicos son el ADN (Ácido Desoxi-Ribo Nucleico) y el ARN (Ácido Ribo Nucleico). Las unidades fundamentales del ADN o el ARN son los nucleótidos, y para las proteínas son los aminoácidos.

Las Matemáticas constituyen un área de conocimiento que, a pesar de ser de naturaleza completamente abstracta (los matemáticos trabajan con universos y objetos de naturaleza simbólica), es fundamental para la investigación científica y el desarrollo tecnológico. La Ciencia tiene dos pilares clásicos: la teoría y el experimento. Junto con éstos, hoy la Ciencia Informática y la Ciencia Computacional son reconocidas como el tercer pilar de la ciencia (comunicación personal con el doctor en Matemáticas Humberto Carrillo, UNAM). La Bioinformática, sirviéndose de sofisticadas herramientas matemáticas, constituye un importante paradigma de la emergente metodología de investigación de la Ciencia Informática. BREVE RECUENTO HISTÓRICOPara describir cómo se lograron fusionar estas dos disciplinas (las Matemáticas y la Biología), al parecer tan distantes, ahora haremos un breve recuento histórico del quehacer biológico. Por siglos, los biólogos estuvieron dedicados a catalogar a los seres vivos con el afán de conocer la diversidad de formas que la vida puede adoptar. Para finales del siglo XIX, el biólogo austríaco Gregorio Mendel propondría las leyes de la herencia, un fenómeno que describe cómo los hijos adquieren características de los padres.

Durante los primeros 50 años del siglo XX, se acumuló evidencia que identificaba al ADN como la molécula responsable del fenómeno de la herencia dejando a las proteínas el papel de ejecutoras de los procesos en los seres vivos. Para 1954, los doctores Ingleses James Watson y Francis Crick explicarían cómo la información contenida en el ADN se podría transformar en proteína.

Fue en ese año cuando la biología se reconocía como una ciencia computacional: sus esfuerzos se enfocaron a estudiar cómo transformar el conjunto de moléculas de ADN en el conjunto de moléculas de las proteínas. De estos esfuerzos surge la definición de gen: son aquellas regiones del ADN que se traducen en proteína, y genoma es el conjunto de genes y regiones del ADN que regulan la expresión de los mismos.

SECUENCIA DEL GENOMA HUMANOPara mediados de 1980 se habría consolidado la biología molecular y más adelante se obtendría la secuencia del primer genoma completo de un organismo vivo: el ADN del bacteriofago fX174 con 5 mil 368 nucleótidos de longitud. Esto dio origen al primer centro nacional de acopio de secuencias

de ADN y ARN en Estados Unidos, el National Center for Biotechnology Information (http://www.ncbi.nlm.nih.gov/). Finalmente, a principios de 1990, se estableció el consorcio para secuenciar el genoma humano, el cual vio colmados sus esfuerzos a principios de este siglo XXI.

Actualmente se han secuenciado más de 400 genomas de diversos organismos, y muchos otros están por ser secuenciados. Al mismo tiempo, se han generado bases públicas de datos que dan acceso a esta información y otra relacionada con el organismo vivo correspondiente. Este acceso a la información en biología ha transformado de forma definitiva a esta disciplina científica, de tal suerte que un biólogo moderno no puede concebirse aislado de las computadoras, la informática y las matemáticas.

Una vez conocidos todos los genes/proteínas presentes en un organismo, es necesario poder determinar cuáles y en qué condiciones dichos genes/proteínas son utilizados por los seres vivos. Por ejemplo, conociendo todos los genes/proteínas del ser humano, no nos dice cuáles participan en

enfermedades tales como el cáncer o en la enfermedad de Alzheimer. Para dar idea al lector de la dimensión de esta empresa en la que miles de científicos participan hoy en día, usemos como ilustración un organismo pequeño, una bacteria con 1,000 genes.

Este supuesto organismo debe ser capaz de sobrevivir en muy diversas condiciones ambientales (condiciones variadas de humedad, temperatura, fuente de alimentos, etcétera), y para cada una de éstas utiliza un conjunto distinto de genes. Vamos a suponer que para cada condición ambiental, esta bacteria utiliza 100 genes.

El número posible de respuestas distintas con 100 genes que esta bacteria es capaz de generar es de 6.38 x 10139 (¡éste es el

número obtenido al poner el 638 seguido de 137 ceros a la derecha!). Sin embargo, la complejidad de esta empresa no para aquí. Una vez conocidos los genes/proteínas que participan en un proceso (por ejemplo, una enfermedad), es necesario identificar el conjunto de éstos que son críticos para este proceso. Ésos son los genes que pueden ser utilizados en el desarrollo de métodos de diagnóstico molecular o bien como blancos en el desarrollo de drogas para el tratamiento específico de enfermedades.

Nuestra bacteria en realidad es mucho más simple que las bacterias que infectan a los seres humanos (las bacterias del tracto intestinal cuentan con cuatro mil genes o más) o que el ser humano mismo, que cuenta con aproximadamente 30 mil genes. Ya que es humanamente imposible realizar todos estos experimentos para cada organismo en cada una de sus posibles condiciones ambientales, es necesario utilizar modelos matemáticos que permitan simular los mecanismos moleculares de los seres vivos, y en función de estos modelos, identificar a los genes más probables de ser evaluados biológicamente.

El mapeo y control sistémico de la población al estilo de la novela de Orwell, titulada 1984, proponía un escenario que no se había cumplido hasta hace algunos años; recientemente la historia novelesca vuelve a tener cabida en el mundo contemporáneo, debido a la inseguridad internacional y a las constantes amenazas de grupos extremistas en distintas partes del orbe.

Países como Estados Unidos e Inglaterra trabajan arduamente en el uso de técnicas de las matemáticas aplicadas, la estadística y la ciencia computacional para obtener un sistema bioinformático que pueda tener registrados a cada uno de sus habitantes, así como ir creando una base de datos internacional de todas las personas que cruzan por sus fronteras.

¿SOY REALMENTE QUIEN DIGO QUE SOY?A pesar de que los costos de esta biotecnología informática son elevados para incorporar huellas dactilares y escaneo de córneas a las estructuras de seguridad; la revista The Economistseñala que esta herramienta busca resolver la pregunta de: “¿soy realmente quien digo que soy?”.

Es decir, el primer uso es para identificar si la persona es realmente quien dice ser; es así como a un individuo se le toma un registro biométrico de su identidad y después se le compara contra una base de datos (¿Quién es esta persona?). La segunda es verificar que realmente este ser humano es quien clama ser (¿Es esta persona quien dice ser?).

De llevarse a cabo esto, no sólo estamos resolviendo las interrogantes anteriores y proveyendo de seguridad a los países que adopten esta tecnología, sino que también tendremos un control de los ciudadanos, pues desde que salimos de nuestra casa y vamos manejando en nuestro coche, el “kernel gubernamental”, apoyado con sensores de tecnología biométrica sabrá qué tipo de ropa nos gusta, la cantidad de dinero que movemos diariamente, los pagos pendientes que tenemos, la música que escuchamos, dónde vivimos, el trabajo en que nos desempeñamos, los viajes que hacemos, las rutas en que transitamos, las llamadas que hacemos, entre muchas otras cosas más.

La cuestión será decidir si este tipo de información se usa al estilo de Big Brother y se ejerce un manejo al estilo del conocido “Leviatán de Hobbes” con un totalitarismo estalinistaque sabe el todo de cada uno de nosotros, sin respeto a la privacidad, o por el contrario se usa el estilo de John Locke, con su admiración al “cuestionamiento racional” y el conocimiento filosófico de Descartes, para darle su lugar al ser humano, su libertad y no reprimirlo.

EL MEJOR EJEMPLO DE INGENIERÍA EVOLUTIVA NATURALSin embargo, antes de adelantarnos a un escenario novelesco futurista, como si estuviéramos metidos en un libro de Isaac Asimov combinado con un mundo Kafkiano, primero las redes electrónicas de transferencia de bits deben ser seguras y eficientes como el mejor ejemplo de la ingeniería evolutiva natural: el cerebro, que, según el doctor Michio Kaku, de la Universidad de Nueva York y cocreador de la Teoría de Cuerdas, puede procesar billones de bytes por segundo, sin esfuerzo aparente y sin sudar; caso contrario al de una máquina, que para hacer este tipo de cálculo requeriría de una extensión aproximada de una cuadra en tamaño y una gran reserva de agua para enfriarla. Lo que es seguro es que con el advenimiento del mapeo genómico de los seres humanos, ligado a la biología computacional y los modelos matemáticos

Maestro Rodrigo Soto Mercadotecnia Social

16 41

Sin embargo, aun para una computadora ordinaria (por ejemplo, la computadora con la que usted está probablemente leyendo este documento) este número de cálculos son demasiados. A este tipo de cómputo se le denomina “cómputo intensivo”. Tanto en biología como en otras áreas del conocimiento, tales como la aeronáutica, la física de partículas o la astronomía, ha sido planteada la necesidad de utilizar computadoras capaces de realizar cómputo intensivo. Esto ha promovido a diversas compañías a desarrollar la tecnología para construirlas. Pero, ¿qué es el cómputo intensivo y cómo son las computadoras utilizadas para realizar estos cálculos?

ACERCA DEL CÓMPUTO INTENSIVOSiempre que se tenga un ejemplo claro hay que usarlo. Ello ayudará a una mejor comprensión del tema que nos ocupe, así que para ilustrar lo que es el Cómputo intensivo valdrá la pena el siguiente planteamiento: Suponga que se le pide calificar 100 exámenes y esta labor deberá estar concluida en menos de cuatro horas.

Si a usted le toma cinco minutos calificar un examen, es claro que requerirá de quinientos minutos para terminar esta labor, pero quinientos minutos son un poco más de ocho horas, por lo que no podrá cumplir con este compromiso. Pero como usted cuenta con la amistad de cuatro colegas y éstos con tiempo disponible para ayudarlo, podría darle a cada uno veinte exámenes y usted quedarse con los veinte restantes. Note que a cada uno de ustedes le tomará sólo cien minutos calificar los 20 exámenes, o sea menos de dos horas.

Es por ello que la idea de usar una sola computadora para resolver un problema administrativo, comercial o científico está quedando atrás. Con mayor frecuencia uno sabe que determinada empresa o universidad requiere de varias computadoras comunicadas entre sí para responder con mayor precisión nuevas preguntas, pero ¿qué significa el trabajo cooperativo entre computadoras?, ¿cuáles son sus limites, sus ventajas y sus desventajas?

El trabajo cooperativo entre computadoras se lleva a cabo a través de dos factores: la unión física de computadoras a través de cables (hardware) y la comunicación de sus procesadores por medio de programas (software), que regulan el paso de información entre las computadoras. Cuando se ha logrado conectar dos o más computadoras de manera que la información fluya entre ellas, entonces decimos que hemos formado un cluster (cluster es el término en inglés para referirse a un grupo) (consúltese el sitio: http://www.pcmag.com/encyclopedia_term/0,2542,t=cluster&i=39852,00.asp). Si este cluster está formado de computadoras con diferentes marcas de procesadores lo llamaremos cluster heterogéneo, y si está integrado de iguales procesadores, cluster homogéneo.

Si bien una súpercomputadora y un conjunto de computadoras personales interconectadas, son ambos clusters, existe una diferencia casi abismal entre ambas, ya que la primera cuenta con muchas mejoras que la hacen robusta y confiable, mientras que la segunda requiere de la presencia casi permanente de personal capacitado para que se mantenga en servicio continuo.

Recuerdo cuando hace aproximadamente unos siete años, en alguno de mis anteriores empleos, un día nos dijeron que implementarían un nuevo esquema de control de acceso a las oficinas corporativas.

El control mencionado consistió en que a todos nos tomaron las huellas digitales y las registraron; posteriormente se definió a qué pisos tendría acceso cada persona; finalmente, se instalaron en las puertas de cada piso sensores que leían la huella y, dependiendo del tipo de acceso que se había registrado para cada persona, la máquina decidía si abría la puerta o no. Ése fue mi primer acercamiento a la tecnología de información, y pude ver que consideraba aspectos biológicos para incrementar la seguridad de una organización.

El día de hoy, las técnicas de identificación a través de las huellas dactilares, a pesar del tiempo transcurrido, siguen siendo la herramienta más eficaz para la identificación de personas.

Junto a esta forma de identificación han surgido el ADN y el iris en el ojo, por ejemplo, así como otras formas adicionales para corroborar las identidades. Ya no son parte de la fantasía cómo lo vimos en las películas, sino son los llamados métodos biométricos de identificación.

De hecho, en Estados Unidos el seis por ciento de las compañías utilizan tecnología biométrica, lo que supuso un gasto en el año 2000 de 110 millones de dólares, y tienen tendencia creciente. Europa sigue el mismo camino, por lo que fomentar actividades en esta área es una decisión estratégica de la empresa y el centro involucrado.

TECNOLOGÍA DE INFORMACIÓNCon el paso de los años, esta no ha sido la única aplicación que se le ha dado a la tecnología de información como una forma de potenciar la bioseguridad. En la actualidad, es común que las mascotas cuenten con un microcircuito que permite localizarlas o identificarlas independientemente del lugar donde se encuentren. Esto evita robos o la pérdida de

la mascota. Normalmente el microcircuito está conectado a un sistema de localización geográfico conocido como GPS o Global Positioning System.

Aplicaciones similares a la mencionada en el párrafo anterior se han transferido a la seguridad personal. Por ejemplo, en Brasil, en el año 2004, 42 empresarios y sus familias aceptaron llevar bajo la piel un microcircuito que los mantenía localizados las 24 horas del día. Este microcircuito, además, permitía almacenar el historial médico, de relevancia para casos de urgencia.

A raíz de los atentados del 11 de septiembre, Estados Unidos incrementó los requerimientos de ingreso al país. A través del uso de diferentes lectores biométricos se puede tener un registro personalizado de las entradas y salidas de cada individuo que ha cruzado alguna de las fronteras. Éste es otro claro ejemplo en el que la tecnología de información es aprovechada para incrementar la seguridad a través de aspectos biológicos.

PASAPORTES MÁS DIFÍCILESDE FALSIFICARA la par de esto, prácticamente cualquier país el día de hoy emite pasaportes que son más difíciles de falsificar, gracias a numerosos adelantos en tecnología de información. Se estima que estos adelantos lograrán en poco tiempo hacer que un aspecto biológico de cada persona quede “impreso”, para evitar el mal uso de estos documentos.

Uno de los aspectos más polémicos de la aplicación de la tecnología de información en aspectos de bioseguridad está en la privacidad. Muchas personas se cuestionan hasta dónde vale la pena aplicar mecanismos como los mencionados, sobre todo si pensamos en que podemos ser vistos, localizados e identificados independientemente del lugar y momento en que nos econtremos. Al parecer, el camino por recorrer aún es largo; se espera que en los próximos años surjan más mecanismos que superen lo hecho hasta hoy; sin embargo, el dilema está en saber cuántas personas aceptarán su uso.

40 17

El costo de estos clusters habla de sus agregados; mientras una supercomputadora se puede obtener a partir de los 90 mil dólares, un cluster de ocho computadoras personales puede constituirse con siete mil dólares.

Para dar una idea del avance en la estructura de un cluster, tome en cuenta que si en los inicios de los años cincuenta un cluster estaba constituido de ocho computadoras, los actuales alcanzan 131 mil 172 computadoras (consúltese el sitio: http://www.top500.org/list/2006/06/100). Y que la eficiencia de un computador en cuanto a velocidad, ancho de banda y almacenamiento de información ha mejorado en un factor de cuatro mil veces. ¿Podría usted determinar el factor de mejora si formamos un cluster con este tipo de computadoras?

Pasemos ahora a otro tipo de estructura de computadoras que al final veremos que resulta crucial para México.

Para ello piense en un cluster compuesto de diez computadoras, pero ahora suponga que no están físicamente en una misma habitación. ¿Qué le parece si ponemos tres máquinas en una oficina y otras cuatro en otro edificio y finalmente las restantes tres en una habitación que está en otro país?

No se preocupe; seguimos teniendo un cluster, sólo que ahora los equipos están interconectados gracias a la telefonía satelital. Y ahora resulta que alguien desea agregar sus equipos a este cluster. Esto no debe tener ningún problema; finalmente las distancias ya no son un inconveniente. ¿Pero qué pasaría si estos equipos que se quieren adicionar son en realidad otro cluster? Bueno, pues a esta nueva estructura de computadoras se le denomina grid (grid es el término en inglés para referirse a una malla o red) consúltese el sitio: www.pcmag.com/encyclopedia_term/0,2542,t=The+Grid&i=43961,00.asp ).

Es decir, a un cluster de clusters lo llamamos grid, y esta estructura resulta ser muy interesante, ya que en caso de que no contemos con clusters, sí podemos contar con un grid con el solo hecho de enlazar las actuales computadoras por medio de la telefonía. ¿Para usted cuál seria el grid más grande? Le daré una pista: ¿sabe usted que es Internet?, ¿tiene usted idea del número de computadoras enlazadas a través de Internet?

INTERNET, EL MÁS GRANDE GRIDHabrá que responder estas dos preguntas si se pretende que usted encuentre la respuesta. Primero que nada, Internet es un programa (software) que se instala en su computador y permite transmitir información entre computadoras por medio de la telefonía; la segunda pregunta es mucho más difícil de responder, ya que día a día crece el número de computadoras que se agregan a esta red, pero sí podemos estimar esta cifra y sabemos que actualmente existen al menos mil millones de

computadoras enlazadas. (consúltese el sitio: http://www.internetworldstats.com/stats.htm)

Pues bien, acertó si piensa que el grid más grande que puede diseñarse es usando las computadoras que están enlazadas por medio de Internet; en realidad ya existen grupos de trabajo que lo invitan a prestar su equipo mientras está usted conectado a Internet, (un ejemplo lo encontrará en el sitio: http://setiathome.ssl.berkeley.edu/).

CÓMPUTO INTENSIVO MEDIANTE CLUSTERS Y GRIDSYa para terminar este breve resumen sobre el cómputo intensivo, valdría la pena establecer una división en cuanto a qué nivel se lleva a cabo este esfuerzo en cómputo intensivo a través de clusters y grids.

Para establecer esta división, considere que las descritas estructuras del cómputo se establecen en el mundo

macroscópico; es decir, en nuestro mundo cotidiano, o sea que podemos ver esas computadoras. Piense por un momento que así como ocurre en la naturaleza, existen otros mundos, en particular el mundo microscópico, o sea aquél donde a simple vista nos resultaría imposible ver que ocurre, aunque sabemos que también ese mundo lo compartimos.

Cuando hablamos de computadoras, ese mundo micros-cópico se estudia bajo una disciplina denominada microprogramación (para una definición más extensa del término microprogramación, consúltese el sitio: http://www.pcmag.com/encyclopedia_term0,2542,t=microprogramming&i=46918,00.asp ).

Esta disciplina data de los años cincuenta y se enfoca en la programación de procesadores que se encuentran contenidos en chips muy parecidos a los de una computadora, y que son denominados FPGAs (Field Programable Gate Arrays). Para más información sobre FPGAs,consulte el sitio: http://www.xilinx.com/products/silicon_solutions/fpgas/virtex/ virtex5/ index.htm).

SOLUCIÓN DE PROBLEMAS ESPECÍFICOSEsta disciplina, aunada a los dispositivos FPGA permiten sustituir la computadora para resolver un problema especifico, y hacer que ese dispositivo efectúe las labores; pero, ¿qué los chips actuales no pueden llevar a cabo tareas especificas?, ¿qué éstos no son más rápidos que los que se usan en microprogramación?

Pues resulta que no; esto ¿qué significa? Significa que un chip de una computadora personal no puede realizar sólo la tarea que usted le encomienda, ya que también tiene que mantener otras funciones de ella, como es verificar que el monitor esté encendido, o que la impresora funcione adecuadamente; o sea, existen numerosas tareas, y como ese chip tiene que atender

Doctor Luis Carlos Aceves GutiérrezDepartamento de Ciencias ComputacionalesUniversidad de Monterrey

16 41

Sin embargo, aun para una computadora ordinaria (por ejemplo, la computadora con la que usted está probablemente leyendo este documento) este número de cálculos son demasiados. A este tipo de cómputo se le denomina “cómputo intensivo”. Tanto en biología como en otras áreas del conocimiento, tales como la aeronáutica, la física de partículas o la astronomía, ha sido planteada la necesidad de utilizar computadoras capaces de realizar cómputo intensivo. Esto ha promovido a diversas compañías a desarrollar la tecnología para construirlas. Pero, ¿qué es el cómputo intensivo y cómo son las computadoras utilizadas para realizar estos cálculos?

ACERCA DEL CÓMPUTO INTENSIVOSiempre que se tenga un ejemplo claro hay que usarlo. Ello ayudará a una mejor comprensión del tema que nos ocupe, así que para ilustrar lo que es el Cómputo intensivo valdrá la pena el siguiente planteamiento: Suponga que se le pide calificar 100 exámenes y esta labor deberá estar concluida en menos de cuatro horas.

Si a usted le toma cinco minutos calificar un examen, es claro que requerirá de quinientos minutos para terminar esta labor, pero quinientos minutos son un poco más de ocho horas, por lo que no podrá cumplir con este compromiso. Pero como usted cuenta con la amistad de cuatro colegas y éstos con tiempo disponible para ayudarlo, podría darle a cada uno veinte exámenes y usted quedarse con los veinte restantes. Note que a cada uno de ustedes le tomará sólo cien minutos calificar los 20 exámenes, o sea menos de dos horas.

Es por ello que la idea de usar una sola computadora para resolver un problema administrativo, comercial o científico está quedando atrás. Con mayor frecuencia uno sabe que determinada empresa o universidad requiere de varias computadoras comunicadas entre sí para responder con mayor precisión nuevas preguntas, pero ¿qué significa el trabajo cooperativo entre computadoras?, ¿cuáles son sus limites, sus ventajas y sus desventajas?

El trabajo cooperativo entre computadoras se lleva a cabo a través de dos factores: la unión física de computadoras a través de cables (hardware) y la comunicación de sus procesadores por medio de programas (software), que regulan el paso de información entre las computadoras. Cuando se ha logrado conectar dos o más computadoras de manera que la información fluya entre ellas, entonces decimos que hemos formado un cluster (cluster es el término en inglés para referirse a un grupo) (consúltese el sitio: http://www.pcmag.com/encyclopedia_term/0,2542,t=cluster&i=39852,00.asp). Si este cluster está formado de computadoras con diferentes marcas de procesadores lo llamaremos cluster heterogéneo, y si está integrado de iguales procesadores, cluster homogéneo.

Si bien una súpercomputadora y un conjunto de computadoras personales interconectadas, son ambos clusters, existe una diferencia casi abismal entre ambas, ya que la primera cuenta con muchas mejoras que la hacen robusta y confiable, mientras que la segunda requiere de la presencia casi permanente de personal capacitado para que se mantenga en servicio continuo.

Recuerdo cuando hace aproximadamente unos siete años, en alguno de mis anteriores empleos, un día nos dijeron que implementarían un nuevo esquema de control de acceso a las oficinas corporativas.

El control mencionado consistió en que a todos nos tomaron las huellas digitales y las registraron; posteriormente se definió a qué pisos tendría acceso cada persona; finalmente, se instalaron en las puertas de cada piso sensores que leían la huella y, dependiendo del tipo de acceso que se había registrado para cada persona, la máquina decidía si abría la puerta o no. Ése fue mi primer acercamiento a la tecnología de información, y pude ver que consideraba aspectos biológicos para incrementar la seguridad de una organización.

El día de hoy, las técnicas de identificación a través de las huellas dactilares, a pesar del tiempo transcurrido, siguen siendo la herramienta más eficaz para la identificación de personas.

Junto a esta forma de identificación han surgido el ADN y el iris en el ojo, por ejemplo, así como otras formas adicionales para corroborar las identidades. Ya no son parte de la fantasía cómo lo vimos en las películas, sino son los llamados métodos biométricos de identificación.

De hecho, en Estados Unidos el seis por ciento de las compañías utilizan tecnología biométrica, lo que supuso un gasto en el año 2000 de 110 millones de dólares, y tienen tendencia creciente. Europa sigue el mismo camino, por lo que fomentar actividades en esta área es una decisión estratégica de la empresa y el centro involucrado.

TECNOLOGÍA DE INFORMACIÓNCon el paso de los años, esta no ha sido la única aplicación que se le ha dado a la tecnología de información como una forma de potenciar la bioseguridad. En la actualidad, es común que las mascotas cuenten con un microcircuito que permite localizarlas o identificarlas independientemente del lugar donde se encuentren. Esto evita robos o la pérdida de

la mascota. Normalmente el microcircuito está conectado a un sistema de localización geográfico conocido como GPS o Global Positioning System.

Aplicaciones similares a la mencionada en el párrafo anterior se han transferido a la seguridad personal. Por ejemplo, en Brasil, en el año 2004, 42 empresarios y sus familias aceptaron llevar bajo la piel un microcircuito que los mantenía localizados las 24 horas del día. Este microcircuito, además, permitía almacenar el historial médico, de relevancia para casos de urgencia.

A raíz de los atentados del 11 de septiembre, Estados Unidos incrementó los requerimientos de ingreso al país. A través del uso de diferentes lectores biométricos se puede tener un registro personalizado de las entradas y salidas de cada individuo que ha cruzado alguna de las fronteras. Éste es otro claro ejemplo en el que la tecnología de información es aprovechada para incrementar la seguridad a través de aspectos biológicos.

PASAPORTES MÁS DIFÍCILESDE FALSIFICARA la par de esto, prácticamente cualquier país el día de hoy emite pasaportes que son más difíciles de falsificar, gracias a numerosos adelantos en tecnología de información. Se estima que estos adelantos lograrán en poco tiempo hacer que un aspecto biológico de cada persona quede “impreso”, para evitar el mal uso de estos documentos.

Uno de los aspectos más polémicos de la aplicación de la tecnología de información en aspectos de bioseguridad está en la privacidad. Muchas personas se cuestionan hasta dónde vale la pena aplicar mecanismos como los mencionados, sobre todo si pensamos en que podemos ser vistos, localizados e identificados independientemente del lugar y momento en que nos econtremos. Al parecer, el camino por recorrer aún es largo; se espera que en los próximos años surjan más mecanismos que superen lo hecho hasta hoy; sin embargo, el dilema está en saber cuántas personas aceptarán su uso.

40 17

El costo de estos clusters habla de sus agregados; mientras una supercomputadora se puede obtener a partir de los 90 mil dólares, un cluster de ocho computadoras personales puede constituirse con siete mil dólares.

Para dar una idea del avance en la estructura de un cluster, tome en cuenta que si en los inicios de los años cincuenta un cluster estaba constituido de ocho computadoras, los actuales alcanzan 131 mil 172 computadoras (consúltese el sitio: http://www.top500.org/list/2006/06/100). Y que la eficiencia de un computador en cuanto a velocidad, ancho de banda y almacenamiento de información ha mejorado en un factor de cuatro mil veces. ¿Podría usted determinar el factor de mejora si formamos un cluster con este tipo de computadoras?

Pasemos ahora a otro tipo de estructura de computadoras que al final veremos que resulta crucial para México.

Para ello piense en un cluster compuesto de diez computadoras, pero ahora suponga que no están físicamente en una misma habitación. ¿Qué le parece si ponemos tres máquinas en una oficina y otras cuatro en otro edificio y finalmente las restantes tres en una habitación que está en otro país?

No se preocupe; seguimos teniendo un cluster, sólo que ahora los equipos están interconectados gracias a la telefonía satelital. Y ahora resulta que alguien desea agregar sus equipos a este cluster. Esto no debe tener ningún problema; finalmente las distancias ya no son un inconveniente. ¿Pero qué pasaría si estos equipos que se quieren adicionar son en realidad otro cluster? Bueno, pues a esta nueva estructura de computadoras se le denomina grid (grid es el término en inglés para referirse a una malla o red) consúltese el sitio: www.pcmag.com/encyclopedia_term/0,2542,t=The+Grid&i=43961,00.asp ).

Es decir, a un cluster de clusters lo llamamos grid, y esta estructura resulta ser muy interesante, ya que en caso de que no contemos con clusters, sí podemos contar con un grid con el solo hecho de enlazar las actuales computadoras por medio de la telefonía. ¿Para usted cuál seria el grid más grande? Le daré una pista: ¿sabe usted que es Internet?, ¿tiene usted idea del número de computadoras enlazadas a través de Internet?

INTERNET, EL MÁS GRANDE GRIDHabrá que responder estas dos preguntas si se pretende que usted encuentre la respuesta. Primero que nada, Internet es un programa (software) que se instala en su computador y permite transmitir información entre computadoras por medio de la telefonía; la segunda pregunta es mucho más difícil de responder, ya que día a día crece el número de computadoras que se agregan a esta red, pero sí podemos estimar esta cifra y sabemos que actualmente existen al menos mil millones de

computadoras enlazadas. (consúltese el sitio: http://www.internetworldstats.com/stats.htm)

Pues bien, acertó si piensa que el grid más grande que puede diseñarse es usando las computadoras que están enlazadas por medio de Internet; en realidad ya existen grupos de trabajo que lo invitan a prestar su equipo mientras está usted conectado a Internet, (un ejemplo lo encontrará en el sitio: http://setiathome.ssl.berkeley.edu/).

CÓMPUTO INTENSIVO MEDIANTE CLUSTERS Y GRIDSYa para terminar este breve resumen sobre el cómputo intensivo, valdría la pena establecer una división en cuanto a qué nivel se lleva a cabo este esfuerzo en cómputo intensivo a través de clusters y grids.

Para establecer esta división, considere que las descritas estructuras del cómputo se establecen en el mundo

macroscópico; es decir, en nuestro mundo cotidiano, o sea que podemos ver esas computadoras. Piense por un momento que así como ocurre en la naturaleza, existen otros mundos, en particular el mundo microscópico, o sea aquél donde a simple vista nos resultaría imposible ver que ocurre, aunque sabemos que también ese mundo lo compartimos.

Cuando hablamos de computadoras, ese mundo micros-cópico se estudia bajo una disciplina denominada microprogramación (para una definición más extensa del término microprogramación, consúltese el sitio: http://www.pcmag.com/encyclopedia_term0,2542,t=microprogramming&i=46918,00.asp ).

Esta disciplina data de los años cincuenta y se enfoca en la programación de procesadores que se encuentran contenidos en chips muy parecidos a los de una computadora, y que son denominados FPGAs (Field Programable Gate Arrays). Para más información sobre FPGAs,consulte el sitio: http://www.xilinx.com/products/silicon_solutions/fpgas/virtex/ virtex5/ index.htm).

SOLUCIÓN DE PROBLEMAS ESPECÍFICOSEsta disciplina, aunada a los dispositivos FPGA permiten sustituir la computadora para resolver un problema especifico, y hacer que ese dispositivo efectúe las labores; pero, ¿qué los chips actuales no pueden llevar a cabo tareas especificas?, ¿qué éstos no son más rápidos que los que se usan en microprogramación?

Pues resulta que no; esto ¿qué significa? Significa que un chip de una computadora personal no puede realizar sólo la tarea que usted le encomienda, ya que también tiene que mantener otras funciones de ella, como es verificar que el monitor esté encendido, o que la impresora funcione adecuadamente; o sea, existen numerosas tareas, y como ese chip tiene que atender

Doctor Luis Carlos Aceves GutiérrezDepartamento de Ciencias ComputacionalesUniversidad de Monterrey

18 39

todas las tareas y no únicamente la suya, no podrá ser más rápido que un FPGA.

Además, un FPGA no sólo está programado para una tarea; también permite que esa misma función se copie en varias ocasiones en el mismo FPGA, de tal manera que puede llevar a cabo simultáneamente la misma función.

Para que el lector tenga una idea del potencial de desarrollo que tiene esta técnica, considere por un momento el aceleramiento que un programa lograría con ayuda de un FPGA; si el cluster donde habitualmente lo ejecuta fuese empequeñecido a tal grado que cupiese en un FPGA, y de igual manera, ¿se imagina el lector lo que ocurriría si dentro de su computadora personal tuviese decenas de esos FPGAs interconectados, ejecutando únicamente un programa?

BIOINFORMÁTICA INTENSIVA EN MÉXICOHasta ahora hemos realizado una breve revisión sobre la biología moderna y el cómputo intensivo, y de cómo estas disciplinas pueden llevarnos a acelerar el descubrimiento de nuevos medicamentos y, a su vez, a mejorar nuestro entendimiento sobre el funcionamiento de los seres vivos. Y sabiendo esto, es importante entonces saber qué esfuerzos se están realizando en nuestro país en esta dirección. La última parte de este documento la dedicaremos a mencionar uno de los proyectos más recientes y ambiciosos que en México se realizan en estas áreas del conocimiento.

Es importante aclarar un punto: las computadoras en este momento no pueden sustituir el trabajo en el laboratorio de los biólogos; sólo ayudan a acelerar el descubrimiento de nuevo conocimiento. Así, para la biología, la computación es una herramienta; sin embargo, es necesaria la participación de científicos en computación para resolver los problemas asociados a la biología. En este contexto, se empiezan a desarrollar herramientas útiles para la biología con el mejor planteamiento científico computacional en México.

Nuestra máxima casa de estudios ha emprendido un proyecto (Macroproyecto universitario: Tecnologías para la universidad de la información y la computación; consulte la página del macroproyecto en http://dinamica1.fciencias.unam.mx/ptid/redinformatica/) en el cual se plantea la construcción de un grid dedicado a analizar datos de expresión de genes, así como para la predicción de la estructura y función de las proteínas. Este proyecto tiene dos componentes muy importantes: 1) construcción y uso continuo del primer grid científico en México contemplando el desarrollo de software para el análisis de genomas y proteínas y 2) evaluación biológica de estas herramientas.

Además de ser el primer grid científico dedicado a la bioinformática en México, en éste se estarán evaluando tecnologías emergentes en el cómputo intensivo como son los FPGAs en el diseño de fármacos. Es importante destacar que actualmente sólo 30 países en el mundo usan supercomputadoras dedicadas a proyectos específicos, (consulte la página http://www.top500.org/ para más información sobre los países y tecnologías en computo intensivo). Además, sólo uno de esos 30 países dedican una

supercomputadora en el área de la biología. México no figura entre los 30 países que dedican supercomputadoras a un proyecto específico, pero este proyecto podría colocar a México como el segundo país que utilice el cómputo intensivo en el área biológica. Los grids en ese sentido ofrecen una solución eficiente y económica, comparada con la inversión de supercomputadoras, como se mencionó antes.

GRID EN FASE DE PRUEBAEn este proyecto participan 20 investigadores de distintas dependencias universitarias, incluyendo al Instituto de Investigaciones Matemáticas Aplicadas y de Sistemas (IIMAS), Instituto de Fisiología Celular (IFC), Instituto de Biotecnología (IBT), la Facultad de Ciencias (FC) y la Dirección General de Servicios de Cómputo Académico (DGSCA) de la UNAM. Este grid busca enlazar inicialmente a cinco clusters localizados en estas dependencias universitarias. Actualmente un primer prototipo de grid está en fase de prueba utilizando para ello tecnología desarrollada en la UNAM y por grupos de investigación externos.

Este prototipo servirá para evaluar un nuevo método de predicción de la estructura y función de las proteínas desarrollado en la UNAM. Para el año 2008, el grid que conec-te a cinco clusters debe estar en pleno funcionamiento y se espera que a partir de éste se puedan ir generando proyectos que demanden cada vez más de cómputo intensivo en el área de biología. Para lograr integrar a la comunidad científica mexicana en el uso y aprovechamiento de esta tecnología, se ha constituido la red mexicana bioinformática (consulte la página de la red en http://rmb.ifc.unam.mx/). Al mismo tiempo, se han iniciado proyectos en el estudio de la expresión de genes en organismos modelo que permitirán evaluar la confiabilidad de estas tecnologías.

Con todos estos esfuerzos, México se encamina a transformar la forma en que se ha venido realizando biología en el país y con ello a la formación de nuevos profesionistas y científicos que puedan promover el desarrollo del país en estas áreas.

En los albores del siglo XXI, nuestro país experimenta grandes retos científicos, tecnológicos, sociales y políticos, que generan grandes cambios para los cuales debemos estar preparados.

El proceso de globalización coloca la video tecnología en un primer plano; al hacer uso de microorganismos, células vegetales, animales; sus partes o fracciones pueden generar bienes o servicios con el fin de contribuir a una mejor calidad de vida, participando activamente en un desarrollo sustentable, al mismo tiempo que generan beneficios ambientales, alimenticios, farmacéuticos e industriales.

El CECyTE Nuevo León, como parte de un subsistema de educación media superior tecnológica del Estado, se preo-cupa por formar técnicos en el área de biotecnología, que puedan insertarse en los sitios laborales, donde ofrezcan servicios de análisis físico–químico, identificación de micro-organismos, procesamiento de alimentos de origen vegetal y animal, elaboración de productos fermentados. Todo esto en empresas que operan con tecnología avanzada y prestan importantes servicios en nuestra entidad.

FORMACIÓN DE TÉCNICOS EN BIOTECNOLOGÍAEn forma creciente se presentan requerimientos de recursos humanos con esta formación, motivo por el cual el CECyTE Nuevo León responderá a estos retos del siglo XXI; por una parte, formando técnicos profesionales en biotecnología y

20 asignaturas de formación básicamil 200 horas de actividadesde aprendizaje

6 asignaturas de formación propedéutica

480 horas de actividades de aprendizaje

5 módulos de formación profesionalmil 200 horas de actividades de aprendizaje

El plan de estudios tiene la siguiente estructura para atenderse en seis semestres

Doctor Ariel FaríasDirector de Planeación y Evaluación

estableciendo una unidad de actualización profesional en esta área.

El modelo curricular será con un enfoque de aprendizaje, asignaturas de formación básica y propedéutica de educación media superior y un conjunto de módulos de formación profesional tecnológica, basada en normas de competencia con diferentes cuadros de competencias laborales.

El modelo será flexible, con entradas y salidas laterales, con un diseño de módulos específicos elaborados con las normas de competencia laboral evaluadas por expertos del sector de biotecnología.

38 19

Un poco de filosofía. La información implica la utilización de un código –si no hay codificación no hay información. Argumentaré que los seres vivos son esencialmente máquinas informáticas. ¿Por qué? Pues los seres vivos, viéndolos de manera muy sintética, están formados de dos sistemas interdependientes: el genético –que contiene y perpetúa la información, y el metabólico/estructural –que se ocupa de capturar materia y energía del medioambiente así como de operar el sistema genético de información. Es el clásico caso del huevo y la gallina, en el cual podemos ver a la gallina como el sistema perpetuador del huevo o viceversa, sin que podamos decidir cuál fue primero.

Pero, ¿existe información fuera de los sistemas vivos? Mi respuesta es un rotundo NO, considerando que los sistemas informáticos creados por el hombre son un subproducto de su cultura y por tanto dependientes de un sistema viviente ¿Qué serían las computadoras sin nosotros? Sim-plemente no serían.

Afirmo que fuera de los sistemas vivos no existe información. Estudiemos cualquier fenómeno natural que no involucre seres vivos; por ejemplo, la erupción de un volcán. El volcán erupciona en un determinado momento por las presiones del magma sobre la corteza terrestre; no existe, en ningún punto, una transmisión de información. Las Leyes de la Naturaleza simplemente son, existen y persisten inalteradas desde la gran explosión (Big bang). La Física, Química y demás Ciencias Naturales las estudian; la Biología, por otro lado, es muy particular a este respecto: Todo lo que estudia está relacionado con la información genética y, directa o indirectamente, con el código genético.

REPLICACIÓN Y OPERACIÓN DEL ADNEste código no es una ley natural per se; se generó con un cierto componente aleatorio en los orígenes de la vida, y dicho

componente aleatorio persiste hasta nuestros días con algunas variaciones (código genético nuclear, mitocondrial, etcétera). La molécula que transmite la información biológica es el Ácido Desoxiribo-Nucleíco (ADN); la secuencia de bases (A, T, G o C) a lo largo de esta molécula determina qué proteínas serán sintetizadas en la célula y, por su parte, las proteínas operan el sistema metabólico/estructural de los seres vivos, incluyendo la replicación y operación del ADN mismo.

¿Qué fue primero, el ADN o las proteínas? La respuesta parece ser ninguna de las dos moléculas, sino el Ácido Ribo-Nucleico (ARN); la molécula que sirve como intermediaria y operadora de la información biológica, interviniendo en la trascripción de la información al llevar a cabo dos papeles vitales: La copia de la información presente en el ADN (ARN mensajero) y el reconocimiento del código genético (ARN de transferencia). Los genes son segmentos de ADN que contienen la información para formar una proteína. Un gene está constituido no solamente por el segmento que codifica a la proteína, sino también por señales que le indican a la célula cuándo y cuánto se debe transcribir; es decir, los genes tienen control de prendido/apagado y “volumen”.

Esto es, qué tanto se deben transcribir; qué tanta proteína se debe sintetizar en

un momento particular del desarrollo y un tipo específico de célula. El desarrollo y diferenciación de un embrión a partir de una sola célula indiferenciada es un concierto enormemente complicado de genes que se prenden, se apagan o cambian de “volumen” de trascripción, diferenciando a las células para formar tejidos y órganos, lo que finalmente resulta en un individuo extraordinariamente complejo. La clave: La información presente en el ADN. Esta visión de la vida tal vez parezca demasiado reduccionista y mecanicista, pero notemos que no se niega que para la completa comprensión del fenómeno de la vida es necesario comprender las propiedades

Doctor Octavio Martínez de la VegaCINVESTAV Irapuato

de doble ciclo: “Profesional Asociado en Biotecnología Genómica” y “Licenciado en Biotecnología Genómica”, las cuales comprenderán la generación y uso de la información del ADN de los organismos para el desarrollo de biotecnología. El entorno geográfico, desarrollo industrial y socio-económico de nuestro estado nos coloca ante la gran oportunidad de generar profesionales capaces de transformar las capacidades del análisis profundo de la secuencia nucleotídica de los organismos para generación de tecnologías más sólidas, social y económicamente más rentables y ecológicamente más seguras.

En este sentido, la Universidad Autóno-ma de Nuevo León cuenta con alrededor de medio centenar de profesores con grado de doctor y otro tanto de Maestros en Ciencias, especialistas en las distintas áreas del conocimiento de la biología molecular e ingeniería genética de microorganismos, bioquímica, genética, medicina humana, veterinaria, ciencias agrícolas, ecología y biotecnología, y más de una decena de laboratorios y talleres altamente equipados con infraestructura y tecnologías afines al área genómica (genética, bioquímica, biología molecular

biotecnología y cómputo). Aunado a ello, nuestro estado cuenta con instituciones de investigación y desarrollo dentro del sector salud (IMSS) y agropecuario (INIFAP), con las cuales nuestra universidad mantiene una estrecha colaboración científico-académica. Este tipo de colaboración será otro factor importante para el adecuado desarrollo profesional de los alumnos de la carrera en biotecnología genómica.

El personal docente que estará adscrito a este programa cuenta con amplia experiencia en la formación de recursos humanos a nivel de licenciatura, maestría y doctorado, lo cual garantiza una formación académica integral de los alumnos inscritos en el mismo. Nuestro programa está dividido en dos ciclos: durante el primer período, los alumnos recibirán una instrucción básica para desempeñarse como técnico profesional en laboratorios de desarrollo de procesos biotecnológicos y diagnóstico molecular de enfermedades hereditarias e infecciosas.

En la segunda parte, el alumno recibirá una formación académico-científica para abordar y resolver problemas en su campo.

OBJETIVO DE LA CARRERAPrimer ciclo: Formar profesionales asociados capaces de servir como soporte de equipos interdisciplinarios para el desarrollo de procesos biotecnológicos en los sectores de salud, agroalimentario, industrial y ambiental.

Segundo ciclo: Formar profesionales competentes, innovadores y emprendedores, capaces de aplicar las ciencias genómicas, proteómicas y de bioinformática para contribuir al desarrollo de los sectores de salud, agroalimentario, industrial y ambiental.

Fue así como las carreras de Profesio-nal Asociado en Biotecnología Genómica y de Licenciado en Biotecnología Genómica fueron aprobadas por el Honorable Consejo Universitario a partir del semestre que inició en agosto de 2004 y cuyo grado será otorgado a través de la Facultad de Ciencias Biológicas. Ambas carreras forman profesionis-tas competentes, innovadores y emprendedores que aplican las ciencias genómicas, proteómicas y de bioinformática en los sectores de salud, agroalimentario, industrial y ambiental.

Los egresados de estas carreras están capacitados para utilizar las ciencias básicas y aplicadas en la solución de problemas en las áreas de salud, tecnología y ambiente; pueden administrar procesos productivos, generar nuevos productos y tendrán un amplio sentido humanista y compromiso con las necesidades, eficiencia y productividad de México.

18 39

todas las tareas y no únicamente la suya, no podrá ser más rápido que un FPGA.

Además, un FPGA no sólo está programado para una tarea; también permite que esa misma función se copie en varias ocasiones en el mismo FPGA, de tal manera que puede llevar a cabo simultáneamente la misma función.

Para que el lector tenga una idea del potencial de desarrollo que tiene esta técnica, considere por un momento el aceleramiento que un programa lograría con ayuda de un FPGA; si el cluster donde habitualmente lo ejecuta fuese empequeñecido a tal grado que cupiese en un FPGA, y de igual manera, ¿se imagina el lector lo que ocurriría si dentro de su computadora personal tuviese decenas de esos FPGAs interconectados, ejecutando únicamente un programa?

BIOINFORMÁTICA INTENSIVA EN MÉXICOHasta ahora hemos realizado una breve revisión sobre la biología moderna y el cómputo intensivo, y de cómo estas disciplinas pueden llevarnos a acelerar el descubrimiento de nuevos medicamentos y, a su vez, a mejorar nuestro entendimiento sobre el funcionamiento de los seres vivos. Y sabiendo esto, es importante entonces saber qué esfuerzos se están realizando en nuestro país en esta dirección. La última parte de este documento la dedicaremos a mencionar uno de los proyectos más recientes y ambiciosos que en México se realizan en estas áreas del conocimiento.

Es importante aclarar un punto: las computadoras en este momento no pueden sustituir el trabajo en el laboratorio de los biólogos; sólo ayudan a acelerar el descubrimiento de nuevo conocimiento. Así, para la biología, la computación es una herramienta; sin embargo, es necesaria la participación de científicos en computación para resolver los problemas asociados a la biología. En este contexto, se empiezan a desarrollar herramientas útiles para la biología con el mejor planteamiento científico computacional en México.

Nuestra máxima casa de estudios ha emprendido un proyecto (Macroproyecto universitario: Tecnologías para la universidad de la información y la computación; consulte la página del macroproyecto en http://dinamica1.fciencias.unam.mx/ptid/redinformatica/) en el cual se plantea la construcción de un grid dedicado a analizar datos de expresión de genes, así como para la predicción de la estructura y función de las proteínas. Este proyecto tiene dos componentes muy importantes: 1) construcción y uso continuo del primer grid científico en México contemplando el desarrollo de software para el análisis de genomas y proteínas y 2) evaluación biológica de estas herramientas.

Además de ser el primer grid científico dedicado a la bioinformática en México, en éste se estarán evaluando tecnologías emergentes en el cómputo intensivo como son los FPGAs en el diseño de fármacos. Es importante destacar que actualmente sólo 30 países en el mundo usan supercomputadoras dedicadas a proyectos específicos, (consulte la página http://www.top500.org/ para más información sobre los países y tecnologías en computo intensivo). Además, sólo uno de esos 30 países dedican una

supercomputadora en el área de la biología. México no figura entre los 30 países que dedican supercomputadoras a un proyecto específico, pero este proyecto podría colocar a México como el segundo país que utilice el cómputo intensivo en el área biológica. Los grids en ese sentido ofrecen una solución eficiente y económica, comparada con la inversión de supercomputadoras, como se mencionó antes.

GRID EN FASE DE PRUEBAEn este proyecto participan 20 investigadores de distintas dependencias universitarias, incluyendo al Instituto de Investigaciones Matemáticas Aplicadas y de Sistemas (IIMAS), Instituto de Fisiología Celular (IFC), Instituto de Biotecnología (IBT), la Facultad de Ciencias (FC) y la Dirección General de Servicios de Cómputo Académico (DGSCA) de la UNAM. Este grid busca enlazar inicialmente a cinco clusters localizados en estas dependencias universitarias. Actualmente un primer prototipo de grid está en fase de prueba utilizando para ello tecnología desarrollada en la UNAM y por grupos de investigación externos.

Este prototipo servirá para evaluar un nuevo método de predicción de la estructura y función de las proteínas desarrollado en la UNAM. Para el año 2008, el grid que conec-te a cinco clusters debe estar en pleno funcionamiento y se espera que a partir de éste se puedan ir generando proyectos que demanden cada vez más de cómputo intensivo en el área de biología. Para lograr integrar a la comunidad científica mexicana en el uso y aprovechamiento de esta tecnología, se ha constituido la red mexicana bioinformática (consulte la página de la red en http://rmb.ifc.unam.mx/). Al mismo tiempo, se han iniciado proyectos en el estudio de la expresión de genes en organismos modelo que permitirán evaluar la confiabilidad de estas tecnologías.

Con todos estos esfuerzos, México se encamina a transformar la forma en que se ha venido realizando biología en el país y con ello a la formación de nuevos profesionistas y científicos que puedan promover el desarrollo del país en estas áreas.

En los albores del siglo XXI, nuestro país experimenta grandes retos científicos, tecnológicos, sociales y políticos, que generan grandes cambios para los cuales debemos estar preparados.

El proceso de globalización coloca la video tecnología en un primer plano; al hacer uso de microorganismos, células vegetales, animales; sus partes o fracciones pueden generar bienes o servicios con el fin de contribuir a una mejor calidad de vida, participando activamente en un desarrollo sustentable, al mismo tiempo que generan beneficios ambientales, alimenticios, farmacéuticos e industriales.

El CECyTE Nuevo León, como parte de un subsistema de educación media superior tecnológica del Estado, se preo-cupa por formar técnicos en el área de biotecnología, que puedan insertarse en los sitios laborales, donde ofrezcan servicios de análisis físico–químico, identificación de micro-organismos, procesamiento de alimentos de origen vegetal y animal, elaboración de productos fermentados. Todo esto en empresas que operan con tecnología avanzada y prestan importantes servicios en nuestra entidad.

FORMACIÓN DE TÉCNICOS EN BIOTECNOLOGÍAEn forma creciente se presentan requerimientos de recursos humanos con esta formación, motivo por el cual el CECyTE Nuevo León responderá a estos retos del siglo XXI; por una parte, formando técnicos profesionales en biotecnología y

20 asignaturas de formación básicamil 200 horas de actividadesde aprendizaje

6 asignaturas de formación propedéutica

480 horas de actividades de aprendizaje

5 módulos de formación profesionalmil 200 horas de actividades de aprendizaje

El plan de estudios tiene la siguiente estructura para atenderse en seis semestres

Doctor Ariel FaríasDirector de Planeación y Evaluación

estableciendo una unidad de actualización profesional en esta área.

El modelo curricular será con un enfoque de aprendizaje, asignaturas de formación básica y propedéutica de educación media superior y un conjunto de módulos de formación profesional tecnológica, basada en normas de competencia con diferentes cuadros de competencias laborales.

El modelo será flexible, con entradas y salidas laterales, con un diseño de módulos específicos elaborados con las normas de competencia laboral evaluadas por expertos del sector de biotecnología.

38 19

Un poco de filosofía. La información implica la utilización de un código –si no hay codificación no hay información. Argumentaré que los seres vivos son esencialmente máquinas informáticas. ¿Por qué? Pues los seres vivos, viéndolos de manera muy sintética, están formados de dos sistemas interdependientes: el genético –que contiene y perpetúa la información, y el metabólico/estructural –que se ocupa de capturar materia y energía del medioambiente así como de operar el sistema genético de información. Es el clásico caso del huevo y la gallina, en el cual podemos ver a la gallina como el sistema perpetuador del huevo o viceversa, sin que podamos decidir cuál fue primero.

Pero, ¿existe información fuera de los sistemas vivos? Mi respuesta es un rotundo NO, considerando que los sistemas informáticos creados por el hombre son un subproducto de su cultura y por tanto dependientes de un sistema viviente ¿Qué serían las computadoras sin nosotros? Sim-plemente no serían.

Afirmo que fuera de los sistemas vivos no existe información. Estudiemos cualquier fenómeno natural que no involucre seres vivos; por ejemplo, la erupción de un volcán. El volcán erupciona en un determinado momento por las presiones del magma sobre la corteza terrestre; no existe, en ningún punto, una transmisión de información. Las Leyes de la Naturaleza simplemente son, existen y persisten inalteradas desde la gran explosión (Big bang). La Física, Química y demás Ciencias Naturales las estudian; la Biología, por otro lado, es muy particular a este respecto: Todo lo que estudia está relacionado con la información genética y, directa o indirectamente, con el código genético.

REPLICACIÓN Y OPERACIÓN DEL ADNEste código no es una ley natural per se; se generó con un cierto componente aleatorio en los orígenes de la vida, y dicho

componente aleatorio persiste hasta nuestros días con algunas variaciones (código genético nuclear, mitocondrial, etcétera). La molécula que transmite la información biológica es el Ácido Desoxiribo-Nucleíco (ADN); la secuencia de bases (A, T, G o C) a lo largo de esta molécula determina qué proteínas serán sintetizadas en la célula y, por su parte, las proteínas operan el sistema metabólico/estructural de los seres vivos, incluyendo la replicación y operación del ADN mismo.

¿Qué fue primero, el ADN o las proteínas? La respuesta parece ser ninguna de las dos moléculas, sino el Ácido Ribo-Nucleico (ARN); la molécula que sirve como intermediaria y operadora de la información biológica, interviniendo en la trascripción de la información al llevar a cabo dos papeles vitales: La copia de la información presente en el ADN (ARN mensajero) y el reconocimiento del código genético (ARN de transferencia). Los genes son segmentos de ADN que contienen la información para formar una proteína. Un gene está constituido no solamente por el segmento que codifica a la proteína, sino también por señales que le indican a la célula cuándo y cuánto se debe transcribir; es decir, los genes tienen control de prendido/apagado y “volumen”.

Esto es, qué tanto se deben transcribir; qué tanta proteína se debe sintetizar en

un momento particular del desarrollo y un tipo específico de célula. El desarrollo y diferenciación de un embrión a partir de una sola célula indiferenciada es un concierto enormemente complicado de genes que se prenden, se apagan o cambian de “volumen” de trascripción, diferenciando a las células para formar tejidos y órganos, lo que finalmente resulta en un individuo extraordinariamente complejo. La clave: La información presente en el ADN. Esta visión de la vida tal vez parezca demasiado reduccionista y mecanicista, pero notemos que no se niega que para la completa comprensión del fenómeno de la vida es necesario comprender las propiedades

Doctor Octavio Martínez de la VegaCINVESTAV Irapuato

de doble ciclo: “Profesional Asociado en Biotecnología Genómica” y “Licenciado en Biotecnología Genómica”, las cuales comprenderán la generación y uso de la información del ADN de los organismos para el desarrollo de biotecnología. El entorno geográfico, desarrollo industrial y socio-económico de nuestro estado nos coloca ante la gran oportunidad de generar profesionales capaces de transformar las capacidades del análisis profundo de la secuencia nucleotídica de los organismos para generación de tecnologías más sólidas, social y económicamente más rentables y ecológicamente más seguras.

En este sentido, la Universidad Autóno-ma de Nuevo León cuenta con alrededor de medio centenar de profesores con grado de doctor y otro tanto de Maestros en Ciencias, especialistas en las distintas áreas del conocimiento de la biología molecular e ingeniería genética de microorganismos, bioquímica, genética, medicina humana, veterinaria, ciencias agrícolas, ecología y biotecnología, y más de una decena de laboratorios y talleres altamente equipados con infraestructura y tecnologías afines al área genómica (genética, bioquímica, biología molecular

biotecnología y cómputo). Aunado a ello, nuestro estado cuenta con instituciones de investigación y desarrollo dentro del sector salud (IMSS) y agropecuario (INIFAP), con las cuales nuestra universidad mantiene una estrecha colaboración científico-académica. Este tipo de colaboración será otro factor importante para el adecuado desarrollo profesional de los alumnos de la carrera en biotecnología genómica.

El personal docente que estará adscrito a este programa cuenta con amplia experiencia en la formación de recursos humanos a nivel de licenciatura, maestría y doctorado, lo cual garantiza una formación académica integral de los alumnos inscritos en el mismo. Nuestro programa está dividido en dos ciclos: durante el primer período, los alumnos recibirán una instrucción básica para desempeñarse como técnico profesional en laboratorios de desarrollo de procesos biotecnológicos y diagnóstico molecular de enfermedades hereditarias e infecciosas.

En la segunda parte, el alumno recibirá una formación académico-científica para abordar y resolver problemas en su campo.

OBJETIVO DE LA CARRERAPrimer ciclo: Formar profesionales asociados capaces de servir como soporte de equipos interdisciplinarios para el desarrollo de procesos biotecnológicos en los sectores de salud, agroalimentario, industrial y ambiental.

Segundo ciclo: Formar profesionales competentes, innovadores y emprendedores, capaces de aplicar las ciencias genómicas, proteómicas y de bioinformática para contribuir al desarrollo de los sectores de salud, agroalimentario, industrial y ambiental.

Fue así como las carreras de Profesio-nal Asociado en Biotecnología Genómica y de Licenciado en Biotecnología Genómica fueron aprobadas por el Honorable Consejo Universitario a partir del semestre que inició en agosto de 2004 y cuyo grado será otorgado a través de la Facultad de Ciencias Biológicas. Ambas carreras forman profesionis-tas competentes, innovadores y emprendedores que aplican las ciencias genómicas, proteómicas y de bioinformática en los sectores de salud, agroalimentario, industrial y ambiental.

Los egresados de estas carreras están capacitados para utilizar las ciencias básicas y aplicadas en la solución de problemas en las áreas de salud, tecnología y ambiente; pueden administrar procesos productivos, generar nuevos productos y tendrán un amplio sentido humanista y compromiso con las necesidades, eficiencia y productividad de México.

20 37

emergentes de estos sistemas así como su interacción con el medio ambiente: simplemente sintetizo un problema muy complejo.

¿QUÉ ES LA BIOINFORMÁTICA?La Biología, la Computación y la Informática se unen para formar una sola disciplina: la Bioinformática, que algunas veces es llamada también Biología Computacional, cuando se trata de analizar los datos acumulados. La materia de estudio; es decir, los datos que estudia la Bioinformática son secuencias de ADN y aminoácidos (proteínas). Sobre dichas secuencias hay mucho que decir, pues son los ladrillos con los que están construidos los seres vivos.

Las técnicas de secuenciación masiva de ADN han avanzado enormemente en los últimos años, y como resultado de ello se tienen actualmente más de 32 millones de secuencias de ADN que contienen más de 38 mil millones de bases (A, T, G y C) depositadas en el banco de datos de genes (GenBank, ver referencia) y disponibles para ser revisadas por cualquier persona. Para darnos una idea del número de caracteres depositados, éstos serían suficientes para escribir más de cuatro millones de artículos como éste. Entre las secuencias depositadas se encuentran los genomas completos del ser humano, del ratón, del arroz y de un sinnúmero de bacterias y otros bichos. ¿Por qué coleccionar estas secuencias?

UTILIDAD DE LA BIOINFORMÁTICASi un radiotécnico quiere reparar un televisor, necesita tener el diagrama de los circuitos que lo componen. Necesita esta información para entender cómo funciona el aparato y poder repararlo. Hasta cierto punto con los seres vivos es el mismo caso: Si queremos entender cómo funcionan y modificarlos necesitamos su plano maestro; es decir su genoma, constituido por toda la información presente en sus moléculas de ADN. De momento tenemos ya la información de genomas completos y podemos, con muchas más herramientas que hace tres décadas, ponernos a descifrar cómo funcionan los seres vivos. Conocemos al momento, con certeza, el código que indica qué aminoácido va en determinada posición de una proteína; este código es una simple tabla que relaciona tripletes de bases de ADN con cada uno de los aminoácidos. La parte del código sobre la cual tenemos mucho menos certidumbre se refiere a las señales que indican cuándo y cuánto se va a transcribir un gene: Las señales de prendido, apagado y “volumen” de los genes.

Esto es tremendamente importante para nuestra vida diaria; por ejemplo, la mayoría de los tipos de cáncer que aquejan a los humanos son descomposturas en las señales informáticas (genéticas) que les indican a las células cuándo y cuánto reproducirse. Si estas señales se “descomponen” las células se reproducen indiscriminadamente, produciendo un tumor que puede ser maligno.

SELECCIÓN ARTIFICIALEn otro contexto, la cantidad y calidad de alimentos que producen los seres vivos está gobernada, en última instancia, por sus genes. La domesticación de especies animales y vegetales en nuestro beneficio ha procedido por selección artificial, sin entender bien a bien el funcionamiento de los

organismos; simplemente se toman los mejores individuos (los más productivos o resistentes) como padres de la siguiente generación. Éste es un proceso que toma muchas generaciones para producir resultados. ¿Qué pasaría si pudiéramos hacerlo de un solo golpe; por ejemplo, modificando la información de los genes del maíz para que la planta crezca mejor en suelos pobres?

En general, cuanto mejor comprendemos un sistema, más rápida y eficientemente podemos modificarlo, y la Bioinformática se ocupa de almacenar, analizar e interpretar la enorme cantidad de resultados que estamos obteniendo en forma de secuencias de ADN. Mencionaré algunas de las tareas que realizo como bioinformático: Identificación de secuencias. Cuando se obtiene una secuencia de ADN de algún organismo necesitamos saber qué gene representa; esto lo hacemos encontrando secuencias parecidas en las bases de datos por

medio del programa BLAST. Anotación de secuencias. (Para obtener conocimiento científico a partir de una secuencia, es necesario saber qué funciones desempeña en la célula, en qué parte de ésta se encuentra y a qué procesos moleculares está asociada); a esto se le llama anotación funcional.

Armado de genomas. Cuando se quiere conocer el genoma de un organismo; por ejemplo de una bacteria, se obtienen millones de pequeñas partes de su genoma, de alrededor de 700 pares de bases. Es necesario entonces armar o ensamblar el genoma, lo cual consiste en solucionar un enorme rompecabezas cuyas piezas son los pequeños fragmentos de ADN y que podemos armar encontrando cuáles segmentos se sobrelapan entre sí.

¿QUIERES SABER MÁS? He tratado de dar una muy sucinta introducción al campo del análisis de secuencias de ADN y proteínas; si estás interesado(a) en conocer más de este campo, posiblemente el mejor lugar para comenzar sea el sitio en la red del Centro Nacional para la Información Biotecnológica o National Center for Biotechnology Information (NCBI) de los Estados Unidos: www.ncbi.nlm.nih.gov/. En este sitio encontrarás una enorme cantidad de información sobre Bioinformática y áreas afines; en particular en la liga www.ncbi.nlm.nih.gov/About/primer puedes acceder a una introducción comprensible de estos tópicos.

Comentarios: [email protected]

contó con la asesoría de miembros de Instituciones externas, como el Instituto Mexicano del Seguro Social (IMSS) y del Instituto Nacional de Investigación Forestal y Agropecuarias (INIFAP). Los integrantes de este grupo poseen experiencia complementaria en diferentes aspectos de relevancia para las ciencias genómicas, y llevaron a cabo las siguientes actividades:

I.- Consulta de opinión con investigadores expertos en biología, medicina, biología molecular, bioquímica, genética, biotecnología industrial, biotecnología vegetal, biotecnología ambiental y biotecnología animal. Asimismo se contó con la participación de pedagogos especialistas en diseño curricular y pedagogía.

II.- Acopio y análisis de información de programas similares que inician actividades en otras partes de México y del mundo.

III.- Reuniones de subgrupos de trabajo por área de experiencia para la integración primaria de los planes de estudio.

IV.- Realización de un total de 20 reuniones del grupo (alrededor de 90 horas) para lograr la articulación entre las diferentes áreas de experiencia y redacción final de la propuesta.

Estas actividades se realizaron entre julio y noviembre de 2003. Para la elaboración del proyecto se consideró la Ley Orgánica y el Reglamento General de la UANL y demás reglamentos y disposiciones vigentes en la UANL.

FUNDAMENTACIÓNEl enorme cúmulo de información de la secuencia nucleotídica del genoma de diversos organismos generado en la última década, ha provocado una verdadera revolución de conceptos

y retos en todas las áreas de las ciencias naturales. Estos nuevos descubrimientos se iniciaron a fines del siglo XX, específicamente en 1995, con la publicación de la secuencia nucleotídica del genoma de la bacteria Haemophilus influenzae. Hoy en día, después de casi una década de intenso trabajo multidisciplinario entre la biología, bioinformática y matemáticas, conocemos la secuencia del genoma de más de 20 organismos eucariotas, incluyendo el humano (Homo sapiens), el protozoario responsable de la malaria (Plasmodium falsiparum), mosquitos vectores de enfermedades (Anopheles gambiae), levaduras productoras de cerveza y vino (Saccharomyces cerevisiae), la mosca de la fruta (Drosophila melanogaster), el ratón (Mus musculus), plantas como el maíz (Zea mayz), el arroz (Oryza sativa )y más de 80 bacterias, tanto patógenas como benéficas para el humano, plantas y animales.

IMPACTO EN LA BIOTECNOLOGÍA TRADICIONALEsta información ha abierto la oportunidad de incrementar el conocimiento sobre el papel de cientos de genes involucrados en procesos patológicos, no sólo en el humano y en especies de importancia agropecuaria y forestal, sino también en la detección oportuna de patógenos en alimentos de origen vegetal y animal. Asimismo, su impacto en la biotecnología tradicional y del ADN recombinante es una enorme veta que está a la vista para el inicio del presente siglo y abre la oportunidad de nuevas tecnologías para el adecuado tratamiento de enfermedades y mejoramiento en la calidad y cantidad de alimentos más seguros.

Nuestra institución, sensible a estos cambios y acorde con sus principios fundamentales de la generación, preservación y difusión del conocimiento, así como al amparo de su marco de referencia de desarrollo plasmado en la Visión UANL 2006 y Educación para la Vida, decidió, en función de su enorme potencial distribuido en las distintas Facultades del área biológica, afrontar el enorme reto de formar la carrera

36 21

Mary Pat Moyer. Tiene un doctorado en Microbiología, con énfasis en virología, de la Universidad de Texas en Austin. Estudió Biología en la Universidad de Florida Atlántica.

Moyer es reconocida en el campo científico y biomédico, además de ser considerada como una líder en el negocio de la tecnología. En 1993 fundó la compañía de Innovación en Ciencias de la Vida, INCELL Corporation, luego de contar con más de 20 años de experiencia como científica académica, como directora del Centro para Biotecnología Celular Humana y profesora en el Centro de Ciencias de la Salud de la Universidad de Texas, en San Antonio.

Actualmente dirige la compañía INCELL y es fundadora y presidenta de la Asociación San Antonio Austin para las Ciencias de la Vida.

Ha publicado más de 200 trabajos científicos y es co autora del libro de texto Colon Cancer Cells. También ha recibido importantes reconocimientos por diversos logros alcanzados a lo largo de su carrera.

Existe un considerable interés en el desarrollo de vacunas diseñadas para operar en el área de terapia humana. La necesidad urgente de establecer pruebas clínicas aceptables ha restringido la investigación

básica al establecimiento de métodos selectivos y escalables para la recuperación de candidatos de vacunas que puedan ser eficientemente integrados a esquemas de producción para obtener productos en un estado adecuado para validación, formulación y presentación final.

Centro de Biotecnología / Tecnológico de MonterreyDoctor Marco Rito-Palomares

PROFESIONALIZACIÓN DE LA CIENCIA GENÓMICAEstamos viviendo una época de grandes e innovadores descubrimientos sobre lo que representa, quizás, el patrimonio más importante de la naturaleza y del ser humano: el genoma de las especies. El conocimiento y análisis de la totalidad de la secuencia nucleotídica del material genético de un organismo, representa lo que se ha denominado ciencias genómicas.

Los descubrimientos realizados por di-cha disciplina están generando un nuevo paradigma de las ciencias naturales, que, al madurar, impulsarán el desarrollo de nuevas tecnologías en todos los ámbitos del quehacer humano, principalmente en la medicina, industria, agricultura, ganadería y, en general, alimentación, por mencionar algunas áreas.

Las ciencias genómicas se encuentran en los límites de ciencias básicas como la genética, bioquímica, biofísica, biología molecular, ciencias computacionales e informática y fisiología. Desde el punto de vista de la evolución del conocimiento, las ciencias genómicas han cimentado las bases para la transcriptómica proteómica; esto es, el conocimiento de los productos de esos genes a nivel de RNA y proteínas, respectivamente, y, finalmente, la Biología de Sistemas que representa el conocimiento del funcionamiento global de la célula. Por otra parte, las ciencias computacionales e informática (bioinformática) contenderán con el reto de definir, ordenar, manejar y descifrar la información de las secuencias genómicas, para analizar, comprender y plantear preguntas relevantes para las ciencias biológicas.

El impacto de las ciencias genómicas será de tal magnitud, que ninguna de las disciplinas o ramas de las ciencias naturales podrá estar exenta de su influencia. Por ejemplo, la elaboración de los perfiles de RNAs y Proteínas, resultantes de la expresión de los genomas bajo distintas condiciones, permitirá conocer, de manera integrada, la fisiología, lo cual impactará en nuestra capacidad para hacer la ingeniería de vías metabólicas. La comparación de la expresión genética entre estados normales y patológicos representa un importante avance en las ciencias de la

salud, lo cual incidirá en la comprensión, diagnóstico y posible terapéutica.

GENERACIÓN DE NUEVAS BIOTECNOLOGÍASPor otra parte, las ciencias genómicas podrán incidir, de manera directa, en el estudio de la biodiversidad desde microorganismos hasta plantas y animales. Sin embargo, una de las aplicaciones muy importantes será concentrada en la generación de nuevas biotecnologías a nivel industrial, por el manejo adecuado de los microorganismos útiles al humano. Igualmente, en la elaboración no sólo de metabolitos importantes en salud y terapéutica, como vacunas, anticuerpos, hormonas, inmunomoduladores y antibióticos, sino también en suplementos alimenticios como aminoácidos, vitaminas y proteínas, así como en procesos tales como la elaboración de bebidas y la biorremediación de suelos y cuerpos de agua. No menos importantes son también las implicaciones éticas, legales y sociales que emanarán de estos nuevos conocimientos y de su aplicación

La implementación de un programa académico que englobe todas las ciencias y disciplinas involucradas en la aplicación de las ciencias genómicas, demanda la adquisición de conocimientos, habilidades y destrezas

en biología, genética, bioquímica, ecología, matemáticas y bioinformática, que desgraciadamente, están ausentes de los planes de estudio de licenciatura del área biológica que se ofrecen actualmente en nuestro país.

Esta propuesta obedece a la necesidad de formar nuevos profesionales en el área biológica, que responden a los grandes retos de las fronteras de la biología en el nuevo milenio. Para cumplir con la tarea del diseño y elaboración de la propuesta de la nueva carrera, se instauró un grupo de trabajo integrado por dieciséis profesores provenientes de las siguientes facultades: Ciencias Biológicas, Ciencias Químicas, Agronomía, Medicina, Medicina Veterinaria y Zootecnia y de la Secretaría Académica, todas pertenecientes a la UANL.

INICIOS DE LA BIOTECNOLOGÍA GENÓMICADebe destacarse que la era de la Biotecnología Genómica fue inaugurada en México precisamente un par de los profesores que participaron en esta tarea: el profesor Hugo A. Barrera Saldaña y la doctora Diana Reséndez Pérez, cuando crearon en 1999 el Centro de Biotecnología Genómica, por lo que su visión y experiencia nos fue de enorme valor. También es de destacarse que se

20 37

emergentes de estos sistemas así como su interacción con el medio ambiente: simplemente sintetizo un problema muy complejo.

¿QUÉ ES LA BIOINFORMÁTICA?La Biología, la Computación y la Informática se unen para formar una sola disciplina: la Bioinformática, que algunas veces es llamada también Biología Computacional, cuando se trata de analizar los datos acumulados. La materia de estudio; es decir, los datos que estudia la Bioinformática son secuencias de ADN y aminoácidos (proteínas). Sobre dichas secuencias hay mucho que decir, pues son los ladrillos con los que están construidos los seres vivos.

Las técnicas de secuenciación masiva de ADN han avanzado enormemente en los últimos años, y como resultado de ello se tienen actualmente más de 32 millones de secuencias de ADN que contienen más de 38 mil millones de bases (A, T, G y C) depositadas en el banco de datos de genes (GenBank, ver referencia) y disponibles para ser revisadas por cualquier persona. Para darnos una idea del número de caracteres depositados, éstos serían suficientes para escribir más de cuatro millones de artículos como éste. Entre las secuencias depositadas se encuentran los genomas completos del ser humano, del ratón, del arroz y de un sinnúmero de bacterias y otros bichos. ¿Por qué coleccionar estas secuencias?

UTILIDAD DE LA BIOINFORMÁTICASi un radiotécnico quiere reparar un televisor, necesita tener el diagrama de los circuitos que lo componen. Necesita esta información para entender cómo funciona el aparato y poder repararlo. Hasta cierto punto con los seres vivos es el mismo caso: Si queremos entender cómo funcionan y modificarlos necesitamos su plano maestro; es decir su genoma, constituido por toda la información presente en sus moléculas de ADN. De momento tenemos ya la información de genomas completos y podemos, con muchas más herramientas que hace tres décadas, ponernos a descifrar cómo funcionan los seres vivos. Conocemos al momento, con certeza, el código que indica qué aminoácido va en determinada posición de una proteína; este código es una simple tabla que relaciona tripletes de bases de ADN con cada uno de los aminoácidos. La parte del código sobre la cual tenemos mucho menos certidumbre se refiere a las señales que indican cuándo y cuánto se va a transcribir un gene: Las señales de prendido, apagado y “volumen” de los genes.

Esto es tremendamente importante para nuestra vida diaria; por ejemplo, la mayoría de los tipos de cáncer que aquejan a los humanos son descomposturas en las señales informáticas (genéticas) que les indican a las células cuándo y cuánto reproducirse. Si estas señales se “descomponen” las células se reproducen indiscriminadamente, produciendo un tumor que puede ser maligno.

SELECCIÓN ARTIFICIALEn otro contexto, la cantidad y calidad de alimentos que producen los seres vivos está gobernada, en última instancia, por sus genes. La domesticación de especies animales y vegetales en nuestro beneficio ha procedido por selección artificial, sin entender bien a bien el funcionamiento de los

organismos; simplemente se toman los mejores individuos (los más productivos o resistentes) como padres de la siguiente generación. Éste es un proceso que toma muchas generaciones para producir resultados. ¿Qué pasaría si pudiéramos hacerlo de un solo golpe; por ejemplo, modificando la información de los genes del maíz para que la planta crezca mejor en suelos pobres?

En general, cuanto mejor comprendemos un sistema, más rápida y eficientemente podemos modificarlo, y la Bioinformática se ocupa de almacenar, analizar e interpretar la enorme cantidad de resultados que estamos obteniendo en forma de secuencias de ADN. Mencionaré algunas de las tareas que realizo como bioinformático: Identificación de secuencias. Cuando se obtiene una secuencia de ADN de algún organismo necesitamos saber qué gene representa; esto lo hacemos encontrando secuencias parecidas en las bases de datos por

medio del programa BLAST. Anotación de secuencias. (Para obtener conocimiento científico a partir de una secuencia, es necesario saber qué funciones desempeña en la célula, en qué parte de ésta se encuentra y a qué procesos moleculares está asociada); a esto se le llama anotación funcional.

Armado de genomas. Cuando se quiere conocer el genoma de un organismo; por ejemplo de una bacteria, se obtienen millones de pequeñas partes de su genoma, de alrededor de 700 pares de bases. Es necesario entonces armar o ensamblar el genoma, lo cual consiste en solucionar un enorme rompecabezas cuyas piezas son los pequeños fragmentos de ADN y que podemos armar encontrando cuáles segmentos se sobrelapan entre sí.

¿QUIERES SABER MÁS? He tratado de dar una muy sucinta introducción al campo del análisis de secuencias de ADN y proteínas; si estás interesado(a) en conocer más de este campo, posiblemente el mejor lugar para comenzar sea el sitio en la red del Centro Nacional para la Información Biotecnológica o National Center for Biotechnology Information (NCBI) de los Estados Unidos: www.ncbi.nlm.nih.gov/. En este sitio encontrarás una enorme cantidad de información sobre Bioinformática y áreas afines; en particular en la liga www.ncbi.nlm.nih.gov/About/primer puedes acceder a una introducción comprensible de estos tópicos.

Comentarios: [email protected]

contó con la asesoría de miembros de Instituciones externas, como el Instituto Mexicano del Seguro Social (IMSS) y del Instituto Nacional de Investigación Forestal y Agropecuarias (INIFAP). Los integrantes de este grupo poseen experiencia complementaria en diferentes aspectos de relevancia para las ciencias genómicas, y llevaron a cabo las siguientes actividades:

I.- Consulta de opinión con investigadores expertos en biología, medicina, biología molecular, bioquímica, genética, biotecnología industrial, biotecnología vegetal, biotecnología ambiental y biotecnología animal. Asimismo se contó con la participación de pedagogos especialistas en diseño curricular y pedagogía.

II.- Acopio y análisis de información de programas similares que inician actividades en otras partes de México y del mundo.

III.- Reuniones de subgrupos de trabajo por área de experiencia para la integración primaria de los planes de estudio.

IV.- Realización de un total de 20 reuniones del grupo (alrededor de 90 horas) para lograr la articulación entre las diferentes áreas de experiencia y redacción final de la propuesta.

Estas actividades se realizaron entre julio y noviembre de 2003. Para la elaboración del proyecto se consideró la Ley Orgánica y el Reglamento General de la UANL y demás reglamentos y disposiciones vigentes en la UANL.

FUNDAMENTACIÓNEl enorme cúmulo de información de la secuencia nucleotídica del genoma de diversos organismos generado en la última década, ha provocado una verdadera revolución de conceptos

y retos en todas las áreas de las ciencias naturales. Estos nuevos descubrimientos se iniciaron a fines del siglo XX, específicamente en 1995, con la publicación de la secuencia nucleotídica del genoma de la bacteria Haemophilus influenzae. Hoy en día, después de casi una década de intenso trabajo multidisciplinario entre la biología, bioinformática y matemáticas, conocemos la secuencia del genoma de más de 20 organismos eucariotas, incluyendo el humano (Homo sapiens), el protozoario responsable de la malaria (Plasmodium falsiparum), mosquitos vectores de enfermedades (Anopheles gambiae), levaduras productoras de cerveza y vino (Saccharomyces cerevisiae), la mosca de la fruta (Drosophila melanogaster), el ratón (Mus musculus), plantas como el maíz (Zea mayz), el arroz (Oryza sativa )y más de 80 bacterias, tanto patógenas como benéficas para el humano, plantas y animales.

IMPACTO EN LA BIOTECNOLOGÍA TRADICIONALEsta información ha abierto la oportunidad de incrementar el conocimiento sobre el papel de cientos de genes involucrados en procesos patológicos, no sólo en el humano y en especies de importancia agropecuaria y forestal, sino también en la detección oportuna de patógenos en alimentos de origen vegetal y animal. Asimismo, su impacto en la biotecnología tradicional y del ADN recombinante es una enorme veta que está a la vista para el inicio del presente siglo y abre la oportunidad de nuevas tecnologías para el adecuado tratamiento de enfermedades y mejoramiento en la calidad y cantidad de alimentos más seguros.

Nuestra institución, sensible a estos cambios y acorde con sus principios fundamentales de la generación, preservación y difusión del conocimiento, así como al amparo de su marco de referencia de desarrollo plasmado en la Visión UANL 2006 y Educación para la Vida, decidió, en función de su enorme potencial distribuido en las distintas Facultades del área biológica, afrontar el enorme reto de formar la carrera

36 21

Mary Pat Moyer. Tiene un doctorado en Microbiología, con énfasis en virología, de la Universidad de Texas en Austin. Estudió Biología en la Universidad de Florida Atlántica.

Moyer es reconocida en el campo científico y biomédico, además de ser considerada como una líder en el negocio de la tecnología. En 1993 fundó la compañía de Innovación en Ciencias de la Vida, INCELL Corporation, luego de contar con más de 20 años de experiencia como científica académica, como directora del Centro para Biotecnología Celular Humana y profesora en el Centro de Ciencias de la Salud de la Universidad de Texas, en San Antonio.

Actualmente dirige la compañía INCELL y es fundadora y presidenta de la Asociación San Antonio Austin para las Ciencias de la Vida.

Ha publicado más de 200 trabajos científicos y es co autora del libro de texto Colon Cancer Cells. También ha recibido importantes reconocimientos por diversos logros alcanzados a lo largo de su carrera.

Existe un considerable interés en el desarrollo de vacunas diseñadas para operar en el área de terapia humana. La necesidad urgente de establecer pruebas clínicas aceptables ha restringido la investigación

básica al establecimiento de métodos selectivos y escalables para la recuperación de candidatos de vacunas que puedan ser eficientemente integrados a esquemas de producción para obtener productos en un estado adecuado para validación, formulación y presentación final.

Centro de Biotecnología / Tecnológico de MonterreyDoctor Marco Rito-Palomares

PROFESIONALIZACIÓN DE LA CIENCIA GENÓMICAEstamos viviendo una época de grandes e innovadores descubrimientos sobre lo que representa, quizás, el patrimonio más importante de la naturaleza y del ser humano: el genoma de las especies. El conocimiento y análisis de la totalidad de la secuencia nucleotídica del material genético de un organismo, representa lo que se ha denominado ciencias genómicas.

Los descubrimientos realizados por di-cha disciplina están generando un nuevo paradigma de las ciencias naturales, que, al madurar, impulsarán el desarrollo de nuevas tecnologías en todos los ámbitos del quehacer humano, principalmente en la medicina, industria, agricultura, ganadería y, en general, alimentación, por mencionar algunas áreas.

Las ciencias genómicas se encuentran en los límites de ciencias básicas como la genética, bioquímica, biofísica, biología molecular, ciencias computacionales e informática y fisiología. Desde el punto de vista de la evolución del conocimiento, las ciencias genómicas han cimentado las bases para la transcriptómica proteómica; esto es, el conocimiento de los productos de esos genes a nivel de RNA y proteínas, respectivamente, y, finalmente, la Biología de Sistemas que representa el conocimiento del funcionamiento global de la célula. Por otra parte, las ciencias computacionales e informática (bioinformática) contenderán con el reto de definir, ordenar, manejar y descifrar la información de las secuencias genómicas, para analizar, comprender y plantear preguntas relevantes para las ciencias biológicas.

El impacto de las ciencias genómicas será de tal magnitud, que ninguna de las disciplinas o ramas de las ciencias naturales podrá estar exenta de su influencia. Por ejemplo, la elaboración de los perfiles de RNAs y Proteínas, resultantes de la expresión de los genomas bajo distintas condiciones, permitirá conocer, de manera integrada, la fisiología, lo cual impactará en nuestra capacidad para hacer la ingeniería de vías metabólicas. La comparación de la expresión genética entre estados normales y patológicos representa un importante avance en las ciencias de la

salud, lo cual incidirá en la comprensión, diagnóstico y posible terapéutica.

GENERACIÓN DE NUEVAS BIOTECNOLOGÍASPor otra parte, las ciencias genómicas podrán incidir, de manera directa, en el estudio de la biodiversidad desde microorganismos hasta plantas y animales. Sin embargo, una de las aplicaciones muy importantes será concentrada en la generación de nuevas biotecnologías a nivel industrial, por el manejo adecuado de los microorganismos útiles al humano. Igualmente, en la elaboración no sólo de metabolitos importantes en salud y terapéutica, como vacunas, anticuerpos, hormonas, inmunomoduladores y antibióticos, sino también en suplementos alimenticios como aminoácidos, vitaminas y proteínas, así como en procesos tales como la elaboración de bebidas y la biorremediación de suelos y cuerpos de agua. No menos importantes son también las implicaciones éticas, legales y sociales que emanarán de estos nuevos conocimientos y de su aplicación

La implementación de un programa académico que englobe todas las ciencias y disciplinas involucradas en la aplicación de las ciencias genómicas, demanda la adquisición de conocimientos, habilidades y destrezas

en biología, genética, bioquímica, ecología, matemáticas y bioinformática, que desgraciadamente, están ausentes de los planes de estudio de licenciatura del área biológica que se ofrecen actualmente en nuestro país.

Esta propuesta obedece a la necesidad de formar nuevos profesionales en el área biológica, que responden a los grandes retos de las fronteras de la biología en el nuevo milenio. Para cumplir con la tarea del diseño y elaboración de la propuesta de la nueva carrera, se instauró un grupo de trabajo integrado por dieciséis profesores provenientes de las siguientes facultades: Ciencias Biológicas, Ciencias Químicas, Agronomía, Medicina, Medicina Veterinaria y Zootecnia y de la Secretaría Académica, todas pertenecientes a la UANL.

INICIOS DE LA BIOTECNOLOGÍA GENÓMICADebe destacarse que la era de la Biotecnología Genómica fue inaugurada en México precisamente un par de los profesores que participaron en esta tarea: el profesor Hugo A. Barrera Saldaña y la doctora Diana Reséndez Pérez, cuando crearon en 1999 el Centro de Biotecnología Genómica, por lo que su visión y experiencia nos fue de enorme valor. También es de destacarse que se

22 35

Para el desarrollo de procesos biotecnológicos eficientes y escalables que permitan obtención de productos biológicos tales como vacunas, han sido propuestos y utilizados distintos sistemas de expresión. De estos sistemas de expresión, destacan las bacterias (la más utilizada es E. Coli), levaduras, células de insectos, células animales y vegetales. La selección del sistema de expresión se basa en diversos factores, tales como la productividad del proceso resultante, la estabilidad y presentación del producto y la complejidad del sistema de recuperación y purificación. En el caso particular de plantas, se puede seleccionar el sitio específico de la planta (raíz, fruto, semilla, tallo, etcétera) donde se desea expresar la potencial vacuna. En el caso particular de las vacunas formadas por proteínas estructurales, la producción y purificación de estos productos a nivel comercial no es algo trivial.

En particular, la recuperación y purificación de vacunas o candidatos de vacunas representan la etapa de proceso más crítica y que poca atención ha recibido. Existe poca información sobre los esquemas de recuperación

sugeridos para este tipo de procesos. Lo anterior resulta en una enorme limitante en el desarrollo de bioprocesos, debido a que esta etapa es la más costosa de todo proceso biotecnológico y define la viabilidad económica. Con la finalidad de ilustrar los retos desde el punto de vista de ingeniería de bioprocesos involucrados en el desarrollo de un proceso para la producción y particularmente la recuperación de vacunas, en este artículo se discutirán dos casos ilustrativos: los procesos para la obtención de una vacuna potencial (i) para el cáncer cérvico uterino utilizando la bacteria E. Coli como sistema de expresión [1] y (ii) contra el rotavirus, utilizando células de insecto como sistema de expresión [2].

VACUNA CONTRA EL VIRUS DEL PAPILOMA HUMANOEl primer caso involucra la producción de una vacuna en contra del virus del papiloma humano tipo 16. Este caso resulta interesante ya que la presencia de este virus se ha asociado con el desarrollo del cáncer cérvico uterino. Anualmente, más de medio millón de casos de este tipo de cáncer son reportados mundialmente [1]. Para el

desarrollo de esta vacuna se utilizan las llamadas partículas pseudo-virales, las cuales están compuestas de las proteínas estructurales del virus, pero sin su material genético. Se producen a partir de las proteínas estructurales expresadas en sistemas recombinantes. En el caso particular de la vacuna contra el virus del papiloma humano, se propone la producción de la proteína estructural del virus denominada L1, que se encuentra en mayor proporción.

El proceso de producción en sistemas de fermentación se encuentra establecido. Sin embargo, el proceso de recuperación y purificación típicamente utilizado involucra numerosas etapas de proceso, de las cuales destacan: ruptura mecánica, fraccionamiento, lavado, centrifugación, disolución y purificación utilizando etapas cromatográficas. Como consecuencia, se obtiene un proceso que resulta prohibitivo para llevarse a nivel comercial o bien para generar cantidades suficientes para pruebas clínicas, principalmente por cuestiones de bajo rendimiento y altos costos de inversión y operación. En este contexto, el uso de estrategias de integración de procesos utilizando técnicas novedosas como extracción líquido-líquido con fases acuosas y el uso de lecho fluidizado [3], resulta en procesos compactos y fácil de implementar a escalas comerciales.

VACUNA CONTRA EL ROTAVIRUS INFANTILDe manera similar, la producción de un candidato de vacuna contra el rotavirus infantil utilizando esquemas prácticos de fácil aplicación genérica, resulta interesante, debido a que más de medio millón de niños mueren anualmente víctimas de enfermedades gastroentéricas causadas por rotavirus. En este caso también se propone el uso de proteínas estructurales, en particular las proteínas VP2 y VP6 a fin de obtener partículas pseudo virales de doble capa que generen una respuesta inmune cuando se administren vía nasal. En este caso particular, la optimización del proceso de producción por fermentación de este candidato de vacuna utilizando células de insecto se encuentra en desarrollo.

Sin embargo de igual manera la recuperación y purificación de las proteínas que formarán la vacuna es una etapa que necesita optimizarse si

Uno los desafíos que enfrentamos los habitantes de este país es el de proporcionar a la población -que actualmente rebasa ya los

cien millones y se incrementará a razón de un millón de habitantes por año durante los próximos 20-, los servicios y condiciones necesarios para una vida digna, incluyendo alimentos sanos y nutritivos, medicamentos y servicios de salud.

Además, debemos estar conscientes de que vivimos en un país de gran diversidad; es decir, en una tierra delimitada por mares con gran variedad de plantas, animales y microorganismos, muchos de los cuales se originaron en México y no existen en otros sitios, por lo que el desarrollo industrial debe considerar la conservación y explotación de la biodiversidad y las características propias de nuestra cultura.

En este contexto, son fundamentales también la restauración y protección del ambiente. ¿Cuales son las disciplinas que pueden ayudarnos a enfrentar estos desafíos? La biotecnología es una de ellas, ya que está relacionada con el desarrollo de tecnologías de proceso y de producto, acordes con el ambiente en los sectores agrícola, pecuario, marino, salud, industrial, electrónico, minero y de nuevos materiales.

Doctora Yolanda Gutiérrez Puente Facultad de Ciencias Biológicas / UANL E-mail: [email protected]

Juan López de Silanes. Es licenciado en Administración de Empresas, egresado de la Universidad Iberoamericana, y maestro en el mismo campo, por el Instituto Panamericano de Alta Dirección de Empresas. Actualmente es presidente del Instituto Bioclon, y ha ocupado importantes puestos, como la presidencia de la Cámara Nacional de la Industria Farmacéutica y de la Asociación Nacional de Fabricantes de Medicamentos.

Carlos Camacho Gaos. Estudió Economía en el Instituto Tecnológico Autónomo de México, (ITAM), y en Georgetown University, en Estados Unidos; se especializó en economía regional y urbana, finanzas públicas y economía monetaria. Actualmente, es el presidente ejecutivo y director general de AgroBio México; es fundador y director general de Premium S.C. desde 2001, y de 1990 a 2000 ocupó la Subsecretaría de Pesca en la Secretaría del Medio Ambiente, Recursos Naturales y Pesca.

Rafael Gual Cosío. Es ingeniero químico. Ocupa el cargo de director ejecutivo de la Asociación Mexicana de Industrias de Investigación Farmacéutica, organismo dedicado a fortalecer la imagen de la investigación en la industria farmacéutica y difundir los avances en este campo.

23

se pretende buscar una aplicación a escala comercial. Las etapas típicas de recuperación y purificación involucran operaciones difíciles de llevar a niveles de escalamiento comercial y altamente demandantes en tiempo.

Tal es el caso de esquemas de ultracen-trifugación que aún se utilizan. Al igual que en el caso previamente descrito para la obtención de la proteína L1, la implementación de esquemas de proceso novedosos permite el estable-cimiento de sistemas de recuperación que simplifican enormemente la ma-nera tradicional como se recuperan los candidatos de vacuna y demuestran el potencial de aplicación comercial para este tipo de productos.

INVESTIGACIONES PARADESARROLLO DE VACUNASEs importante mencionar que lo anterior corresponde a dos casos comunes de la problemática que desde el punto de vista de ingeniería de bioprocesos enfrenta la producción de vacunas.

Es inevitable pensar que en la medida que se definan esquemas adecuados de producción de una manera eficiente, rápida, y atractiva económicamente, se logrará la aplicación genérica de los beneficios de las vacunas a cada vez más poblaciones.

A pesar de que resulta imposible predecir el futuro, y más aún en esta disciplina de crecimiento explosivo, es posible anticipar que la tremenda cantidad de investigaciones y proyectos que se llevan a cabo en la actualidad en el área de desarrollo de vacunas, tendrán gran impacto en la sociedad, en la cali-dad de vida de los seres humanos, en la tecnología y la industria en las próximas décadas.

Resulta inevitable considerar que los beneficios asociados al desarrollo de vacunas que nos brindará la bio-tecnología en el presente siglo, necesa-riamente provocarán un interés crecien-te de las empresas farmacéuticas y bio-tecnológicas.

El interés fundamental y reto de dichas compañías estará enfocado fuertemente en el desarrollo de procesos eficientes y escalables que les permitan sacar rápidamente al mercado nuevos produc-

tos utilizando estrategias de bioingeniería novedosas. La competencia entre las empresas por sacar al mercado nuevos productos farmacéuticos las obligará a buscar estrategias para el desarrollo de bioprocesos. La necesidad de estrategias que ayuden a reducir el tiempo de escalamiento y de transferencia de tecnología para facilitar la implementación industrial de los nuevos bioprocesos resultará cada vez más evidente.

PROCESOS BIOTECNOLÓGICOSLa industria farmacéutica demandará procesos biotecnológicos que le permitan la recuperación y purificación de productos tales como vacunas mediante el uso de tecnologías escalables y eficientes y profesionistas capaces de atender los evidentes retos de la industria biotecnológica presentes y futuros. No existe duda que el desarrollo de vacunas con esquemas adecuados de ingeniería tendrán un importante impacto sobre la calidad de vida de los seres humanos.

REFERENCIAS: [1] Rito-Palomares M and Middelberg A. Aqueous two-phase systems for the recovery of a recombinant viral coat protein from Escherichia coli. J Chem Technol. and Biotechnol. 77: 1025-1029 (2002).

[2] Benavides J, Mena J, Cisneros M, Ramirez O T, Palomares L A and Rito-Palomares M. Rotavirus like-particles primary recovery from the insect cell in aqueous two-phase systems. J Chromatography B. (2006).

[3] Rito-Palomares M, Practical application of aqueous two-phase partition to process development for the recovery of biological products. J Chromatography B, 807, 3-11 (2004)

Roberto Lagarda LagardaNació en San Bernardo, Sonora. A lo largo de su carrera profesional ha desarrollado trabajos en los campos de la docencia y la administración educativa, tanto en el sector público como en instituciones privadas. Ha ocupado importantes cargos, como la Dirección del Colegio Nacional de Educación Profesional Técnica (CONALEP). Actualmente es coordinador nacional de los Colegios de Estudios Científicos y Tecnológicos (CECyTEs).

Yoloxóchitl Bustamante Es ingeniera bioquímica egresada de la Escuela Nacional de Ciencias Biológicas, y doctora en Ciencias con especialidad en Bioquímica, grado de la misma escuela del IPN. Es diplomada en Alta Dirección de Empresas del IPADE, y en Finanzas para no Financieros del ITAM. En el IPN se desempeñó como profesora por más de 15 años, tiempo durante el cual también trabajó en investigación, principalmente en fisicoquímica de las proteasas vegetales. En el mismo instituto también trabajó en el área administrativa y a partir de 1978 laboró en el ramo industrial en la farmacéutica en empresas nacionales y extranjeras.

Brian R. ShmaefskyCuenta con varios grados de estudios; es maestro en Biología por la Universidad del sur de Illinois, doctor en Bioquímica de Plantas por la Universidad de Illinois y en Ecología y Limnología en el Laboratorio Biológico Montaña Rocosa en Colorado. Desde hace 12 años trabaja como profesor de Biología en Kingwood College.

Ana Lorena GuevaraEs fitotecnista de la Universidad de Costa Rica. Inició su carrera como investigadora en el Ministerio de Agricultura y Ganadería en la Dirección General Forestal y la Dirección de Investigaciones Agrícolas. Actualmente labora en el Instituto Nacional de Biodiversidad, donde se desempeña como funcionaria del Programa de Bioprospección y gerente del Programa de Apoyo al Desarrollo del uso de Biodiversidad por Pequeñas Empresas y Comunidades INBio-BID.

Youcef MentalechetaEs experto en la Unión Europea, miembro del Comité de Evaluación Educativa de la UNESCO y asesor internacional de evaluación de educación en varios países. A lo largo de su carrera ha desempeñado importantes cargos: Por ejemplo, de 1984 a 1995 fue secretario del Programa Intergubernamental de la UNESCO; anteriormente, de 1980 a 1983 fue consejero del ministro argelino del Plan para la Tecnología y las industrias avanzadas.

Edgar WagnerEs profesor de la Universidad de Freiburg en el Instituto de Biología II en el Departamento de Fisiología de las Plantas; en la misma institución, desde 1993 es encargado de las relaciones internacionales de estudio. Es también presidente de la Sociedad Internacional de Endocitobiología, sección alemana desde 1998.

22 35

Para el desarrollo de procesos biotecnológicos eficientes y escalables que permitan obtención de productos biológicos tales como vacunas, han sido propuestos y utilizados distintos sistemas de expresión. De estos sistemas de expresión, destacan las bacterias (la más utilizada es E. Coli), levaduras, células de insectos, células animales y vegetales. La selección del sistema de expresión se basa en diversos factores, tales como la productividad del proceso resultante, la estabilidad y presentación del producto y la complejidad del sistema de recuperación y purificación. En el caso particular de plantas, se puede seleccionar el sitio específico de la planta (raíz, fruto, semilla, tallo, etcétera) donde se desea expresar la potencial vacuna. En el caso particular de las vacunas formadas por proteínas estructurales, la producción y purificación de estos productos a nivel comercial no es algo trivial.

En particular, la recuperación y purificación de vacunas o candidatos de vacunas representan la etapa de proceso más crítica y que poca atención ha recibido. Existe poca información sobre los esquemas de recuperación

sugeridos para este tipo de procesos. Lo anterior resulta en una enorme limitante en el desarrollo de bioprocesos, debido a que esta etapa es la más costosa de todo proceso biotecnológico y define la viabilidad económica. Con la finalidad de ilustrar los retos desde el punto de vista de ingeniería de bioprocesos involucrados en el desarrollo de un proceso para la producción y particularmente la recuperación de vacunas, en este artículo se discutirán dos casos ilustrativos: los procesos para la obtención de una vacuna potencial (i) para el cáncer cérvico uterino utilizando la bacteria E. Coli como sistema de expresión [1] y (ii) contra el rotavirus, utilizando células de insecto como sistema de expresión [2].

VACUNA CONTRA EL VIRUS DEL PAPILOMA HUMANOEl primer caso involucra la producción de una vacuna en contra del virus del papiloma humano tipo 16. Este caso resulta interesante ya que la presencia de este virus se ha asociado con el desarrollo del cáncer cérvico uterino. Anualmente, más de medio millón de casos de este tipo de cáncer son reportados mundialmente [1]. Para el

desarrollo de esta vacuna se utilizan las llamadas partículas pseudo-virales, las cuales están compuestas de las proteínas estructurales del virus, pero sin su material genético. Se producen a partir de las proteínas estructurales expresadas en sistemas recombinantes. En el caso particular de la vacuna contra el virus del papiloma humano, se propone la producción de la proteína estructural del virus denominada L1, que se encuentra en mayor proporción.

El proceso de producción en sistemas de fermentación se encuentra establecido. Sin embargo, el proceso de recuperación y purificación típicamente utilizado involucra numerosas etapas de proceso, de las cuales destacan: ruptura mecánica, fraccionamiento, lavado, centrifugación, disolución y purificación utilizando etapas cromatográficas. Como consecuencia, se obtiene un proceso que resulta prohibitivo para llevarse a nivel comercial o bien para generar cantidades suficientes para pruebas clínicas, principalmente por cuestiones de bajo rendimiento y altos costos de inversión y operación. En este contexto, el uso de estrategias de integración de procesos utilizando técnicas novedosas como extracción líquido-líquido con fases acuosas y el uso de lecho fluidizado [3], resulta en procesos compactos y fácil de implementar a escalas comerciales.

VACUNA CONTRA EL ROTAVIRUS INFANTILDe manera similar, la producción de un candidato de vacuna contra el rotavirus infantil utilizando esquemas prácticos de fácil aplicación genérica, resulta interesante, debido a que más de medio millón de niños mueren anualmente víctimas de enfermedades gastroentéricas causadas por rotavirus. En este caso también se propone el uso de proteínas estructurales, en particular las proteínas VP2 y VP6 a fin de obtener partículas pseudo virales de doble capa que generen una respuesta inmune cuando se administren vía nasal. En este caso particular, la optimización del proceso de producción por fermentación de este candidato de vacuna utilizando células de insecto se encuentra en desarrollo.

Sin embargo de igual manera la recuperación y purificación de las proteínas que formarán la vacuna es una etapa que necesita optimizarse si

Uno los desafíos que enfrentamos los habitantes de este país es el de proporcionar a la población -que actualmente rebasa ya los

cien millones y se incrementará a razón de un millón de habitantes por año durante los próximos 20-, los servicios y condiciones necesarios para una vida digna, incluyendo alimentos sanos y nutritivos, medicamentos y servicios de salud.

Además, debemos estar conscientes de que vivimos en un país de gran diversidad; es decir, en una tierra delimitada por mares con gran variedad de plantas, animales y microorganismos, muchos de los cuales se originaron en México y no existen en otros sitios, por lo que el desarrollo industrial debe considerar la conservación y explotación de la biodiversidad y las características propias de nuestra cultura.

En este contexto, son fundamentales también la restauración y protección del ambiente. ¿Cuales son las disciplinas que pueden ayudarnos a enfrentar estos desafíos? La biotecnología es una de ellas, ya que está relacionada con el desarrollo de tecnologías de proceso y de producto, acordes con el ambiente en los sectores agrícola, pecuario, marino, salud, industrial, electrónico, minero y de nuevos materiales.

Doctora Yolanda Gutiérrez Puente Facultad de Ciencias Biológicas / UANL E-mail: [email protected]

Juan López de Silanes. Es licenciado en Administración de Empresas, egresado de la Universidad Iberoamericana, y maestro en el mismo campo, por el Instituto Panamericano de Alta Dirección de Empresas. Actualmente es presidente del Instituto Bioclon, y ha ocupado importantes puestos, como la presidencia de la Cámara Nacional de la Industria Farmacéutica y de la Asociación Nacional de Fabricantes de Medicamentos.

Carlos Camacho Gaos. Estudió Economía en el Instituto Tecnológico Autónomo de México, (ITAM), y en Georgetown University, en Estados Unidos; se especializó en economía regional y urbana, finanzas públicas y economía monetaria. Actualmente, es el presidente ejecutivo y director general de AgroBio México; es fundador y director general de Premium S.C. desde 2001, y de 1990 a 2000 ocupó la Subsecretaría de Pesca en la Secretaría del Medio Ambiente, Recursos Naturales y Pesca.

Rafael Gual Cosío. Es ingeniero químico. Ocupa el cargo de director ejecutivo de la Asociación Mexicana de Industrias de Investigación Farmacéutica, organismo dedicado a fortalecer la imagen de la investigación en la industria farmacéutica y difundir los avances en este campo.

23

se pretende buscar una aplicación a escala comercial. Las etapas típicas de recuperación y purificación involucran operaciones difíciles de llevar a niveles de escalamiento comercial y altamente demandantes en tiempo.

Tal es el caso de esquemas de ultracen-trifugación que aún se utilizan. Al igual que en el caso previamente descrito para la obtención de la proteína L1, la implementación de esquemas de proceso novedosos permite el estable-cimiento de sistemas de recuperación que simplifican enormemente la ma-nera tradicional como se recuperan los candidatos de vacuna y demuestran el potencial de aplicación comercial para este tipo de productos.

INVESTIGACIONES PARADESARROLLO DE VACUNASEs importante mencionar que lo anterior corresponde a dos casos comunes de la problemática que desde el punto de vista de ingeniería de bioprocesos enfrenta la producción de vacunas.

Es inevitable pensar que en la medida que se definan esquemas adecuados de producción de una manera eficiente, rápida, y atractiva económicamente, se logrará la aplicación genérica de los beneficios de las vacunas a cada vez más poblaciones.

A pesar de que resulta imposible predecir el futuro, y más aún en esta disciplina de crecimiento explosivo, es posible anticipar que la tremenda cantidad de investigaciones y proyectos que se llevan a cabo en la actualidad en el área de desarrollo de vacunas, tendrán gran impacto en la sociedad, en la cali-dad de vida de los seres humanos, en la tecnología y la industria en las próximas décadas.

Resulta inevitable considerar que los beneficios asociados al desarrollo de vacunas que nos brindará la bio-tecnología en el presente siglo, necesa-riamente provocarán un interés crecien-te de las empresas farmacéuticas y bio-tecnológicas.

El interés fundamental y reto de dichas compañías estará enfocado fuertemente en el desarrollo de procesos eficientes y escalables que les permitan sacar rápidamente al mercado nuevos produc-

tos utilizando estrategias de bioingeniería novedosas. La competencia entre las empresas por sacar al mercado nuevos productos farmacéuticos las obligará a buscar estrategias para el desarrollo de bioprocesos. La necesidad de estrategias que ayuden a reducir el tiempo de escalamiento y de transferencia de tecnología para facilitar la implementación industrial de los nuevos bioprocesos resultará cada vez más evidente.

PROCESOS BIOTECNOLÓGICOSLa industria farmacéutica demandará procesos biotecnológicos que le permitan la recuperación y purificación de productos tales como vacunas mediante el uso de tecnologías escalables y eficientes y profesionistas capaces de atender los evidentes retos de la industria biotecnológica presentes y futuros. No existe duda que el desarrollo de vacunas con esquemas adecuados de ingeniería tendrán un importante impacto sobre la calidad de vida de los seres humanos.

REFERENCIAS: [1] Rito-Palomares M and Middelberg A. Aqueous two-phase systems for the recovery of a recombinant viral coat protein from Escherichia coli. J Chem Technol. and Biotechnol. 77: 1025-1029 (2002).

[2] Benavides J, Mena J, Cisneros M, Ramirez O T, Palomares L A and Rito-Palomares M. Rotavirus like-particles primary recovery from the insect cell in aqueous two-phase systems. J Chromatography B. (2006).

[3] Rito-Palomares M, Practical application of aqueous two-phase partition to process development for the recovery of biological products. J Chromatography B, 807, 3-11 (2004)

Roberto Lagarda LagardaNació en San Bernardo, Sonora. A lo largo de su carrera profesional ha desarrollado trabajos en los campos de la docencia y la administración educativa, tanto en el sector público como en instituciones privadas. Ha ocupado importantes cargos, como la Dirección del Colegio Nacional de Educación Profesional Técnica (CONALEP). Actualmente es coordinador nacional de los Colegios de Estudios Científicos y Tecnológicos (CECyTEs).

Yoloxóchitl Bustamante Es ingeniera bioquímica egresada de la Escuela Nacional de Ciencias Biológicas, y doctora en Ciencias con especialidad en Bioquímica, grado de la misma escuela del IPN. Es diplomada en Alta Dirección de Empresas del IPADE, y en Finanzas para no Financieros del ITAM. En el IPN se desempeñó como profesora por más de 15 años, tiempo durante el cual también trabajó en investigación, principalmente en fisicoquímica de las proteasas vegetales. En el mismo instituto también trabajó en el área administrativa y a partir de 1978 laboró en el ramo industrial en la farmacéutica en empresas nacionales y extranjeras.

Brian R. ShmaefskyCuenta con varios grados de estudios; es maestro en Biología por la Universidad del sur de Illinois, doctor en Bioquímica de Plantas por la Universidad de Illinois y en Ecología y Limnología en el Laboratorio Biológico Montaña Rocosa en Colorado. Desde hace 12 años trabaja como profesor de Biología en Kingwood College.

Ana Lorena GuevaraEs fitotecnista de la Universidad de Costa Rica. Inició su carrera como investigadora en el Ministerio de Agricultura y Ganadería en la Dirección General Forestal y la Dirección de Investigaciones Agrícolas. Actualmente labora en el Instituto Nacional de Biodiversidad, donde se desempeña como funcionaria del Programa de Bioprospección y gerente del Programa de Apoyo al Desarrollo del uso de Biodiversidad por Pequeñas Empresas y Comunidades INBio-BID.

Youcef MentalechetaEs experto en la Unión Europea, miembro del Comité de Evaluación Educativa de la UNESCO y asesor internacional de evaluación de educación en varios países. A lo largo de su carrera ha desempeñado importantes cargos: Por ejemplo, de 1984 a 1995 fue secretario del Programa Intergubernamental de la UNESCO; anteriormente, de 1980 a 1983 fue consejero del ministro argelino del Plan para la Tecnología y las industrias avanzadas.

Edgar WagnerEs profesor de la Universidad de Freiburg en el Instituto de Biología II en el Departamento de Fisiología de las Plantas; en la misma institución, desde 1993 es encargado de las relaciones internacionales de estudio. Es también presidente de la Sociedad Internacional de Endocitobiología, sección alemana desde 1998.

24 33

Bruce Holm. El doctor Bruce Holm es director ejecutivo del Centro de Excelencia en Bioinformática y Ciencias de la Vida, de la Universidad de Búfalo, en Nueva York, y está convencido de que mediante la colaboración entre las instituciones educativas, los institutos de investigación, las agencias gubernamentales y la industria, el centro que dirige podrá transformar la terapéutica del siglo XXI.

Actualmente, el centro que dirige trabaja en colaboración con otras instituciones para desarrollar y evaluar el uso de aproximaciones no invasivas a las enfermedades cariovasculares, específicamente en un nuevo sistema de imágenes que pueden detectar problemas cardíacos en diez segundos, en contraposición al método tradicional de insertar un catéter en el cuerpo, un procedimiento invasivo que puede tardar horas.

El centro trabaja también en la producción de drogas, con asociados tales como Invitrogen, Amgen y Biogen. En el caso específico de Invitrogen, Holm asegura que aporta material de crecimiento celular para la investigación biotecnológica, a fin de mantener su planta de 500 trabajos en Grand Island, y añadir probablemente 200 empleos más.

EN LOS ALBORES DE LA BIOINFORMÁTICALa bioinformática es un área de investigación interdisciplinaria que constituye una interfase entre las ciencias biológicas y las computacionales. Si bien algunos restringen su rango de estudio al manejo y análisis de bases de datos de secuencias principalmente, en realidad posee un sentido más amplio; es la fusión de las técnicas

computacionales con las reglas del entendimiento y apreciación de datos biológicos, y la comparación de estos con otros datos afines almacenados en distintos bancos de datos. Una definición más general la ubica como el estudio de la información biológica, utilizando la teoría de la información, computación y matemáticas.

Doctor Antonio Alí Pérez MayaDoctora Elva Teresa Aréchiga Carvajal

Laboratorio de Genómica y Bioinformática de la ULIEG Facultad de Medicina / [email protected]

Doctor Hugo A. Barrera Saldaña

modificados (OGMs) provoca grandes preocupaciones e incertidumbre de diversos sectores de la población, incluidos miembros de la comunidad científica, sobre todo en los efectos a largo plazo sobre la biodiversidad, ya que aún no se dispone de una ecología predictiva capaz de hacer frente a la complejidad de la cuestión.

Los ecólogos han señalado defectos y carencias en la concepción y metodología empleada en los estudios de evaluación de riesgo de los ensayos de campo con las plantas transgénicas, obligando a que se revisen estas metodologías y llevando a una mejora notable en el desarrollo de estos protocolos. De hecho, los ecólogos no están en principio en contra de la relajación de las normas de bioseguridad, siempre y cuando exista la experiencia acumulada que apoyara tal medida.

PREOCUPACIÓN DE ECOLOGISTASLa preocupación de los ecólogistas se basa en la falta de conocimiento con que se cuenta sobre los efectos a largo plazo resultantes, por un lado, del aumento exponencial del número de OGMs que coexistirán libremente, y por otro, en que se podrían planear liberaciones potencialmente arriesgadas para las que no existe ninguna experiencia previa de impactos ecológicos. Sin embargo, este punto no es exclusivo de los OGMs, sino también de los productos derivados de la mejora tradicional: estudios multidisciplinarios capaces de evaluar riesgos de cualquier tipo de proceso de mejora genética no son suficientes, y apenas se están diseñando los primeros experimentos de control, tanto para organismos transgénicos, como para organismos convencionales que nunca, a decir verdad, han pasado el severo escrutinio al que se está sometiendo a aquellos derivados de la ingeniería genética.Pero, más allá de las amenazas y miedos más o menos fundamentados o imaginarios; más allá de los mitos y fantasmas tecnológicos, hay que tomar en cuenta dos datos importantes: 1) después de 30 años de experimentación, la tecnología de los OGMs, no ha sufrido ni un solo accidente digno de mención; y la propia comunidad europea, centro de las dudas e incluso de amenazas de moratorias para los productos desarrollados, ha realizado estudios de bioseguridad por valor de varias decenas de millones de euros, sin que se haya concretado ningún riesgo sustancial y 2) aún no existe una evaluación global y científica de los riesgos ambientales potenciales de las plantas genéticamente modificadas. Quizá haya que desarrollar un paradigma de política científica que permita a los organismos públicos responsables tomar decisiones incluso en ausencia de un conocimiento exhaustivo, que reconozca como válidos ciertos criterios, y que favorezca el reconocimiento y delimitación de aquellas áreas de incertidumbre en las que el principio precautorio conduzca, llegado el caso, a moratorias o renuncias de desarrollo que proteja el patrimonio de biodiversidad que esté en juego.

Por ejemplo: no sería aconsejable liberar un OGM en la región donde se encuentran sus parientes silvestres, tradicionalmente cultivados por los agricultores indígenas, salvo que los datos científicos garantizaran la seguridad adecuada; en principio no sería ético poner en peligro el rico acervo genético y cultural ligado al centro de diversidad y domesticación de esta especie. Pero en aquellas regiones donde no hay parientes cercanos de este OGM, pasadas las pruebas de riesgo ambiental,

agronómico y sanitarias de rigor, no deberían suponerse mayores amenazas.

DIVERSIDAD BIOLÓGICA NO EVALUADAFinalmente, no podemos olvidar que los ecosistemas de nuestro planeta albergan una gran diversidad biológica que aún no ha sido evaluada. El número de especies descritas alcanza los dos millones, pero se estima que quedan por descubrir como mínimo otras varias decenas de millones. El valor de esta diversidad es incalculable; de aquí se han domesticado todas las plantas cultivadas y sin duda son una reserva genética de rasgos útiles que podrían ser incorporados en los futuros programas de mejora y en la búsqueda de nuevos fármacos y otros bienes. La biotecnología es una nueva alternativa para buscar, descubrir y desarrollar productos con potencial agronómico, médico e industrial; por lo tanto, el uso sostenible de estos recursos vivos, es innegable.

Tenemos, como humanidad, que cuidar el equilibrio entre los países poseedores de la mayor biodiversidad, que suelen ser naciones en vías de desarrollo, que desean sacar provecho de sus riquezas naturales; y por otro lado, las empresas de los países industrializados, necesitadas de acceder a la biodiversidad como materia prima de sus avances comerciales. El problema lo tienen los países en desarrollo, que no cuentan hasta ahora con mecanismos adecuados de compensación por el mantenimiento y diseminación de su biodiversidad, obligándolos a desarrollar políticas proteccionistas, que restringen el acceso a sus recursos vivos, y por otro, que la unilateralidad de la protección de las patentes por las empresas, provoque el bloqueo de programas de investigación y desarrollo necesarios para los países en desarrollo.

32 25

La necesidad de descifrar la inmensa cantidad de información revelada principalmente por el proyecto del Genoma Humano, ha impulsado el desarrollo de la Bioinformática. El ADN, la molécula que atesora el código de la vida, controla directamente la biología fundamental de la vida y determina las particularidades de cada organismo. Es por ello que en el caso particular del humano, las variaciones y las mutaciones presentes en el ADN genómico, predisponen o condicionan el desarrollo de las muchas enfermedades que nos aquejan.

Desde principios de la década de 1990, muchos laboratorios sumaron esfuerzos para descifrar los genomas de varias especies representativas de los diferen-tes grupos de seres vivos, desde bacterias hasta animales y plantas, pasando por insectos y culminando por supuesto, en 2003 con el humano. Estos proyectos de secuenciación masiva del ADN han contribuido al desarrollo y crecimiento de la Bioinformática, generando cantidades enormes de información biológica que se almacenan en grandes bases de datos, la mayoría de las cuales son accesibles de forma gratuita a través de Internet.

DESARROLLO DE PROGRAMAS COMPUTACIONALESAdemás de reunir y organizar toda esta información, es necesario analizar y descubrir en las secuencias de nucleóti-dos o de aminoácidos, las semejanzas y las diferencias de cada hallazgo. No resulta conveniente ni práctico comparar las secuencias de varios miles de nucleótidos o aminoácidos de manera manual. Por ello, se han desarrollado numerosos programas de cómputo para facilitar esta enorme tarea. Además, los programas computacionales disminuyen la posibilidad de errores que conllevan los análisis manuales.

Con el incremento en la complejidad y la capacidad, tanto de las computadoras como de las técnicas de investigación, ha surgido la necesidad de profesionales que sirvan como “enlaces” entre ambas disciplinas y sean capaces de comunicar-se con los expertos de los dos campos. Tradicionalmente, la investigación en el campo de la biología molecular se ha realizado completamente en la mesa experimental del laboratorio, pero el enorme incremento en los volúmenes de datos que están siendo generados en esta era genómica, ha impulsado la

incorporación de computadoras en este proceso de investigación. El uso de las computadoras para resolver cuestiones biológicas comenzó con el desarrollo de algoritmos y su aplicación en el entendimiento de las interacciones de los procesos biológicos y las relaciones filogenéticas entre diversos organismos.

SISTEMAS INFORMÁTICOS UTILIZADOSBásicamente, los sistemas informáticos que se emplean en este campo son: Bases de datos locales o accesibles mediante programas de Internet; aplicación y manejo de datos de laboratorio; automatización de experimentos, técni-cas de inteligencia artificial, literatura médica y científica relevante; programas de distribución de datos; programas para modelación; programas para generación

y ensamblaje de secuencias; programas de alineamiento y análisis de secuencias nucleotídicas y aminoacídicas; programas para predicción de genes, dominios funcionales y estructuras de proteínas; programas para clasificación, comparación, evolución molecular y árboles filogenéticos; paquetes de integración y ensamblaje de mapas genéticos, entre muchos más.

El objetivo final de la bioinformática es descubrir la riqueza de información biológica que se encuentra oculta entre toda la masa de secuencias, estructuras, literatura y otros datos biológicos.

Obtener una idea más clara de la biolo-gía fundamental de los organismos, seguro tendrá impactos profundos

sobre campos tan variados como la sa-lud humana, la agricultura, el ambiente, la energía y la biotecnología.

MINA DE INFORMACIÓN PARA DESCUBRIMIENTOS BIOLÓGICOS Las bases de datos biológicos son archivos de datos que son almacenados de manera uniforme y eficiente. Estas bases contienen datos de un amplio espectro de áreas de la biología molecular. Las bases de datos primarias o archivadas contienen la información y las características o anotación de secuencias, estructuras y perfiles de expresión de ADN y de proteínas. Las Bases de datos secundarias o derivadas son así llamadas porque contienen los resultados de análisis sobre las fuentes primarias, incluyendo la información sobre los patrones de secuencia o motivos, variantes, mutaciones y relaciones evolutivas.

Es esencial que estas bases de datos sean fácilmente accesibles y que proporcionen un sistema de búsqueda intuitivo para permitir a los investigadores obtener información muy específica sobre un tema biológico particular. Se han estructurado bases de datos especializadas en temas particulares, como por ejemplo: EMBL, una base de datos para secuencias nucleotídicas; UniProtKB/Swiss-Prot, una base de datos de proteínas, y PDB, una base de datos de estructuras tridimensionales de proteínas. Los científicos también tienen que ser capaces de integrar la información obtenida de las bases de datos subyacentes heterogéneas en una manera sensible para ser capaces de conseguir una descripción clara de un tema biológico.

Una vez que todos los datos biológicos son almacenados coherentemente y están fácilmente disponibles a la comunidad científica, se requiere de métodos para extraer la información significativa entre esta enorme cantidad de datos.

Las herramientas bioinformáticas que permiten realizar este paso de análisis son paquetes computacionales que utilizan sofisticados algoritmos computacionales.

Los factores que se deben tomar en cuenta en el diseño de estas herramientas son:

Asimismo, se ha discutido mucho sobre la importancia de la conservación y gestión de los recursos vivos del planeta: “la biodiversidad”. Por un lado, la diversidad biológica representa una gigantesca reserva de material genético, en su mayoría inexplorada; y por otro lado, los países ricos en biodiversidad son los menos desarrollados, y, al no poseer los medios tecnológicos para explotar esta riqueza, se encuentran en desventaja frente a los países desarrollados, a pesar de tener el legítimo interés de que la comunidad internacional valore sus recursos vivos, y que se vean compensados de un modo justo por su conservación y su disponibilidad para la humanidad.

GRANDES DESAFÍOS DE LA BIOSEGURIDADDe lo anterior, podemos ver dos grandes desafíos dignos de destacar en el marco de la bioseguridad y la biodiversidad. El primero se refiere al cambio tan vertiginoso que producen las metodologías de la biotecnología moderna, que es una de las áreas del conocimiento científico de más relevante evolución en las últimas décadas y que mayor impacto ha tenido en el desarrollo de distintos sectores de la sociedad, y que sin duda, está produciendo grandes cambios en el entorno que rodea al sector agroalimentario, que, si bien genera nuevas oportunidades, también representa una gran amenaza para los actores vinculados al campo. El segundo es la preservación de la agricultura nacional y el cuidado del medio ambiente, de la biodiversidad de las especies autóctonas y de la salud de los humanos.

En cuanto al primer desafío, en la actualidad, es muy difícil imaginarnos un mundo sin ciencia y tecnología. Todo el conocimiento que se produce tiene grandes repercusiones no solamente a nivel local, sino incluso macroeconómico e inevitablemente afecta significativamente a las pequeñas economías, particularmente las rurales. Se trata de un cambio que se dirige, en el largo plazo, hacia el predominio del conocimiento científico y tecnológico, con efectos en las actividades económicas de los pueblos, con notables impactos en los procesos de desarrollo y bienestar humano, sobre todo en la agricultura y el medio rural de las economías en desarrollo.

Este desafío, generado por el nuevo conocimiento, está determinado por una nueva revolución científica y tecnológica, que se piensa que daría a la agricultura la posibilidad de producir alimentos suficientes en cantidad y calidad para alimentar a las futuras poblaciones, pero abre nuevos paradigmas, no sólo en términos de requisitos de inocuidad

y medidas de bioseguridad, sino que por el desequilibrio que existe en la distribución de las capacidades científicas y tecnológicas entre los países, se puede mantener, y hasta incrementar la desigualdad que existe entre los países en vías de desarrollo y los desarrollados, pensando que los primeros no cuentan con la capacidad para la apropiación y desarrollo de estos nuevos conocimientos.

RETOS PARA LA SOCIEDAD MEXICANAMéxico también enfrenta estos retos, y debe poder proporcio-nar a sus habitantes servicios y condiciones necesarios para una vida digna. Somos más de 100 millones de mexicanos con demandas por alimentos seguros y nutritivos, por medicamentos y servicios de salud modernos y eficaces, un medio ambiente limpio, una industria vigorosa y productiva y simultáneamente cuidadosa con el uso sustentable de nuestra biodiversidad. Estos temas representan retos extraordinarios

para la sociedad mexicana, que debe enfrentar y resolver de manera inteligente, creativa y respetuosa con el medio ambiente.

México, por ser un país megadi-verso, está obligado a desarro-llar su propia investigación, particularmente en el área de la biotecnología, la cual debe servir para el manejo y pre-servación de sus recursos bio-lógicos, indispensables para el mantenimiento sustentable de los ecosistemas regionales, nacionales y globales. La biodiversidad es riqueza renovable, que debe ser utilizada de manera sustentable, no sólo para resolver problemas actuales de la nación, sino también, con ayuda de la biotec-nología y en un concierto sustentable, transformar a nuestro país en líder mundial exportador de tecnología y pro-ductos biotecnológicos de alto

valor agregado. Sin embargo, México tiene que enfrentar riesgos que otras regiones de menor diversidad biológica no tienen. He aquí el gran desafío, ¿Qué se debe hacer?:

¿Debemos apoyar decididamente la investigación científica nacional en biodiversidad?¿Debemos apoyar el desarrollo de la biotecnología nacional?¿Debemos apoyar el desarrollo de la capacidad para analizar y evaluar las múltiples implicaciones del uso de la biotecnología moderna? o ¿Debemos prohibir el desarrollo de todo lo anterior?

Con respecto al segundo desafío, la preservación de la agricultura nacional y el cuidado del medio ambiente, de la biodiversidad de las especies autóctonas y de la salud de los humanos: Experimentar con organismos genéticamente

24 33

Bruce Holm. El doctor Bruce Holm es director ejecutivo del Centro de Excelencia en Bioinformática y Ciencias de la Vida, de la Universidad de Búfalo, en Nueva York, y está convencido de que mediante la colaboración entre las instituciones educativas, los institutos de investigación, las agencias gubernamentales y la industria, el centro que dirige podrá transformar la terapéutica del siglo XXI.

Actualmente, el centro que dirige trabaja en colaboración con otras instituciones para desarrollar y evaluar el uso de aproximaciones no invasivas a las enfermedades cariovasculares, específicamente en un nuevo sistema de imágenes que pueden detectar problemas cardíacos en diez segundos, en contraposición al método tradicional de insertar un catéter en el cuerpo, un procedimiento invasivo que puede tardar horas.

El centro trabaja también en la producción de drogas, con asociados tales como Invitrogen, Amgen y Biogen. En el caso específico de Invitrogen, Holm asegura que aporta material de crecimiento celular para la investigación biotecnológica, a fin de mantener su planta de 500 trabajos en Grand Island, y añadir probablemente 200 empleos más.

EN LOS ALBORES DE LA BIOINFORMÁTICALa bioinformática es un área de investigación interdisciplinaria que constituye una interfase entre las ciencias biológicas y las computacionales. Si bien algunos restringen su rango de estudio al manejo y análisis de bases de datos de secuencias principalmente, en realidad posee un sentido más amplio; es la fusión de las técnicas

computacionales con las reglas del entendimiento y apreciación de datos biológicos, y la comparación de estos con otros datos afines almacenados en distintos bancos de datos. Una definición más general la ubica como el estudio de la información biológica, utilizando la teoría de la información, computación y matemáticas.

Doctor Antonio Alí Pérez MayaDoctora Elva Teresa Aréchiga Carvajal

Laboratorio de Genómica y Bioinformática de la ULIEG Facultad de Medicina / [email protected]

Doctor Hugo A. Barrera Saldaña

modificados (OGMs) provoca grandes preocupaciones e incertidumbre de diversos sectores de la población, incluidos miembros de la comunidad científica, sobre todo en los efectos a largo plazo sobre la biodiversidad, ya que aún no se dispone de una ecología predictiva capaz de hacer frente a la complejidad de la cuestión.

Los ecólogos han señalado defectos y carencias en la concepción y metodología empleada en los estudios de evaluación de riesgo de los ensayos de campo con las plantas transgénicas, obligando a que se revisen estas metodologías y llevando a una mejora notable en el desarrollo de estos protocolos. De hecho, los ecólogos no están en principio en contra de la relajación de las normas de bioseguridad, siempre y cuando exista la experiencia acumulada que apoyara tal medida.

PREOCUPACIÓN DE ECOLOGISTASLa preocupación de los ecólogistas se basa en la falta de conocimiento con que se cuenta sobre los efectos a largo plazo resultantes, por un lado, del aumento exponencial del número de OGMs que coexistirán libremente, y por otro, en que se podrían planear liberaciones potencialmente arriesgadas para las que no existe ninguna experiencia previa de impactos ecológicos. Sin embargo, este punto no es exclusivo de los OGMs, sino también de los productos derivados de la mejora tradicional: estudios multidisciplinarios capaces de evaluar riesgos de cualquier tipo de proceso de mejora genética no son suficientes, y apenas se están diseñando los primeros experimentos de control, tanto para organismos transgénicos, como para organismos convencionales que nunca, a decir verdad, han pasado el severo escrutinio al que se está sometiendo a aquellos derivados de la ingeniería genética.Pero, más allá de las amenazas y miedos más o menos fundamentados o imaginarios; más allá de los mitos y fantasmas tecnológicos, hay que tomar en cuenta dos datos importantes: 1) después de 30 años de experimentación, la tecnología de los OGMs, no ha sufrido ni un solo accidente digno de mención; y la propia comunidad europea, centro de las dudas e incluso de amenazas de moratorias para los productos desarrollados, ha realizado estudios de bioseguridad por valor de varias decenas de millones de euros, sin que se haya concretado ningún riesgo sustancial y 2) aún no existe una evaluación global y científica de los riesgos ambientales potenciales de las plantas genéticamente modificadas. Quizá haya que desarrollar un paradigma de política científica que permita a los organismos públicos responsables tomar decisiones incluso en ausencia de un conocimiento exhaustivo, que reconozca como válidos ciertos criterios, y que favorezca el reconocimiento y delimitación de aquellas áreas de incertidumbre en las que el principio precautorio conduzca, llegado el caso, a moratorias o renuncias de desarrollo que proteja el patrimonio de biodiversidad que esté en juego.

Por ejemplo: no sería aconsejable liberar un OGM en la región donde se encuentran sus parientes silvestres, tradicionalmente cultivados por los agricultores indígenas, salvo que los datos científicos garantizaran la seguridad adecuada; en principio no sería ético poner en peligro el rico acervo genético y cultural ligado al centro de diversidad y domesticación de esta especie. Pero en aquellas regiones donde no hay parientes cercanos de este OGM, pasadas las pruebas de riesgo ambiental,

agronómico y sanitarias de rigor, no deberían suponerse mayores amenazas.

DIVERSIDAD BIOLÓGICA NO EVALUADAFinalmente, no podemos olvidar que los ecosistemas de nuestro planeta albergan una gran diversidad biológica que aún no ha sido evaluada. El número de especies descritas alcanza los dos millones, pero se estima que quedan por descubrir como mínimo otras varias decenas de millones. El valor de esta diversidad es incalculable; de aquí se han domesticado todas las plantas cultivadas y sin duda son una reserva genética de rasgos útiles que podrían ser incorporados en los futuros programas de mejora y en la búsqueda de nuevos fármacos y otros bienes. La biotecnología es una nueva alternativa para buscar, descubrir y desarrollar productos con potencial agronómico, médico e industrial; por lo tanto, el uso sostenible de estos recursos vivos, es innegable.

Tenemos, como humanidad, que cuidar el equilibrio entre los países poseedores de la mayor biodiversidad, que suelen ser naciones en vías de desarrollo, que desean sacar provecho de sus riquezas naturales; y por otro lado, las empresas de los países industrializados, necesitadas de acceder a la biodiversidad como materia prima de sus avances comerciales. El problema lo tienen los países en desarrollo, que no cuentan hasta ahora con mecanismos adecuados de compensación por el mantenimiento y diseminación de su biodiversidad, obligándolos a desarrollar políticas proteccionistas, que restringen el acceso a sus recursos vivos, y por otro, que la unilateralidad de la protección de las patentes por las empresas, provoque el bloqueo de programas de investigación y desarrollo necesarios para los países en desarrollo.

32 25

La necesidad de descifrar la inmensa cantidad de información revelada principalmente por el proyecto del Genoma Humano, ha impulsado el desarrollo de la Bioinformática. El ADN, la molécula que atesora el código de la vida, controla directamente la biología fundamental de la vida y determina las particularidades de cada organismo. Es por ello que en el caso particular del humano, las variaciones y las mutaciones presentes en el ADN genómico, predisponen o condicionan el desarrollo de las muchas enfermedades que nos aquejan.

Desde principios de la década de 1990, muchos laboratorios sumaron esfuerzos para descifrar los genomas de varias especies representativas de los diferen-tes grupos de seres vivos, desde bacterias hasta animales y plantas, pasando por insectos y culminando por supuesto, en 2003 con el humano. Estos proyectos de secuenciación masiva del ADN han contribuido al desarrollo y crecimiento de la Bioinformática, generando cantidades enormes de información biológica que se almacenan en grandes bases de datos, la mayoría de las cuales son accesibles de forma gratuita a través de Internet.

DESARROLLO DE PROGRAMAS COMPUTACIONALESAdemás de reunir y organizar toda esta información, es necesario analizar y descubrir en las secuencias de nucleóti-dos o de aminoácidos, las semejanzas y las diferencias de cada hallazgo. No resulta conveniente ni práctico comparar las secuencias de varios miles de nucleótidos o aminoácidos de manera manual. Por ello, se han desarrollado numerosos programas de cómputo para facilitar esta enorme tarea. Además, los programas computacionales disminuyen la posibilidad de errores que conllevan los análisis manuales.

Con el incremento en la complejidad y la capacidad, tanto de las computadoras como de las técnicas de investigación, ha surgido la necesidad de profesionales que sirvan como “enlaces” entre ambas disciplinas y sean capaces de comunicar-se con los expertos de los dos campos. Tradicionalmente, la investigación en el campo de la biología molecular se ha realizado completamente en la mesa experimental del laboratorio, pero el enorme incremento en los volúmenes de datos que están siendo generados en esta era genómica, ha impulsado la

incorporación de computadoras en este proceso de investigación. El uso de las computadoras para resolver cuestiones biológicas comenzó con el desarrollo de algoritmos y su aplicación en el entendimiento de las interacciones de los procesos biológicos y las relaciones filogenéticas entre diversos organismos.

SISTEMAS INFORMÁTICOS UTILIZADOSBásicamente, los sistemas informáticos que se emplean en este campo son: Bases de datos locales o accesibles mediante programas de Internet; aplicación y manejo de datos de laboratorio; automatización de experimentos, técni-cas de inteligencia artificial, literatura médica y científica relevante; programas de distribución de datos; programas para modelación; programas para generación

y ensamblaje de secuencias; programas de alineamiento y análisis de secuencias nucleotídicas y aminoacídicas; programas para predicción de genes, dominios funcionales y estructuras de proteínas; programas para clasificación, comparación, evolución molecular y árboles filogenéticos; paquetes de integración y ensamblaje de mapas genéticos, entre muchos más.

El objetivo final de la bioinformática es descubrir la riqueza de información biológica que se encuentra oculta entre toda la masa de secuencias, estructuras, literatura y otros datos biológicos.

Obtener una idea más clara de la biolo-gía fundamental de los organismos, seguro tendrá impactos profundos

sobre campos tan variados como la sa-lud humana, la agricultura, el ambiente, la energía y la biotecnología.

MINA DE INFORMACIÓN PARA DESCUBRIMIENTOS BIOLÓGICOS Las bases de datos biológicos son archivos de datos que son almacenados de manera uniforme y eficiente. Estas bases contienen datos de un amplio espectro de áreas de la biología molecular. Las bases de datos primarias o archivadas contienen la información y las características o anotación de secuencias, estructuras y perfiles de expresión de ADN y de proteínas. Las Bases de datos secundarias o derivadas son así llamadas porque contienen los resultados de análisis sobre las fuentes primarias, incluyendo la información sobre los patrones de secuencia o motivos, variantes, mutaciones y relaciones evolutivas.

Es esencial que estas bases de datos sean fácilmente accesibles y que proporcionen un sistema de búsqueda intuitivo para permitir a los investigadores obtener información muy específica sobre un tema biológico particular. Se han estructurado bases de datos especializadas en temas particulares, como por ejemplo: EMBL, una base de datos para secuencias nucleotídicas; UniProtKB/Swiss-Prot, una base de datos de proteínas, y PDB, una base de datos de estructuras tridimensionales de proteínas. Los científicos también tienen que ser capaces de integrar la información obtenida de las bases de datos subyacentes heterogéneas en una manera sensible para ser capaces de conseguir una descripción clara de un tema biológico.

Una vez que todos los datos biológicos son almacenados coherentemente y están fácilmente disponibles a la comunidad científica, se requiere de métodos para extraer la información significativa entre esta enorme cantidad de datos.

Las herramientas bioinformáticas que permiten realizar este paso de análisis son paquetes computacionales que utilizan sofisticados algoritmos computacionales.

Los factores que se deben tomar en cuenta en el diseño de estas herramientas son:

Asimismo, se ha discutido mucho sobre la importancia de la conservación y gestión de los recursos vivos del planeta: “la biodiversidad”. Por un lado, la diversidad biológica representa una gigantesca reserva de material genético, en su mayoría inexplorada; y por otro lado, los países ricos en biodiversidad son los menos desarrollados, y, al no poseer los medios tecnológicos para explotar esta riqueza, se encuentran en desventaja frente a los países desarrollados, a pesar de tener el legítimo interés de que la comunidad internacional valore sus recursos vivos, y que se vean compensados de un modo justo por su conservación y su disponibilidad para la humanidad.

GRANDES DESAFÍOS DE LA BIOSEGURIDADDe lo anterior, podemos ver dos grandes desafíos dignos de destacar en el marco de la bioseguridad y la biodiversidad. El primero se refiere al cambio tan vertiginoso que producen las metodologías de la biotecnología moderna, que es una de las áreas del conocimiento científico de más relevante evolución en las últimas décadas y que mayor impacto ha tenido en el desarrollo de distintos sectores de la sociedad, y que sin duda, está produciendo grandes cambios en el entorno que rodea al sector agroalimentario, que, si bien genera nuevas oportunidades, también representa una gran amenaza para los actores vinculados al campo. El segundo es la preservación de la agricultura nacional y el cuidado del medio ambiente, de la biodiversidad de las especies autóctonas y de la salud de los humanos.

En cuanto al primer desafío, en la actualidad, es muy difícil imaginarnos un mundo sin ciencia y tecnología. Todo el conocimiento que se produce tiene grandes repercusiones no solamente a nivel local, sino incluso macroeconómico e inevitablemente afecta significativamente a las pequeñas economías, particularmente las rurales. Se trata de un cambio que se dirige, en el largo plazo, hacia el predominio del conocimiento científico y tecnológico, con efectos en las actividades económicas de los pueblos, con notables impactos en los procesos de desarrollo y bienestar humano, sobre todo en la agricultura y el medio rural de las economías en desarrollo.

Este desafío, generado por el nuevo conocimiento, está determinado por una nueva revolución científica y tecnológica, que se piensa que daría a la agricultura la posibilidad de producir alimentos suficientes en cantidad y calidad para alimentar a las futuras poblaciones, pero abre nuevos paradigmas, no sólo en términos de requisitos de inocuidad

y medidas de bioseguridad, sino que por el desequilibrio que existe en la distribución de las capacidades científicas y tecnológicas entre los países, se puede mantener, y hasta incrementar la desigualdad que existe entre los países en vías de desarrollo y los desarrollados, pensando que los primeros no cuentan con la capacidad para la apropiación y desarrollo de estos nuevos conocimientos.

RETOS PARA LA SOCIEDAD MEXICANAMéxico también enfrenta estos retos, y debe poder proporcio-nar a sus habitantes servicios y condiciones necesarios para una vida digna. Somos más de 100 millones de mexicanos con demandas por alimentos seguros y nutritivos, por medicamentos y servicios de salud modernos y eficaces, un medio ambiente limpio, una industria vigorosa y productiva y simultáneamente cuidadosa con el uso sustentable de nuestra biodiversidad. Estos temas representan retos extraordinarios

para la sociedad mexicana, que debe enfrentar y resolver de manera inteligente, creativa y respetuosa con el medio ambiente.

México, por ser un país megadi-verso, está obligado a desarro-llar su propia investigación, particularmente en el área de la biotecnología, la cual debe servir para el manejo y pre-servación de sus recursos bio-lógicos, indispensables para el mantenimiento sustentable de los ecosistemas regionales, nacionales y globales. La biodiversidad es riqueza renovable, que debe ser utilizada de manera sustentable, no sólo para resolver problemas actuales de la nación, sino también, con ayuda de la biotec-nología y en un concierto sustentable, transformar a nuestro país en líder mundial exportador de tecnología y pro-ductos biotecnológicos de alto

valor agregado. Sin embargo, México tiene que enfrentar riesgos que otras regiones de menor diversidad biológica no tienen. He aquí el gran desafío, ¿Qué se debe hacer?:

¿Debemos apoyar decididamente la investigación científica nacional en biodiversidad?¿Debemos apoyar el desarrollo de la biotecnología nacional?¿Debemos apoyar el desarrollo de la capacidad para analizar y evaluar las múltiples implicaciones del uso de la biotecnología moderna? o ¿Debemos prohibir el desarrollo de todo lo anterior?

Con respecto al segundo desafío, la preservación de la agricultura nacional y el cuidado del medio ambiente, de la biodiversidad de las especies autóctonas y de la salud de los humanos: Experimentar con organismos genéticamente

26 31

•El usuario final puede no ser un usuario frecuente de la tecnología computacional.

•Estas herramientas deben estar disponibles en el Internet dada la distribución global de la comunidad de investigación científica.

Las bases de datos proporcionan una amplia gama de herramientas de análisis de datos biológicos que caen dentro

de las siguientes categorías principales:

Instrumentos de Búsqueda de Similitud.- Secuencias homólogas son las secuencias que están relacionadas por la divergencia de un antepasado común. Este conjunto de instrumentos puede ser utilizado para identificar la similitud entre las nuevas secuencias que se analizan y las secuencias presentes en las bases de datos, cuya estructura y función ya se han descrito.

Análisis de Función de Proteínas.- Este grupo de programas permite comparar la secuencia de proteína que el investigador analiza con las bases de datos secundarias de proteína que contienen la información sobre motivos, firmas y dominios de proteínas. Las comparaciones contra estas bases de datos de patrones diferentes son sumamente significativas, porque permiten predecir la función bioquímica de la proteína analizada.

Análisis Estructural.- Este conjunto de herramientas permite realizar comparaciones utilizando como referencia base de datos de proteínas cuyas estructiras han sido determinadas. Es importante señalar que en el caso de homólogos estructurales que comparten una función, ésta constituye una consecuencia directa de su estructura más que de su secuencia.

Análisis de Secuencia.- Este conjunto de herramientas permite realizar un análisis más detallado sobre la secuencia que se desea analizar e incluye: el análisis evolutivo, la identificación de mutaciones, regiones hidropáticas, islas CpG y tendencias compositivas (Composición de bases). La identificación de éstas y otras propiedades biológicas son pistas que ayudan en la búsqueda de aclarar la función específica de dicha secuencia y ahorra tiempo en el aspecto experimental.

LA BOINFORMÁTICA EN LA ERA POSGENÓMICALa generación de secuencias, y su subsiguiente almacenaje, interpretación y análisis, son tareas completamente dependientes de las computadoras. Sin embargo, la biología molecular de un organismo es una cuestión mucho más compleja; por ello, ahora la investigación se lleva a cabo a diferentes niveles que incluyen el genoma, transcriptoma, proteoma y metaboloma. Por tanto, una consecuencia lógica de la explosión en el volumen de datos genómicos, es un aumento similar en la cantidad de datos que se generan en estos campos.

El primer desafío que afronta hoy la comunidad de bioinformáticos es el almacenaje inteligente y eficiente de esta enorme cantidad de datos, con el objetivo de proporcionar un acceso fácil y confiable a éstos. Los datos por sí mismos

no tienen significado hasta que puedan ser analizados, y su volumen actual hace que sea imposible hasta para un biólogo entrenado interpretarlos a mano. Por lo tanto, la aplicación de los avances tecnológicos en el área de la computación y el desarrollo de algoritmos más complejos para llevar a cabo estos análisis son fundamentales para la extracción de información biológica significativa. La integración de la información aprendida sobre los procesos similares claves permitirá alcanzar a largo plazo el entendimiento completo de la biología de los organismos.

Actualmente, conocemos la secuencia de más de un millón y medio de proteínas, la de más de cien genomas y la estructura tridimensional de más de 20 mil proteínas. Gracias a los experimentos de matrices de ADN, sabemos cuándo y cómo se expresan los genes; también disponemos de muchos datos que indican qué proteínas interaccionan entre sí; y todo el conocimiento científico acumulado a lo largo de las últimas décadas se encuentra disperso en más de 12 millones de artículos.

APORTACIONES DE LA BIOINFORMÁTICAPara comprender la información codificada en el DNA debemos encontrar los genes y predecir su función. La tarea no es fácil: en el genoma humano tan sólo un dos por ciento del contenido se corresponde con los segmentos de genes que codifican para proteínas (exones). ¿Cómo distinguirlas del resto? La Bioinformática ha aportado algunas soluciones que constituyen alternativas de gran valor al lento y costoso trabajo experimental y ha permitido describir millones de diferencias en la secuencia entre distintas personas.

La Bioinformática tradicionalmente se ha centrado en el estudio de las proteínas y los genes de forma aislada. Por ejemplo, para predecir la función o la estructura tridimensional de una proteína nueva, se buscan proteínas parecidas cuya función o estructura ya se conozcan. Existen multitud de métodos computacionales en torno a esta perspectiva, y han sido, y siguen siendo, de gran ayuda. Desde hace algunos años, sin embargo, el panorama se ha ampliado: nuevas técnicas experimentales permiten conocer las redes de interacción entre proteínas de una célula, o cómo se expresan en determinada situación miles de genes. Este incipiente punto de vista, más amplio, necesita de nuevos métodos para que seamos capaces de comprender los datos.

BIOINFORMÁTICA DE SEGUNDA GENERACIÓNIntegración es la palabra clave para entender la importancia de la Bioinformática, ya que a través de herramientas y utilizando la información ya depositada en bases de datos alrededor del mundo, estamos comenzando a descubrir relaciones no triviales escondidas en el código de la vida. La bioinformática ha empezado a ocupar un papel central como “el enlace” que une a diversas áreas de la ciencia, como la enzimología, la genética, la biología estructural, la medicina, la evolución, entre muchas otras. La pregunta crítica es ¿cómo distinguir las relaciones importantes dentro de tanta información? Esta pregunta y muchos otros problemas biológicos están siendo respondidos a través de la Bioinformática, uniendo o relacionando toda la información que está depositada en las bases de datos a través de comparar genes y proteínas. Como un ejemplo práctico de lo anterior, NCBI, el Centro de Bioinformática del NIH, recibe y procesa en su sitio Web

Marco Antonio Meraz Ríos. Nació en la Ciudad de México. Es químico farmacéutico biólogo, egresado de la Facultad de Estudios Superiores-Cuautitlán, de la Universidad Nacional Autónoma de México en 1983.Realizó la Maestría en Ciencias en Biología Celular del Cinvestav, de 1985 a 1987. Obtuvo el Doctorado en Ciencias en Biología Molecular del Cinvestav en l990. Realizó estudios de Posdoctorado en la Washington University School of Medicine, St. Louis, Missouri, USA de 1990 a 1995.Ha impartido cátedra en licenciatura, maestría y doctorado en universidades, colegios y centros de investigación nacionales y del extranjero. Ha graduado a ocho licenciados, 23 maestros en Ciencias y 11 doctores en Ciencias. Ha publicado 21 artículos científicos en revistas internacionales especializadas, con más de mil 500 citas a sus trabajos.Ha publicado dos capítulos en libros y varios artículos de divulgación.Ha impartido más de 120 conferencias en foros nacionales y del extranjero, como: Australia, Francia, España, Estados Unidos de Norteamérica, Canadá, Venezuela, Uruguay, Chile, Malasia, Hawai, Argentina, Vietnam, Costa Rica, Puerto Rico y Colombia.Es investigador nivel II, del Sistema Nacional de Investigadores. Ha fungido como coordinador académico del Departamento de Biología Celular y del Departamento de Biomedicina Molecular; fue coordinador general de Servicios Bibliográficos y Experimentales del Cinvestav y presidente del Comité Institucional para el Uso y Cuidado de los Animales de Laboratorio, del Cinvestav.

Fue en la década de los 80 cuando los organismos genéticamente modificados (OGM) comenzaron a salir de los laboratorios; llegaron primero en pequeños ensayos de campo, y 10 años después se hicieron grandes liberaciones a escala comercial de plantas transgénicas. Es por ello que el debate sobre la seguridad de estos organismos es tan amplio y sostenido, y se centra en el campo de sus posibles repercusiones ambientales, y particularmente, en el caso de organismos destinados a la alimentación, en los efectos negativos que pudieran tener para la salud, como alergenicidad, toxicidad, etcétera. Desde el campo de los posibles efectos ambientales, se ha acuñado el neologismo bioseguridad para referirse a las condiciones intrínsecas de los OGM y de su manejo, que garanticen su inocuidad ambiental, y, concretamente, que no interfieran negativamente con las especies silvestres o cultivadas.

30 27

alrededor de tres millones de requisiciones al día provenientes de investigadores ubicados alrededor del mundo.

En los últimos años, muchos científicos observan y se abruman ante la creciente complejidad que representa encontrar información útil en el “laberinto” de los bancos de datos. Para mejorar esta situación, nuevos programas bioinformáticos integran la información dispersa, gestionan bases de datos distribuidas, las seleccionan automáticamente, evalúan su calidad, y facilitan su accesibilidad para los investigadores. Ésta es, grossomodo, la Bioinformática Integradora; en ella se hace un nuevo énfasis en el INTERNET y no en bases de datos locales. La nueva generación de Bioinformática comienza a conocerse con un nuevo término: Bioinformática de Segunda Generación.

Los procesos celulares son gobernados por un repertorio de genes expresados y su patrón de actividad temporal. Se necesitan herramientas para procesar información genética en paralelo. Para ello se emplean nuevas tecnologías para extracción de conocimiento, minería de datos y visualización. Se aplican técnicas de descubrimiento de conocimiento a problemas biológicos, como el análisis de datos del genoma y proteoma. La bioinformática, en este sentido, ofrece la capacidad de comparar y relacionar la información genética con una finalidad deductiva, siendo capaz de ofrecer respuestas que no parecen obvias a la vista de los resultados de los experimentos. Todas estas tecnologías vienen justificadas por la necesidad de tratar información masiva, no individual, sino desde enfoques celulares integrados (genómica funcional y proteómica, entre otros).

POR LOS CAMINOS DE LA BIOINFORMÁTICA MÉDICAActualmente, ya se está aplicando y se vislumbra un futuro prometedor en las áreas de la salud, para ayudar a producir medicinas mejores y más personalizadas que faciliten la prevención o cura de enfermedades. La Medicina Molecular y la Biotecnología constituyen dos áreas prioritarias en el desarrollo e innovación tecnológica. El desarrollo de ambas áreas está estrechamente relacionado y en ambas se pretende potenciar la investigación genómica y postgenómica, así como la Bioinformática, que ha resultado ser una herramienta imprescindible para el desarrollo de éstas.

Entre las actividades por desarrollar, existen acciones estratégicas, de infraestructura, centros de competencia y grandes instalaciones científicas. En esta área, la dotación de infraestructura se plasmará en la creación y dotación de unida-des de referencia tecnológica y centros de suministro común, como Centros de Bioinformática, que cubran las necesidades de la investigación en Medicina Molecular. En cuanto a centros de competencia, se crearán centros de investigación de excelencia en hospitales, en los que se acercará la investigación básica a la clínica, así como centros distribuidos en red para el apoyo a la secuenciación, microarreglos de DNA y bioinformática, en coordinación con la red de centros de investigación genómica y proteómica que se proponen en el área de Biotecnología. En esta área, la genómica y proteómica se fundamentan como acción estratégica o instrumento básico de focalización de las actuaciones futuras. Las tecnologías de la información jugarán un papel fundamental en la aplicación del desarrollo tecnológico del campo de la genética a la práctica médica, como refleja la presencia de la Bioinformática médica y la

Telemedicina dentro de las principales avenidas de la nueva medicina en la era genómica.

La aplicación de los conocimientos en genética molecular y los avances tecnológicos son necesarios para el mantenimiento de la competitividad de los sistemas de salud, no sólo en el tratamiento, sino también en la prevención. La identificación de las causas moleculares de las enfermedades, junto con el desarrollo de la industria biotecnológica en general y el nuevo auge de la farmacéutica en particular, están permitiendo el refinamiento de los métodos de diagnóstico, la identificación de nuevos blancos terapéuticos y el desarrollo de fármacos personalizados.

INVESTIGACIÓN BIOMÉDICA Y MEDICINA CLÍNICAEl Genoma humano tendrá efectos profundos sobre los campos de la investigación biomédica y la medicina clínica.

Cada enfermedad tiene un componente genético. Éste puede ser heredado (como es el caso de la Fibrosis Cística y la enfermedad Huntington) o ser un resultado de la respuesta del cuerpo a un estrés ambiental que causa alteraciones en el genoma (por ejemplo: cánceres, problemas cardíacos y diabetes).

La conclusión del proyecto del genoma humano significa que podemos buscar los genes directamente asociados con enfermedades diferentes y comenzar a entender más claramente las bases moleculares de sus orígenes. Este nuevo conocimiento de los mecanismos moleculares de las enfermedades permitirá el desarrollo de mejores tratamientos, curas y exámenes preventivos.

En el caso particular de nuestro país, ya se han comenzado a dar pasos importantes para integrarnos al contexto actual de la Bioinformática. En este sentido y dada la necesidad de desarrollar una red de Bioinformática en México,se ha propuesto su implementación siguiendo un modelo de Nodos. Esto permitirá cubrir la variedad de necesidades determinadas por las características específicas de los grupos que integran cada región. La Red impulsará cuatro líneas de acción prioritarias: Capacitación, Apoyo a la Investigación, Servicios y Cooperación con Otras Redes. Estas líneas de acción tienen como objetivos específicos la búsqueda de un desarrollo más equilibrado a través de la capacitación científica de grupos emergentes, el desarrollo de una investigación en Bioinformática de alta calidad, la incorporación de nuevos científicos, el compartir y racionalizar recursos disponibles, el establecimiento de líneas de investigación conjunta y la colaboración con otras instituciones.

Por otra parte, las compañías que pretenden llevar a cabo liberaciones al medio ambiente deben proveer información detallada sobre las mismas. Ésta incluye: a) Objetivo de la liberación; b) Cantidad de material que se pretende liberar; c) Fecha de la liberación; d) Sitio exacto de la liberación incluyendo plano de localización y coordenadas geográficas del sitio; e) Métodos propuestos para la contención del polen o los OGMs; f) Método propuesto para la eliminación de materiales al terminar el ensayo y g) Métodos de resguardo y vigilancia del sitio de prueba.

Sin duda uno de los puntos más importantes es lo que se refiere a las formas de contención de los OGMs. Una vez que se plantan OGMs, se debe evitar que éstos puedan diseminar el transgén a otras plantas sexualmente compatibles a través del polen, o bien que algunas semillas o las plantas puedan ser sustraídas o sacadas del sitio del ensayo. Los ensayos que se autorizan son estrictamente vigilados y supervisados por personal de SAGARPA para asegurar que se cumpla con las condiciones de bioseguridad que se han establecido para el mismo. Al final del experimento, se supervisa la destrucción de los materiales sobrantes y el predio utilizado es vigilado posteriormente para detectar la presencia de cualquier planta que haya escapado y que se presente en el siguiente ciclo. Cuando se ha adquirido suficiente experiencia a través de los ensayos iniciales, se puede pasar a la etapa “precomercial”, la cual permite mayores extensiones de cultivo. Estas autorizaciones aún exigen una vigilancia constante y monitoreo de los sitios de cultivo, así como reportes anuales sobre el comportamiento de los OGMs en campo.

LA SITUACIÓN ACTUAL EN MÉXICOEn estos momentos existe un solo producto transgénico en México liberado en etapa precomercial; éste es algodón resistente a insectos (Bt) y/o herbicidas, el cual es cultivado fundamentalmente en el norte del país, y está sujeto a monitoreos de efectividad, manejo del producto, y vigilancia sobre la susceptibilidad/resistencia de insectos a este

producto. Por otra parte el país importa OGMs, evaluados y aprobados para consumo humano y animal por la SSA, para ser usados en la producción de alimentos. Entre ellos tenemos maíz, colza, papa y soya.

La nueva ley tiene una característica especial y es la preocupación de la protección del medio ambiente y las especies silvestres, ya que México es centro de origen/diversidad de un gran número de especies agrícolas. Si bien ésta es una preocupación real, en la reglamentación de la ley se debe tener mucho cuidado en evitar que la precaución genere condiciones altamente restrictivas para la experimentación o el uso de estos materiales en nuestro territorio, y sólo nos quede el recurso de importar estos materiales. Asimismo, hay que considerar que México requiere urgentemente impulsar su desarrollo agrícola, y esto no se puede lograr con legislaciones que restrinjan el progreso en esta materia para nuestros productores. Hay que lograr el balance óptimo entre la protección al medio ambiente y el aprovechamiento de estas nuevas tecnologías.

Total de solicitudes 342

Solicitudes aprobadas a:

Empresas transnacionales 264

Empresas nacionales 13

Universidades/Institutos de Investigación Nacionales 38

Universidades/Institutos de Investigación Extranjeros 24

Colaboraciones Empresa-Univ./Inst. de Invest. Nacionales 3

Especies evaluadas 22

Fenotipos/Características evaluadas 11

Tabla 1. Solicitudes aprobadas por SAGARPA 1988-Oct 2005

30 27

alrededor de tres millones de requisiciones al día provenientes de investigadores ubicados alrededor del mundo.

En los últimos años, muchos científicos observan y se abruman ante la creciente complejidad que representa encontrar información útil en el “laberinto” de los bancos de datos. Para mejorar esta situación, nuevos programas bioinformáticos integran la información dispersa, gestionan bases de datos distribuidas, las seleccionan automáticamente, evalúan su calidad, y facilitan su accesibilidad para los investigadores. Ésta es, grossomodo, la Bioinformática Integradora; en ella se hace un nuevo énfasis en el INTERNET y no en bases de datos locales. La nueva generación de Bioinformática comienza a conocerse con un nuevo término: Bioinformática de Segunda Generación.

Los procesos celulares son gobernados por un repertorio de genes expresados y su patrón de actividad temporal. Se necesitan herramientas para procesar información genética en paralelo. Para ello se emplean nuevas tecnologías para extracción de conocimiento, minería de datos y visualización. Se aplican técnicas de descubrimiento de conocimiento a problemas biológicos, como el análisis de datos del genoma y proteoma. La bioinformática, en este sentido, ofrece la capacidad de comparar y relacionar la información genética con una finalidad deductiva, siendo capaz de ofrecer respuestas que no parecen obvias a la vista de los resultados de los experimentos. Todas estas tecnologías vienen justificadas por la necesidad de tratar información masiva, no individual, sino desde enfoques celulares integrados (genómica funcional y proteómica, entre otros).

POR LOS CAMINOS DE LA BIOINFORMÁTICA MÉDICAActualmente, ya se está aplicando y se vislumbra un futuro prometedor en las áreas de la salud, para ayudar a producir medicinas mejores y más personalizadas que faciliten la prevención o cura de enfermedades. La Medicina Molecular y la Biotecnología constituyen dos áreas prioritarias en el desarrollo e innovación tecnológica. El desarrollo de ambas áreas está estrechamente relacionado y en ambas se pretende potenciar la investigación genómica y postgenómica, así como la Bioinformática, que ha resultado ser una herramienta imprescindible para el desarrollo de éstas.

Entre las actividades por desarrollar, existen acciones estratégicas, de infraestructura, centros de competencia y grandes instalaciones científicas. En esta área, la dotación de infraestructura se plasmará en la creación y dotación de unida-des de referencia tecnológica y centros de suministro común, como Centros de Bioinformática, que cubran las necesidades de la investigación en Medicina Molecular. En cuanto a centros de competencia, se crearán centros de investigación de excelencia en hospitales, en los que se acercará la investigación básica a la clínica, así como centros distribuidos en red para el apoyo a la secuenciación, microarreglos de DNA y bioinformática, en coordinación con la red de centros de investigación genómica y proteómica que se proponen en el área de Biotecnología. En esta área, la genómica y proteómica se fundamentan como acción estratégica o instrumento básico de focalización de las actuaciones futuras. Las tecnologías de la información jugarán un papel fundamental en la aplicación del desarrollo tecnológico del campo de la genética a la práctica médica, como refleja la presencia de la Bioinformática médica y la

Telemedicina dentro de las principales avenidas de la nueva medicina en la era genómica.

La aplicación de los conocimientos en genética molecular y los avances tecnológicos son necesarios para el mantenimiento de la competitividad de los sistemas de salud, no sólo en el tratamiento, sino también en la prevención. La identificación de las causas moleculares de las enfermedades, junto con el desarrollo de la industria biotecnológica en general y el nuevo auge de la farmacéutica en particular, están permitiendo el refinamiento de los métodos de diagnóstico, la identificación de nuevos blancos terapéuticos y el desarrollo de fármacos personalizados.

INVESTIGACIÓN BIOMÉDICA Y MEDICINA CLÍNICAEl Genoma humano tendrá efectos profundos sobre los campos de la investigación biomédica y la medicina clínica.

Cada enfermedad tiene un componente genético. Éste puede ser heredado (como es el caso de la Fibrosis Cística y la enfermedad Huntington) o ser un resultado de la respuesta del cuerpo a un estrés ambiental que causa alteraciones en el genoma (por ejemplo: cánceres, problemas cardíacos y diabetes).

La conclusión del proyecto del genoma humano significa que podemos buscar los genes directamente asociados con enfermedades diferentes y comenzar a entender más claramente las bases moleculares de sus orígenes. Este nuevo conocimiento de los mecanismos moleculares de las enfermedades permitirá el desarrollo de mejores tratamientos, curas y exámenes preventivos.

En el caso particular de nuestro país, ya se han comenzado a dar pasos importantes para integrarnos al contexto actual de la Bioinformática. En este sentido y dada la necesidad de desarrollar una red de Bioinformática en México,se ha propuesto su implementación siguiendo un modelo de Nodos. Esto permitirá cubrir la variedad de necesidades determinadas por las características específicas de los grupos que integran cada región. La Red impulsará cuatro líneas de acción prioritarias: Capacitación, Apoyo a la Investigación, Servicios y Cooperación con Otras Redes. Estas líneas de acción tienen como objetivos específicos la búsqueda de un desarrollo más equilibrado a través de la capacitación científica de grupos emergentes, el desarrollo de una investigación en Bioinformática de alta calidad, la incorporación de nuevos científicos, el compartir y racionalizar recursos disponibles, el establecimiento de líneas de investigación conjunta y la colaboración con otras instituciones.

Por otra parte, las compañías que pretenden llevar a cabo liberaciones al medio ambiente deben proveer información detallada sobre las mismas. Ésta incluye: a) Objetivo de la liberación; b) Cantidad de material que se pretende liberar; c) Fecha de la liberación; d) Sitio exacto de la liberación incluyendo plano de localización y coordenadas geográficas del sitio; e) Métodos propuestos para la contención del polen o los OGMs; f) Método propuesto para la eliminación de materiales al terminar el ensayo y g) Métodos de resguardo y vigilancia del sitio de prueba.

Sin duda uno de los puntos más importantes es lo que se refiere a las formas de contención de los OGMs. Una vez que se plantan OGMs, se debe evitar que éstos puedan diseminar el transgén a otras plantas sexualmente compatibles a través del polen, o bien que algunas semillas o las plantas puedan ser sustraídas o sacadas del sitio del ensayo. Los ensayos que se autorizan son estrictamente vigilados y supervisados por personal de SAGARPA para asegurar que se cumpla con las condiciones de bioseguridad que se han establecido para el mismo. Al final del experimento, se supervisa la destrucción de los materiales sobrantes y el predio utilizado es vigilado posteriormente para detectar la presencia de cualquier planta que haya escapado y que se presente en el siguiente ciclo. Cuando se ha adquirido suficiente experiencia a través de los ensayos iniciales, se puede pasar a la etapa “precomercial”, la cual permite mayores extensiones de cultivo. Estas autorizaciones aún exigen una vigilancia constante y monitoreo de los sitios de cultivo, así como reportes anuales sobre el comportamiento de los OGMs en campo.

LA SITUACIÓN ACTUAL EN MÉXICOEn estos momentos existe un solo producto transgénico en México liberado en etapa precomercial; éste es algodón resistente a insectos (Bt) y/o herbicidas, el cual es cultivado fundamentalmente en el norte del país, y está sujeto a monitoreos de efectividad, manejo del producto, y vigilancia sobre la susceptibilidad/resistencia de insectos a este

producto. Por otra parte el país importa OGMs, evaluados y aprobados para consumo humano y animal por la SSA, para ser usados en la producción de alimentos. Entre ellos tenemos maíz, colza, papa y soya.

La nueva ley tiene una característica especial y es la preocupación de la protección del medio ambiente y las especies silvestres, ya que México es centro de origen/diversidad de un gran número de especies agrícolas. Si bien ésta es una preocupación real, en la reglamentación de la ley se debe tener mucho cuidado en evitar que la precaución genere condiciones altamente restrictivas para la experimentación o el uso de estos materiales en nuestro territorio, y sólo nos quede el recurso de importar estos materiales. Asimismo, hay que considerar que México requiere urgentemente impulsar su desarrollo agrícola, y esto no se puede lograr con legislaciones que restrinjan el progreso en esta materia para nuestros productores. Hay que lograr el balance óptimo entre la protección al medio ambiente y el aprovechamiento de estas nuevas tecnologías.

Total de solicitudes 342

Solicitudes aprobadas a:

Empresas transnacionales 264

Empresas nacionales 13

Universidades/Institutos de Investigación Nacionales 38

Universidades/Institutos de Investigación Extranjeros 24

Colaboraciones Empresa-Univ./Inst. de Invest. Nacionales 3

Especies evaluadas 22

Fenotipos/Características evaluadas 11

Tabla 1. Solicitudes aprobadas por SAGARPA 1988-Oct 2005

28 29

Francisco Bolívar Zapata. Es licenciado en Química, maestro y doctor en Ciencias Químicas, egresado de la Universidad Nacional Autónoma de México. Realizó estudios de posdoctorado en la Escuela de Medicina, Departamento de Bioquímica y Biofísica de la Universidad de California, en San Francisco.

Actualmente es coordinador del Comité Nacional de Biotecnología; en la UNAM es jefe de grupo, investigador y tutor de maestría y doctorado en el Departamento de Ingeniería Celular y Biocatálisis.

A lo largo de su carrera ha recibido importantes reconocimientos, como el Premio “Luis Elizondo”, ITESM (1998) y premio TWAS The Third Word Academy of Sciences (1997), entre otros. Recientemente fue nombrado “Investigador Emérito UNAM” (2005).

Los productos agrícolas que la Biotecnología moderna ofrece pueden tener ventajas considerables sobre los productos del mejoramiento agrícola tradicional. A través de las técnicas de ingeniería genética se pueden incorporar genes de diversos orígenes, no sólo de plantas, para conferir a las nuevas variedades características sumamente novedosas, que los métodos tradicionales no pueden ofrecer, al quedar restringidos al uso de genes que provienen de plantas de la misma especie, generalmente introducidas a través un largo proceso de cruzas y retrocruzas.

Sin embargo, es precisamente la capacidad de transferir genes de diferentes especies a plantas de uso agrícola, confiriéndoles en muchos casos rasgos únicos sin antecedentes en la naturaleza, lo que ha llevado a muchos países a establecer un sistema de evaluación muy rigurosa para estos nuevos organismos, y que tiene como objetivo el establecer la inocuidad de los mismos, tanto como alimento para humanos y animales, como para el medio ambiente.

EL MARCO REGULATORIO EN MÉXICOMéxico no ha sido la excepción en este sentido, y de hecho fue uno de los primeros países en establecer medidas regulatorias a estos productos, conocidos como organismos genéticamente modificados (OGMs), organismos vivos modificados (OVMs) u organismos transgénicos. En los Estados Unidos se comenzó la experimentación con estos productos en 1986, a través de varias de sus empresas productoras de semillas.

En 1988 recibió la Secretaria de Agricultura (SAGARPA), de una compañía transnacional, la primera solicitud para experimentar con estos materiales. A partir de entonces se estableció un comité de expertos para analizar estas solicitudes y emitir una opinión científica a la SAGARPA sobre los posibles riesgos y, con base en esto, recomendar o no la pertinencia de llevar a cabo la experimentación, y de establecer las medidas de seguridad tendientes a evitar la posible salida de estos materiales del sitio del ensayo.

Investigadores titulares Departamento de Ingeniería Genética / CINVESTAV Irapuato

Doctor Ariel Álvarez-MoralesDoctora Alba E. Jofre-Garfias

Actualmente, los productos regulados son aquellos organismos que han sido manipulados mediante técnicas de ingeniería genética y sus derivados. Sin embargo, para fines regulatorios se hace una distinción de estos productos, basada en si los materiales son viables o no. Si son materiales “vivos”, capaces de reproducirse, estarán sujetos a regulación por la SAGARPA y la Secretaria del Medio Ambiente (SEMARNAT). Si además están destinados al consumo humano o animal, en su evaluación interviene la Secretaria de Salud (SSA). Por otro lado, si se pretende importar materiales transgénicos o sus derivados procesados, que han perdido su viabilidad, éstos son evaluados sólo por la SSA.

Actualmente México dispone de la ley de Bioseguridad, que entró en vigor en 2005, y que está en etapa de implementación y reglamentación. Anteriormente, los elementos legales que regulaban el uso de OGMs habían sido la norma NOM-056-FITO-1995, que establece los requisitos para la liberación experimental de estos organismos, y un decreto presidencial emitido en 1999. Asimismo, México es signatario del Protocolo de Cartagena, instrumento internacional que establece las condiciones de bioseguridad que los países deben cumplir para el movimiento transfronterizo de OVMs.

COMISIÓN INTERSECRETARIALDE BIOSEGURIDADEl organismo encargado de regular estas actividades es la Comisión Intersecretarial de Bioseguridad y Organismos Genéticamente Modificados (CIBIOGEM), la cual está conformada por los Secretarios de Agricultura, Medio Ambiente, Salud, Educación, Comercio y Hacienda, e incluye al director general del CONACYT. De manera práctica, desde 1990 la SAGARPA contaba con el Comité Nacional de Bioseguridad Agrícola para la evaluación de las solicitudes de importación, movimiento interestatal y liberación al medio ambiente de los OGMs.

Este comité se transformó en el “Subcomité Especializado en Agricultura” (SEA), ambos conformados por científicos de diversas instituciones de investigación y representantes de organismos de gobierno tales como INE, CONABIO, SSA y por supuesto SAGARPA. Este comité analiza las solicitudes concernientes a los OGMs, elabora un análisis de riesgo, y emite una recomendación a las autoridades competentes al respecto. Actualmente, la SEMARNAT cuenta con un comité semejante (SEMA), y para que una solicitud sea aprobada, debe contar con una recomendación positiva por parte de ambos comités evaluadores.

ELEMENTOS CONSIDERADOS EN EL ANÁLISIS DE RIESGOEn México se regula la importación, movilización interestatal y liberación al medio ambiente de los OGMs y se cuenta ya con una amplia experiencia al respecto (Tabla 1). En todos los

casos hay información básica que debe ser proporcionada a las autoridades competentes. No se puede generalizar en el tipo específico de esta información, ya que depende del tipo de transgén, del fenotipo esperado, del uso del producto, etcétera. Esta información incluye: a) Descripción biológica del organismo receptor del (los) transgén(es); b) Descripción de parientes silvestres sexualmente compatibles si los tiene; c) Descripción biológica del organismo donador del (los) transgén(es); d) Detalles moleculares del método usado para la transformación genética; e) Detalles moleculares de la construcción del transgén; f) Información para caracterizar sin ambigüedad al OGM ; g) Descripción detallada de cómo el OGM difiere del organismo no modificado y h) Descripción detallada de la biología del OGM en comparación con el organismo no modificado.

En cuanto al transporte de los OGMs, se solicita información detallada sobre el remitente, el receptor, el medio de transporte y la ruta utilizada; la cantidad de material que se transporta, el tipo de empaque y su etiquetado y, en caso de importación, la aduana o puerto de entrada.

PRODUCCIÓN Y COMERCIALIZACIÓNDE SEMILLAS HÍBRIDASEl uso que se va a dar a los OGMs varía de acuerdo al tipo de solicitante. La mayoría de las solicitudes provienen de empresas dedicadas a la producción y comercialización de semillas híbridas. Otro grupo interesado lo constituyen los centros de investigación que trabajan con estos materiales; en este caso, se deben mencionar con detalle el objetivo de la experimentación, el método de contención y el método de eliminación o almacenamiento de los OGMs al finalizar la investigación. Cada centro de investigación debe contar con un comité interno de bioseguridad, que vigile el cumplimiento de normas estrictas de confinamiento y control de estos materiales, y que informe a las autoridades competentes cuando se requiera.

28 29

Francisco Bolívar Zapata. Es licenciado en Química, maestro y doctor en Ciencias Químicas, egresado de la Universidad Nacional Autónoma de México. Realizó estudios de posdoctorado en la Escuela de Medicina, Departamento de Bioquímica y Biofísica de la Universidad de California, en San Francisco.

Actualmente es coordinador del Comité Nacional de Biotecnología; en la UNAM es jefe de grupo, investigador y tutor de maestría y doctorado en el Departamento de Ingeniería Celular y Biocatálisis.

A lo largo de su carrera ha recibido importantes reconocimientos, como el Premio “Luis Elizondo”, ITESM (1998) y premio TWAS The Third Word Academy of Sciences (1997), entre otros. Recientemente fue nombrado “Investigador Emérito UNAM” (2005).

Los productos agrícolas que la Biotecnología moderna ofrece pueden tener ventajas considerables sobre los productos del mejoramiento agrícola tradicional. A través de las técnicas de ingeniería genética se pueden incorporar genes de diversos orígenes, no sólo de plantas, para conferir a las nuevas variedades características sumamente novedosas, que los métodos tradicionales no pueden ofrecer, al quedar restringidos al uso de genes que provienen de plantas de la misma especie, generalmente introducidas a través un largo proceso de cruzas y retrocruzas.

Sin embargo, es precisamente la capacidad de transferir genes de diferentes especies a plantas de uso agrícola, confiriéndoles en muchos casos rasgos únicos sin antecedentes en la naturaleza, lo que ha llevado a muchos países a establecer un sistema de evaluación muy rigurosa para estos nuevos organismos, y que tiene como objetivo el establecer la inocuidad de los mismos, tanto como alimento para humanos y animales, como para el medio ambiente.

EL MARCO REGULATORIO EN MÉXICOMéxico no ha sido la excepción en este sentido, y de hecho fue uno de los primeros países en establecer medidas regulatorias a estos productos, conocidos como organismos genéticamente modificados (OGMs), organismos vivos modificados (OVMs) u organismos transgénicos. En los Estados Unidos se comenzó la experimentación con estos productos en 1986, a través de varias de sus empresas productoras de semillas.

En 1988 recibió la Secretaria de Agricultura (SAGARPA), de una compañía transnacional, la primera solicitud para experimentar con estos materiales. A partir de entonces se estableció un comité de expertos para analizar estas solicitudes y emitir una opinión científica a la SAGARPA sobre los posibles riesgos y, con base en esto, recomendar o no la pertinencia de llevar a cabo la experimentación, y de establecer las medidas de seguridad tendientes a evitar la posible salida de estos materiales del sitio del ensayo.

Investigadores titulares Departamento de Ingeniería Genética / CINVESTAV Irapuato

Doctor Ariel Álvarez-MoralesDoctora Alba E. Jofre-Garfias

Actualmente, los productos regulados son aquellos organismos que han sido manipulados mediante técnicas de ingeniería genética y sus derivados. Sin embargo, para fines regulatorios se hace una distinción de estos productos, basada en si los materiales son viables o no. Si son materiales “vivos”, capaces de reproducirse, estarán sujetos a regulación por la SAGARPA y la Secretaria del Medio Ambiente (SEMARNAT). Si además están destinados al consumo humano o animal, en su evaluación interviene la Secretaria de Salud (SSA). Por otro lado, si se pretende importar materiales transgénicos o sus derivados procesados, que han perdido su viabilidad, éstos son evaluados sólo por la SSA.

Actualmente México dispone de la ley de Bioseguridad, que entró en vigor en 2005, y que está en etapa de implementación y reglamentación. Anteriormente, los elementos legales que regulaban el uso de OGMs habían sido la norma NOM-056-FITO-1995, que establece los requisitos para la liberación experimental de estos organismos, y un decreto presidencial emitido en 1999. Asimismo, México es signatario del Protocolo de Cartagena, instrumento internacional que establece las condiciones de bioseguridad que los países deben cumplir para el movimiento transfronterizo de OVMs.

COMISIÓN INTERSECRETARIALDE BIOSEGURIDADEl organismo encargado de regular estas actividades es la Comisión Intersecretarial de Bioseguridad y Organismos Genéticamente Modificados (CIBIOGEM), la cual está conformada por los Secretarios de Agricultura, Medio Ambiente, Salud, Educación, Comercio y Hacienda, e incluye al director general del CONACYT. De manera práctica, desde 1990 la SAGARPA contaba con el Comité Nacional de Bioseguridad Agrícola para la evaluación de las solicitudes de importación, movimiento interestatal y liberación al medio ambiente de los OGMs.

Este comité se transformó en el “Subcomité Especializado en Agricultura” (SEA), ambos conformados por científicos de diversas instituciones de investigación y representantes de organismos de gobierno tales como INE, CONABIO, SSA y por supuesto SAGARPA. Este comité analiza las solicitudes concernientes a los OGMs, elabora un análisis de riesgo, y emite una recomendación a las autoridades competentes al respecto. Actualmente, la SEMARNAT cuenta con un comité semejante (SEMA), y para que una solicitud sea aprobada, debe contar con una recomendación positiva por parte de ambos comités evaluadores.

ELEMENTOS CONSIDERADOS EN EL ANÁLISIS DE RIESGOEn México se regula la importación, movilización interestatal y liberación al medio ambiente de los OGMs y se cuenta ya con una amplia experiencia al respecto (Tabla 1). En todos los

casos hay información básica que debe ser proporcionada a las autoridades competentes. No se puede generalizar en el tipo específico de esta información, ya que depende del tipo de transgén, del fenotipo esperado, del uso del producto, etcétera. Esta información incluye: a) Descripción biológica del organismo receptor del (los) transgén(es); b) Descripción de parientes silvestres sexualmente compatibles si los tiene; c) Descripción biológica del organismo donador del (los) transgén(es); d) Detalles moleculares del método usado para la transformación genética; e) Detalles moleculares de la construcción del transgén; f) Información para caracterizar sin ambigüedad al OGM ; g) Descripción detallada de cómo el OGM difiere del organismo no modificado y h) Descripción detallada de la biología del OGM en comparación con el organismo no modificado.

En cuanto al transporte de los OGMs, se solicita información detallada sobre el remitente, el receptor, el medio de transporte y la ruta utilizada; la cantidad de material que se transporta, el tipo de empaque y su etiquetado y, en caso de importación, la aduana o puerto de entrada.

PRODUCCIÓN Y COMERCIALIZACIÓNDE SEMILLAS HÍBRIDASEl uso que se va a dar a los OGMs varía de acuerdo al tipo de solicitante. La mayoría de las solicitudes provienen de empresas dedicadas a la producción y comercialización de semillas híbridas. Otro grupo interesado lo constituyen los centros de investigación que trabajan con estos materiales; en este caso, se deben mencionar con detalle el objetivo de la experimentación, el método de contención y el método de eliminación o almacenamiento de los OGMs al finalizar la investigación. Cada centro de investigación debe contar con un comité interno de bioseguridad, que vigile el cumplimiento de normas estrictas de confinamiento y control de estos materiales, y que informe a las autoridades competentes cuando se requiera.

30 27

alrededor de tres millones de requisiciones al día provenientes de investigadores ubicados alrededor del mundo.

En los últimos años, muchos científicos observan y se abruman ante la creciente complejidad que representa encontrar información útil en el “laberinto” de los bancos de datos. Para mejorar esta situación, nuevos programas bioinformáticos integran la información dispersa, gestionan bases de datos distribuidas, las seleccionan automáticamente, evalúan su calidad, y facilitan su accesibilidad para los investigadores. Ésta es, grossomodo, la Bioinformática Integradora; en ella se hace un nuevo énfasis en el INTERNET y no en bases de datos locales. La nueva generación de Bioinformática comienza a conocerse con un nuevo término: Bioinformática de Segunda Generación.

Los procesos celulares son gobernados por un repertorio de genes expresados y su patrón de actividad temporal. Se necesitan herramientas para procesar información genética en paralelo. Para ello se emplean nuevas tecnologías para extracción de conocimiento, minería de datos y visualización. Se aplican técnicas de descubrimiento de conocimiento a problemas biológicos, como el análisis de datos del genoma y proteoma. La bioinformática, en este sentido, ofrece la capacidad de comparar y relacionar la información genética con una finalidad deductiva, siendo capaz de ofrecer respuestas que no parecen obvias a la vista de los resultados de los experimentos. Todas estas tecnologías vienen justificadas por la necesidad de tratar información masiva, no individual, sino desde enfoques celulares integrados (genómica funcional y proteómica, entre otros).

POR LOS CAMINOS DE LA BIOINFORMÁTICA MÉDICAActualmente, ya se está aplicando y se vislumbra un futuro prometedor en las áreas de la salud, para ayudar a producir medicinas mejores y más personalizadas que faciliten la prevención o cura de enfermedades. La Medicina Molecular y la Biotecnología constituyen dos áreas prioritarias en el desarrollo e innovación tecnológica. El desarrollo de ambas áreas está estrechamente relacionado y en ambas se pretende potenciar la investigación genómica y postgenómica, así como la Bioinformática, que ha resultado ser una herramienta imprescindible para el desarrollo de éstas.

Entre las actividades por desarrollar, existen acciones estratégicas, de infraestructura, centros de competencia y grandes instalaciones científicas. En esta área, la dotación de infraestructura se plasmará en la creación y dotación de unida-des de referencia tecnológica y centros de suministro común, como Centros de Bioinformática, que cubran las necesidades de la investigación en Medicina Molecular. En cuanto a centros de competencia, se crearán centros de investigación de excelencia en hospitales, en los que se acercará la investigación básica a la clínica, así como centros distribuidos en red para el apoyo a la secuenciación, microarreglos de DNA y bioinformática, en coordinación con la red de centros de investigación genómica y proteómica que se proponen en el área de Biotecnología. En esta área, la genómica y proteómica se fundamentan como acción estratégica o instrumento básico de focalización de las actuaciones futuras. Las tecnologías de la información jugarán un papel fundamental en la aplicación del desarrollo tecnológico del campo de la genética a la práctica médica, como refleja la presencia de la Bioinformática médica y la

Telemedicina dentro de las principales avenidas de la nueva medicina en la era genómica.

La aplicación de los conocimientos en genética molecular y los avances tecnológicos son necesarios para el mantenimiento de la competitividad de los sistemas de salud, no sólo en el tratamiento, sino también en la prevención. La identificación de las causas moleculares de las enfermedades, junto con el desarrollo de la industria biotecnológica en general y el nuevo auge de la farmacéutica en particular, están permitiendo el refinamiento de los métodos de diagnóstico, la identificación de nuevos blancos terapéuticos y el desarrollo de fármacos personalizados.

INVESTIGACIÓN BIOMÉDICA Y MEDICINA CLÍNICAEl Genoma humano tendrá efectos profundos sobre los campos de la investigación biomédica y la medicina clínica.

Cada enfermedad tiene un componente genético. Éste puede ser heredado (como es el caso de la Fibrosis Cística y la enfermedad Huntington) o ser un resultado de la respuesta del cuerpo a un estrés ambiental que causa alteraciones en el genoma (por ejemplo: cánceres, problemas cardíacos y diabetes).

La conclusión del proyecto del genoma humano significa que podemos buscar los genes directamente asociados con enfermedades diferentes y comenzar a entender más claramente las bases moleculares de sus orígenes. Este nuevo conocimiento de los mecanismos moleculares de las enfermedades permitirá el desarrollo de mejores tratamientos, curas y exámenes preventivos.

En el caso particular de nuestro país, ya se han comenzado a dar pasos importantes para integrarnos al contexto actual de la Bioinformática. En este sentido y dada la necesidad de desarrollar una red de Bioinformática en México,se ha propuesto su implementación siguiendo un modelo de Nodos. Esto permitirá cubrir la variedad de necesidades determinadas por las características específicas de los grupos que integran cada región. La Red impulsará cuatro líneas de acción prioritarias: Capacitación, Apoyo a la Investigación, Servicios y Cooperación con Otras Redes. Estas líneas de acción tienen como objetivos específicos la búsqueda de un desarrollo más equilibrado a través de la capacitación científica de grupos emergentes, el desarrollo de una investigación en Bioinformática de alta calidad, la incorporación de nuevos científicos, el compartir y racionalizar recursos disponibles, el establecimiento de líneas de investigación conjunta y la colaboración con otras instituciones.

Por otra parte, las compañías que pretenden llevar a cabo liberaciones al medio ambiente deben proveer información detallada sobre las mismas. Ésta incluye: a) Objetivo de la liberación; b) Cantidad de material que se pretende liberar; c) Fecha de la liberación; d) Sitio exacto de la liberación incluyendo plano de localización y coordenadas geográficas del sitio; e) Métodos propuestos para la contención del polen o los OGMs; f) Método propuesto para la eliminación de materiales al terminar el ensayo y g) Métodos de resguardo y vigilancia del sitio de prueba.

Sin duda uno de los puntos más importantes es lo que se refiere a las formas de contención de los OGMs. Una vez que se plantan OGMs, se debe evitar que éstos puedan diseminar el transgén a otras plantas sexualmente compatibles a través del polen, o bien que algunas semillas o las plantas puedan ser sustraídas o sacadas del sitio del ensayo. Los ensayos que se autorizan son estrictamente vigilados y supervisados por personal de SAGARPA para asegurar que se cumpla con las condiciones de bioseguridad que se han establecido para el mismo. Al final del experimento, se supervisa la destrucción de los materiales sobrantes y el predio utilizado es vigilado posteriormente para detectar la presencia de cualquier planta que haya escapado y que se presente en el siguiente ciclo. Cuando se ha adquirido suficiente experiencia a través de los ensayos iniciales, se puede pasar a la etapa “precomercial”, la cual permite mayores extensiones de cultivo. Estas autorizaciones aún exigen una vigilancia constante y monitoreo de los sitios de cultivo, así como reportes anuales sobre el comportamiento de los OGMs en campo.

LA SITUACIÓN ACTUAL EN MÉXICOEn estos momentos existe un solo producto transgénico en México liberado en etapa precomercial; éste es algodón resistente a insectos (Bt) y/o herbicidas, el cual es cultivado fundamentalmente en el norte del país, y está sujeto a monitoreos de efectividad, manejo del producto, y vigilancia sobre la susceptibilidad/resistencia de insectos a este

producto. Por otra parte el país importa OGMs, evaluados y aprobados para consumo humano y animal por la SSA, para ser usados en la producción de alimentos. Entre ellos tenemos maíz, colza, papa y soya.

La nueva ley tiene una característica especial y es la preocupación de la protección del medio ambiente y las especies silvestres, ya que México es centro de origen/diversidad de un gran número de especies agrícolas. Si bien ésta es una preocupación real, en la reglamentación de la ley se debe tener mucho cuidado en evitar que la precaución genere condiciones altamente restrictivas para la experimentación o el uso de estos materiales en nuestro territorio, y sólo nos quede el recurso de importar estos materiales. Asimismo, hay que considerar que México requiere urgentemente impulsar su desarrollo agrícola, y esto no se puede lograr con legislaciones que restrinjan el progreso en esta materia para nuestros productores. Hay que lograr el balance óptimo entre la protección al medio ambiente y el aprovechamiento de estas nuevas tecnologías.

Total de solicitudes 342

Solicitudes aprobadas a:

Empresas transnacionales 264

Empresas nacionales 13

Universidades/Institutos de Investigación Nacionales 38

Universidades/Institutos de Investigación Extranjeros 24

Colaboraciones Empresa-Univ./Inst. de Invest. Nacionales 3

Especies evaluadas 22

Fenotipos/Características evaluadas 11

Tabla 1. Solicitudes aprobadas por SAGARPA 1988-Oct 2005

26 31

•El usuario final puede no ser un usuario frecuente de la tecnología computacional.

•Estas herramientas deben estar disponibles en el Internet dada la distribución global de la comunidad de investigación científica.

Las bases de datos proporcionan una amplia gama de herramientas de análisis de datos biológicos que caen dentro

de las siguientes categorías principales:

Instrumentos de Búsqueda de Similitud.- Secuencias homólogas son las secuencias que están relacionadas por la divergencia de un antepasado común. Este conjunto de instrumentos puede ser utilizado para identificar la similitud entre las nuevas secuencias que se analizan y las secuencias presentes en las bases de datos, cuya estructura y función ya se han descrito.

Análisis de Función de Proteínas.- Este grupo de programas permite comparar la secuencia de proteína que el investigador analiza con las bases de datos secundarias de proteína que contienen la información sobre motivos, firmas y dominios de proteínas. Las comparaciones contra estas bases de datos de patrones diferentes son sumamente significativas, porque permiten predecir la función bioquímica de la proteína analizada.

Análisis Estructural.- Este conjunto de herramientas permite realizar comparaciones utilizando como referencia base de datos de proteínas cuyas estructiras han sido determinadas. Es importante señalar que en el caso de homólogos estructurales que comparten una función, ésta constituye una consecuencia directa de su estructura más que de su secuencia.

Análisis de Secuencia.- Este conjunto de herramientas permite realizar un análisis más detallado sobre la secuencia que se desea analizar e incluye: el análisis evolutivo, la identificación de mutaciones, regiones hidropáticas, islas CpG y tendencias compositivas (Composición de bases). La identificación de éstas y otras propiedades biológicas son pistas que ayudan en la búsqueda de aclarar la función específica de dicha secuencia y ahorra tiempo en el aspecto experimental.

LA BOINFORMÁTICA EN LA ERA POSGENÓMICALa generación de secuencias, y su subsiguiente almacenaje, interpretación y análisis, son tareas completamente dependientes de las computadoras. Sin embargo, la biología molecular de un organismo es una cuestión mucho más compleja; por ello, ahora la investigación se lleva a cabo a diferentes niveles que incluyen el genoma, transcriptoma, proteoma y metaboloma. Por tanto, una consecuencia lógica de la explosión en el volumen de datos genómicos, es un aumento similar en la cantidad de datos que se generan en estos campos.

El primer desafío que afronta hoy la comunidad de bioinformáticos es el almacenaje inteligente y eficiente de esta enorme cantidad de datos, con el objetivo de proporcionar un acceso fácil y confiable a éstos. Los datos por sí mismos

no tienen significado hasta que puedan ser analizados, y su volumen actual hace que sea imposible hasta para un biólogo entrenado interpretarlos a mano. Por lo tanto, la aplicación de los avances tecnológicos en el área de la computación y el desarrollo de algoritmos más complejos para llevar a cabo estos análisis son fundamentales para la extracción de información biológica significativa. La integración de la información aprendida sobre los procesos similares claves permitirá alcanzar a largo plazo el entendimiento completo de la biología de los organismos.

Actualmente, conocemos la secuencia de más de un millón y medio de proteínas, la de más de cien genomas y la estructura tridimensional de más de 20 mil proteínas. Gracias a los experimentos de matrices de ADN, sabemos cuándo y cómo se expresan los genes; también disponemos de muchos datos que indican qué proteínas interaccionan entre sí; y todo el conocimiento científico acumulado a lo largo de las últimas décadas se encuentra disperso en más de 12 millones de artículos.

APORTACIONES DE LA BIOINFORMÁTICAPara comprender la información codificada en el DNA debemos encontrar los genes y predecir su función. La tarea no es fácil: en el genoma humano tan sólo un dos por ciento del contenido se corresponde con los segmentos de genes que codifican para proteínas (exones). ¿Cómo distinguirlas del resto? La Bioinformática ha aportado algunas soluciones que constituyen alternativas de gran valor al lento y costoso trabajo experimental y ha permitido describir millones de diferencias en la secuencia entre distintas personas.

La Bioinformática tradicionalmente se ha centrado en el estudio de las proteínas y los genes de forma aislada. Por ejemplo, para predecir la función o la estructura tridimensional de una proteína nueva, se buscan proteínas parecidas cuya función o estructura ya se conozcan. Existen multitud de métodos computacionales en torno a esta perspectiva, y han sido, y siguen siendo, de gran ayuda. Desde hace algunos años, sin embargo, el panorama se ha ampliado: nuevas técnicas experimentales permiten conocer las redes de interacción entre proteínas de una célula, o cómo se expresan en determinada situación miles de genes. Este incipiente punto de vista, más amplio, necesita de nuevos métodos para que seamos capaces de comprender los datos.

BIOINFORMÁTICA DE SEGUNDA GENERACIÓNIntegración es la palabra clave para entender la importancia de la Bioinformática, ya que a través de herramientas y utilizando la información ya depositada en bases de datos alrededor del mundo, estamos comenzando a descubrir relaciones no triviales escondidas en el código de la vida. La bioinformática ha empezado a ocupar un papel central como “el enlace” que une a diversas áreas de la ciencia, como la enzimología, la genética, la biología estructural, la medicina, la evolución, entre muchas otras. La pregunta crítica es ¿cómo distinguir las relaciones importantes dentro de tanta información? Esta pregunta y muchos otros problemas biológicos están siendo respondidos a través de la Bioinformática, uniendo o relacionando toda la información que está depositada en las bases de datos a través de comparar genes y proteínas. Como un ejemplo práctico de lo anterior, NCBI, el Centro de Bioinformática del NIH, recibe y procesa en su sitio Web

Marco Antonio Meraz Ríos. Nació en la Ciudad de México. Es químico farmacéutico biólogo, egresado de la Facultad de Estudios Superiores-Cuautitlán, de la Universidad Nacional Autónoma de México en 1983.Realizó la Maestría en Ciencias en Biología Celular del Cinvestav, de 1985 a 1987. Obtuvo el Doctorado en Ciencias en Biología Molecular del Cinvestav en l990. Realizó estudios de Posdoctorado en la Washington University School of Medicine, St. Louis, Missouri, USA de 1990 a 1995.Ha impartido cátedra en licenciatura, maestría y doctorado en universidades, colegios y centros de investigación nacionales y del extranjero. Ha graduado a ocho licenciados, 23 maestros en Ciencias y 11 doctores en Ciencias. Ha publicado 21 artículos científicos en revistas internacionales especializadas, con más de mil 500 citas a sus trabajos.Ha publicado dos capítulos en libros y varios artículos de divulgación.Ha impartido más de 120 conferencias en foros nacionales y del extranjero, como: Australia, Francia, España, Estados Unidos de Norteamérica, Canadá, Venezuela, Uruguay, Chile, Malasia, Hawai, Argentina, Vietnam, Costa Rica, Puerto Rico y Colombia.Es investigador nivel II, del Sistema Nacional de Investigadores. Ha fungido como coordinador académico del Departamento de Biología Celular y del Departamento de Biomedicina Molecular; fue coordinador general de Servicios Bibliográficos y Experimentales del Cinvestav y presidente del Comité Institucional para el Uso y Cuidado de los Animales de Laboratorio, del Cinvestav.

Fue en la década de los 80 cuando los organismos genéticamente modificados (OGM) comenzaron a salir de los laboratorios; llegaron primero en pequeños ensayos de campo, y 10 años después se hicieron grandes liberaciones a escala comercial de plantas transgénicas. Es por ello que el debate sobre la seguridad de estos organismos es tan amplio y sostenido, y se centra en el campo de sus posibles repercusiones ambientales, y particularmente, en el caso de organismos destinados a la alimentación, en los efectos negativos que pudieran tener para la salud, como alergenicidad, toxicidad, etcétera. Desde el campo de los posibles efectos ambientales, se ha acuñado el neologismo bioseguridad para referirse a las condiciones intrínsecas de los OGM y de su manejo, que garanticen su inocuidad ambiental, y, concretamente, que no interfieran negativamente con las especies silvestres o cultivadas.

30 27

alrededor de tres millones de requisiciones al día provenientes de investigadores ubicados alrededor del mundo.

En los últimos años, muchos científicos observan y se abruman ante la creciente complejidad que representa encontrar información útil en el “laberinto” de los bancos de datos. Para mejorar esta situación, nuevos programas bioinformáticos integran la información dispersa, gestionan bases de datos distribuidas, las seleccionan automáticamente, evalúan su calidad, y facilitan su accesibilidad para los investigadores. Ésta es, grossomodo, la Bioinformática Integradora; en ella se hace un nuevo énfasis en el INTERNET y no en bases de datos locales. La nueva generación de Bioinformática comienza a conocerse con un nuevo término: Bioinformática de Segunda Generación.

Los procesos celulares son gobernados por un repertorio de genes expresados y su patrón de actividad temporal. Se necesitan herramientas para procesar información genética en paralelo. Para ello se emplean nuevas tecnologías para extracción de conocimiento, minería de datos y visualización. Se aplican técnicas de descubrimiento de conocimiento a problemas biológicos, como el análisis de datos del genoma y proteoma. La bioinformática, en este sentido, ofrece la capacidad de comparar y relacionar la información genética con una finalidad deductiva, siendo capaz de ofrecer respuestas que no parecen obvias a la vista de los resultados de los experimentos. Todas estas tecnologías vienen justificadas por la necesidad de tratar información masiva, no individual, sino desde enfoques celulares integrados (genómica funcional y proteómica, entre otros).

POR LOS CAMINOS DE LA BIOINFORMÁTICA MÉDICAActualmente, ya se está aplicando y se vislumbra un futuro prometedor en las áreas de la salud, para ayudar a producir medicinas mejores y más personalizadas que faciliten la prevención o cura de enfermedades. La Medicina Molecular y la Biotecnología constituyen dos áreas prioritarias en el desarrollo e innovación tecnológica. El desarrollo de ambas áreas está estrechamente relacionado y en ambas se pretende potenciar la investigación genómica y postgenómica, así como la Bioinformática, que ha resultado ser una herramienta imprescindible para el desarrollo de éstas.

Entre las actividades por desarrollar, existen acciones estratégicas, de infraestructura, centros de competencia y grandes instalaciones científicas. En esta área, la dotación de infraestructura se plasmará en la creación y dotación de unida-des de referencia tecnológica y centros de suministro común, como Centros de Bioinformática, que cubran las necesidades de la investigación en Medicina Molecular. En cuanto a centros de competencia, se crearán centros de investigación de excelencia en hospitales, en los que se acercará la investigación básica a la clínica, así como centros distribuidos en red para el apoyo a la secuenciación, microarreglos de DNA y bioinformática, en coordinación con la red de centros de investigación genómica y proteómica que se proponen en el área de Biotecnología. En esta área, la genómica y proteómica se fundamentan como acción estratégica o instrumento básico de focalización de las actuaciones futuras. Las tecnologías de la información jugarán un papel fundamental en la aplicación del desarrollo tecnológico del campo de la genética a la práctica médica, como refleja la presencia de la Bioinformática médica y la

Telemedicina dentro de las principales avenidas de la nueva medicina en la era genómica.

La aplicación de los conocimientos en genética molecular y los avances tecnológicos son necesarios para el mantenimiento de la competitividad de los sistemas de salud, no sólo en el tratamiento, sino también en la prevención. La identificación de las causas moleculares de las enfermedades, junto con el desarrollo de la industria biotecnológica en general y el nuevo auge de la farmacéutica en particular, están permitiendo el refinamiento de los métodos de diagnóstico, la identificación de nuevos blancos terapéuticos y el desarrollo de fármacos personalizados.

INVESTIGACIÓN BIOMÉDICA Y MEDICINA CLÍNICAEl Genoma humano tendrá efectos profundos sobre los campos de la investigación biomédica y la medicina clínica.

Cada enfermedad tiene un componente genético. Éste puede ser heredado (como es el caso de la Fibrosis Cística y la enfermedad Huntington) o ser un resultado de la respuesta del cuerpo a un estrés ambiental que causa alteraciones en el genoma (por ejemplo: cánceres, problemas cardíacos y diabetes).

La conclusión del proyecto del genoma humano significa que podemos buscar los genes directamente asociados con enfermedades diferentes y comenzar a entender más claramente las bases moleculares de sus orígenes. Este nuevo conocimiento de los mecanismos moleculares de las enfermedades permitirá el desarrollo de mejores tratamientos, curas y exámenes preventivos.

En el caso particular de nuestro país, ya se han comenzado a dar pasos importantes para integrarnos al contexto actual de la Bioinformática. En este sentido y dada la necesidad de desarrollar una red de Bioinformática en México,se ha propuesto su implementación siguiendo un modelo de Nodos. Esto permitirá cubrir la variedad de necesidades determinadas por las características específicas de los grupos que integran cada región. La Red impulsará cuatro líneas de acción prioritarias: Capacitación, Apoyo a la Investigación, Servicios y Cooperación con Otras Redes. Estas líneas de acción tienen como objetivos específicos la búsqueda de un desarrollo más equilibrado a través de la capacitación científica de grupos emergentes, el desarrollo de una investigación en Bioinformática de alta calidad, la incorporación de nuevos científicos, el compartir y racionalizar recursos disponibles, el establecimiento de líneas de investigación conjunta y la colaboración con otras instituciones.

Por otra parte, las compañías que pretenden llevar a cabo liberaciones al medio ambiente deben proveer información detallada sobre las mismas. Ésta incluye: a) Objetivo de la liberación; b) Cantidad de material que se pretende liberar; c) Fecha de la liberación; d) Sitio exacto de la liberación incluyendo plano de localización y coordenadas geográficas del sitio; e) Métodos propuestos para la contención del polen o los OGMs; f) Método propuesto para la eliminación de materiales al terminar el ensayo y g) Métodos de resguardo y vigilancia del sitio de prueba.

Sin duda uno de los puntos más importantes es lo que se refiere a las formas de contención de los OGMs. Una vez que se plantan OGMs, se debe evitar que éstos puedan diseminar el transgén a otras plantas sexualmente compatibles a través del polen, o bien que algunas semillas o las plantas puedan ser sustraídas o sacadas del sitio del ensayo. Los ensayos que se autorizan son estrictamente vigilados y supervisados por personal de SAGARPA para asegurar que se cumpla con las condiciones de bioseguridad que se han establecido para el mismo. Al final del experimento, se supervisa la destrucción de los materiales sobrantes y el predio utilizado es vigilado posteriormente para detectar la presencia de cualquier planta que haya escapado y que se presente en el siguiente ciclo. Cuando se ha adquirido suficiente experiencia a través de los ensayos iniciales, se puede pasar a la etapa “precomercial”, la cual permite mayores extensiones de cultivo. Estas autorizaciones aún exigen una vigilancia constante y monitoreo de los sitios de cultivo, así como reportes anuales sobre el comportamiento de los OGMs en campo.

LA SITUACIÓN ACTUAL EN MÉXICOEn estos momentos existe un solo producto transgénico en México liberado en etapa precomercial; éste es algodón resistente a insectos (Bt) y/o herbicidas, el cual es cultivado fundamentalmente en el norte del país, y está sujeto a monitoreos de efectividad, manejo del producto, y vigilancia sobre la susceptibilidad/resistencia de insectos a este

producto. Por otra parte el país importa OGMs, evaluados y aprobados para consumo humano y animal por la SSA, para ser usados en la producción de alimentos. Entre ellos tenemos maíz, colza, papa y soya.

La nueva ley tiene una característica especial y es la preocupación de la protección del medio ambiente y las especies silvestres, ya que México es centro de origen/diversidad de un gran número de especies agrícolas. Si bien ésta es una preocupación real, en la reglamentación de la ley se debe tener mucho cuidado en evitar que la precaución genere condiciones altamente restrictivas para la experimentación o el uso de estos materiales en nuestro territorio, y sólo nos quede el recurso de importar estos materiales. Asimismo, hay que considerar que México requiere urgentemente impulsar su desarrollo agrícola, y esto no se puede lograr con legislaciones que restrinjan el progreso en esta materia para nuestros productores. Hay que lograr el balance óptimo entre la protección al medio ambiente y el aprovechamiento de estas nuevas tecnologías.

Total de solicitudes 342

Solicitudes aprobadas a:

Empresas transnacionales 264

Empresas nacionales 13

Universidades/Institutos de Investigación Nacionales 38

Universidades/Institutos de Investigación Extranjeros 24

Colaboraciones Empresa-Univ./Inst. de Invest. Nacionales 3

Especies evaluadas 22

Fenotipos/Características evaluadas 11

Tabla 1. Solicitudes aprobadas por SAGARPA 1988-Oct 2005

26 31

•El usuario final puede no ser un usuario frecuente de la tecnología computacional.

•Estas herramientas deben estar disponibles en el Internet dada la distribución global de la comunidad de investigación científica.

Las bases de datos proporcionan una amplia gama de herramientas de análisis de datos biológicos que caen dentro

de las siguientes categorías principales:

Instrumentos de Búsqueda de Similitud.- Secuencias homólogas son las secuencias que están relacionadas por la divergencia de un antepasado común. Este conjunto de instrumentos puede ser utilizado para identificar la similitud entre las nuevas secuencias que se analizan y las secuencias presentes en las bases de datos, cuya estructura y función ya se han descrito.

Análisis de Función de Proteínas.- Este grupo de programas permite comparar la secuencia de proteína que el investigador analiza con las bases de datos secundarias de proteína que contienen la información sobre motivos, firmas y dominios de proteínas. Las comparaciones contra estas bases de datos de patrones diferentes son sumamente significativas, porque permiten predecir la función bioquímica de la proteína analizada.

Análisis Estructural.- Este conjunto de herramientas permite realizar comparaciones utilizando como referencia base de datos de proteínas cuyas estructiras han sido determinadas. Es importante señalar que en el caso de homólogos estructurales que comparten una función, ésta constituye una consecuencia directa de su estructura más que de su secuencia.

Análisis de Secuencia.- Este conjunto de herramientas permite realizar un análisis más detallado sobre la secuencia que se desea analizar e incluye: el análisis evolutivo, la identificación de mutaciones, regiones hidropáticas, islas CpG y tendencias compositivas (Composición de bases). La identificación de éstas y otras propiedades biológicas son pistas que ayudan en la búsqueda de aclarar la función específica de dicha secuencia y ahorra tiempo en el aspecto experimental.

LA BOINFORMÁTICA EN LA ERA POSGENÓMICALa generación de secuencias, y su subsiguiente almacenaje, interpretación y análisis, son tareas completamente dependientes de las computadoras. Sin embargo, la biología molecular de un organismo es una cuestión mucho más compleja; por ello, ahora la investigación se lleva a cabo a diferentes niveles que incluyen el genoma, transcriptoma, proteoma y metaboloma. Por tanto, una consecuencia lógica de la explosión en el volumen de datos genómicos, es un aumento similar en la cantidad de datos que se generan en estos campos.

El primer desafío que afronta hoy la comunidad de bioinformáticos es el almacenaje inteligente y eficiente de esta enorme cantidad de datos, con el objetivo de proporcionar un acceso fácil y confiable a éstos. Los datos por sí mismos

no tienen significado hasta que puedan ser analizados, y su volumen actual hace que sea imposible hasta para un biólogo entrenado interpretarlos a mano. Por lo tanto, la aplicación de los avances tecnológicos en el área de la computación y el desarrollo de algoritmos más complejos para llevar a cabo estos análisis son fundamentales para la extracción de información biológica significativa. La integración de la información aprendida sobre los procesos similares claves permitirá alcanzar a largo plazo el entendimiento completo de la biología de los organismos.

Actualmente, conocemos la secuencia de más de un millón y medio de proteínas, la de más de cien genomas y la estructura tridimensional de más de 20 mil proteínas. Gracias a los experimentos de matrices de ADN, sabemos cuándo y cómo se expresan los genes; también disponemos de muchos datos que indican qué proteínas interaccionan entre sí; y todo el conocimiento científico acumulado a lo largo de las últimas décadas se encuentra disperso en más de 12 millones de artículos.

APORTACIONES DE LA BIOINFORMÁTICAPara comprender la información codificada en el DNA debemos encontrar los genes y predecir su función. La tarea no es fácil: en el genoma humano tan sólo un dos por ciento del contenido se corresponde con los segmentos de genes que codifican para proteínas (exones). ¿Cómo distinguirlas del resto? La Bioinformática ha aportado algunas soluciones que constituyen alternativas de gran valor al lento y costoso trabajo experimental y ha permitido describir millones de diferencias en la secuencia entre distintas personas.

La Bioinformática tradicionalmente se ha centrado en el estudio de las proteínas y los genes de forma aislada. Por ejemplo, para predecir la función o la estructura tridimensional de una proteína nueva, se buscan proteínas parecidas cuya función o estructura ya se conozcan. Existen multitud de métodos computacionales en torno a esta perspectiva, y han sido, y siguen siendo, de gran ayuda. Desde hace algunos años, sin embargo, el panorama se ha ampliado: nuevas técnicas experimentales permiten conocer las redes de interacción entre proteínas de una célula, o cómo se expresan en determinada situación miles de genes. Este incipiente punto de vista, más amplio, necesita de nuevos métodos para que seamos capaces de comprender los datos.

BIOINFORMÁTICA DE SEGUNDA GENERACIÓNIntegración es la palabra clave para entender la importancia de la Bioinformática, ya que a través de herramientas y utilizando la información ya depositada en bases de datos alrededor del mundo, estamos comenzando a descubrir relaciones no triviales escondidas en el código de la vida. La bioinformática ha empezado a ocupar un papel central como “el enlace” que une a diversas áreas de la ciencia, como la enzimología, la genética, la biología estructural, la medicina, la evolución, entre muchas otras. La pregunta crítica es ¿cómo distinguir las relaciones importantes dentro de tanta información? Esta pregunta y muchos otros problemas biológicos están siendo respondidos a través de la Bioinformática, uniendo o relacionando toda la información que está depositada en las bases de datos a través de comparar genes y proteínas. Como un ejemplo práctico de lo anterior, NCBI, el Centro de Bioinformática del NIH, recibe y procesa en su sitio Web

Marco Antonio Meraz Ríos. Nació en la Ciudad de México. Es químico farmacéutico biólogo, egresado de la Facultad de Estudios Superiores-Cuautitlán, de la Universidad Nacional Autónoma de México en 1983.Realizó la Maestría en Ciencias en Biología Celular del Cinvestav, de 1985 a 1987. Obtuvo el Doctorado en Ciencias en Biología Molecular del Cinvestav en l990. Realizó estudios de Posdoctorado en la Washington University School of Medicine, St. Louis, Missouri, USA de 1990 a 1995.Ha impartido cátedra en licenciatura, maestría y doctorado en universidades, colegios y centros de investigación nacionales y del extranjero. Ha graduado a ocho licenciados, 23 maestros en Ciencias y 11 doctores en Ciencias. Ha publicado 21 artículos científicos en revistas internacionales especializadas, con más de mil 500 citas a sus trabajos.Ha publicado dos capítulos en libros y varios artículos de divulgación.Ha impartido más de 120 conferencias en foros nacionales y del extranjero, como: Australia, Francia, España, Estados Unidos de Norteamérica, Canadá, Venezuela, Uruguay, Chile, Malasia, Hawai, Argentina, Vietnam, Costa Rica, Puerto Rico y Colombia.Es investigador nivel II, del Sistema Nacional de Investigadores. Ha fungido como coordinador académico del Departamento de Biología Celular y del Departamento de Biomedicina Molecular; fue coordinador general de Servicios Bibliográficos y Experimentales del Cinvestav y presidente del Comité Institucional para el Uso y Cuidado de los Animales de Laboratorio, del Cinvestav.

Fue en la década de los 80 cuando los organismos genéticamente modificados (OGM) comenzaron a salir de los laboratorios; llegaron primero en pequeños ensayos de campo, y 10 años después se hicieron grandes liberaciones a escala comercial de plantas transgénicas. Es por ello que el debate sobre la seguridad de estos organismos es tan amplio y sostenido, y se centra en el campo de sus posibles repercusiones ambientales, y particularmente, en el caso de organismos destinados a la alimentación, en los efectos negativos que pudieran tener para la salud, como alergenicidad, toxicidad, etcétera. Desde el campo de los posibles efectos ambientales, se ha acuñado el neologismo bioseguridad para referirse a las condiciones intrínsecas de los OGM y de su manejo, que garanticen su inocuidad ambiental, y, concretamente, que no interfieran negativamente con las especies silvestres o cultivadas.

32 25

La necesidad de descifrar la inmensa cantidad de información revelada principalmente por el proyecto del Genoma Humano, ha impulsado el desarrollo de la Bioinformática. El ADN, la molécula que atesora el código de la vida, controla directamente la biología fundamental de la vida y determina las particularidades de cada organismo. Es por ello que en el caso particular del humano, las variaciones y las mutaciones presentes en el ADN genómico, predisponen o condicionan el desarrollo de las muchas enfermedades que nos aquejan.

Desde principios de la década de 1990, muchos laboratorios sumaron esfuerzos para descifrar los genomas de varias especies representativas de los diferen-tes grupos de seres vivos, desde bacterias hasta animales y plantas, pasando por insectos y culminando por supuesto, en 2003 con el humano. Estos proyectos de secuenciación masiva del ADN han contribuido al desarrollo y crecimiento de la Bioinformática, generando cantidades enormes de información biológica que se almacenan en grandes bases de datos, la mayoría de las cuales son accesibles de forma gratuita a través de Internet.

DESARROLLO DE PROGRAMAS COMPUTACIONALESAdemás de reunir y organizar toda esta información, es necesario analizar y descubrir en las secuencias de nucleóti-dos o de aminoácidos, las semejanzas y las diferencias de cada hallazgo. No resulta conveniente ni práctico comparar las secuencias de varios miles de nucleótidos o aminoácidos de manera manual. Por ello, se han desarrollado numerosos programas de cómputo para facilitar esta enorme tarea. Además, los programas computacionales disminuyen la posibilidad de errores que conllevan los análisis manuales.

Con el incremento en la complejidad y la capacidad, tanto de las computadoras como de las técnicas de investigación, ha surgido la necesidad de profesionales que sirvan como “enlaces” entre ambas disciplinas y sean capaces de comunicar-se con los expertos de los dos campos. Tradicionalmente, la investigación en el campo de la biología molecular se ha realizado completamente en la mesa experimental del laboratorio, pero el enorme incremento en los volúmenes de datos que están siendo generados en esta era genómica, ha impulsado la

incorporación de computadoras en este proceso de investigación. El uso de las computadoras para resolver cuestiones biológicas comenzó con el desarrollo de algoritmos y su aplicación en el entendimiento de las interacciones de los procesos biológicos y las relaciones filogenéticas entre diversos organismos.

SISTEMAS INFORMÁTICOS UTILIZADOSBásicamente, los sistemas informáticos que se emplean en este campo son: Bases de datos locales o accesibles mediante programas de Internet; aplicación y manejo de datos de laboratorio; automatización de experimentos, técni-cas de inteligencia artificial, literatura médica y científica relevante; programas de distribución de datos; programas para modelación; programas para generación

y ensamblaje de secuencias; programas de alineamiento y análisis de secuencias nucleotídicas y aminoacídicas; programas para predicción de genes, dominios funcionales y estructuras de proteínas; programas para clasificación, comparación, evolución molecular y árboles filogenéticos; paquetes de integración y ensamblaje de mapas genéticos, entre muchos más.

El objetivo final de la bioinformática es descubrir la riqueza de información biológica que se encuentra oculta entre toda la masa de secuencias, estructuras, literatura y otros datos biológicos.

Obtener una idea más clara de la biolo-gía fundamental de los organismos, seguro tendrá impactos profundos

sobre campos tan variados como la sa-lud humana, la agricultura, el ambiente, la energía y la biotecnología.

MINA DE INFORMACIÓN PARA DESCUBRIMIENTOS BIOLÓGICOS Las bases de datos biológicos son archivos de datos que son almacenados de manera uniforme y eficiente. Estas bases contienen datos de un amplio espectro de áreas de la biología molecular. Las bases de datos primarias o archivadas contienen la información y las características o anotación de secuencias, estructuras y perfiles de expresión de ADN y de proteínas. Las Bases de datos secundarias o derivadas son así llamadas porque contienen los resultados de análisis sobre las fuentes primarias, incluyendo la información sobre los patrones de secuencia o motivos, variantes, mutaciones y relaciones evolutivas.

Es esencial que estas bases de datos sean fácilmente accesibles y que proporcionen un sistema de búsqueda intuitivo para permitir a los investigadores obtener información muy específica sobre un tema biológico particular. Se han estructurado bases de datos especializadas en temas particulares, como por ejemplo: EMBL, una base de datos para secuencias nucleotídicas; UniProtKB/Swiss-Prot, una base de datos de proteínas, y PDB, una base de datos de estructuras tridimensionales de proteínas. Los científicos también tienen que ser capaces de integrar la información obtenida de las bases de datos subyacentes heterogéneas en una manera sensible para ser capaces de conseguir una descripción clara de un tema biológico.

Una vez que todos los datos biológicos son almacenados coherentemente y están fácilmente disponibles a la comunidad científica, se requiere de métodos para extraer la información significativa entre esta enorme cantidad de datos.

Las herramientas bioinformáticas que permiten realizar este paso de análisis son paquetes computacionales que utilizan sofisticados algoritmos computacionales.

Los factores que se deben tomar en cuenta en el diseño de estas herramientas son:

Asimismo, se ha discutido mucho sobre la importancia de la conservación y gestión de los recursos vivos del planeta: “la biodiversidad”. Por un lado, la diversidad biológica representa una gigantesca reserva de material genético, en su mayoría inexplorada; y por otro lado, los países ricos en biodiversidad son los menos desarrollados, y, al no poseer los medios tecnológicos para explotar esta riqueza, se encuentran en desventaja frente a los países desarrollados, a pesar de tener el legítimo interés de que la comunidad internacional valore sus recursos vivos, y que se vean compensados de un modo justo por su conservación y su disponibilidad para la humanidad.

GRANDES DESAFÍOS DE LA BIOSEGURIDADDe lo anterior, podemos ver dos grandes desafíos dignos de destacar en el marco de la bioseguridad y la biodiversidad. El primero se refiere al cambio tan vertiginoso que producen las metodologías de la biotecnología moderna, que es una de las áreas del conocimiento científico de más relevante evolución en las últimas décadas y que mayor impacto ha tenido en el desarrollo de distintos sectores de la sociedad, y que sin duda, está produciendo grandes cambios en el entorno que rodea al sector agroalimentario, que, si bien genera nuevas oportunidades, también representa una gran amenaza para los actores vinculados al campo. El segundo es la preservación de la agricultura nacional y el cuidado del medio ambiente, de la biodiversidad de las especies autóctonas y de la salud de los humanos.

En cuanto al primer desafío, en la actualidad, es muy difícil imaginarnos un mundo sin ciencia y tecnología. Todo el conocimiento que se produce tiene grandes repercusiones no solamente a nivel local, sino incluso macroeconómico e inevitablemente afecta significativamente a las pequeñas economías, particularmente las rurales. Se trata de un cambio que se dirige, en el largo plazo, hacia el predominio del conocimiento científico y tecnológico, con efectos en las actividades económicas de los pueblos, con notables impactos en los procesos de desarrollo y bienestar humano, sobre todo en la agricultura y el medio rural de las economías en desarrollo.

Este desafío, generado por el nuevo conocimiento, está determinado por una nueva revolución científica y tecnológica, que se piensa que daría a la agricultura la posibilidad de producir alimentos suficientes en cantidad y calidad para alimentar a las futuras poblaciones, pero abre nuevos paradigmas, no sólo en términos de requisitos de inocuidad

y medidas de bioseguridad, sino que por el desequilibrio que existe en la distribución de las capacidades científicas y tecnológicas entre los países, se puede mantener, y hasta incrementar la desigualdad que existe entre los países en vías de desarrollo y los desarrollados, pensando que los primeros no cuentan con la capacidad para la apropiación y desarrollo de estos nuevos conocimientos.

RETOS PARA LA SOCIEDAD MEXICANAMéxico también enfrenta estos retos, y debe poder proporcio-nar a sus habitantes servicios y condiciones necesarios para una vida digna. Somos más de 100 millones de mexicanos con demandas por alimentos seguros y nutritivos, por medicamentos y servicios de salud modernos y eficaces, un medio ambiente limpio, una industria vigorosa y productiva y simultáneamente cuidadosa con el uso sustentable de nuestra biodiversidad. Estos temas representan retos extraordinarios

para la sociedad mexicana, que debe enfrentar y resolver de manera inteligente, creativa y respetuosa con el medio ambiente.

México, por ser un país megadi-verso, está obligado a desarro-llar su propia investigación, particularmente en el área de la biotecnología, la cual debe servir para el manejo y pre-servación de sus recursos bio-lógicos, indispensables para el mantenimiento sustentable de los ecosistemas regionales, nacionales y globales. La biodiversidad es riqueza renovable, que debe ser utilizada de manera sustentable, no sólo para resolver problemas actuales de la nación, sino también, con ayuda de la biotec-nología y en un concierto sustentable, transformar a nuestro país en líder mundial exportador de tecnología y pro-ductos biotecnológicos de alto

valor agregado. Sin embargo, México tiene que enfrentar riesgos que otras regiones de menor diversidad biológica no tienen. He aquí el gran desafío, ¿Qué se debe hacer?:

¿Debemos apoyar decididamente la investigación científica nacional en biodiversidad?¿Debemos apoyar el desarrollo de la biotecnología nacional?¿Debemos apoyar el desarrollo de la capacidad para analizar y evaluar las múltiples implicaciones del uso de la biotecnología moderna? o ¿Debemos prohibir el desarrollo de todo lo anterior?

Con respecto al segundo desafío, la preservación de la agricultura nacional y el cuidado del medio ambiente, de la biodiversidad de las especies autóctonas y de la salud de los humanos: Experimentar con organismos genéticamente

24 33

Bruce Holm. El doctor Bruce Holm es director ejecutivo del Centro de Excelencia en Bioinformática y Ciencias de la Vida, de la Universidad de Búfalo, en Nueva York, y está convencido de que mediante la colaboración entre las instituciones educativas, los institutos de investigación, las agencias gubernamentales y la industria, el centro que dirige podrá transformar la terapéutica del siglo XXI.

Actualmente, el centro que dirige trabaja en colaboración con otras instituciones para desarrollar y evaluar el uso de aproximaciones no invasivas a las enfermedades cariovasculares, específicamente en un nuevo sistema de imágenes que pueden detectar problemas cardíacos en diez segundos, en contraposición al método tradicional de insertar un catéter en el cuerpo, un procedimiento invasivo que puede tardar horas.

El centro trabaja también en la producción de drogas, con asociados tales como Invitrogen, Amgen y Biogen. En el caso específico de Invitrogen, Holm asegura que aporta material de crecimiento celular para la investigación biotecnológica, a fin de mantener su planta de 500 trabajos en Grand Island, y añadir probablemente 200 empleos más.

EN LOS ALBORES DE LA BIOINFORMÁTICALa bioinformática es un área de investigación interdisciplinaria que constituye una interfase entre las ciencias biológicas y las computacionales. Si bien algunos restringen su rango de estudio al manejo y análisis de bases de datos de secuencias principalmente, en realidad posee un sentido más amplio; es la fusión de las técnicas

computacionales con las reglas del entendimiento y apreciación de datos biológicos, y la comparación de estos con otros datos afines almacenados en distintos bancos de datos. Una definición más general la ubica como el estudio de la información biológica, utilizando la teoría de la información, computación y matemáticas.

Doctor Antonio Alí Pérez MayaDoctora Elva Teresa Aréchiga Carvajal

Laboratorio de Genómica y Bioinformática de la ULIEG Facultad de Medicina / [email protected]

Doctor Hugo A. Barrera Saldaña

modificados (OGMs) provoca grandes preocupaciones e incertidumbre de diversos sectores de la población, incluidos miembros de la comunidad científica, sobre todo en los efectos a largo plazo sobre la biodiversidad, ya que aún no se dispone de una ecología predictiva capaz de hacer frente a la complejidad de la cuestión.

Los ecólogos han señalado defectos y carencias en la concepción y metodología empleada en los estudios de evaluación de riesgo de los ensayos de campo con las plantas transgénicas, obligando a que se revisen estas metodologías y llevando a una mejora notable en el desarrollo de estos protocolos. De hecho, los ecólogos no están en principio en contra de la relajación de las normas de bioseguridad, siempre y cuando exista la experiencia acumulada que apoyara tal medida.

PREOCUPACIÓN DE ECOLOGISTASLa preocupación de los ecólogistas se basa en la falta de conocimiento con que se cuenta sobre los efectos a largo plazo resultantes, por un lado, del aumento exponencial del número de OGMs que coexistirán libremente, y por otro, en que se podrían planear liberaciones potencialmente arriesgadas para las que no existe ninguna experiencia previa de impactos ecológicos. Sin embargo, este punto no es exclusivo de los OGMs, sino también de los productos derivados de la mejora tradicional: estudios multidisciplinarios capaces de evaluar riesgos de cualquier tipo de proceso de mejora genética no son suficientes, y apenas se están diseñando los primeros experimentos de control, tanto para organismos transgénicos, como para organismos convencionales que nunca, a decir verdad, han pasado el severo escrutinio al que se está sometiendo a aquellos derivados de la ingeniería genética.Pero, más allá de las amenazas y miedos más o menos fundamentados o imaginarios; más allá de los mitos y fantasmas tecnológicos, hay que tomar en cuenta dos datos importantes: 1) después de 30 años de experimentación, la tecnología de los OGMs, no ha sufrido ni un solo accidente digno de mención; y la propia comunidad europea, centro de las dudas e incluso de amenazas de moratorias para los productos desarrollados, ha realizado estudios de bioseguridad por valor de varias decenas de millones de euros, sin que se haya concretado ningún riesgo sustancial y 2) aún no existe una evaluación global y científica de los riesgos ambientales potenciales de las plantas genéticamente modificadas. Quizá haya que desarrollar un paradigma de política científica que permita a los organismos públicos responsables tomar decisiones incluso en ausencia de un conocimiento exhaustivo, que reconozca como válidos ciertos criterios, y que favorezca el reconocimiento y delimitación de aquellas áreas de incertidumbre en las que el principio precautorio conduzca, llegado el caso, a moratorias o renuncias de desarrollo que proteja el patrimonio de biodiversidad que esté en juego.

Por ejemplo: no sería aconsejable liberar un OGM en la región donde se encuentran sus parientes silvestres, tradicionalmente cultivados por los agricultores indígenas, salvo que los datos científicos garantizaran la seguridad adecuada; en principio no sería ético poner en peligro el rico acervo genético y cultural ligado al centro de diversidad y domesticación de esta especie. Pero en aquellas regiones donde no hay parientes cercanos de este OGM, pasadas las pruebas de riesgo ambiental,

agronómico y sanitarias de rigor, no deberían suponerse mayores amenazas.

DIVERSIDAD BIOLÓGICA NO EVALUADAFinalmente, no podemos olvidar que los ecosistemas de nuestro planeta albergan una gran diversidad biológica que aún no ha sido evaluada. El número de especies descritas alcanza los dos millones, pero se estima que quedan por descubrir como mínimo otras varias decenas de millones. El valor de esta diversidad es incalculable; de aquí se han domesticado todas las plantas cultivadas y sin duda son una reserva genética de rasgos útiles que podrían ser incorporados en los futuros programas de mejora y en la búsqueda de nuevos fármacos y otros bienes. La biotecnología es una nueva alternativa para buscar, descubrir y desarrollar productos con potencial agronómico, médico e industrial; por lo tanto, el uso sostenible de estos recursos vivos, es innegable.

Tenemos, como humanidad, que cuidar el equilibrio entre los países poseedores de la mayor biodiversidad, que suelen ser naciones en vías de desarrollo, que desean sacar provecho de sus riquezas naturales; y por otro lado, las empresas de los países industrializados, necesitadas de acceder a la biodiversidad como materia prima de sus avances comerciales. El problema lo tienen los países en desarrollo, que no cuentan hasta ahora con mecanismos adecuados de compensación por el mantenimiento y diseminación de su biodiversidad, obligándolos a desarrollar políticas proteccionistas, que restringen el acceso a sus recursos vivos, y por otro, que la unilateralidad de la protección de las patentes por las empresas, provoque el bloqueo de programas de investigación y desarrollo necesarios para los países en desarrollo.

32 25

La necesidad de descifrar la inmensa cantidad de información revelada principalmente por el proyecto del Genoma Humano, ha impulsado el desarrollo de la Bioinformática. El ADN, la molécula que atesora el código de la vida, controla directamente la biología fundamental de la vida y determina las particularidades de cada organismo. Es por ello que en el caso particular del humano, las variaciones y las mutaciones presentes en el ADN genómico, predisponen o condicionan el desarrollo de las muchas enfermedades que nos aquejan.

Desde principios de la década de 1990, muchos laboratorios sumaron esfuerzos para descifrar los genomas de varias especies representativas de los diferen-tes grupos de seres vivos, desde bacterias hasta animales y plantas, pasando por insectos y culminando por supuesto, en 2003 con el humano. Estos proyectos de secuenciación masiva del ADN han contribuido al desarrollo y crecimiento de la Bioinformática, generando cantidades enormes de información biológica que se almacenan en grandes bases de datos, la mayoría de las cuales son accesibles de forma gratuita a través de Internet.

DESARROLLO DE PROGRAMAS COMPUTACIONALESAdemás de reunir y organizar toda esta información, es necesario analizar y descubrir en las secuencias de nucleóti-dos o de aminoácidos, las semejanzas y las diferencias de cada hallazgo. No resulta conveniente ni práctico comparar las secuencias de varios miles de nucleótidos o aminoácidos de manera manual. Por ello, se han desarrollado numerosos programas de cómputo para facilitar esta enorme tarea. Además, los programas computacionales disminuyen la posibilidad de errores que conllevan los análisis manuales.

Con el incremento en la complejidad y la capacidad, tanto de las computadoras como de las técnicas de investigación, ha surgido la necesidad de profesionales que sirvan como “enlaces” entre ambas disciplinas y sean capaces de comunicar-se con los expertos de los dos campos. Tradicionalmente, la investigación en el campo de la biología molecular se ha realizado completamente en la mesa experimental del laboratorio, pero el enorme incremento en los volúmenes de datos que están siendo generados en esta era genómica, ha impulsado la

incorporación de computadoras en este proceso de investigación. El uso de las computadoras para resolver cuestiones biológicas comenzó con el desarrollo de algoritmos y su aplicación en el entendimiento de las interacciones de los procesos biológicos y las relaciones filogenéticas entre diversos organismos.

SISTEMAS INFORMÁTICOS UTILIZADOSBásicamente, los sistemas informáticos que se emplean en este campo son: Bases de datos locales o accesibles mediante programas de Internet; aplicación y manejo de datos de laboratorio; automatización de experimentos, técni-cas de inteligencia artificial, literatura médica y científica relevante; programas de distribución de datos; programas para modelación; programas para generación

y ensamblaje de secuencias; programas de alineamiento y análisis de secuencias nucleotídicas y aminoacídicas; programas para predicción de genes, dominios funcionales y estructuras de proteínas; programas para clasificación, comparación, evolución molecular y árboles filogenéticos; paquetes de integración y ensamblaje de mapas genéticos, entre muchos más.

El objetivo final de la bioinformática es descubrir la riqueza de información biológica que se encuentra oculta entre toda la masa de secuencias, estructuras, literatura y otros datos biológicos.

Obtener una idea más clara de la biolo-gía fundamental de los organismos, seguro tendrá impactos profundos

sobre campos tan variados como la sa-lud humana, la agricultura, el ambiente, la energía y la biotecnología.

MINA DE INFORMACIÓN PARA DESCUBRIMIENTOS BIOLÓGICOS Las bases de datos biológicos son archivos de datos que son almacenados de manera uniforme y eficiente. Estas bases contienen datos de un amplio espectro de áreas de la biología molecular. Las bases de datos primarias o archivadas contienen la información y las características o anotación de secuencias, estructuras y perfiles de expresión de ADN y de proteínas. Las Bases de datos secundarias o derivadas son así llamadas porque contienen los resultados de análisis sobre las fuentes primarias, incluyendo la información sobre los patrones de secuencia o motivos, variantes, mutaciones y relaciones evolutivas.

Es esencial que estas bases de datos sean fácilmente accesibles y que proporcionen un sistema de búsqueda intuitivo para permitir a los investigadores obtener información muy específica sobre un tema biológico particular. Se han estructurado bases de datos especializadas en temas particulares, como por ejemplo: EMBL, una base de datos para secuencias nucleotídicas; UniProtKB/Swiss-Prot, una base de datos de proteínas, y PDB, una base de datos de estructuras tridimensionales de proteínas. Los científicos también tienen que ser capaces de integrar la información obtenida de las bases de datos subyacentes heterogéneas en una manera sensible para ser capaces de conseguir una descripción clara de un tema biológico.

Una vez que todos los datos biológicos son almacenados coherentemente y están fácilmente disponibles a la comunidad científica, se requiere de métodos para extraer la información significativa entre esta enorme cantidad de datos.

Las herramientas bioinformáticas que permiten realizar este paso de análisis son paquetes computacionales que utilizan sofisticados algoritmos computacionales.

Los factores que se deben tomar en cuenta en el diseño de estas herramientas son:

Asimismo, se ha discutido mucho sobre la importancia de la conservación y gestión de los recursos vivos del planeta: “la biodiversidad”. Por un lado, la diversidad biológica representa una gigantesca reserva de material genético, en su mayoría inexplorada; y por otro lado, los países ricos en biodiversidad son los menos desarrollados, y, al no poseer los medios tecnológicos para explotar esta riqueza, se encuentran en desventaja frente a los países desarrollados, a pesar de tener el legítimo interés de que la comunidad internacional valore sus recursos vivos, y que se vean compensados de un modo justo por su conservación y su disponibilidad para la humanidad.

GRANDES DESAFÍOS DE LA BIOSEGURIDADDe lo anterior, podemos ver dos grandes desafíos dignos de destacar en el marco de la bioseguridad y la biodiversidad. El primero se refiere al cambio tan vertiginoso que producen las metodologías de la biotecnología moderna, que es una de las áreas del conocimiento científico de más relevante evolución en las últimas décadas y que mayor impacto ha tenido en el desarrollo de distintos sectores de la sociedad, y que sin duda, está produciendo grandes cambios en el entorno que rodea al sector agroalimentario, que, si bien genera nuevas oportunidades, también representa una gran amenaza para los actores vinculados al campo. El segundo es la preservación de la agricultura nacional y el cuidado del medio ambiente, de la biodiversidad de las especies autóctonas y de la salud de los humanos.

En cuanto al primer desafío, en la actualidad, es muy difícil imaginarnos un mundo sin ciencia y tecnología. Todo el conocimiento que se produce tiene grandes repercusiones no solamente a nivel local, sino incluso macroeconómico e inevitablemente afecta significativamente a las pequeñas economías, particularmente las rurales. Se trata de un cambio que se dirige, en el largo plazo, hacia el predominio del conocimiento científico y tecnológico, con efectos en las actividades económicas de los pueblos, con notables impactos en los procesos de desarrollo y bienestar humano, sobre todo en la agricultura y el medio rural de las economías en desarrollo.

Este desafío, generado por el nuevo conocimiento, está determinado por una nueva revolución científica y tecnológica, que se piensa que daría a la agricultura la posibilidad de producir alimentos suficientes en cantidad y calidad para alimentar a las futuras poblaciones, pero abre nuevos paradigmas, no sólo en términos de requisitos de inocuidad

y medidas de bioseguridad, sino que por el desequilibrio que existe en la distribución de las capacidades científicas y tecnológicas entre los países, se puede mantener, y hasta incrementar la desigualdad que existe entre los países en vías de desarrollo y los desarrollados, pensando que los primeros no cuentan con la capacidad para la apropiación y desarrollo de estos nuevos conocimientos.

RETOS PARA LA SOCIEDAD MEXICANAMéxico también enfrenta estos retos, y debe poder proporcio-nar a sus habitantes servicios y condiciones necesarios para una vida digna. Somos más de 100 millones de mexicanos con demandas por alimentos seguros y nutritivos, por medicamentos y servicios de salud modernos y eficaces, un medio ambiente limpio, una industria vigorosa y productiva y simultáneamente cuidadosa con el uso sustentable de nuestra biodiversidad. Estos temas representan retos extraordinarios

para la sociedad mexicana, que debe enfrentar y resolver de manera inteligente, creativa y respetuosa con el medio ambiente.

México, por ser un país megadi-verso, está obligado a desarro-llar su propia investigación, particularmente en el área de la biotecnología, la cual debe servir para el manejo y pre-servación de sus recursos bio-lógicos, indispensables para el mantenimiento sustentable de los ecosistemas regionales, nacionales y globales. La biodiversidad es riqueza renovable, que debe ser utilizada de manera sustentable, no sólo para resolver problemas actuales de la nación, sino también, con ayuda de la biotec-nología y en un concierto sustentable, transformar a nuestro país en líder mundial exportador de tecnología y pro-ductos biotecnológicos de alto

valor agregado. Sin embargo, México tiene que enfrentar riesgos que otras regiones de menor diversidad biológica no tienen. He aquí el gran desafío, ¿Qué se debe hacer?:

¿Debemos apoyar decididamente la investigación científica nacional en biodiversidad?¿Debemos apoyar el desarrollo de la biotecnología nacional?¿Debemos apoyar el desarrollo de la capacidad para analizar y evaluar las múltiples implicaciones del uso de la biotecnología moderna? o ¿Debemos prohibir el desarrollo de todo lo anterior?

Con respecto al segundo desafío, la preservación de la agricultura nacional y el cuidado del medio ambiente, de la biodiversidad de las especies autóctonas y de la salud de los humanos: Experimentar con organismos genéticamente

24 33

Bruce Holm. El doctor Bruce Holm es director ejecutivo del Centro de Excelencia en Bioinformática y Ciencias de la Vida, de la Universidad de Búfalo, en Nueva York, y está convencido de que mediante la colaboración entre las instituciones educativas, los institutos de investigación, las agencias gubernamentales y la industria, el centro que dirige podrá transformar la terapéutica del siglo XXI.

Actualmente, el centro que dirige trabaja en colaboración con otras instituciones para desarrollar y evaluar el uso de aproximaciones no invasivas a las enfermedades cariovasculares, específicamente en un nuevo sistema de imágenes que pueden detectar problemas cardíacos en diez segundos, en contraposición al método tradicional de insertar un catéter en el cuerpo, un procedimiento invasivo que puede tardar horas.

El centro trabaja también en la producción de drogas, con asociados tales como Invitrogen, Amgen y Biogen. En el caso específico de Invitrogen, Holm asegura que aporta material de crecimiento celular para la investigación biotecnológica, a fin de mantener su planta de 500 trabajos en Grand Island, y añadir probablemente 200 empleos más.

EN LOS ALBORES DE LA BIOINFORMÁTICALa bioinformática es un área de investigación interdisciplinaria que constituye una interfase entre las ciencias biológicas y las computacionales. Si bien algunos restringen su rango de estudio al manejo y análisis de bases de datos de secuencias principalmente, en realidad posee un sentido más amplio; es la fusión de las técnicas

computacionales con las reglas del entendimiento y apreciación de datos biológicos, y la comparación de estos con otros datos afines almacenados en distintos bancos de datos. Una definición más general la ubica como el estudio de la información biológica, utilizando la teoría de la información, computación y matemáticas.

Doctor Antonio Alí Pérez MayaDoctora Elva Teresa Aréchiga Carvajal

Laboratorio de Genómica y Bioinformática de la ULIEG Facultad de Medicina / [email protected]

Doctor Hugo A. Barrera Saldaña

modificados (OGMs) provoca grandes preocupaciones e incertidumbre de diversos sectores de la población, incluidos miembros de la comunidad científica, sobre todo en los efectos a largo plazo sobre la biodiversidad, ya que aún no se dispone de una ecología predictiva capaz de hacer frente a la complejidad de la cuestión.

Los ecólogos han señalado defectos y carencias en la concepción y metodología empleada en los estudios de evaluación de riesgo de los ensayos de campo con las plantas transgénicas, obligando a que se revisen estas metodologías y llevando a una mejora notable en el desarrollo de estos protocolos. De hecho, los ecólogos no están en principio en contra de la relajación de las normas de bioseguridad, siempre y cuando exista la experiencia acumulada que apoyara tal medida.

PREOCUPACIÓN DE ECOLOGISTASLa preocupación de los ecólogistas se basa en la falta de conocimiento con que se cuenta sobre los efectos a largo plazo resultantes, por un lado, del aumento exponencial del número de OGMs que coexistirán libremente, y por otro, en que se podrían planear liberaciones potencialmente arriesgadas para las que no existe ninguna experiencia previa de impactos ecológicos. Sin embargo, este punto no es exclusivo de los OGMs, sino también de los productos derivados de la mejora tradicional: estudios multidisciplinarios capaces de evaluar riesgos de cualquier tipo de proceso de mejora genética no son suficientes, y apenas se están diseñando los primeros experimentos de control, tanto para organismos transgénicos, como para organismos convencionales que nunca, a decir verdad, han pasado el severo escrutinio al que se está sometiendo a aquellos derivados de la ingeniería genética.Pero, más allá de las amenazas y miedos más o menos fundamentados o imaginarios; más allá de los mitos y fantasmas tecnológicos, hay que tomar en cuenta dos datos importantes: 1) después de 30 años de experimentación, la tecnología de los OGMs, no ha sufrido ni un solo accidente digno de mención; y la propia comunidad europea, centro de las dudas e incluso de amenazas de moratorias para los productos desarrollados, ha realizado estudios de bioseguridad por valor de varias decenas de millones de euros, sin que se haya concretado ningún riesgo sustancial y 2) aún no existe una evaluación global y científica de los riesgos ambientales potenciales de las plantas genéticamente modificadas. Quizá haya que desarrollar un paradigma de política científica que permita a los organismos públicos responsables tomar decisiones incluso en ausencia de un conocimiento exhaustivo, que reconozca como válidos ciertos criterios, y que favorezca el reconocimiento y delimitación de aquellas áreas de incertidumbre en las que el principio precautorio conduzca, llegado el caso, a moratorias o renuncias de desarrollo que proteja el patrimonio de biodiversidad que esté en juego.

Por ejemplo: no sería aconsejable liberar un OGM en la región donde se encuentran sus parientes silvestres, tradicionalmente cultivados por los agricultores indígenas, salvo que los datos científicos garantizaran la seguridad adecuada; en principio no sería ético poner en peligro el rico acervo genético y cultural ligado al centro de diversidad y domesticación de esta especie. Pero en aquellas regiones donde no hay parientes cercanos de este OGM, pasadas las pruebas de riesgo ambiental,

agronómico y sanitarias de rigor, no deberían suponerse mayores amenazas.

DIVERSIDAD BIOLÓGICA NO EVALUADAFinalmente, no podemos olvidar que los ecosistemas de nuestro planeta albergan una gran diversidad biológica que aún no ha sido evaluada. El número de especies descritas alcanza los dos millones, pero se estima que quedan por descubrir como mínimo otras varias decenas de millones. El valor de esta diversidad es incalculable; de aquí se han domesticado todas las plantas cultivadas y sin duda son una reserva genética de rasgos útiles que podrían ser incorporados en los futuros programas de mejora y en la búsqueda de nuevos fármacos y otros bienes. La biotecnología es una nueva alternativa para buscar, descubrir y desarrollar productos con potencial agronómico, médico e industrial; por lo tanto, el uso sostenible de estos recursos vivos, es innegable.

Tenemos, como humanidad, que cuidar el equilibrio entre los países poseedores de la mayor biodiversidad, que suelen ser naciones en vías de desarrollo, que desean sacar provecho de sus riquezas naturales; y por otro lado, las empresas de los países industrializados, necesitadas de acceder a la biodiversidad como materia prima de sus avances comerciales. El problema lo tienen los países en desarrollo, que no cuentan hasta ahora con mecanismos adecuados de compensación por el mantenimiento y diseminación de su biodiversidad, obligándolos a desarrollar políticas proteccionistas, que restringen el acceso a sus recursos vivos, y por otro, que la unilateralidad de la protección de las patentes por las empresas, provoque el bloqueo de programas de investigación y desarrollo necesarios para los países en desarrollo.

23

se pretende buscar una aplicación a escala comercial. Las etapas típicas de recuperación y purificación involucran operaciones difíciles de llevar a niveles de escalamiento comercial y altamente demandantes en tiempo.

Tal es el caso de esquemas de ultracen-trifugación que aún se utilizan. Al igual que en el caso previamente descrito para la obtención de la proteína L1, la implementación de esquemas de proceso novedosos permite el estable-cimiento de sistemas de recuperación que simplifican enormemente la ma-nera tradicional como se recuperan los candidatos de vacuna y demuestran el potencial de aplicación comercial para este tipo de productos.

INVESTIGACIONES PARADESARROLLO DE VACUNASEs importante mencionar que lo anterior corresponde a dos casos comunes de la problemática que desde el punto de vista de ingeniería de bioprocesos enfrenta la producción de vacunas.

Es inevitable pensar que en la medida que se definan esquemas adecuados de producción de una manera eficiente, rápida, y atractiva económicamente, se logrará la aplicación genérica de los beneficios de las vacunas a cada vez más poblaciones.

A pesar de que resulta imposible predecir el futuro, y más aún en esta disciplina de crecimiento explosivo, es posible anticipar que la tremenda cantidad de investigaciones y proyectos que se llevan a cabo en la actualidad en el área de desarrollo de vacunas, tendrán gran impacto en la sociedad, en la cali-dad de vida de los seres humanos, en la tecnología y la industria en las próximas décadas.

Resulta inevitable considerar que los beneficios asociados al desarrollo de vacunas que nos brindará la bio-tecnología en el presente siglo, necesa-riamente provocarán un interés crecien-te de las empresas farmacéuticas y bio-tecnológicas.

El interés fundamental y reto de dichas compañías estará enfocado fuertemente en el desarrollo de procesos eficientes y escalables que les permitan sacar rápidamente al mercado nuevos produc-

tos utilizando estrategias de bioingeniería novedosas. La competencia entre las empresas por sacar al mercado nuevos productos farmacéuticos las obligará a buscar estrategias para el desarrollo de bioprocesos. La necesidad de estrategias que ayuden a reducir el tiempo de escalamiento y de transferencia de tecnología para facilitar la implementación industrial de los nuevos bioprocesos resultará cada vez más evidente.

PROCESOS BIOTECNOLÓGICOSLa industria farmacéutica demandará procesos biotecnológicos que le permitan la recuperación y purificación de productos tales como vacunas mediante el uso de tecnologías escalables y eficientes y profesionistas capaces de atender los evidentes retos de la industria biotecnológica presentes y futuros. No existe duda que el desarrollo de vacunas con esquemas adecuados de ingeniería tendrán un importante impacto sobre la calidad de vida de los seres humanos.

REFERENCIAS: [1] Rito-Palomares M and Middelberg A. Aqueous two-phase systems for the recovery of a recombinant viral coat protein from Escherichia coli. J Chem Technol. and Biotechnol. 77: 1025-1029 (2002).

[2] Benavides J, Mena J, Cisneros M, Ramirez O T, Palomares L A and Rito-Palomares M. Rotavirus like-particles primary recovery from the insect cell in aqueous two-phase systems. J Chromatography B. (2006).

[3] Rito-Palomares M, Practical application of aqueous two-phase partition to process development for the recovery of biological products. J Chromatography B, 807, 3-11 (2004)

Roberto Lagarda LagardaNació en San Bernardo, Sonora. A lo largo de su carrera profesional ha desarrollado trabajos en los campos de la docencia y la administración educativa, tanto en el sector público como en instituciones privadas. Ha ocupado importantes cargos, como la Dirección del Colegio Nacional de Educación Profesional Técnica (CONALEP). Actualmente es coordinador nacional de los Colegios de Estudios Científicos y Tecnológicos (CECyTEs).

Yoloxóchitl Bustamante Es ingeniera bioquímica egresada de la Escuela Nacional de Ciencias Biológicas, y doctora en Ciencias con especialidad en Bioquímica, grado de la misma escuela del IPN. Es diplomada en Alta Dirección de Empresas del IPADE, y en Finanzas para no Financieros del ITAM. En el IPN se desempeñó como profesora por más de 15 años, tiempo durante el cual también trabajó en investigación, principalmente en fisicoquímica de las proteasas vegetales. En el mismo instituto también trabajó en el área administrativa y a partir de 1978 laboró en el ramo industrial en la farmacéutica en empresas nacionales y extranjeras.

Brian R. ShmaefskyCuenta con varios grados de estudios; es maestro en Biología por la Universidad del sur de Illinois, doctor en Bioquímica de Plantas por la Universidad de Illinois y en Ecología y Limnología en el Laboratorio Biológico Montaña Rocosa en Colorado. Desde hace 12 años trabaja como profesor de Biología en Kingwood College.

Ana Lorena GuevaraEs fitotecnista de la Universidad de Costa Rica. Inició su carrera como investigadora en el Ministerio de Agricultura y Ganadería en la Dirección General Forestal y la Dirección de Investigaciones Agrícolas. Actualmente labora en el Instituto Nacional de Biodiversidad, donde se desempeña como funcionaria del Programa de Bioprospección y gerente del Programa de Apoyo al Desarrollo del uso de Biodiversidad por Pequeñas Empresas y Comunidades INBio-BID.

Youcef MentalechetaEs experto en la Unión Europea, miembro del Comité de Evaluación Educativa de la UNESCO y asesor internacional de evaluación de educación en varios países. A lo largo de su carrera ha desempeñado importantes cargos: Por ejemplo, de 1984 a 1995 fue secretario del Programa Intergubernamental de la UNESCO; anteriormente, de 1980 a 1983 fue consejero del ministro argelino del Plan para la Tecnología y las industrias avanzadas.

Edgar WagnerEs profesor de la Universidad de Freiburg en el Instituto de Biología II en el Departamento de Fisiología de las Plantas; en la misma institución, desde 1993 es encargado de las relaciones internacionales de estudio. Es también presidente de la Sociedad Internacional de Endocitobiología, sección alemana desde 1998.

22 35

Para el desarrollo de procesos biotecnológicos eficientes y escalables que permitan obtención de productos biológicos tales como vacunas, han sido propuestos y utilizados distintos sistemas de expresión. De estos sistemas de expresión, destacan las bacterias (la más utilizada es E. Coli), levaduras, células de insectos, células animales y vegetales. La selección del sistema de expresión se basa en diversos factores, tales como la productividad del proceso resultante, la estabilidad y presentación del producto y la complejidad del sistema de recuperación y purificación. En el caso particular de plantas, se puede seleccionar el sitio específico de la planta (raíz, fruto, semilla, tallo, etcétera) donde se desea expresar la potencial vacuna. En el caso particular de las vacunas formadas por proteínas estructurales, la producción y purificación de estos productos a nivel comercial no es algo trivial.

En particular, la recuperación y purificación de vacunas o candidatos de vacunas representan la etapa de proceso más crítica y que poca atención ha recibido. Existe poca información sobre los esquemas de recuperación

sugeridos para este tipo de procesos. Lo anterior resulta en una enorme limitante en el desarrollo de bioprocesos, debido a que esta etapa es la más costosa de todo proceso biotecnológico y define la viabilidad económica. Con la finalidad de ilustrar los retos desde el punto de vista de ingeniería de bioprocesos involucrados en el desarrollo de un proceso para la producción y particularmente la recuperación de vacunas, en este artículo se discutirán dos casos ilustrativos: los procesos para la obtención de una vacuna potencial (i) para el cáncer cérvico uterino utilizando la bacteria E. Coli como sistema de expresión [1] y (ii) contra el rotavirus, utilizando células de insecto como sistema de expresión [2].

VACUNA CONTRA EL VIRUS DEL PAPILOMA HUMANOEl primer caso involucra la producción de una vacuna en contra del virus del papiloma humano tipo 16. Este caso resulta interesante ya que la presencia de este virus se ha asociado con el desarrollo del cáncer cérvico uterino. Anualmente, más de medio millón de casos de este tipo de cáncer son reportados mundialmente [1]. Para el

desarrollo de esta vacuna se utilizan las llamadas partículas pseudo-virales, las cuales están compuestas de las proteínas estructurales del virus, pero sin su material genético. Se producen a partir de las proteínas estructurales expresadas en sistemas recombinantes. En el caso particular de la vacuna contra el virus del papiloma humano, se propone la producción de la proteína estructural del virus denominada L1, que se encuentra en mayor proporción.

El proceso de producción en sistemas de fermentación se encuentra establecido. Sin embargo, el proceso de recuperación y purificación típicamente utilizado involucra numerosas etapas de proceso, de las cuales destacan: ruptura mecánica, fraccionamiento, lavado, centrifugación, disolución y purificación utilizando etapas cromatográficas. Como consecuencia, se obtiene un proceso que resulta prohibitivo para llevarse a nivel comercial o bien para generar cantidades suficientes para pruebas clínicas, principalmente por cuestiones de bajo rendimiento y altos costos de inversión y operación. En este contexto, el uso de estrategias de integración de procesos utilizando técnicas novedosas como extracción líquido-líquido con fases acuosas y el uso de lecho fluidizado [3], resulta en procesos compactos y fácil de implementar a escalas comerciales.

VACUNA CONTRA EL ROTAVIRUS INFANTILDe manera similar, la producción de un candidato de vacuna contra el rotavirus infantil utilizando esquemas prácticos de fácil aplicación genérica, resulta interesante, debido a que más de medio millón de niños mueren anualmente víctimas de enfermedades gastroentéricas causadas por rotavirus. En este caso también se propone el uso de proteínas estructurales, en particular las proteínas VP2 y VP6 a fin de obtener partículas pseudo virales de doble capa que generen una respuesta inmune cuando se administren vía nasal. En este caso particular, la optimización del proceso de producción por fermentación de este candidato de vacuna utilizando células de insecto se encuentra en desarrollo.

Sin embargo de igual manera la recuperación y purificación de las proteínas que formarán la vacuna es una etapa que necesita optimizarse si

Uno los desafíos que enfrentamos los habitantes de este país es el de proporcionar a la población -que actualmente rebasa ya los

cien millones y se incrementará a razón de un millón de habitantes por año durante los próximos 20-, los servicios y condiciones necesarios para una vida digna, incluyendo alimentos sanos y nutritivos, medicamentos y servicios de salud.

Además, debemos estar conscientes de que vivimos en un país de gran diversidad; es decir, en una tierra delimitada por mares con gran variedad de plantas, animales y microorganismos, muchos de los cuales se originaron en México y no existen en otros sitios, por lo que el desarrollo industrial debe considerar la conservación y explotación de la biodiversidad y las características propias de nuestra cultura.

En este contexto, son fundamentales también la restauración y protección del ambiente. ¿Cuales son las disciplinas que pueden ayudarnos a enfrentar estos desafíos? La biotecnología es una de ellas, ya que está relacionada con el desarrollo de tecnologías de proceso y de producto, acordes con el ambiente en los sectores agrícola, pecuario, marino, salud, industrial, electrónico, minero y de nuevos materiales.

Doctora Yolanda Gutiérrez Puente Facultad de Ciencias Biológicas / UANL E-mail: [email protected]

Juan López de Silanes. Es licenciado en Administración de Empresas, egresado de la Universidad Iberoamericana, y maestro en el mismo campo, por el Instituto Panamericano de Alta Dirección de Empresas. Actualmente es presidente del Instituto Bioclon, y ha ocupado importantes puestos, como la presidencia de la Cámara Nacional de la Industria Farmacéutica y de la Asociación Nacional de Fabricantes de Medicamentos.

Carlos Camacho Gaos. Estudió Economía en el Instituto Tecnológico Autónomo de México, (ITAM), y en Georgetown University, en Estados Unidos; se especializó en economía regional y urbana, finanzas públicas y economía monetaria. Actualmente, es el presidente ejecutivo y director general de AgroBio México; es fundador y director general de Premium S.C. desde 2001, y de 1990 a 2000 ocupó la Subsecretaría de Pesca en la Secretaría del Medio Ambiente, Recursos Naturales y Pesca.

Rafael Gual Cosío. Es ingeniero químico. Ocupa el cargo de director ejecutivo de la Asociación Mexicana de Industrias de Investigación Farmacéutica, organismo dedicado a fortalecer la imagen de la investigación en la industria farmacéutica y difundir los avances en este campo.

23

se pretende buscar una aplicación a escala comercial. Las etapas típicas de recuperación y purificación involucran operaciones difíciles de llevar a niveles de escalamiento comercial y altamente demandantes en tiempo.

Tal es el caso de esquemas de ultracen-trifugación que aún se utilizan. Al igual que en el caso previamente descrito para la obtención de la proteína L1, la implementación de esquemas de proceso novedosos permite el estable-cimiento de sistemas de recuperación que simplifican enormemente la ma-nera tradicional como se recuperan los candidatos de vacuna y demuestran el potencial de aplicación comercial para este tipo de productos.

INVESTIGACIONES PARADESARROLLO DE VACUNASEs importante mencionar que lo anterior corresponde a dos casos comunes de la problemática que desde el punto de vista de ingeniería de bioprocesos enfrenta la producción de vacunas.

Es inevitable pensar que en la medida que se definan esquemas adecuados de producción de una manera eficiente, rápida, y atractiva económicamente, se logrará la aplicación genérica de los beneficios de las vacunas a cada vez más poblaciones.

A pesar de que resulta imposible predecir el futuro, y más aún en esta disciplina de crecimiento explosivo, es posible anticipar que la tremenda cantidad de investigaciones y proyectos que se llevan a cabo en la actualidad en el área de desarrollo de vacunas, tendrán gran impacto en la sociedad, en la cali-dad de vida de los seres humanos, en la tecnología y la industria en las próximas décadas.

Resulta inevitable considerar que los beneficios asociados al desarrollo de vacunas que nos brindará la bio-tecnología en el presente siglo, necesa-riamente provocarán un interés crecien-te de las empresas farmacéuticas y bio-tecnológicas.

El interés fundamental y reto de dichas compañías estará enfocado fuertemente en el desarrollo de procesos eficientes y escalables que les permitan sacar rápidamente al mercado nuevos produc-

tos utilizando estrategias de bioingeniería novedosas. La competencia entre las empresas por sacar al mercado nuevos productos farmacéuticos las obligará a buscar estrategias para el desarrollo de bioprocesos. La necesidad de estrategias que ayuden a reducir el tiempo de escalamiento y de transferencia de tecnología para facilitar la implementación industrial de los nuevos bioprocesos resultará cada vez más evidente.

PROCESOS BIOTECNOLÓGICOSLa industria farmacéutica demandará procesos biotecnológicos que le permitan la recuperación y purificación de productos tales como vacunas mediante el uso de tecnologías escalables y eficientes y profesionistas capaces de atender los evidentes retos de la industria biotecnológica presentes y futuros. No existe duda que el desarrollo de vacunas con esquemas adecuados de ingeniería tendrán un importante impacto sobre la calidad de vida de los seres humanos.

REFERENCIAS: [1] Rito-Palomares M and Middelberg A. Aqueous two-phase systems for the recovery of a recombinant viral coat protein from Escherichia coli. J Chem Technol. and Biotechnol. 77: 1025-1029 (2002).

[2] Benavides J, Mena J, Cisneros M, Ramirez O T, Palomares L A and Rito-Palomares M. Rotavirus like-particles primary recovery from the insect cell in aqueous two-phase systems. J Chromatography B. (2006).

[3] Rito-Palomares M, Practical application of aqueous two-phase partition to process development for the recovery of biological products. J Chromatography B, 807, 3-11 (2004)

Roberto Lagarda LagardaNació en San Bernardo, Sonora. A lo largo de su carrera profesional ha desarrollado trabajos en los campos de la docencia y la administración educativa, tanto en el sector público como en instituciones privadas. Ha ocupado importantes cargos, como la Dirección del Colegio Nacional de Educación Profesional Técnica (CONALEP). Actualmente es coordinador nacional de los Colegios de Estudios Científicos y Tecnológicos (CECyTEs).

Yoloxóchitl Bustamante Es ingeniera bioquímica egresada de la Escuela Nacional de Ciencias Biológicas, y doctora en Ciencias con especialidad en Bioquímica, grado de la misma escuela del IPN. Es diplomada en Alta Dirección de Empresas del IPADE, y en Finanzas para no Financieros del ITAM. En el IPN se desempeñó como profesora por más de 15 años, tiempo durante el cual también trabajó en investigación, principalmente en fisicoquímica de las proteasas vegetales. En el mismo instituto también trabajó en el área administrativa y a partir de 1978 laboró en el ramo industrial en la farmacéutica en empresas nacionales y extranjeras.

Brian R. ShmaefskyCuenta con varios grados de estudios; es maestro en Biología por la Universidad del sur de Illinois, doctor en Bioquímica de Plantas por la Universidad de Illinois y en Ecología y Limnología en el Laboratorio Biológico Montaña Rocosa en Colorado. Desde hace 12 años trabaja como profesor de Biología en Kingwood College.

Ana Lorena GuevaraEs fitotecnista de la Universidad de Costa Rica. Inició su carrera como investigadora en el Ministerio de Agricultura y Ganadería en la Dirección General Forestal y la Dirección de Investigaciones Agrícolas. Actualmente labora en el Instituto Nacional de Biodiversidad, donde se desempeña como funcionaria del Programa de Bioprospección y gerente del Programa de Apoyo al Desarrollo del uso de Biodiversidad por Pequeñas Empresas y Comunidades INBio-BID.

Youcef MentalechetaEs experto en la Unión Europea, miembro del Comité de Evaluación Educativa de la UNESCO y asesor internacional de evaluación de educación en varios países. A lo largo de su carrera ha desempeñado importantes cargos: Por ejemplo, de 1984 a 1995 fue secretario del Programa Intergubernamental de la UNESCO; anteriormente, de 1980 a 1983 fue consejero del ministro argelino del Plan para la Tecnología y las industrias avanzadas.

Edgar WagnerEs profesor de la Universidad de Freiburg en el Instituto de Biología II en el Departamento de Fisiología de las Plantas; en la misma institución, desde 1993 es encargado de las relaciones internacionales de estudio. Es también presidente de la Sociedad Internacional de Endocitobiología, sección alemana desde 1998.

22 35

Para el desarrollo de procesos biotecnológicos eficientes y escalables que permitan obtención de productos biológicos tales como vacunas, han sido propuestos y utilizados distintos sistemas de expresión. De estos sistemas de expresión, destacan las bacterias (la más utilizada es E. Coli), levaduras, células de insectos, células animales y vegetales. La selección del sistema de expresión se basa en diversos factores, tales como la productividad del proceso resultante, la estabilidad y presentación del producto y la complejidad del sistema de recuperación y purificación. En el caso particular de plantas, se puede seleccionar el sitio específico de la planta (raíz, fruto, semilla, tallo, etcétera) donde se desea expresar la potencial vacuna. En el caso particular de las vacunas formadas por proteínas estructurales, la producción y purificación de estos productos a nivel comercial no es algo trivial.

En particular, la recuperación y purificación de vacunas o candidatos de vacunas representan la etapa de proceso más crítica y que poca atención ha recibido. Existe poca información sobre los esquemas de recuperación

sugeridos para este tipo de procesos. Lo anterior resulta en una enorme limitante en el desarrollo de bioprocesos, debido a que esta etapa es la más costosa de todo proceso biotecnológico y define la viabilidad económica. Con la finalidad de ilustrar los retos desde el punto de vista de ingeniería de bioprocesos involucrados en el desarrollo de un proceso para la producción y particularmente la recuperación de vacunas, en este artículo se discutirán dos casos ilustrativos: los procesos para la obtención de una vacuna potencial (i) para el cáncer cérvico uterino utilizando la bacteria E. Coli como sistema de expresión [1] y (ii) contra el rotavirus, utilizando células de insecto como sistema de expresión [2].

VACUNA CONTRA EL VIRUS DEL PAPILOMA HUMANOEl primer caso involucra la producción de una vacuna en contra del virus del papiloma humano tipo 16. Este caso resulta interesante ya que la presencia de este virus se ha asociado con el desarrollo del cáncer cérvico uterino. Anualmente, más de medio millón de casos de este tipo de cáncer son reportados mundialmente [1]. Para el

desarrollo de esta vacuna se utilizan las llamadas partículas pseudo-virales, las cuales están compuestas de las proteínas estructurales del virus, pero sin su material genético. Se producen a partir de las proteínas estructurales expresadas en sistemas recombinantes. En el caso particular de la vacuna contra el virus del papiloma humano, se propone la producción de la proteína estructural del virus denominada L1, que se encuentra en mayor proporción.

El proceso de producción en sistemas de fermentación se encuentra establecido. Sin embargo, el proceso de recuperación y purificación típicamente utilizado involucra numerosas etapas de proceso, de las cuales destacan: ruptura mecánica, fraccionamiento, lavado, centrifugación, disolución y purificación utilizando etapas cromatográficas. Como consecuencia, se obtiene un proceso que resulta prohibitivo para llevarse a nivel comercial o bien para generar cantidades suficientes para pruebas clínicas, principalmente por cuestiones de bajo rendimiento y altos costos de inversión y operación. En este contexto, el uso de estrategias de integración de procesos utilizando técnicas novedosas como extracción líquido-líquido con fases acuosas y el uso de lecho fluidizado [3], resulta en procesos compactos y fácil de implementar a escalas comerciales.

VACUNA CONTRA EL ROTAVIRUS INFANTILDe manera similar, la producción de un candidato de vacuna contra el rotavirus infantil utilizando esquemas prácticos de fácil aplicación genérica, resulta interesante, debido a que más de medio millón de niños mueren anualmente víctimas de enfermedades gastroentéricas causadas por rotavirus. En este caso también se propone el uso de proteínas estructurales, en particular las proteínas VP2 y VP6 a fin de obtener partículas pseudo virales de doble capa que generen una respuesta inmune cuando se administren vía nasal. En este caso particular, la optimización del proceso de producción por fermentación de este candidato de vacuna utilizando células de insecto se encuentra en desarrollo.

Sin embargo de igual manera la recuperación y purificación de las proteínas que formarán la vacuna es una etapa que necesita optimizarse si

Uno los desafíos que enfrentamos los habitantes de este país es el de proporcionar a la población -que actualmente rebasa ya los

cien millones y se incrementará a razón de un millón de habitantes por año durante los próximos 20-, los servicios y condiciones necesarios para una vida digna, incluyendo alimentos sanos y nutritivos, medicamentos y servicios de salud.

Además, debemos estar conscientes de que vivimos en un país de gran diversidad; es decir, en una tierra delimitada por mares con gran variedad de plantas, animales y microorganismos, muchos de los cuales se originaron en México y no existen en otros sitios, por lo que el desarrollo industrial debe considerar la conservación y explotación de la biodiversidad y las características propias de nuestra cultura.

En este contexto, son fundamentales también la restauración y protección del ambiente. ¿Cuales son las disciplinas que pueden ayudarnos a enfrentar estos desafíos? La biotecnología es una de ellas, ya que está relacionada con el desarrollo de tecnologías de proceso y de producto, acordes con el ambiente en los sectores agrícola, pecuario, marino, salud, industrial, electrónico, minero y de nuevos materiales.

Doctora Yolanda Gutiérrez Puente Facultad de Ciencias Biológicas / UANL E-mail: [email protected]

Juan López de Silanes. Es licenciado en Administración de Empresas, egresado de la Universidad Iberoamericana, y maestro en el mismo campo, por el Instituto Panamericano de Alta Dirección de Empresas. Actualmente es presidente del Instituto Bioclon, y ha ocupado importantes puestos, como la presidencia de la Cámara Nacional de la Industria Farmacéutica y de la Asociación Nacional de Fabricantes de Medicamentos.

Carlos Camacho Gaos. Estudió Economía en el Instituto Tecnológico Autónomo de México, (ITAM), y en Georgetown University, en Estados Unidos; se especializó en economía regional y urbana, finanzas públicas y economía monetaria. Actualmente, es el presidente ejecutivo y director general de AgroBio México; es fundador y director general de Premium S.C. desde 2001, y de 1990 a 2000 ocupó la Subsecretaría de Pesca en la Secretaría del Medio Ambiente, Recursos Naturales y Pesca.

Rafael Gual Cosío. Es ingeniero químico. Ocupa el cargo de director ejecutivo de la Asociación Mexicana de Industrias de Investigación Farmacéutica, organismo dedicado a fortalecer la imagen de la investigación en la industria farmacéutica y difundir los avances en este campo.

36 21

Mary Pat Moyer. Tiene un doctorado en Microbiología, con énfasis en virología, de la Universidad de Texas en Austin. Estudió Biología en la Universidad de Florida Atlántica.

Moyer es reconocida en el campo científico y biomédico, además de ser considerada como una líder en el negocio de la tecnología. En 1993 fundó la compañía de Innovación en Ciencias de la Vida, INCELL Corporation, luego de contar con más de 20 años de experiencia como científica académica, como directora del Centro para Biotecnología Celular Humana y profesora en el Centro de Ciencias de la Salud de la Universidad de Texas, en San Antonio.

Actualmente dirige la compañía INCELL y es fundadora y presidenta de la Asociación San Antonio Austin para las Ciencias de la Vida.

Ha publicado más de 200 trabajos científicos y es co autora del libro de texto Colon Cancer Cells. También ha recibido importantes reconocimientos por diversos logros alcanzados a lo largo de su carrera.

Existe un considerable interés en el desarrollo de vacunas diseñadas para operar en el área de terapia humana. La necesidad urgente de establecer pruebas clínicas aceptables ha restringido la investigación

básica al establecimiento de métodos selectivos y escalables para la recuperación de candidatos de vacunas que puedan ser eficientemente integrados a esquemas de producción para obtener productos en un estado adecuado para validación, formulación y presentación final.

Centro de Biotecnología / Tecnológico de MonterreyDoctor Marco Rito-Palomares

PROFESIONALIZACIÓN DE LA CIENCIA GENÓMICAEstamos viviendo una época de grandes e innovadores descubrimientos sobre lo que representa, quizás, el patrimonio más importante de la naturaleza y del ser humano: el genoma de las especies. El conocimiento y análisis de la totalidad de la secuencia nucleotídica del material genético de un organismo, representa lo que se ha denominado ciencias genómicas.

Los descubrimientos realizados por di-cha disciplina están generando un nuevo paradigma de las ciencias naturales, que, al madurar, impulsarán el desarrollo de nuevas tecnologías en todos los ámbitos del quehacer humano, principalmente en la medicina, industria, agricultura, ganadería y, en general, alimentación, por mencionar algunas áreas.

Las ciencias genómicas se encuentran en los límites de ciencias básicas como la genética, bioquímica, biofísica, biología molecular, ciencias computacionales e informática y fisiología. Desde el punto de vista de la evolución del conocimiento, las ciencias genómicas han cimentado las bases para la transcriptómica proteómica; esto es, el conocimiento de los productos de esos genes a nivel de RNA y proteínas, respectivamente, y, finalmente, la Biología de Sistemas que representa el conocimiento del funcionamiento global de la célula. Por otra parte, las ciencias computacionales e informática (bioinformática) contenderán con el reto de definir, ordenar, manejar y descifrar la información de las secuencias genómicas, para analizar, comprender y plantear preguntas relevantes para las ciencias biológicas.

El impacto de las ciencias genómicas será de tal magnitud, que ninguna de las disciplinas o ramas de las ciencias naturales podrá estar exenta de su influencia. Por ejemplo, la elaboración de los perfiles de RNAs y Proteínas, resultantes de la expresión de los genomas bajo distintas condiciones, permitirá conocer, de manera integrada, la fisiología, lo cual impactará en nuestra capacidad para hacer la ingeniería de vías metabólicas. La comparación de la expresión genética entre estados normales y patológicos representa un importante avance en las ciencias de la

salud, lo cual incidirá en la comprensión, diagnóstico y posible terapéutica.

GENERACIÓN DE NUEVAS BIOTECNOLOGÍASPor otra parte, las ciencias genómicas podrán incidir, de manera directa, en el estudio de la biodiversidad desde microorganismos hasta plantas y animales. Sin embargo, una de las aplicaciones muy importantes será concentrada en la generación de nuevas biotecnologías a nivel industrial, por el manejo adecuado de los microorganismos útiles al humano. Igualmente, en la elaboración no sólo de metabolitos importantes en salud y terapéutica, como vacunas, anticuerpos, hormonas, inmunomoduladores y antibióticos, sino también en suplementos alimenticios como aminoácidos, vitaminas y proteínas, así como en procesos tales como la elaboración de bebidas y la biorremediación de suelos y cuerpos de agua. No menos importantes son también las implicaciones éticas, legales y sociales que emanarán de estos nuevos conocimientos y de su aplicación

La implementación de un programa académico que englobe todas las ciencias y disciplinas involucradas en la aplicación de las ciencias genómicas, demanda la adquisición de conocimientos, habilidades y destrezas

en biología, genética, bioquímica, ecología, matemáticas y bioinformática, que desgraciadamente, están ausentes de los planes de estudio de licenciatura del área biológica que se ofrecen actualmente en nuestro país.

Esta propuesta obedece a la necesidad de formar nuevos profesionales en el área biológica, que responden a los grandes retos de las fronteras de la biología en el nuevo milenio. Para cumplir con la tarea del diseño y elaboración de la propuesta de la nueva carrera, se instauró un grupo de trabajo integrado por dieciséis profesores provenientes de las siguientes facultades: Ciencias Biológicas, Ciencias Químicas, Agronomía, Medicina, Medicina Veterinaria y Zootecnia y de la Secretaría Académica, todas pertenecientes a la UANL.

INICIOS DE LA BIOTECNOLOGÍA GENÓMICADebe destacarse que la era de la Biotecnología Genómica fue inaugurada en México precisamente un par de los profesores que participaron en esta tarea: el profesor Hugo A. Barrera Saldaña y la doctora Diana Reséndez Pérez, cuando crearon en 1999 el Centro de Biotecnología Genómica, por lo que su visión y experiencia nos fue de enorme valor. También es de destacarse que se

20 37

emergentes de estos sistemas así como su interacción con el medio ambiente: simplemente sintetizo un problema muy complejo.

¿QUÉ ES LA BIOINFORMÁTICA?La Biología, la Computación y la Informática se unen para formar una sola disciplina: la Bioinformática, que algunas veces es llamada también Biología Computacional, cuando se trata de analizar los datos acumulados. La materia de estudio; es decir, los datos que estudia la Bioinformática son secuencias de ADN y aminoácidos (proteínas). Sobre dichas secuencias hay mucho que decir, pues son los ladrillos con los que están construidos los seres vivos.

Las técnicas de secuenciación masiva de ADN han avanzado enormemente en los últimos años, y como resultado de ello se tienen actualmente más de 32 millones de secuencias de ADN que contienen más de 38 mil millones de bases (A, T, G y C) depositadas en el banco de datos de genes (GenBank, ver referencia) y disponibles para ser revisadas por cualquier persona. Para darnos una idea del número de caracteres depositados, éstos serían suficientes para escribir más de cuatro millones de artículos como éste. Entre las secuencias depositadas se encuentran los genomas completos del ser humano, del ratón, del arroz y de un sinnúmero de bacterias y otros bichos. ¿Por qué coleccionar estas secuencias?

UTILIDAD DE LA BIOINFORMÁTICASi un radiotécnico quiere reparar un televisor, necesita tener el diagrama de los circuitos que lo componen. Necesita esta información para entender cómo funciona el aparato y poder repararlo. Hasta cierto punto con los seres vivos es el mismo caso: Si queremos entender cómo funcionan y modificarlos necesitamos su plano maestro; es decir su genoma, constituido por toda la información presente en sus moléculas de ADN. De momento tenemos ya la información de genomas completos y podemos, con muchas más herramientas que hace tres décadas, ponernos a descifrar cómo funcionan los seres vivos. Conocemos al momento, con certeza, el código que indica qué aminoácido va en determinada posición de una proteína; este código es una simple tabla que relaciona tripletes de bases de ADN con cada uno de los aminoácidos. La parte del código sobre la cual tenemos mucho menos certidumbre se refiere a las señales que indican cuándo y cuánto se va a transcribir un gene: Las señales de prendido, apagado y “volumen” de los genes.

Esto es tremendamente importante para nuestra vida diaria; por ejemplo, la mayoría de los tipos de cáncer que aquejan a los humanos son descomposturas en las señales informáticas (genéticas) que les indican a las células cuándo y cuánto reproducirse. Si estas señales se “descomponen” las células se reproducen indiscriminadamente, produciendo un tumor que puede ser maligno.

SELECCIÓN ARTIFICIALEn otro contexto, la cantidad y calidad de alimentos que producen los seres vivos está gobernada, en última instancia, por sus genes. La domesticación de especies animales y vegetales en nuestro beneficio ha procedido por selección artificial, sin entender bien a bien el funcionamiento de los

organismos; simplemente se toman los mejores individuos (los más productivos o resistentes) como padres de la siguiente generación. Éste es un proceso que toma muchas generaciones para producir resultados. ¿Qué pasaría si pudiéramos hacerlo de un solo golpe; por ejemplo, modificando la información de los genes del maíz para que la planta crezca mejor en suelos pobres?

En general, cuanto mejor comprendemos un sistema, más rápida y eficientemente podemos modificarlo, y la Bioinformática se ocupa de almacenar, analizar e interpretar la enorme cantidad de resultados que estamos obteniendo en forma de secuencias de ADN. Mencionaré algunas de las tareas que realizo como bioinformático: Identificación de secuencias. Cuando se obtiene una secuencia de ADN de algún organismo necesitamos saber qué gene representa; esto lo hacemos encontrando secuencias parecidas en las bases de datos por

medio del programa BLAST. Anotación de secuencias. (Para obtener conocimiento científico a partir de una secuencia, es necesario saber qué funciones desempeña en la célula, en qué parte de ésta se encuentra y a qué procesos moleculares está asociada); a esto se le llama anotación funcional.

Armado de genomas. Cuando se quiere conocer el genoma de un organismo; por ejemplo de una bacteria, se obtienen millones de pequeñas partes de su genoma, de alrededor de 700 pares de bases. Es necesario entonces armar o ensamblar el genoma, lo cual consiste en solucionar un enorme rompecabezas cuyas piezas son los pequeños fragmentos de ADN y que podemos armar encontrando cuáles segmentos se sobrelapan entre sí.

¿QUIERES SABER MÁS? He tratado de dar una muy sucinta introducción al campo del análisis de secuencias de ADN y proteínas; si estás interesado(a) en conocer más de este campo, posiblemente el mejor lugar para comenzar sea el sitio en la red del Centro Nacional para la Información Biotecnológica o National Center for Biotechnology Information (NCBI) de los Estados Unidos: www.ncbi.nlm.nih.gov/. En este sitio encontrarás una enorme cantidad de información sobre Bioinformática y áreas afines; en particular en la liga www.ncbi.nlm.nih.gov/About/primer puedes acceder a una introducción comprensible de estos tópicos.

Comentarios: [email protected]

contó con la asesoría de miembros de Instituciones externas, como el Instituto Mexicano del Seguro Social (IMSS) y del Instituto Nacional de Investigación Forestal y Agropecuarias (INIFAP). Los integrantes de este grupo poseen experiencia complementaria en diferentes aspectos de relevancia para las ciencias genómicas, y llevaron a cabo las siguientes actividades:

I.- Consulta de opinión con investigadores expertos en biología, medicina, biología molecular, bioquímica, genética, biotecnología industrial, biotecnología vegetal, biotecnología ambiental y biotecnología animal. Asimismo se contó con la participación de pedagogos especialistas en diseño curricular y pedagogía.

II.- Acopio y análisis de información de programas similares que inician actividades en otras partes de México y del mundo.

III.- Reuniones de subgrupos de trabajo por área de experiencia para la integración primaria de los planes de estudio.

IV.- Realización de un total de 20 reuniones del grupo (alrededor de 90 horas) para lograr la articulación entre las diferentes áreas de experiencia y redacción final de la propuesta.

Estas actividades se realizaron entre julio y noviembre de 2003. Para la elaboración del proyecto se consideró la Ley Orgánica y el Reglamento General de la UANL y demás reglamentos y disposiciones vigentes en la UANL.

FUNDAMENTACIÓNEl enorme cúmulo de información de la secuencia nucleotídica del genoma de diversos organismos generado en la última década, ha provocado una verdadera revolución de conceptos

y retos en todas las áreas de las ciencias naturales. Estos nuevos descubrimientos se iniciaron a fines del siglo XX, específicamente en 1995, con la publicación de la secuencia nucleotídica del genoma de la bacteria Haemophilus influenzae. Hoy en día, después de casi una década de intenso trabajo multidisciplinario entre la biología, bioinformática y matemáticas, conocemos la secuencia del genoma de más de 20 organismos eucariotas, incluyendo el humano (Homo sapiens), el protozoario responsable de la malaria (Plasmodium falsiparum), mosquitos vectores de enfermedades (Anopheles gambiae), levaduras productoras de cerveza y vino (Saccharomyces cerevisiae), la mosca de la fruta (Drosophila melanogaster), el ratón (Mus musculus), plantas como el maíz (Zea mayz), el arroz (Oryza sativa )y más de 80 bacterias, tanto patógenas como benéficas para el humano, plantas y animales.

IMPACTO EN LA BIOTECNOLOGÍA TRADICIONALEsta información ha abierto la oportunidad de incrementar el conocimiento sobre el papel de cientos de genes involucrados en procesos patológicos, no sólo en el humano y en especies de importancia agropecuaria y forestal, sino también en la detección oportuna de patógenos en alimentos de origen vegetal y animal. Asimismo, su impacto en la biotecnología tradicional y del ADN recombinante es una enorme veta que está a la vista para el inicio del presente siglo y abre la oportunidad de nuevas tecnologías para el adecuado tratamiento de enfermedades y mejoramiento en la calidad y cantidad de alimentos más seguros.

Nuestra institución, sensible a estos cambios y acorde con sus principios fundamentales de la generación, preservación y difusión del conocimiento, así como al amparo de su marco de referencia de desarrollo plasmado en la Visión UANL 2006 y Educación para la Vida, decidió, en función de su enorme potencial distribuido en las distintas Facultades del área biológica, afrontar el enorme reto de formar la carrera

36 21

Mary Pat Moyer. Tiene un doctorado en Microbiología, con énfasis en virología, de la Universidad de Texas en Austin. Estudió Biología en la Universidad de Florida Atlántica.

Moyer es reconocida en el campo científico y biomédico, además de ser considerada como una líder en el negocio de la tecnología. En 1993 fundó la compañía de Innovación en Ciencias de la Vida, INCELL Corporation, luego de contar con más de 20 años de experiencia como científica académica, como directora del Centro para Biotecnología Celular Humana y profesora en el Centro de Ciencias de la Salud de la Universidad de Texas, en San Antonio.

Actualmente dirige la compañía INCELL y es fundadora y presidenta de la Asociación San Antonio Austin para las Ciencias de la Vida.

Ha publicado más de 200 trabajos científicos y es co autora del libro de texto Colon Cancer Cells. También ha recibido importantes reconocimientos por diversos logros alcanzados a lo largo de su carrera.

Existe un considerable interés en el desarrollo de vacunas diseñadas para operar en el área de terapia humana. La necesidad urgente de establecer pruebas clínicas aceptables ha restringido la investigación

básica al establecimiento de métodos selectivos y escalables para la recuperación de candidatos de vacunas que puedan ser eficientemente integrados a esquemas de producción para obtener productos en un estado adecuado para validación, formulación y presentación final.

Centro de Biotecnología / Tecnológico de MonterreyDoctor Marco Rito-Palomares

PROFESIONALIZACIÓN DE LA CIENCIA GENÓMICAEstamos viviendo una época de grandes e innovadores descubrimientos sobre lo que representa, quizás, el patrimonio más importante de la naturaleza y del ser humano: el genoma de las especies. El conocimiento y análisis de la totalidad de la secuencia nucleotídica del material genético de un organismo, representa lo que se ha denominado ciencias genómicas.

Los descubrimientos realizados por di-cha disciplina están generando un nuevo paradigma de las ciencias naturales, que, al madurar, impulsarán el desarrollo de nuevas tecnologías en todos los ámbitos del quehacer humano, principalmente en la medicina, industria, agricultura, ganadería y, en general, alimentación, por mencionar algunas áreas.

Las ciencias genómicas se encuentran en los límites de ciencias básicas como la genética, bioquímica, biofísica, biología molecular, ciencias computacionales e informática y fisiología. Desde el punto de vista de la evolución del conocimiento, las ciencias genómicas han cimentado las bases para la transcriptómica proteómica; esto es, el conocimiento de los productos de esos genes a nivel de RNA y proteínas, respectivamente, y, finalmente, la Biología de Sistemas que representa el conocimiento del funcionamiento global de la célula. Por otra parte, las ciencias computacionales e informática (bioinformática) contenderán con el reto de definir, ordenar, manejar y descifrar la información de las secuencias genómicas, para analizar, comprender y plantear preguntas relevantes para las ciencias biológicas.

El impacto de las ciencias genómicas será de tal magnitud, que ninguna de las disciplinas o ramas de las ciencias naturales podrá estar exenta de su influencia. Por ejemplo, la elaboración de los perfiles de RNAs y Proteínas, resultantes de la expresión de los genomas bajo distintas condiciones, permitirá conocer, de manera integrada, la fisiología, lo cual impactará en nuestra capacidad para hacer la ingeniería de vías metabólicas. La comparación de la expresión genética entre estados normales y patológicos representa un importante avance en las ciencias de la

salud, lo cual incidirá en la comprensión, diagnóstico y posible terapéutica.

GENERACIÓN DE NUEVAS BIOTECNOLOGÍASPor otra parte, las ciencias genómicas podrán incidir, de manera directa, en el estudio de la biodiversidad desde microorganismos hasta plantas y animales. Sin embargo, una de las aplicaciones muy importantes será concentrada en la generación de nuevas biotecnologías a nivel industrial, por el manejo adecuado de los microorganismos útiles al humano. Igualmente, en la elaboración no sólo de metabolitos importantes en salud y terapéutica, como vacunas, anticuerpos, hormonas, inmunomoduladores y antibióticos, sino también en suplementos alimenticios como aminoácidos, vitaminas y proteínas, así como en procesos tales como la elaboración de bebidas y la biorremediación de suelos y cuerpos de agua. No menos importantes son también las implicaciones éticas, legales y sociales que emanarán de estos nuevos conocimientos y de su aplicación

La implementación de un programa académico que englobe todas las ciencias y disciplinas involucradas en la aplicación de las ciencias genómicas, demanda la adquisición de conocimientos, habilidades y destrezas

en biología, genética, bioquímica, ecología, matemáticas y bioinformática, que desgraciadamente, están ausentes de los planes de estudio de licenciatura del área biológica que se ofrecen actualmente en nuestro país.

Esta propuesta obedece a la necesidad de formar nuevos profesionales en el área biológica, que responden a los grandes retos de las fronteras de la biología en el nuevo milenio. Para cumplir con la tarea del diseño y elaboración de la propuesta de la nueva carrera, se instauró un grupo de trabajo integrado por dieciséis profesores provenientes de las siguientes facultades: Ciencias Biológicas, Ciencias Químicas, Agronomía, Medicina, Medicina Veterinaria y Zootecnia y de la Secretaría Académica, todas pertenecientes a la UANL.

INICIOS DE LA BIOTECNOLOGÍA GENÓMICADebe destacarse que la era de la Biotecnología Genómica fue inaugurada en México precisamente un par de los profesores que participaron en esta tarea: el profesor Hugo A. Barrera Saldaña y la doctora Diana Reséndez Pérez, cuando crearon en 1999 el Centro de Biotecnología Genómica, por lo que su visión y experiencia nos fue de enorme valor. También es de destacarse que se

20 37

emergentes de estos sistemas así como su interacción con el medio ambiente: simplemente sintetizo un problema muy complejo.

¿QUÉ ES LA BIOINFORMÁTICA?La Biología, la Computación y la Informática se unen para formar una sola disciplina: la Bioinformática, que algunas veces es llamada también Biología Computacional, cuando se trata de analizar los datos acumulados. La materia de estudio; es decir, los datos que estudia la Bioinformática son secuencias de ADN y aminoácidos (proteínas). Sobre dichas secuencias hay mucho que decir, pues son los ladrillos con los que están construidos los seres vivos.

Las técnicas de secuenciación masiva de ADN han avanzado enormemente en los últimos años, y como resultado de ello se tienen actualmente más de 32 millones de secuencias de ADN que contienen más de 38 mil millones de bases (A, T, G y C) depositadas en el banco de datos de genes (GenBank, ver referencia) y disponibles para ser revisadas por cualquier persona. Para darnos una idea del número de caracteres depositados, éstos serían suficientes para escribir más de cuatro millones de artículos como éste. Entre las secuencias depositadas se encuentran los genomas completos del ser humano, del ratón, del arroz y de un sinnúmero de bacterias y otros bichos. ¿Por qué coleccionar estas secuencias?

UTILIDAD DE LA BIOINFORMÁTICASi un radiotécnico quiere reparar un televisor, necesita tener el diagrama de los circuitos que lo componen. Necesita esta información para entender cómo funciona el aparato y poder repararlo. Hasta cierto punto con los seres vivos es el mismo caso: Si queremos entender cómo funcionan y modificarlos necesitamos su plano maestro; es decir su genoma, constituido por toda la información presente en sus moléculas de ADN. De momento tenemos ya la información de genomas completos y podemos, con muchas más herramientas que hace tres décadas, ponernos a descifrar cómo funcionan los seres vivos. Conocemos al momento, con certeza, el código que indica qué aminoácido va en determinada posición de una proteína; este código es una simple tabla que relaciona tripletes de bases de ADN con cada uno de los aminoácidos. La parte del código sobre la cual tenemos mucho menos certidumbre se refiere a las señales que indican cuándo y cuánto se va a transcribir un gene: Las señales de prendido, apagado y “volumen” de los genes.

Esto es tremendamente importante para nuestra vida diaria; por ejemplo, la mayoría de los tipos de cáncer que aquejan a los humanos son descomposturas en las señales informáticas (genéticas) que les indican a las células cuándo y cuánto reproducirse. Si estas señales se “descomponen” las células se reproducen indiscriminadamente, produciendo un tumor que puede ser maligno.

SELECCIÓN ARTIFICIALEn otro contexto, la cantidad y calidad de alimentos que producen los seres vivos está gobernada, en última instancia, por sus genes. La domesticación de especies animales y vegetales en nuestro beneficio ha procedido por selección artificial, sin entender bien a bien el funcionamiento de los

organismos; simplemente se toman los mejores individuos (los más productivos o resistentes) como padres de la siguiente generación. Éste es un proceso que toma muchas generaciones para producir resultados. ¿Qué pasaría si pudiéramos hacerlo de un solo golpe; por ejemplo, modificando la información de los genes del maíz para que la planta crezca mejor en suelos pobres?

En general, cuanto mejor comprendemos un sistema, más rápida y eficientemente podemos modificarlo, y la Bioinformática se ocupa de almacenar, analizar e interpretar la enorme cantidad de resultados que estamos obteniendo en forma de secuencias de ADN. Mencionaré algunas de las tareas que realizo como bioinformático: Identificación de secuencias. Cuando se obtiene una secuencia de ADN de algún organismo necesitamos saber qué gene representa; esto lo hacemos encontrando secuencias parecidas en las bases de datos por

medio del programa BLAST. Anotación de secuencias. (Para obtener conocimiento científico a partir de una secuencia, es necesario saber qué funciones desempeña en la célula, en qué parte de ésta se encuentra y a qué procesos moleculares está asociada); a esto se le llama anotación funcional.

Armado de genomas. Cuando se quiere conocer el genoma de un organismo; por ejemplo de una bacteria, se obtienen millones de pequeñas partes de su genoma, de alrededor de 700 pares de bases. Es necesario entonces armar o ensamblar el genoma, lo cual consiste en solucionar un enorme rompecabezas cuyas piezas son los pequeños fragmentos de ADN y que podemos armar encontrando cuáles segmentos se sobrelapan entre sí.

¿QUIERES SABER MÁS? He tratado de dar una muy sucinta introducción al campo del análisis de secuencias de ADN y proteínas; si estás interesado(a) en conocer más de este campo, posiblemente el mejor lugar para comenzar sea el sitio en la red del Centro Nacional para la Información Biotecnológica o National Center for Biotechnology Information (NCBI) de los Estados Unidos: www.ncbi.nlm.nih.gov/. En este sitio encontrarás una enorme cantidad de información sobre Bioinformática y áreas afines; en particular en la liga www.ncbi.nlm.nih.gov/About/primer puedes acceder a una introducción comprensible de estos tópicos.

Comentarios: [email protected]

contó con la asesoría de miembros de Instituciones externas, como el Instituto Mexicano del Seguro Social (IMSS) y del Instituto Nacional de Investigación Forestal y Agropecuarias (INIFAP). Los integrantes de este grupo poseen experiencia complementaria en diferentes aspectos de relevancia para las ciencias genómicas, y llevaron a cabo las siguientes actividades:

I.- Consulta de opinión con investigadores expertos en biología, medicina, biología molecular, bioquímica, genética, biotecnología industrial, biotecnología vegetal, biotecnología ambiental y biotecnología animal. Asimismo se contó con la participación de pedagogos especialistas en diseño curricular y pedagogía.

II.- Acopio y análisis de información de programas similares que inician actividades en otras partes de México y del mundo.

III.- Reuniones de subgrupos de trabajo por área de experiencia para la integración primaria de los planes de estudio.

IV.- Realización de un total de 20 reuniones del grupo (alrededor de 90 horas) para lograr la articulación entre las diferentes áreas de experiencia y redacción final de la propuesta.

Estas actividades se realizaron entre julio y noviembre de 2003. Para la elaboración del proyecto se consideró la Ley Orgánica y el Reglamento General de la UANL y demás reglamentos y disposiciones vigentes en la UANL.

FUNDAMENTACIÓNEl enorme cúmulo de información de la secuencia nucleotídica del genoma de diversos organismos generado en la última década, ha provocado una verdadera revolución de conceptos

y retos en todas las áreas de las ciencias naturales. Estos nuevos descubrimientos se iniciaron a fines del siglo XX, específicamente en 1995, con la publicación de la secuencia nucleotídica del genoma de la bacteria Haemophilus influenzae. Hoy en día, después de casi una década de intenso trabajo multidisciplinario entre la biología, bioinformática y matemáticas, conocemos la secuencia del genoma de más de 20 organismos eucariotas, incluyendo el humano (Homo sapiens), el protozoario responsable de la malaria (Plasmodium falsiparum), mosquitos vectores de enfermedades (Anopheles gambiae), levaduras productoras de cerveza y vino (Saccharomyces cerevisiae), la mosca de la fruta (Drosophila melanogaster), el ratón (Mus musculus), plantas como el maíz (Zea mayz), el arroz (Oryza sativa )y más de 80 bacterias, tanto patógenas como benéficas para el humano, plantas y animales.

IMPACTO EN LA BIOTECNOLOGÍA TRADICIONALEsta información ha abierto la oportunidad de incrementar el conocimiento sobre el papel de cientos de genes involucrados en procesos patológicos, no sólo en el humano y en especies de importancia agropecuaria y forestal, sino también en la detección oportuna de patógenos en alimentos de origen vegetal y animal. Asimismo, su impacto en la biotecnología tradicional y del ADN recombinante es una enorme veta que está a la vista para el inicio del presente siglo y abre la oportunidad de nuevas tecnologías para el adecuado tratamiento de enfermedades y mejoramiento en la calidad y cantidad de alimentos más seguros.

Nuestra institución, sensible a estos cambios y acorde con sus principios fundamentales de la generación, preservación y difusión del conocimiento, así como al amparo de su marco de referencia de desarrollo plasmado en la Visión UANL 2006 y Educación para la Vida, decidió, en función de su enorme potencial distribuido en las distintas Facultades del área biológica, afrontar el enorme reto de formar la carrera

38 19

Un poco de filosofía. La información implica la utilización de un código –si no hay codificación no hay información. Argumentaré que los seres vivos son esencialmente máquinas informáticas. ¿Por qué? Pues los seres vivos, viéndolos de manera muy sintética, están formados de dos sistemas interdependientes: el genético –que contiene y perpetúa la información, y el metabólico/estructural –que se ocupa de capturar materia y energía del medioambiente así como de operar el sistema genético de información. Es el clásico caso del huevo y la gallina, en el cual podemos ver a la gallina como el sistema perpetuador del huevo o viceversa, sin que podamos decidir cuál fue primero.

Pero, ¿existe información fuera de los sistemas vivos? Mi respuesta es un rotundo NO, considerando que los sistemas informáticos creados por el hombre son un subproducto de su cultura y por tanto dependientes de un sistema viviente ¿Qué serían las computadoras sin nosotros? Sim-plemente no serían.

Afirmo que fuera de los sistemas vivos no existe información. Estudiemos cualquier fenómeno natural que no involucre seres vivos; por ejemplo, la erupción de un volcán. El volcán erupciona en un determinado momento por las presiones del magma sobre la corteza terrestre; no existe, en ningún punto, una transmisión de información. Las Leyes de la Naturaleza simplemente son, existen y persisten inalteradas desde la gran explosión (Big bang). La Física, Química y demás Ciencias Naturales las estudian; la Biología, por otro lado, es muy particular a este respecto: Todo lo que estudia está relacionado con la información genética y, directa o indirectamente, con el código genético.

REPLICACIÓN Y OPERACIÓN DEL ADNEste código no es una ley natural per se; se generó con un cierto componente aleatorio en los orígenes de la vida, y dicho

componente aleatorio persiste hasta nuestros días con algunas variaciones (código genético nuclear, mitocondrial, etcétera). La molécula que transmite la información biológica es el Ácido Desoxiribo-Nucleíco (ADN); la secuencia de bases (A, T, G o C) a lo largo de esta molécula determina qué proteínas serán sintetizadas en la célula y, por su parte, las proteínas operan el sistema metabólico/estructural de los seres vivos, incluyendo la replicación y operación del ADN mismo.

¿Qué fue primero, el ADN o las proteínas? La respuesta parece ser ninguna de las dos moléculas, sino el Ácido Ribo-Nucleico (ARN); la molécula que sirve como intermediaria y operadora de la información biológica, interviniendo en la trascripción de la información al llevar a cabo dos papeles vitales: La copia de la información presente en el ADN (ARN mensajero) y el reconocimiento del código genético (ARN de transferencia). Los genes son segmentos de ADN que contienen la información para formar una proteína. Un gene está constituido no solamente por el segmento que codifica a la proteína, sino también por señales que le indican a la célula cuándo y cuánto se debe transcribir; es decir, los genes tienen control de prendido/apagado y “volumen”.

Esto es, qué tanto se deben transcribir; qué tanta proteína se debe sintetizar en

un momento particular del desarrollo y un tipo específico de célula. El desarrollo y diferenciación de un embrión a partir de una sola célula indiferenciada es un concierto enormemente complicado de genes que se prenden, se apagan o cambian de “volumen” de trascripción, diferenciando a las células para formar tejidos y órganos, lo que finalmente resulta en un individuo extraordinariamente complejo. La clave: La información presente en el ADN. Esta visión de la vida tal vez parezca demasiado reduccionista y mecanicista, pero notemos que no se niega que para la completa comprensión del fenómeno de la vida es necesario comprender las propiedades

Doctor Octavio Martínez de la VegaCINVESTAV Irapuato

de doble ciclo: “Profesional Asociado en Biotecnología Genómica” y “Licenciado en Biotecnología Genómica”, las cuales comprenderán la generación y uso de la información del ADN de los organismos para el desarrollo de biotecnología. El entorno geográfico, desarrollo industrial y socio-económico de nuestro estado nos coloca ante la gran oportunidad de generar profesionales capaces de transformar las capacidades del análisis profundo de la secuencia nucleotídica de los organismos para generación de tecnologías más sólidas, social y económicamente más rentables y ecológicamente más seguras.

En este sentido, la Universidad Autóno-ma de Nuevo León cuenta con alrededor de medio centenar de profesores con grado de doctor y otro tanto de Maestros en Ciencias, especialistas en las distintas áreas del conocimiento de la biología molecular e ingeniería genética de microorganismos, bioquímica, genética, medicina humana, veterinaria, ciencias agrícolas, ecología y biotecnología, y más de una decena de laboratorios y talleres altamente equipados con infraestructura y tecnologías afines al área genómica (genética, bioquímica, biología molecular

biotecnología y cómputo). Aunado a ello, nuestro estado cuenta con instituciones de investigación y desarrollo dentro del sector salud (IMSS) y agropecuario (INIFAP), con las cuales nuestra universidad mantiene una estrecha colaboración científico-académica. Este tipo de colaboración será otro factor importante para el adecuado desarrollo profesional de los alumnos de la carrera en biotecnología genómica.

El personal docente que estará adscrito a este programa cuenta con amplia experiencia en la formación de recursos humanos a nivel de licenciatura, maestría y doctorado, lo cual garantiza una formación académica integral de los alumnos inscritos en el mismo. Nuestro programa está dividido en dos ciclos: durante el primer período, los alumnos recibirán una instrucción básica para desempeñarse como técnico profesional en laboratorios de desarrollo de procesos biotecnológicos y diagnóstico molecular de enfermedades hereditarias e infecciosas.

En la segunda parte, el alumno recibirá una formación académico-científica para abordar y resolver problemas en su campo.

OBJETIVO DE LA CARRERAPrimer ciclo: Formar profesionales asociados capaces de servir como soporte de equipos interdisciplinarios para el desarrollo de procesos biotecnológicos en los sectores de salud, agroalimentario, industrial y ambiental.

Segundo ciclo: Formar profesionales competentes, innovadores y emprendedores, capaces de aplicar las ciencias genómicas, proteómicas y de bioinformática para contribuir al desarrollo de los sectores de salud, agroalimentario, industrial y ambiental.

Fue así como las carreras de Profesio-nal Asociado en Biotecnología Genómica y de Licenciado en Biotecnología Genómica fueron aprobadas por el Honorable Consejo Universitario a partir del semestre que inició en agosto de 2004 y cuyo grado será otorgado a través de la Facultad de Ciencias Biológicas. Ambas carreras forman profesionis-tas competentes, innovadores y emprendedores que aplican las ciencias genómicas, proteómicas y de bioinformática en los sectores de salud, agroalimentario, industrial y ambiental.

Los egresados de estas carreras están capacitados para utilizar las ciencias básicas y aplicadas en la solución de problemas en las áreas de salud, tecnología y ambiente; pueden administrar procesos productivos, generar nuevos productos y tendrán un amplio sentido humanista y compromiso con las necesidades, eficiencia y productividad de México.

18 39

todas las tareas y no únicamente la suya, no podrá ser más rápido que un FPGA.

Además, un FPGA no sólo está programado para una tarea; también permite que esa misma función se copie en varias ocasiones en el mismo FPGA, de tal manera que puede llevar a cabo simultáneamente la misma función.

Para que el lector tenga una idea del potencial de desarrollo que tiene esta técnica, considere por un momento el aceleramiento que un programa lograría con ayuda de un FPGA; si el cluster donde habitualmente lo ejecuta fuese empequeñecido a tal grado que cupiese en un FPGA, y de igual manera, ¿se imagina el lector lo que ocurriría si dentro de su computadora personal tuviese decenas de esos FPGAs interconectados, ejecutando únicamente un programa?

BIOINFORMÁTICA INTENSIVA EN MÉXICOHasta ahora hemos realizado una breve revisión sobre la biología moderna y el cómputo intensivo, y de cómo estas disciplinas pueden llevarnos a acelerar el descubrimiento de nuevos medicamentos y, a su vez, a mejorar nuestro entendimiento sobre el funcionamiento de los seres vivos. Y sabiendo esto, es importante entonces saber qué esfuerzos se están realizando en nuestro país en esta dirección. La última parte de este documento la dedicaremos a mencionar uno de los proyectos más recientes y ambiciosos que en México se realizan en estas áreas del conocimiento.

Es importante aclarar un punto: las computadoras en este momento no pueden sustituir el trabajo en el laboratorio de los biólogos; sólo ayudan a acelerar el descubrimiento de nuevo conocimiento. Así, para la biología, la computación es una herramienta; sin embargo, es necesaria la participación de científicos en computación para resolver los problemas asociados a la biología. En este contexto, se empiezan a desarrollar herramientas útiles para la biología con el mejor planteamiento científico computacional en México.

Nuestra máxima casa de estudios ha emprendido un proyecto (Macroproyecto universitario: Tecnologías para la universidad de la información y la computación; consulte la página del macroproyecto en http://dinamica1.fciencias.unam.mx/ptid/redinformatica/) en el cual se plantea la construcción de un grid dedicado a analizar datos de expresión de genes, así como para la predicción de la estructura y función de las proteínas. Este proyecto tiene dos componentes muy importantes: 1) construcción y uso continuo del primer grid científico en México contemplando el desarrollo de software para el análisis de genomas y proteínas y 2) evaluación biológica de estas herramientas.

Además de ser el primer grid científico dedicado a la bioinformática en México, en éste se estarán evaluando tecnologías emergentes en el cómputo intensivo como son los FPGAs en el diseño de fármacos. Es importante destacar que actualmente sólo 30 países en el mundo usan supercomputadoras dedicadas a proyectos específicos, (consulte la página http://www.top500.org/ para más información sobre los países y tecnologías en computo intensivo). Además, sólo uno de esos 30 países dedican una

supercomputadora en el área de la biología. México no figura entre los 30 países que dedican supercomputadoras a un proyecto específico, pero este proyecto podría colocar a México como el segundo país que utilice el cómputo intensivo en el área biológica. Los grids en ese sentido ofrecen una solución eficiente y económica, comparada con la inversión de supercomputadoras, como se mencionó antes.

GRID EN FASE DE PRUEBAEn este proyecto participan 20 investigadores de distintas dependencias universitarias, incluyendo al Instituto de Investigaciones Matemáticas Aplicadas y de Sistemas (IIMAS), Instituto de Fisiología Celular (IFC), Instituto de Biotecnología (IBT), la Facultad de Ciencias (FC) y la Dirección General de Servicios de Cómputo Académico (DGSCA) de la UNAM. Este grid busca enlazar inicialmente a cinco clusters localizados en estas dependencias universitarias. Actualmente un primer prototipo de grid está en fase de prueba utilizando para ello tecnología desarrollada en la UNAM y por grupos de investigación externos.

Este prototipo servirá para evaluar un nuevo método de predicción de la estructura y función de las proteínas desarrollado en la UNAM. Para el año 2008, el grid que conec-te a cinco clusters debe estar en pleno funcionamiento y se espera que a partir de éste se puedan ir generando proyectos que demanden cada vez más de cómputo intensivo en el área de biología. Para lograr integrar a la comunidad científica mexicana en el uso y aprovechamiento de esta tecnología, se ha constituido la red mexicana bioinformática (consulte la página de la red en http://rmb.ifc.unam.mx/). Al mismo tiempo, se han iniciado proyectos en el estudio de la expresión de genes en organismos modelo que permitirán evaluar la confiabilidad de estas tecnologías.

Con todos estos esfuerzos, México se encamina a transformar la forma en que se ha venido realizando biología en el país y con ello a la formación de nuevos profesionistas y científicos que puedan promover el desarrollo del país en estas áreas.

En los albores del siglo XXI, nuestro país experimenta grandes retos científicos, tecnológicos, sociales y políticos, que generan grandes cambios para los cuales debemos estar preparados.

El proceso de globalización coloca la video tecnología en un primer plano; al hacer uso de microorganismos, células vegetales, animales; sus partes o fracciones pueden generar bienes o servicios con el fin de contribuir a una mejor calidad de vida, participando activamente en un desarrollo sustentable, al mismo tiempo que generan beneficios ambientales, alimenticios, farmacéuticos e industriales.

El CECyTE Nuevo León, como parte de un subsistema de educación media superior tecnológica del Estado, se preo-cupa por formar técnicos en el área de biotecnología, que puedan insertarse en los sitios laborales, donde ofrezcan servicios de análisis físico–químico, identificación de micro-organismos, procesamiento de alimentos de origen vegetal y animal, elaboración de productos fermentados. Todo esto en empresas que operan con tecnología avanzada y prestan importantes servicios en nuestra entidad.

FORMACIÓN DE TÉCNICOS EN BIOTECNOLOGÍAEn forma creciente se presentan requerimientos de recursos humanos con esta formación, motivo por el cual el CECyTE Nuevo León responderá a estos retos del siglo XXI; por una parte, formando técnicos profesionales en biotecnología y

20 asignaturas de formación básicamil 200 horas de actividadesde aprendizaje

6 asignaturas de formación propedéutica

480 horas de actividades de aprendizaje

5 módulos de formación profesionalmil 200 horas de actividades de aprendizaje

El plan de estudios tiene la siguiente estructura para atenderse en seis semestres

Doctor Ariel FaríasDirector de Planeación y Evaluación

estableciendo una unidad de actualización profesional en esta área.

El modelo curricular será con un enfoque de aprendizaje, asignaturas de formación básica y propedéutica de educación media superior y un conjunto de módulos de formación profesional tecnológica, basada en normas de competencia con diferentes cuadros de competencias laborales.

El modelo será flexible, con entradas y salidas laterales, con un diseño de módulos específicos elaborados con las normas de competencia laboral evaluadas por expertos del sector de biotecnología.

38 19

Un poco de filosofía. La información implica la utilización de un código –si no hay codificación no hay información. Argumentaré que los seres vivos son esencialmente máquinas informáticas. ¿Por qué? Pues los seres vivos, viéndolos de manera muy sintética, están formados de dos sistemas interdependientes: el genético –que contiene y perpetúa la información, y el metabólico/estructural –que se ocupa de capturar materia y energía del medioambiente así como de operar el sistema genético de información. Es el clásico caso del huevo y la gallina, en el cual podemos ver a la gallina como el sistema perpetuador del huevo o viceversa, sin que podamos decidir cuál fue primero.

Pero, ¿existe información fuera de los sistemas vivos? Mi respuesta es un rotundo NO, considerando que los sistemas informáticos creados por el hombre son un subproducto de su cultura y por tanto dependientes de un sistema viviente ¿Qué serían las computadoras sin nosotros? Sim-plemente no serían.

Afirmo que fuera de los sistemas vivos no existe información. Estudiemos cualquier fenómeno natural que no involucre seres vivos; por ejemplo, la erupción de un volcán. El volcán erupciona en un determinado momento por las presiones del magma sobre la corteza terrestre; no existe, en ningún punto, una transmisión de información. Las Leyes de la Naturaleza simplemente son, existen y persisten inalteradas desde la gran explosión (Big bang). La Física, Química y demás Ciencias Naturales las estudian; la Biología, por otro lado, es muy particular a este respecto: Todo lo que estudia está relacionado con la información genética y, directa o indirectamente, con el código genético.

REPLICACIÓN Y OPERACIÓN DEL ADNEste código no es una ley natural per se; se generó con un cierto componente aleatorio en los orígenes de la vida, y dicho

componente aleatorio persiste hasta nuestros días con algunas variaciones (código genético nuclear, mitocondrial, etcétera). La molécula que transmite la información biológica es el Ácido Desoxiribo-Nucleíco (ADN); la secuencia de bases (A, T, G o C) a lo largo de esta molécula determina qué proteínas serán sintetizadas en la célula y, por su parte, las proteínas operan el sistema metabólico/estructural de los seres vivos, incluyendo la replicación y operación del ADN mismo.

¿Qué fue primero, el ADN o las proteínas? La respuesta parece ser ninguna de las dos moléculas, sino el Ácido Ribo-Nucleico (ARN); la molécula que sirve como intermediaria y operadora de la información biológica, interviniendo en la trascripción de la información al llevar a cabo dos papeles vitales: La copia de la información presente en el ADN (ARN mensajero) y el reconocimiento del código genético (ARN de transferencia). Los genes son segmentos de ADN que contienen la información para formar una proteína. Un gene está constituido no solamente por el segmento que codifica a la proteína, sino también por señales que le indican a la célula cuándo y cuánto se debe transcribir; es decir, los genes tienen control de prendido/apagado y “volumen”.

Esto es, qué tanto se deben transcribir; qué tanta proteína se debe sintetizar en

un momento particular del desarrollo y un tipo específico de célula. El desarrollo y diferenciación de un embrión a partir de una sola célula indiferenciada es un concierto enormemente complicado de genes que se prenden, se apagan o cambian de “volumen” de trascripción, diferenciando a las células para formar tejidos y órganos, lo que finalmente resulta en un individuo extraordinariamente complejo. La clave: La información presente en el ADN. Esta visión de la vida tal vez parezca demasiado reduccionista y mecanicista, pero notemos que no se niega que para la completa comprensión del fenómeno de la vida es necesario comprender las propiedades

Doctor Octavio Martínez de la VegaCINVESTAV Irapuato

de doble ciclo: “Profesional Asociado en Biotecnología Genómica” y “Licenciado en Biotecnología Genómica”, las cuales comprenderán la generación y uso de la información del ADN de los organismos para el desarrollo de biotecnología. El entorno geográfico, desarrollo industrial y socio-económico de nuestro estado nos coloca ante la gran oportunidad de generar profesionales capaces de transformar las capacidades del análisis profundo de la secuencia nucleotídica de los organismos para generación de tecnologías más sólidas, social y económicamente más rentables y ecológicamente más seguras.

En este sentido, la Universidad Autóno-ma de Nuevo León cuenta con alrededor de medio centenar de profesores con grado de doctor y otro tanto de Maestros en Ciencias, especialistas en las distintas áreas del conocimiento de la biología molecular e ingeniería genética de microorganismos, bioquímica, genética, medicina humana, veterinaria, ciencias agrícolas, ecología y biotecnología, y más de una decena de laboratorios y talleres altamente equipados con infraestructura y tecnologías afines al área genómica (genética, bioquímica, biología molecular

biotecnología y cómputo). Aunado a ello, nuestro estado cuenta con instituciones de investigación y desarrollo dentro del sector salud (IMSS) y agropecuario (INIFAP), con las cuales nuestra universidad mantiene una estrecha colaboración científico-académica. Este tipo de colaboración será otro factor importante para el adecuado desarrollo profesional de los alumnos de la carrera en biotecnología genómica.

El personal docente que estará adscrito a este programa cuenta con amplia experiencia en la formación de recursos humanos a nivel de licenciatura, maestría y doctorado, lo cual garantiza una formación académica integral de los alumnos inscritos en el mismo. Nuestro programa está dividido en dos ciclos: durante el primer período, los alumnos recibirán una instrucción básica para desempeñarse como técnico profesional en laboratorios de desarrollo de procesos biotecnológicos y diagnóstico molecular de enfermedades hereditarias e infecciosas.

En la segunda parte, el alumno recibirá una formación académico-científica para abordar y resolver problemas en su campo.

OBJETIVO DE LA CARRERAPrimer ciclo: Formar profesionales asociados capaces de servir como soporte de equipos interdisciplinarios para el desarrollo de procesos biotecnológicos en los sectores de salud, agroalimentario, industrial y ambiental.

Segundo ciclo: Formar profesionales competentes, innovadores y emprendedores, capaces de aplicar las ciencias genómicas, proteómicas y de bioinformática para contribuir al desarrollo de los sectores de salud, agroalimentario, industrial y ambiental.

Fue así como las carreras de Profesio-nal Asociado en Biotecnología Genómica y de Licenciado en Biotecnología Genómica fueron aprobadas por el Honorable Consejo Universitario a partir del semestre que inició en agosto de 2004 y cuyo grado será otorgado a través de la Facultad de Ciencias Biológicas. Ambas carreras forman profesionis-tas competentes, innovadores y emprendedores que aplican las ciencias genómicas, proteómicas y de bioinformática en los sectores de salud, agroalimentario, industrial y ambiental.

Los egresados de estas carreras están capacitados para utilizar las ciencias básicas y aplicadas en la solución de problemas en las áreas de salud, tecnología y ambiente; pueden administrar procesos productivos, generar nuevos productos y tendrán un amplio sentido humanista y compromiso con las necesidades, eficiencia y productividad de México.

18 39

todas las tareas y no únicamente la suya, no podrá ser más rápido que un FPGA.

Además, un FPGA no sólo está programado para una tarea; también permite que esa misma función se copie en varias ocasiones en el mismo FPGA, de tal manera que puede llevar a cabo simultáneamente la misma función.

Para que el lector tenga una idea del potencial de desarrollo que tiene esta técnica, considere por un momento el aceleramiento que un programa lograría con ayuda de un FPGA; si el cluster donde habitualmente lo ejecuta fuese empequeñecido a tal grado que cupiese en un FPGA, y de igual manera, ¿se imagina el lector lo que ocurriría si dentro de su computadora personal tuviese decenas de esos FPGAs interconectados, ejecutando únicamente un programa?

BIOINFORMÁTICA INTENSIVA EN MÉXICOHasta ahora hemos realizado una breve revisión sobre la biología moderna y el cómputo intensivo, y de cómo estas disciplinas pueden llevarnos a acelerar el descubrimiento de nuevos medicamentos y, a su vez, a mejorar nuestro entendimiento sobre el funcionamiento de los seres vivos. Y sabiendo esto, es importante entonces saber qué esfuerzos se están realizando en nuestro país en esta dirección. La última parte de este documento la dedicaremos a mencionar uno de los proyectos más recientes y ambiciosos que en México se realizan en estas áreas del conocimiento.

Es importante aclarar un punto: las computadoras en este momento no pueden sustituir el trabajo en el laboratorio de los biólogos; sólo ayudan a acelerar el descubrimiento de nuevo conocimiento. Así, para la biología, la computación es una herramienta; sin embargo, es necesaria la participación de científicos en computación para resolver los problemas asociados a la biología. En este contexto, se empiezan a desarrollar herramientas útiles para la biología con el mejor planteamiento científico computacional en México.

Nuestra máxima casa de estudios ha emprendido un proyecto (Macroproyecto universitario: Tecnologías para la universidad de la información y la computación; consulte la página del macroproyecto en http://dinamica1.fciencias.unam.mx/ptid/redinformatica/) en el cual se plantea la construcción de un grid dedicado a analizar datos de expresión de genes, así como para la predicción de la estructura y función de las proteínas. Este proyecto tiene dos componentes muy importantes: 1) construcción y uso continuo del primer grid científico en México contemplando el desarrollo de software para el análisis de genomas y proteínas y 2) evaluación biológica de estas herramientas.

Además de ser el primer grid científico dedicado a la bioinformática en México, en éste se estarán evaluando tecnologías emergentes en el cómputo intensivo como son los FPGAs en el diseño de fármacos. Es importante destacar que actualmente sólo 30 países en el mundo usan supercomputadoras dedicadas a proyectos específicos, (consulte la página http://www.top500.org/ para más información sobre los países y tecnologías en computo intensivo). Además, sólo uno de esos 30 países dedican una

supercomputadora en el área de la biología. México no figura entre los 30 países que dedican supercomputadoras a un proyecto específico, pero este proyecto podría colocar a México como el segundo país que utilice el cómputo intensivo en el área biológica. Los grids en ese sentido ofrecen una solución eficiente y económica, comparada con la inversión de supercomputadoras, como se mencionó antes.

GRID EN FASE DE PRUEBAEn este proyecto participan 20 investigadores de distintas dependencias universitarias, incluyendo al Instituto de Investigaciones Matemáticas Aplicadas y de Sistemas (IIMAS), Instituto de Fisiología Celular (IFC), Instituto de Biotecnología (IBT), la Facultad de Ciencias (FC) y la Dirección General de Servicios de Cómputo Académico (DGSCA) de la UNAM. Este grid busca enlazar inicialmente a cinco clusters localizados en estas dependencias universitarias. Actualmente un primer prototipo de grid está en fase de prueba utilizando para ello tecnología desarrollada en la UNAM y por grupos de investigación externos.

Este prototipo servirá para evaluar un nuevo método de predicción de la estructura y función de las proteínas desarrollado en la UNAM. Para el año 2008, el grid que conec-te a cinco clusters debe estar en pleno funcionamiento y se espera que a partir de éste se puedan ir generando proyectos que demanden cada vez más de cómputo intensivo en el área de biología. Para lograr integrar a la comunidad científica mexicana en el uso y aprovechamiento de esta tecnología, se ha constituido la red mexicana bioinformática (consulte la página de la red en http://rmb.ifc.unam.mx/). Al mismo tiempo, se han iniciado proyectos en el estudio de la expresión de genes en organismos modelo que permitirán evaluar la confiabilidad de estas tecnologías.

Con todos estos esfuerzos, México se encamina a transformar la forma en que se ha venido realizando biología en el país y con ello a la formación de nuevos profesionistas y científicos que puedan promover el desarrollo del país en estas áreas.

En los albores del siglo XXI, nuestro país experimenta grandes retos científicos, tecnológicos, sociales y políticos, que generan grandes cambios para los cuales debemos estar preparados.

El proceso de globalización coloca la video tecnología en un primer plano; al hacer uso de microorganismos, células vegetales, animales; sus partes o fracciones pueden generar bienes o servicios con el fin de contribuir a una mejor calidad de vida, participando activamente en un desarrollo sustentable, al mismo tiempo que generan beneficios ambientales, alimenticios, farmacéuticos e industriales.

El CECyTE Nuevo León, como parte de un subsistema de educación media superior tecnológica del Estado, se preo-cupa por formar técnicos en el área de biotecnología, que puedan insertarse en los sitios laborales, donde ofrezcan servicios de análisis físico–químico, identificación de micro-organismos, procesamiento de alimentos de origen vegetal y animal, elaboración de productos fermentados. Todo esto en empresas que operan con tecnología avanzada y prestan importantes servicios en nuestra entidad.

FORMACIÓN DE TÉCNICOS EN BIOTECNOLOGÍAEn forma creciente se presentan requerimientos de recursos humanos con esta formación, motivo por el cual el CECyTE Nuevo León responderá a estos retos del siglo XXI; por una parte, formando técnicos profesionales en biotecnología y

20 asignaturas de formación básicamil 200 horas de actividadesde aprendizaje

6 asignaturas de formación propedéutica

480 horas de actividades de aprendizaje

5 módulos de formación profesionalmil 200 horas de actividades de aprendizaje

El plan de estudios tiene la siguiente estructura para atenderse en seis semestres

Doctor Ariel FaríasDirector de Planeación y Evaluación

estableciendo una unidad de actualización profesional en esta área.

El modelo curricular será con un enfoque de aprendizaje, asignaturas de formación básica y propedéutica de educación media superior y un conjunto de módulos de formación profesional tecnológica, basada en normas de competencia con diferentes cuadros de competencias laborales.

El modelo será flexible, con entradas y salidas laterales, con un diseño de módulos específicos elaborados con las normas de competencia laboral evaluadas por expertos del sector de biotecnología.

40 17

El costo de estos clusters habla de sus agregados; mientras una supercomputadora se puede obtener a partir de los 90 mil dólares, un cluster de ocho computadoras personales puede constituirse con siete mil dólares.

Para dar una idea del avance en la estructura de un cluster, tome en cuenta que si en los inicios de los años cincuenta un cluster estaba constituido de ocho computadoras, los actuales alcanzan 131 mil 172 computadoras (consúltese el sitio: http://www.top500.org/list/2006/06/100). Y que la eficiencia de un computador en cuanto a velocidad, ancho de banda y almacenamiento de información ha mejorado en un factor de cuatro mil veces. ¿Podría usted determinar el factor de mejora si formamos un cluster con este tipo de computadoras?

Pasemos ahora a otro tipo de estructura de computadoras que al final veremos que resulta crucial para México.

Para ello piense en un cluster compuesto de diez computadoras, pero ahora suponga que no están físicamente en una misma habitación. ¿Qué le parece si ponemos tres máquinas en una oficina y otras cuatro en otro edificio y finalmente las restantes tres en una habitación que está en otro país?

No se preocupe; seguimos teniendo un cluster, sólo que ahora los equipos están interconectados gracias a la telefonía satelital. Y ahora resulta que alguien desea agregar sus equipos a este cluster. Esto no debe tener ningún problema; finalmente las distancias ya no son un inconveniente. ¿Pero qué pasaría si estos equipos que se quieren adicionar son en realidad otro cluster? Bueno, pues a esta nueva estructura de computadoras se le denomina grid (grid es el término en inglés para referirse a una malla o red) consúltese el sitio: www.pcmag.com/encyclopedia_term/0,2542,t=The+Grid&i=43961,00.asp ).

Es decir, a un cluster de clusters lo llamamos grid, y esta estructura resulta ser muy interesante, ya que en caso de que no contemos con clusters, sí podemos contar con un grid con el solo hecho de enlazar las actuales computadoras por medio de la telefonía. ¿Para usted cuál seria el grid más grande? Le daré una pista: ¿sabe usted que es Internet?, ¿tiene usted idea del número de computadoras enlazadas a través de Internet?

INTERNET, EL MÁS GRANDE GRIDHabrá que responder estas dos preguntas si se pretende que usted encuentre la respuesta. Primero que nada, Internet es un programa (software) que se instala en su computador y permite transmitir información entre computadoras por medio de la telefonía; la segunda pregunta es mucho más difícil de responder, ya que día a día crece el número de computadoras que se agregan a esta red, pero sí podemos estimar esta cifra y sabemos que actualmente existen al menos mil millones de

computadoras enlazadas. (consúltese el sitio: http://www.internetworldstats.com/stats.htm)

Pues bien, acertó si piensa que el grid más grande que puede diseñarse es usando las computadoras que están enlazadas por medio de Internet; en realidad ya existen grupos de trabajo que lo invitan a prestar su equipo mientras está usted conectado a Internet, (un ejemplo lo encontrará en el sitio: http://setiathome.ssl.berkeley.edu/).

CÓMPUTO INTENSIVO MEDIANTE CLUSTERS Y GRIDSYa para terminar este breve resumen sobre el cómputo intensivo, valdría la pena establecer una división en cuanto a qué nivel se lleva a cabo este esfuerzo en cómputo intensivo a través de clusters y grids.

Para establecer esta división, considere que las descritas estructuras del cómputo se establecen en el mundo

macroscópico; es decir, en nuestro mundo cotidiano, o sea que podemos ver esas computadoras. Piense por un momento que así como ocurre en la naturaleza, existen otros mundos, en particular el mundo microscópico, o sea aquél donde a simple vista nos resultaría imposible ver que ocurre, aunque sabemos que también ese mundo lo compartimos.

Cuando hablamos de computadoras, ese mundo micros-cópico se estudia bajo una disciplina denominada microprogramación (para una definición más extensa del término microprogramación, consúltese el sitio: http://www.pcmag.com/encyclopedia_term0,2542,t=microprogramming&i=46918,00.asp ).

Esta disciplina data de los años cincuenta y se enfoca en la programación de procesadores que se encuentran contenidos en chips muy parecidos a los de una computadora, y que son denominados FPGAs (Field Programable Gate Arrays). Para más información sobre FPGAs,consulte el sitio: http://www.xilinx.com/products/silicon_solutions/fpgas/virtex/ virtex5/ index.htm).

SOLUCIÓN DE PROBLEMAS ESPECÍFICOSEsta disciplina, aunada a los dispositivos FPGA permiten sustituir la computadora para resolver un problema especifico, y hacer que ese dispositivo efectúe las labores; pero, ¿qué los chips actuales no pueden llevar a cabo tareas especificas?, ¿qué éstos no son más rápidos que los que se usan en microprogramación?

Pues resulta que no; esto ¿qué significa? Significa que un chip de una computadora personal no puede realizar sólo la tarea que usted le encomienda, ya que también tiene que mantener otras funciones de ella, como es verificar que el monitor esté encendido, o que la impresora funcione adecuadamente; o sea, existen numerosas tareas, y como ese chip tiene que atender

Doctor Luis Carlos Aceves GutiérrezDepartamento de Ciencias ComputacionalesUniversidad de Monterrey

16 41

Sin embargo, aun para una computadora ordinaria (por ejemplo, la computadora con la que usted está probablemente leyendo este documento) este número de cálculos son demasiados. A este tipo de cómputo se le denomina “cómputo intensivo”. Tanto en biología como en otras áreas del conocimiento, tales como la aeronáutica, la física de partículas o la astronomía, ha sido planteada la necesidad de utilizar computadoras capaces de realizar cómputo intensivo. Esto ha promovido a diversas compañías a desarrollar la tecnología para construirlas. Pero, ¿qué es el cómputo intensivo y cómo son las computadoras utilizadas para realizar estos cálculos?

ACERCA DEL CÓMPUTO INTENSIVOSiempre que se tenga un ejemplo claro hay que usarlo. Ello ayudará a una mejor comprensión del tema que nos ocupe, así que para ilustrar lo que es el Cómputo intensivo valdrá la pena el siguiente planteamiento: Suponga que se le pide calificar 100 exámenes y esta labor deberá estar concluida en menos de cuatro horas.

Si a usted le toma cinco minutos calificar un examen, es claro que requerirá de quinientos minutos para terminar esta labor, pero quinientos minutos son un poco más de ocho horas, por lo que no podrá cumplir con este compromiso. Pero como usted cuenta con la amistad de cuatro colegas y éstos con tiempo disponible para ayudarlo, podría darle a cada uno veinte exámenes y usted quedarse con los veinte restantes. Note que a cada uno de ustedes le tomará sólo cien minutos calificar los 20 exámenes, o sea menos de dos horas.

Es por ello que la idea de usar una sola computadora para resolver un problema administrativo, comercial o científico está quedando atrás. Con mayor frecuencia uno sabe que determinada empresa o universidad requiere de varias computadoras comunicadas entre sí para responder con mayor precisión nuevas preguntas, pero ¿qué significa el trabajo cooperativo entre computadoras?, ¿cuáles son sus limites, sus ventajas y sus desventajas?

El trabajo cooperativo entre computadoras se lleva a cabo a través de dos factores: la unión física de computadoras a través de cables (hardware) y la comunicación de sus procesadores por medio de programas (software), que regulan el paso de información entre las computadoras. Cuando se ha logrado conectar dos o más computadoras de manera que la información fluya entre ellas, entonces decimos que hemos formado un cluster (cluster es el término en inglés para referirse a un grupo) (consúltese el sitio: http://www.pcmag.com/encyclopedia_term/0,2542,t=cluster&i=39852,00.asp). Si este cluster está formado de computadoras con diferentes marcas de procesadores lo llamaremos cluster heterogéneo, y si está integrado de iguales procesadores, cluster homogéneo.

Si bien una súpercomputadora y un conjunto de computadoras personales interconectadas, son ambos clusters, existe una diferencia casi abismal entre ambas, ya que la primera cuenta con muchas mejoras que la hacen robusta y confiable, mientras que la segunda requiere de la presencia casi permanente de personal capacitado para que se mantenga en servicio continuo.

Recuerdo cuando hace aproximadamente unos siete años, en alguno de mis anteriores empleos, un día nos dijeron que implementarían un nuevo esquema de control de acceso a las oficinas corporativas.

El control mencionado consistió en que a todos nos tomaron las huellas digitales y las registraron; posteriormente se definió a qué pisos tendría acceso cada persona; finalmente, se instalaron en las puertas de cada piso sensores que leían la huella y, dependiendo del tipo de acceso que se había registrado para cada persona, la máquina decidía si abría la puerta o no. Ése fue mi primer acercamiento a la tecnología de información, y pude ver que consideraba aspectos biológicos para incrementar la seguridad de una organización.

El día de hoy, las técnicas de identificación a través de las huellas dactilares, a pesar del tiempo transcurrido, siguen siendo la herramienta más eficaz para la identificación de personas.

Junto a esta forma de identificación han surgido el ADN y el iris en el ojo, por ejemplo, así como otras formas adicionales para corroborar las identidades. Ya no son parte de la fantasía cómo lo vimos en las películas, sino son los llamados métodos biométricos de identificación.

De hecho, en Estados Unidos el seis por ciento de las compañías utilizan tecnología biométrica, lo que supuso un gasto en el año 2000 de 110 millones de dólares, y tienen tendencia creciente. Europa sigue el mismo camino, por lo que fomentar actividades en esta área es una decisión estratégica de la empresa y el centro involucrado.

TECNOLOGÍA DE INFORMACIÓNCon el paso de los años, esta no ha sido la única aplicación que se le ha dado a la tecnología de información como una forma de potenciar la bioseguridad. En la actualidad, es común que las mascotas cuenten con un microcircuito que permite localizarlas o identificarlas independientemente del lugar donde se encuentren. Esto evita robos o la pérdida de

la mascota. Normalmente el microcircuito está conectado a un sistema de localización geográfico conocido como GPS o Global Positioning System.

Aplicaciones similares a la mencionada en el párrafo anterior se han transferido a la seguridad personal. Por ejemplo, en Brasil, en el año 2004, 42 empresarios y sus familias aceptaron llevar bajo la piel un microcircuito que los mantenía localizados las 24 horas del día. Este microcircuito, además, permitía almacenar el historial médico, de relevancia para casos de urgencia.

A raíz de los atentados del 11 de septiembre, Estados Unidos incrementó los requerimientos de ingreso al país. A través del uso de diferentes lectores biométricos se puede tener un registro personalizado de las entradas y salidas de cada individuo que ha cruzado alguna de las fronteras. Éste es otro claro ejemplo en el que la tecnología de información es aprovechada para incrementar la seguridad a través de aspectos biológicos.

PASAPORTES MÁS DIFÍCILESDE FALSIFICARA la par de esto, prácticamente cualquier país el día de hoy emite pasaportes que son más difíciles de falsificar, gracias a numerosos adelantos en tecnología de información. Se estima que estos adelantos lograrán en poco tiempo hacer que un aspecto biológico de cada persona quede “impreso”, para evitar el mal uso de estos documentos.

Uno de los aspectos más polémicos de la aplicación de la tecnología de información en aspectos de bioseguridad está en la privacidad. Muchas personas se cuestionan hasta dónde vale la pena aplicar mecanismos como los mencionados, sobre todo si pensamos en que podemos ser vistos, localizados e identificados independientemente del lugar y momento en que nos econtremos. Al parecer, el camino por recorrer aún es largo; se espera que en los próximos años surjan más mecanismos que superen lo hecho hasta hoy; sin embargo, el dilema está en saber cuántas personas aceptarán su uso.

40 17

El costo de estos clusters habla de sus agregados; mientras una supercomputadora se puede obtener a partir de los 90 mil dólares, un cluster de ocho computadoras personales puede constituirse con siete mil dólares.

Para dar una idea del avance en la estructura de un cluster, tome en cuenta que si en los inicios de los años cincuenta un cluster estaba constituido de ocho computadoras, los actuales alcanzan 131 mil 172 computadoras (consúltese el sitio: http://www.top500.org/list/2006/06/100). Y que la eficiencia de un computador en cuanto a velocidad, ancho de banda y almacenamiento de información ha mejorado en un factor de cuatro mil veces. ¿Podría usted determinar el factor de mejora si formamos un cluster con este tipo de computadoras?

Pasemos ahora a otro tipo de estructura de computadoras que al final veremos que resulta crucial para México.

Para ello piense en un cluster compuesto de diez computadoras, pero ahora suponga que no están físicamente en una misma habitación. ¿Qué le parece si ponemos tres máquinas en una oficina y otras cuatro en otro edificio y finalmente las restantes tres en una habitación que está en otro país?

No se preocupe; seguimos teniendo un cluster, sólo que ahora los equipos están interconectados gracias a la telefonía satelital. Y ahora resulta que alguien desea agregar sus equipos a este cluster. Esto no debe tener ningún problema; finalmente las distancias ya no son un inconveniente. ¿Pero qué pasaría si estos equipos que se quieren adicionar son en realidad otro cluster? Bueno, pues a esta nueva estructura de computadoras se le denomina grid (grid es el término en inglés para referirse a una malla o red) consúltese el sitio: www.pcmag.com/encyclopedia_term/0,2542,t=The+Grid&i=43961,00.asp ).

Es decir, a un cluster de clusters lo llamamos grid, y esta estructura resulta ser muy interesante, ya que en caso de que no contemos con clusters, sí podemos contar con un grid con el solo hecho de enlazar las actuales computadoras por medio de la telefonía. ¿Para usted cuál seria el grid más grande? Le daré una pista: ¿sabe usted que es Internet?, ¿tiene usted idea del número de computadoras enlazadas a través de Internet?

INTERNET, EL MÁS GRANDE GRIDHabrá que responder estas dos preguntas si se pretende que usted encuentre la respuesta. Primero que nada, Internet es un programa (software) que se instala en su computador y permite transmitir información entre computadoras por medio de la telefonía; la segunda pregunta es mucho más difícil de responder, ya que día a día crece el número de computadoras que se agregan a esta red, pero sí podemos estimar esta cifra y sabemos que actualmente existen al menos mil millones de

computadoras enlazadas. (consúltese el sitio: http://www.internetworldstats.com/stats.htm)

Pues bien, acertó si piensa que el grid más grande que puede diseñarse es usando las computadoras que están enlazadas por medio de Internet; en realidad ya existen grupos de trabajo que lo invitan a prestar su equipo mientras está usted conectado a Internet, (un ejemplo lo encontrará en el sitio: http://setiathome.ssl.berkeley.edu/).

CÓMPUTO INTENSIVO MEDIANTE CLUSTERS Y GRIDSYa para terminar este breve resumen sobre el cómputo intensivo, valdría la pena establecer una división en cuanto a qué nivel se lleva a cabo este esfuerzo en cómputo intensivo a través de clusters y grids.

Para establecer esta división, considere que las descritas estructuras del cómputo se establecen en el mundo

macroscópico; es decir, en nuestro mundo cotidiano, o sea que podemos ver esas computadoras. Piense por un momento que así como ocurre en la naturaleza, existen otros mundos, en particular el mundo microscópico, o sea aquél donde a simple vista nos resultaría imposible ver que ocurre, aunque sabemos que también ese mundo lo compartimos.

Cuando hablamos de computadoras, ese mundo micros-cópico se estudia bajo una disciplina denominada microprogramación (para una definición más extensa del término microprogramación, consúltese el sitio: http://www.pcmag.com/encyclopedia_term0,2542,t=microprogramming&i=46918,00.asp ).

Esta disciplina data de los años cincuenta y se enfoca en la programación de procesadores que se encuentran contenidos en chips muy parecidos a los de una computadora, y que son denominados FPGAs (Field Programable Gate Arrays). Para más información sobre FPGAs,consulte el sitio: http://www.xilinx.com/products/silicon_solutions/fpgas/virtex/ virtex5/ index.htm).

SOLUCIÓN DE PROBLEMAS ESPECÍFICOSEsta disciplina, aunada a los dispositivos FPGA permiten sustituir la computadora para resolver un problema especifico, y hacer que ese dispositivo efectúe las labores; pero, ¿qué los chips actuales no pueden llevar a cabo tareas especificas?, ¿qué éstos no son más rápidos que los que se usan en microprogramación?

Pues resulta que no; esto ¿qué significa? Significa que un chip de una computadora personal no puede realizar sólo la tarea que usted le encomienda, ya que también tiene que mantener otras funciones de ella, como es verificar que el monitor esté encendido, o que la impresora funcione adecuadamente; o sea, existen numerosas tareas, y como ese chip tiene que atender

Doctor Luis Carlos Aceves GutiérrezDepartamento de Ciencias ComputacionalesUniversidad de Monterrey

16 41

Sin embargo, aun para una computadora ordinaria (por ejemplo, la computadora con la que usted está probablemente leyendo este documento) este número de cálculos son demasiados. A este tipo de cómputo se le denomina “cómputo intensivo”. Tanto en biología como en otras áreas del conocimiento, tales como la aeronáutica, la física de partículas o la astronomía, ha sido planteada la necesidad de utilizar computadoras capaces de realizar cómputo intensivo. Esto ha promovido a diversas compañías a desarrollar la tecnología para construirlas. Pero, ¿qué es el cómputo intensivo y cómo son las computadoras utilizadas para realizar estos cálculos?

ACERCA DEL CÓMPUTO INTENSIVOSiempre que se tenga un ejemplo claro hay que usarlo. Ello ayudará a una mejor comprensión del tema que nos ocupe, así que para ilustrar lo que es el Cómputo intensivo valdrá la pena el siguiente planteamiento: Suponga que se le pide calificar 100 exámenes y esta labor deberá estar concluida en menos de cuatro horas.

Si a usted le toma cinco minutos calificar un examen, es claro que requerirá de quinientos minutos para terminar esta labor, pero quinientos minutos son un poco más de ocho horas, por lo que no podrá cumplir con este compromiso. Pero como usted cuenta con la amistad de cuatro colegas y éstos con tiempo disponible para ayudarlo, podría darle a cada uno veinte exámenes y usted quedarse con los veinte restantes. Note que a cada uno de ustedes le tomará sólo cien minutos calificar los 20 exámenes, o sea menos de dos horas.

Es por ello que la idea de usar una sola computadora para resolver un problema administrativo, comercial o científico está quedando atrás. Con mayor frecuencia uno sabe que determinada empresa o universidad requiere de varias computadoras comunicadas entre sí para responder con mayor precisión nuevas preguntas, pero ¿qué significa el trabajo cooperativo entre computadoras?, ¿cuáles son sus limites, sus ventajas y sus desventajas?

El trabajo cooperativo entre computadoras se lleva a cabo a través de dos factores: la unión física de computadoras a través de cables (hardware) y la comunicación de sus procesadores por medio de programas (software), que regulan el paso de información entre las computadoras. Cuando se ha logrado conectar dos o más computadoras de manera que la información fluya entre ellas, entonces decimos que hemos formado un cluster (cluster es el término en inglés para referirse a un grupo) (consúltese el sitio: http://www.pcmag.com/encyclopedia_term/0,2542,t=cluster&i=39852,00.asp). Si este cluster está formado de computadoras con diferentes marcas de procesadores lo llamaremos cluster heterogéneo, y si está integrado de iguales procesadores, cluster homogéneo.

Si bien una súpercomputadora y un conjunto de computadoras personales interconectadas, son ambos clusters, existe una diferencia casi abismal entre ambas, ya que la primera cuenta con muchas mejoras que la hacen robusta y confiable, mientras que la segunda requiere de la presencia casi permanente de personal capacitado para que se mantenga en servicio continuo.

Recuerdo cuando hace aproximadamente unos siete años, en alguno de mis anteriores empleos, un día nos dijeron que implementarían un nuevo esquema de control de acceso a las oficinas corporativas.

El control mencionado consistió en que a todos nos tomaron las huellas digitales y las registraron; posteriormente se definió a qué pisos tendría acceso cada persona; finalmente, se instalaron en las puertas de cada piso sensores que leían la huella y, dependiendo del tipo de acceso que se había registrado para cada persona, la máquina decidía si abría la puerta o no. Ése fue mi primer acercamiento a la tecnología de información, y pude ver que consideraba aspectos biológicos para incrementar la seguridad de una organización.

El día de hoy, las técnicas de identificación a través de las huellas dactilares, a pesar del tiempo transcurrido, siguen siendo la herramienta más eficaz para la identificación de personas.

Junto a esta forma de identificación han surgido el ADN y el iris en el ojo, por ejemplo, así como otras formas adicionales para corroborar las identidades. Ya no son parte de la fantasía cómo lo vimos en las películas, sino son los llamados métodos biométricos de identificación.

De hecho, en Estados Unidos el seis por ciento de las compañías utilizan tecnología biométrica, lo que supuso un gasto en el año 2000 de 110 millones de dólares, y tienen tendencia creciente. Europa sigue el mismo camino, por lo que fomentar actividades en esta área es una decisión estratégica de la empresa y el centro involucrado.

TECNOLOGÍA DE INFORMACIÓNCon el paso de los años, esta no ha sido la única aplicación que se le ha dado a la tecnología de información como una forma de potenciar la bioseguridad. En la actualidad, es común que las mascotas cuenten con un microcircuito que permite localizarlas o identificarlas independientemente del lugar donde se encuentren. Esto evita robos o la pérdida de

la mascota. Normalmente el microcircuito está conectado a un sistema de localización geográfico conocido como GPS o Global Positioning System.

Aplicaciones similares a la mencionada en el párrafo anterior se han transferido a la seguridad personal. Por ejemplo, en Brasil, en el año 2004, 42 empresarios y sus familias aceptaron llevar bajo la piel un microcircuito que los mantenía localizados las 24 horas del día. Este microcircuito, además, permitía almacenar el historial médico, de relevancia para casos de urgencia.

A raíz de los atentados del 11 de septiembre, Estados Unidos incrementó los requerimientos de ingreso al país. A través del uso de diferentes lectores biométricos se puede tener un registro personalizado de las entradas y salidas de cada individuo que ha cruzado alguna de las fronteras. Éste es otro claro ejemplo en el que la tecnología de información es aprovechada para incrementar la seguridad a través de aspectos biológicos.

PASAPORTES MÁS DIFÍCILESDE FALSIFICARA la par de esto, prácticamente cualquier país el día de hoy emite pasaportes que son más difíciles de falsificar, gracias a numerosos adelantos en tecnología de información. Se estima que estos adelantos lograrán en poco tiempo hacer que un aspecto biológico de cada persona quede “impreso”, para evitar el mal uso de estos documentos.

Uno de los aspectos más polémicos de la aplicación de la tecnología de información en aspectos de bioseguridad está en la privacidad. Muchas personas se cuestionan hasta dónde vale la pena aplicar mecanismos como los mencionados, sobre todo si pensamos en que podemos ser vistos, localizados e identificados independientemente del lugar y momento en que nos econtremos. Al parecer, el camino por recorrer aún es largo; se espera que en los próximos años surjan más mecanismos que superen lo hecho hasta hoy; sin embargo, el dilema está en saber cuántas personas aceptarán su uso.

42 15

capaz de transformar su ambiente, y, al hacerlo, logra reproducirse y mantenerse. Estos procesos realizados por los seres vivos son llevados a cabo por conjuntos de moléculas (una molécula es un conjunto de átomos y un átomo es la partícula fundamental de la materia), características de los seres vivos llamadas proteínas y ácidos nucleicos; algunos de estos ácidos nucleicos son el ADN (Ácido Desoxi-Ribo Nucleico) y el ARN (Ácido Ribo Nucleico). Las unidades fundamentales del ADN o el ARN son los nucleótidos, y para las proteínas son los aminoácidos.

Las Matemáticas constituyen un área de conocimiento que, a pesar de ser de naturaleza completamente abstracta (los matemáticos trabajan con universos y objetos de naturaleza simbólica), es fundamental para la investigación científica y el desarrollo tecnológico. La Ciencia tiene dos pilares clásicos: la teoría y el experimento. Junto con éstos, hoy la Ciencia Informática y la Ciencia Computacional son reconocidas como el tercer pilar de la ciencia (comunicación personal con el doctor en Matemáticas Humberto Carrillo, UNAM). La Bioinformática, sirviéndose de sofisticadas herramientas matemáticas, constituye un importante paradigma de la emergente metodología de investigación de la Ciencia Informática. BREVE RECUENTO HISTÓRICOPara describir cómo se lograron fusionar estas dos disciplinas (las Matemáticas y la Biología), al parecer tan distantes, ahora haremos un breve recuento histórico del quehacer biológico. Por siglos, los biólogos estuvieron dedicados a catalogar a los seres vivos con el afán de conocer la diversidad de formas que la vida puede adoptar. Para finales del siglo XIX, el biólogo austríaco Gregorio Mendel propondría las leyes de la herencia, un fenómeno que describe cómo los hijos adquieren características de los padres.

Durante los primeros 50 años del siglo XX, se acumuló evidencia que identificaba al ADN como la molécula responsable del fenómeno de la herencia dejando a las proteínas el papel de ejecutoras de los procesos en los seres vivos. Para 1954, los doctores Ingleses James Watson y Francis Crick explicarían cómo la información contenida en el ADN se podría transformar en proteína.

Fue en ese año cuando la biología se reconocía como una ciencia computacional: sus esfuerzos se enfocaron a estudiar cómo transformar el conjunto de moléculas de ADN en el conjunto de moléculas de las proteínas. De estos esfuerzos surge la definición de gen: son aquellas regiones del ADN que se traducen en proteína, y genoma es el conjunto de genes y regiones del ADN que regulan la expresión de los mismos.

SECUENCIA DEL GENOMA HUMANOPara mediados de 1980 se habría consolidado la biología molecular y más adelante se obtendría la secuencia del primer genoma completo de un organismo vivo: el ADN del bacteriofago fX174 con 5 mil 368 nucleótidos de longitud. Esto dio origen al primer centro nacional de acopio de secuencias

de ADN y ARN en Estados Unidos, el National Center for Biotechnology Information (http://www.ncbi.nlm.nih.gov/). Finalmente, a principios de 1990, se estableció el consorcio para secuenciar el genoma humano, el cual vio colmados sus esfuerzos a principios de este siglo XXI.

Actualmente se han secuenciado más de 400 genomas de diversos organismos, y muchos otros están por ser secuenciados. Al mismo tiempo, se han generado bases públicas de datos que dan acceso a esta información y otra relacionada con el organismo vivo correspondiente. Este acceso a la información en biología ha transformado de forma definitiva a esta disciplina científica, de tal suerte que un biólogo moderno no puede concebirse aislado de las computadoras, la informática y las matemáticas.

Una vez conocidos todos los genes/proteínas presentes en un organismo, es necesario poder determinar cuáles y en qué condiciones dichos genes/proteínas son utilizados por los seres vivos. Por ejemplo, conociendo todos los genes/proteínas del ser humano, no nos dice cuáles participan en

enfermedades tales como el cáncer o en la enfermedad de Alzheimer. Para dar idea al lector de la dimensión de esta empresa en la que miles de científicos participan hoy en día, usemos como ilustración un organismo pequeño, una bacteria con 1,000 genes.

Este supuesto organismo debe ser capaz de sobrevivir en muy diversas condiciones ambientales (condiciones variadas de humedad, temperatura, fuente de alimentos, etcétera), y para cada una de éstas utiliza un conjunto distinto de genes. Vamos a suponer que para cada condición ambiental, esta bacteria utiliza 100 genes.

El número posible de respuestas distintas con 100 genes que esta bacteria es capaz de generar es de 6.38 x 10139 (¡éste es el

número obtenido al poner el 638 seguido de 137 ceros a la derecha!). Sin embargo, la complejidad de esta empresa no para aquí. Una vez conocidos los genes/proteínas que participan en un proceso (por ejemplo, una enfermedad), es necesario identificar el conjunto de éstos que son críticos para este proceso. Ésos son los genes que pueden ser utilizados en el desarrollo de métodos de diagnóstico molecular o bien como blancos en el desarrollo de drogas para el tratamiento específico de enfermedades.

Nuestra bacteria en realidad es mucho más simple que las bacterias que infectan a los seres humanos (las bacterias del tracto intestinal cuentan con cuatro mil genes o más) o que el ser humano mismo, que cuenta con aproximadamente 30 mil genes. Ya que es humanamente imposible realizar todos estos experimentos para cada organismo en cada una de sus posibles condiciones ambientales, es necesario utilizar modelos matemáticos que permitan simular los mecanismos moleculares de los seres vivos, y en función de estos modelos, identificar a los genes más probables de ser evaluados biológicamente.

El mapeo y control sistémico de la población al estilo de la novela de Orwell, titulada 1984, proponía un escenario que no se había cumplido hasta hace algunos años; recientemente la historia novelesca vuelve a tener cabida en el mundo contemporáneo, debido a la inseguridad internacional y a las constantes amenazas de grupos extremistas en distintas partes del orbe.

Países como Estados Unidos e Inglaterra trabajan arduamente en el uso de técnicas de las matemáticas aplicadas, la estadística y la ciencia computacional para obtener un sistema bioinformático que pueda tener registrados a cada uno de sus habitantes, así como ir creando una base de datos internacional de todas las personas que cruzan por sus fronteras.

¿SOY REALMENTE QUIEN DIGO QUE SOY?A pesar de que los costos de esta biotecnología informática son elevados para incorporar huellas dactilares y escaneo de córneas a las estructuras de seguridad; la revista The Economistseñala que esta herramienta busca resolver la pregunta de: “¿soy realmente quien digo que soy?”.

Es decir, el primer uso es para identificar si la persona es realmente quien dice ser; es así como a un individuo se le toma un registro biométrico de su identidad y después se le compara contra una base de datos (¿Quién es esta persona?). La segunda es verificar que realmente este ser humano es quien clama ser (¿Es esta persona quien dice ser?).

De llevarse a cabo esto, no sólo estamos resolviendo las interrogantes anteriores y proveyendo de seguridad a los países que adopten esta tecnología, sino que también tendremos un control de los ciudadanos, pues desde que salimos de nuestra casa y vamos manejando en nuestro coche, el “kernel gubernamental”, apoyado con sensores de tecnología biométrica sabrá qué tipo de ropa nos gusta, la cantidad de dinero que movemos diariamente, los pagos pendientes que tenemos, la música que escuchamos, dónde vivimos, el trabajo en que nos desempeñamos, los viajes que hacemos, las rutas en que transitamos, las llamadas que hacemos, entre muchas otras cosas más.

La cuestión será decidir si este tipo de información se usa al estilo de Big Brother y se ejerce un manejo al estilo del conocido “Leviatán de Hobbes” con un totalitarismo estalinistaque sabe el todo de cada uno de nosotros, sin respeto a la privacidad, o por el contrario se usa el estilo de John Locke, con su admiración al “cuestionamiento racional” y el conocimiento filosófico de Descartes, para darle su lugar al ser humano, su libertad y no reprimirlo.

EL MEJOR EJEMPLO DE INGENIERÍA EVOLUTIVA NATURALSin embargo, antes de adelantarnos a un escenario novelesco futurista, como si estuviéramos metidos en un libro de Isaac Asimov combinado con un mundo Kafkiano, primero las redes electrónicas de transferencia de bits deben ser seguras y eficientes como el mejor ejemplo de la ingeniería evolutiva natural: el cerebro, que, según el doctor Michio Kaku, de la Universidad de Nueva York y cocreador de la Teoría de Cuerdas, puede procesar billones de bytes por segundo, sin esfuerzo aparente y sin sudar; caso contrario al de una máquina, que para hacer este tipo de cálculo requeriría de una extensión aproximada de una cuadra en tamaño y una gran reserva de agua para enfriarla. Lo que es seguro es que con el advenimiento del mapeo genómico de los seres humanos, ligado a la biología computacional y los modelos matemáticos

Maestro Rodrigo Soto Mercadotecnia Social

14 43

Luciano Milanesi. Es jefe del grupo sobre Bioinformática Médica del Instituto de Tecnologías Biomédicas (ITB) suscrito al Consejo Nacional de Investigación (CNR) de Italia.

Obtuvo su grado profesional en Física Atómica en 1981. En 1986 recibió su grado de Doctorado en Salud y Física Hospitalaria, participando en el desarrollo del proyecto “Infraestructura de Ciclotrón para la aplicación de la Tomografía de Emisión de Positrones en Medicina Nuclear”.

Desde 1987 forma parte del equipo de científicos del ITB, y desde 1988 dirige la División de Bioinformática de este instituto en el marco del “Proyecto del Genoma Humano”. Inicialmente se enfocó al desarrollo de herramientas para el análisis de la secuencia del genoma y la predicción de la estructura de genes en diferentes organismos. Recientemente, su trabajo se dirige hacia el estudio de las funciones de los genes, la predicción promotora, el análisis de expresión genética y el desarrollo de herramientas de datos integrados con la búsqueda de textos biomédicos completos.

En enero de 2004 se convirtió en líder de grupo en la Unidad de Bioinformática del Consorcio Universitario CILEA. Ha participado como investigador principal en diversos proyectos como: “TRADAT” (Bases de Datos de Trascripción y Análisis de Herramientas) de la Comisión Europea (1996-1999); “Genética Molecular” del CNR MIUR (2001-2003); “ORIEL” (Ambiente de Investigación en Línea para las Ciencias de la Vida) de la Comisión Europea (2002-2004); “Bioinformática para el Genoma y Proteoma” MIUR FIRB (2003-2005); entre otros.

Desde 2002 enseña bioinformática para el curso de Biotecnología Médica en la Universidad de Milán, y desde 2003 enseña informática para grados especializados en la misma universidad. También ha ofrecido cátedra en 20 diferentes cursos de Bioinformática en Europa.

El profesor Milanesi es miembro del Consejo Editorial de Briefings in Bioinformatics end IEEE Trans y en NanoBiosciences. Ha realizado contribuciones en varios libros y publicaciones científicas en Bioinformática.

Instituto de Fisiología Celular / [email protected]

Acerca de la Bioinformática.- La bioinformática es un área del conocimiento que emerge de la fusión de la biología con las matemáticas. Tal vez sea ésta una de las disciplinas de mayor auge en la biología en los últimos 25 años, ya que gracias a ella se ha podido acelerar la secuenciación de genomas, diseño de fármacos, diseño de sondas moleculares para diagnóstico, y muchas otras aplicaciones médicas. Además, ésta ha permitido a los científicos especular sobre el origen

de la vida, predecir mecanismos moleculares, entre muchas otras posibles aplicaciones en la biología molecular. ¿Por qué y cómo la bioinformática se ha convertido en fundamental para el desarrollo de la biología? Para dar respuesta a estas preguntas, debemos empezar por hacer algunas definiciones.

Biología es la ciencia que estudia a los seres vivos. Pero, ¿Qué es un ser vivo? Es aquel organismo (conjunto de células)

Doctor Gabriel del Río Guerra Doctor Carlos Polanco González

de programación aplicada, veremos bases de datos más completas y el proyecto del genoma humano tendrá horizontes más ambiciosos.

Nuestra identidad será del dominio público y difícilmente nos podremos esconder bajo una máscara o una falsa identificación.

El beneficio será que la computación biológica traerá frutos suculentos para la historia de la biología evolutiva y los principios de evolución que ha marcado Darwin, y no sólo un control represivo al estilo de 1984, donde no se les otorgue la libertad de acción a los individuos y se les obligue al culto de una personalidad y la obediencia impuesta bajo castigo.

Es tentadora la oferta que el poder gubernamental puede utilizar, bajo el recuerdo de Orwell, diciendo: “déjame ser tu hermano mayor”, o tal vez un control al estilo de John Stuart Mill, donde la libertad del individuo se condiciona para prevenir que lastime a otros o se lastime a sí mismo. Sumando esto, la

bioinformática también debe considerar que el control de los seres humanos, para ofrecerles bioseguridad, seguramente estará apoyado por robots y computadoras, y será necesario incorporar a sus sistemas operativos las leyes de conducta, expuestas en la ciencia ficción de Asimov, pero que aplican fuertemente en la actualidad, las cuales son:1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Grandes cambios nos depara el futuro en este “Mundo Feliz”, aludiendo a la novela de Huxley; por esto debemos tener los ojos abiertos y las conexiones neurales listas para asimilar las sorpresas. Aunque no lo notemos, vivimos en una época deslumbrante.

42 15

capaz de transformar su ambiente, y, al hacerlo, logra reproducirse y mantenerse. Estos procesos realizados por los seres vivos son llevados a cabo por conjuntos de moléculas (una molécula es un conjunto de átomos y un átomo es la partícula fundamental de la materia), características de los seres vivos llamadas proteínas y ácidos nucleicos; algunos de estos ácidos nucleicos son el ADN (Ácido Desoxi-Ribo Nucleico) y el ARN (Ácido Ribo Nucleico). Las unidades fundamentales del ADN o el ARN son los nucleótidos, y para las proteínas son los aminoácidos.

Las Matemáticas constituyen un área de conocimiento que, a pesar de ser de naturaleza completamente abstracta (los matemáticos trabajan con universos y objetos de naturaleza simbólica), es fundamental para la investigación científica y el desarrollo tecnológico. La Ciencia tiene dos pilares clásicos: la teoría y el experimento. Junto con éstos, hoy la Ciencia Informática y la Ciencia Computacional son reconocidas como el tercer pilar de la ciencia (comunicación personal con el doctor en Matemáticas Humberto Carrillo, UNAM). La Bioinformática, sirviéndose de sofisticadas herramientas matemáticas, constituye un importante paradigma de la emergente metodología de investigación de la Ciencia Informática. BREVE RECUENTO HISTÓRICOPara describir cómo se lograron fusionar estas dos disciplinas (las Matemáticas y la Biología), al parecer tan distantes, ahora haremos un breve recuento histórico del quehacer biológico. Por siglos, los biólogos estuvieron dedicados a catalogar a los seres vivos con el afán de conocer la diversidad de formas que la vida puede adoptar. Para finales del siglo XIX, el biólogo austríaco Gregorio Mendel propondría las leyes de la herencia, un fenómeno que describe cómo los hijos adquieren características de los padres.

Durante los primeros 50 años del siglo XX, se acumuló evidencia que identificaba al ADN como la molécula responsable del fenómeno de la herencia dejando a las proteínas el papel de ejecutoras de los procesos en los seres vivos. Para 1954, los doctores Ingleses James Watson y Francis Crick explicarían cómo la información contenida en el ADN se podría transformar en proteína.

Fue en ese año cuando la biología se reconocía como una ciencia computacional: sus esfuerzos se enfocaron a estudiar cómo transformar el conjunto de moléculas de ADN en el conjunto de moléculas de las proteínas. De estos esfuerzos surge la definición de gen: son aquellas regiones del ADN que se traducen en proteína, y genoma es el conjunto de genes y regiones del ADN que regulan la expresión de los mismos.

SECUENCIA DEL GENOMA HUMANOPara mediados de 1980 se habría consolidado la biología molecular y más adelante se obtendría la secuencia del primer genoma completo de un organismo vivo: el ADN del bacteriofago fX174 con 5 mil 368 nucleótidos de longitud. Esto dio origen al primer centro nacional de acopio de secuencias

de ADN y ARN en Estados Unidos, el National Center for Biotechnology Information (http://www.ncbi.nlm.nih.gov/). Finalmente, a principios de 1990, se estableció el consorcio para secuenciar el genoma humano, el cual vio colmados sus esfuerzos a principios de este siglo XXI.

Actualmente se han secuenciado más de 400 genomas de diversos organismos, y muchos otros están por ser secuenciados. Al mismo tiempo, se han generado bases públicas de datos que dan acceso a esta información y otra relacionada con el organismo vivo correspondiente. Este acceso a la información en biología ha transformado de forma definitiva a esta disciplina científica, de tal suerte que un biólogo moderno no puede concebirse aislado de las computadoras, la informática y las matemáticas.

Una vez conocidos todos los genes/proteínas presentes en un organismo, es necesario poder determinar cuáles y en qué condiciones dichos genes/proteínas son utilizados por los seres vivos. Por ejemplo, conociendo todos los genes/proteínas del ser humano, no nos dice cuáles participan en

enfermedades tales como el cáncer o en la enfermedad de Alzheimer. Para dar idea al lector de la dimensión de esta empresa en la que miles de científicos participan hoy en día, usemos como ilustración un organismo pequeño, una bacteria con 1,000 genes.

Este supuesto organismo debe ser capaz de sobrevivir en muy diversas condiciones ambientales (condiciones variadas de humedad, temperatura, fuente de alimentos, etcétera), y para cada una de éstas utiliza un conjunto distinto de genes. Vamos a suponer que para cada condición ambiental, esta bacteria utiliza 100 genes.

El número posible de respuestas distintas con 100 genes que esta bacteria es capaz de generar es de 6.38 x 10139 (¡éste es el

número obtenido al poner el 638 seguido de 137 ceros a la derecha!). Sin embargo, la complejidad de esta empresa no para aquí. Una vez conocidos los genes/proteínas que participan en un proceso (por ejemplo, una enfermedad), es necesario identificar el conjunto de éstos que son críticos para este proceso. Ésos son los genes que pueden ser utilizados en el desarrollo de métodos de diagnóstico molecular o bien como blancos en el desarrollo de drogas para el tratamiento específico de enfermedades.

Nuestra bacteria en realidad es mucho más simple que las bacterias que infectan a los seres humanos (las bacterias del tracto intestinal cuentan con cuatro mil genes o más) o que el ser humano mismo, que cuenta con aproximadamente 30 mil genes. Ya que es humanamente imposible realizar todos estos experimentos para cada organismo en cada una de sus posibles condiciones ambientales, es necesario utilizar modelos matemáticos que permitan simular los mecanismos moleculares de los seres vivos, y en función de estos modelos, identificar a los genes más probables de ser evaluados biológicamente.

El mapeo y control sistémico de la población al estilo de la novela de Orwell, titulada 1984, proponía un escenario que no se había cumplido hasta hace algunos años; recientemente la historia novelesca vuelve a tener cabida en el mundo contemporáneo, debido a la inseguridad internacional y a las constantes amenazas de grupos extremistas en distintas partes del orbe.

Países como Estados Unidos e Inglaterra trabajan arduamente en el uso de técnicas de las matemáticas aplicadas, la estadística y la ciencia computacional para obtener un sistema bioinformático que pueda tener registrados a cada uno de sus habitantes, así como ir creando una base de datos internacional de todas las personas que cruzan por sus fronteras.

¿SOY REALMENTE QUIEN DIGO QUE SOY?A pesar de que los costos de esta biotecnología informática son elevados para incorporar huellas dactilares y escaneo de córneas a las estructuras de seguridad; la revista The Economistseñala que esta herramienta busca resolver la pregunta de: “¿soy realmente quien digo que soy?”.

Es decir, el primer uso es para identificar si la persona es realmente quien dice ser; es así como a un individuo se le toma un registro biométrico de su identidad y después se le compara contra una base de datos (¿Quién es esta persona?). La segunda es verificar que realmente este ser humano es quien clama ser (¿Es esta persona quien dice ser?).

De llevarse a cabo esto, no sólo estamos resolviendo las interrogantes anteriores y proveyendo de seguridad a los países que adopten esta tecnología, sino que también tendremos un control de los ciudadanos, pues desde que salimos de nuestra casa y vamos manejando en nuestro coche, el “kernel gubernamental”, apoyado con sensores de tecnología biométrica sabrá qué tipo de ropa nos gusta, la cantidad de dinero que movemos diariamente, los pagos pendientes que tenemos, la música que escuchamos, dónde vivimos, el trabajo en que nos desempeñamos, los viajes que hacemos, las rutas en que transitamos, las llamadas que hacemos, entre muchas otras cosas más.

La cuestión será decidir si este tipo de información se usa al estilo de Big Brother y se ejerce un manejo al estilo del conocido “Leviatán de Hobbes” con un totalitarismo estalinistaque sabe el todo de cada uno de nosotros, sin respeto a la privacidad, o por el contrario se usa el estilo de John Locke, con su admiración al “cuestionamiento racional” y el conocimiento filosófico de Descartes, para darle su lugar al ser humano, su libertad y no reprimirlo.

EL MEJOR EJEMPLO DE INGENIERÍA EVOLUTIVA NATURALSin embargo, antes de adelantarnos a un escenario novelesco futurista, como si estuviéramos metidos en un libro de Isaac Asimov combinado con un mundo Kafkiano, primero las redes electrónicas de transferencia de bits deben ser seguras y eficientes como el mejor ejemplo de la ingeniería evolutiva natural: el cerebro, que, según el doctor Michio Kaku, de la Universidad de Nueva York y cocreador de la Teoría de Cuerdas, puede procesar billones de bytes por segundo, sin esfuerzo aparente y sin sudar; caso contrario al de una máquina, que para hacer este tipo de cálculo requeriría de una extensión aproximada de una cuadra en tamaño y una gran reserva de agua para enfriarla. Lo que es seguro es que con el advenimiento del mapeo genómico de los seres humanos, ligado a la biología computacional y los modelos matemáticos

Maestro Rodrigo Soto Mercadotecnia Social

14 43

Luciano Milanesi. Es jefe del grupo sobre Bioinformática Médica del Instituto de Tecnologías Biomédicas (ITB) suscrito al Consejo Nacional de Investigación (CNR) de Italia.

Obtuvo su grado profesional en Física Atómica en 1981. En 1986 recibió su grado de Doctorado en Salud y Física Hospitalaria, participando en el desarrollo del proyecto “Infraestructura de Ciclotrón para la aplicación de la Tomografía de Emisión de Positrones en Medicina Nuclear”.

Desde 1987 forma parte del equipo de científicos del ITB, y desde 1988 dirige la División de Bioinformática de este instituto en el marco del “Proyecto del Genoma Humano”. Inicialmente se enfocó al desarrollo de herramientas para el análisis de la secuencia del genoma y la predicción de la estructura de genes en diferentes organismos. Recientemente, su trabajo se dirige hacia el estudio de las funciones de los genes, la predicción promotora, el análisis de expresión genética y el desarrollo de herramientas de datos integrados con la búsqueda de textos biomédicos completos.

En enero de 2004 se convirtió en líder de grupo en la Unidad de Bioinformática del Consorcio Universitario CILEA. Ha participado como investigador principal en diversos proyectos como: “TRADAT” (Bases de Datos de Trascripción y Análisis de Herramientas) de la Comisión Europea (1996-1999); “Genética Molecular” del CNR MIUR (2001-2003); “ORIEL” (Ambiente de Investigación en Línea para las Ciencias de la Vida) de la Comisión Europea (2002-2004); “Bioinformática para el Genoma y Proteoma” MIUR FIRB (2003-2005); entre otros.

Desde 2002 enseña bioinformática para el curso de Biotecnología Médica en la Universidad de Milán, y desde 2003 enseña informática para grados especializados en la misma universidad. También ha ofrecido cátedra en 20 diferentes cursos de Bioinformática en Europa.

El profesor Milanesi es miembro del Consejo Editorial de Briefings in Bioinformatics end IEEE Trans y en NanoBiosciences. Ha realizado contribuciones en varios libros y publicaciones científicas en Bioinformática.

Instituto de Fisiología Celular / [email protected]

Acerca de la Bioinformática.- La bioinformática es un área del conocimiento que emerge de la fusión de la biología con las matemáticas. Tal vez sea ésta una de las disciplinas de mayor auge en la biología en los últimos 25 años, ya que gracias a ella se ha podido acelerar la secuenciación de genomas, diseño de fármacos, diseño de sondas moleculares para diagnóstico, y muchas otras aplicaciones médicas. Además, ésta ha permitido a los científicos especular sobre el origen

de la vida, predecir mecanismos moleculares, entre muchas otras posibles aplicaciones en la biología molecular. ¿Por qué y cómo la bioinformática se ha convertido en fundamental para el desarrollo de la biología? Para dar respuesta a estas preguntas, debemos empezar por hacer algunas definiciones.

Biología es la ciencia que estudia a los seres vivos. Pero, ¿Qué es un ser vivo? Es aquel organismo (conjunto de células)

Doctor Gabriel del Río Guerra Doctor Carlos Polanco González

de programación aplicada, veremos bases de datos más completas y el proyecto del genoma humano tendrá horizontes más ambiciosos.

Nuestra identidad será del dominio público y difícilmente nos podremos esconder bajo una máscara o una falsa identificación.

El beneficio será que la computación biológica traerá frutos suculentos para la historia de la biología evolutiva y los principios de evolución que ha marcado Darwin, y no sólo un control represivo al estilo de 1984, donde no se les otorgue la libertad de acción a los individuos y se les obligue al culto de una personalidad y la obediencia impuesta bajo castigo.

Es tentadora la oferta que el poder gubernamental puede utilizar, bajo el recuerdo de Orwell, diciendo: “déjame ser tu hermano mayor”, o tal vez un control al estilo de John Stuart Mill, donde la libertad del individuo se condiciona para prevenir que lastime a otros o se lastime a sí mismo. Sumando esto, la

bioinformática también debe considerar que el control de los seres humanos, para ofrecerles bioseguridad, seguramente estará apoyado por robots y computadoras, y será necesario incorporar a sus sistemas operativos las leyes de conducta, expuestas en la ciencia ficción de Asimov, pero que aplican fuertemente en la actualidad, las cuales son:1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Grandes cambios nos depara el futuro en este “Mundo Feliz”, aludiendo a la novela de Huxley; por esto debemos tener los ojos abiertos y las conexiones neurales listas para asimilar las sorpresas. Aunque no lo notemos, vivimos en una época deslumbrante.

44 13

microorganismos patógenos. Un grupo experto en genómica, aliado a uno experto en proteómica, y con conexiones con uno especializado en metabolómica, hacen un triunvirato imbatible en el área de diseño de nuevos biofármacos. Éstos son sólo ejemplos de una proposición que todos sabemos válida: la colaboración complementaria ofrece beneficios para todas las partes y maximiza las posibilidades de éxito en la resolución de problemas complejos.

En los países de vanguardia tecnológica en Biotecnología, la receta de la colaboración para el éxito ha sido ensayada desde hace tiempo. En las sociedades que aspiramos a generar conocimiento y tecnología eficientemente, el reconocimiento de esa necesidad de agrupación, vinculación y trabajo colaborativo es un deber. La formación de redes de colaboración en Biotecnología entre Institutos, Centros, Universidades, Empresas dedicadas a la Biotecnología de nuestros países latinoamericanos, ofrece una gran ventana de oportunidad al éxito en la retadora aventura de generar nuevas Biotecnologías.

En los países latinoamericanos es particularmente difícil disponer de recursos para el montaje y el mantenimiento de infraestructura avanzada para la investigación.

nozco si hay aún algo de verdad en este estereotipo. Sí quisiera pensar, por el bien de nuestras sociedades, que de haber algo verídico en aquella idea, podremos encontrar ampliamente vencedora la consigna del trabajo colaborativo y de las alianzas estratégicas. También creo, como muchos creemos, que la colaboración entre investigadores, grupos e instituciones, puede y debe motivarse con estrategias y políticas. ¿Quién debe formular esas políticas? Sin duda, se hacen necesarios promotores a todos los niveles. El concepto de formación de redes debe comenzar dentro de cada institución y ser promovido por la institución misma. Por ejemplo, el diseño de los nuevos espacios de investigación resulta en un medio para inducir la idea de trabajo colaborativo. La sola idea de adquirir un cromatógrafo de líquidos para cada profesor-investigador resulta obsoleta e impráctica en este nuevo contexto del compartir recursos para hacer más.

INTERCAMBIO DE IDEASEs así como una zona de análisis instrumental común resulta apropiada y eficaz en reafirmar la idea de recursos de equipamiento disponibles para todos. Espacios abiertos, laboratorios de uso común o compartido, sitios dedicados “por diseño” al intercambio de ideas (espacios físicos y/o virtuales) funcionan como catalizadores del intercambio de ideas. Así, la arquitectura de un edificio puede ser factor motivante de la interacción. Ejemplos de la praxis de este concepto son los diseños del Biodesign Institute, de la Univesidad de Arizona (en Estados Unidos) o del Centro de Biotecnología del Tecnológico de Monterrey (aquí en Nuevo León), por citar dos ejemplos de reciente construcción.

El diseño de los Programas Académicos es otro instrumento útil para vincular unidades de investigación. Explicitar en los programas de Posgrado y Pregrado la pertinencia de realizar estancias de investigación en otras Universidades o Centros de Investigación es un camino. Otro también muy relevante es el diseño de Programas de doble grado entre instituciones en alguna de sus múltiples variantes (Licenciatura-Maestría; Doble Maestría; Maestría con Especialidad o Maestría-Doctorado; Doctorado y Estancia Posdoctoral).

VINCULACIÓN ENTRE INSTITUCIONESTambién las instituciones deben explicitar en sus políticas la intención de vincularse con otras instituciones dedicadas a tareas afines o complementarias en México y en el extranjero. Esta explicitación debería ir acompañada de programas que favorezcan la vinculación de sus investigadores con grupos en otras instituciones: programas de intercambio académico, incentivos por preparación de propuestas de investigación interinstitucionales, incentivos por publicaciones con coauto-res de otras instituciones.

En un nivel más general, los gobiernos estatal y federal y sus dependencias deberán jugar un rol como incentivadotes de colaboración y como promotores de la oferta de capacidades de los grupos de investigación locales tanto en el ámbito nacional como internacional. La colaboración efectiva entre nuestros grupos nos ahorrará tiempo y recursos para llegar a nuestras metas comunes: generar, por medio de la Ciencia, el Conocimiento y la Tecnología, bienestar para nuestras sociedades.

En este contexto, compartir estos recursos es por demás una estrategia de trabajo obvia. También la formación de alianzas con centros e institutos consolidados mundialmente, en Estados Unidos, Canadá, Europa, Asia, etcétera, es una oportunidad que sería criminal desechar, una oportunidad ventana al plano de la vanguardia científica.

POLÍTICA Y DISEÑO PARA LA COLABORACIÓN¿Será cierto que el investigador es, por naturaleza, instintiva-mente reservado, poco comunicativo y territorialista? Desco-

Figura 2. La formación de redes entre unidades de investigación debe ser una de las estrategias de operación de los grupos dedicados a la Biotecnología. La imagen muestra algunos de los centros, departamentos e institutos con los que actualmente colaboramos en el Centro de Biotecnología del Tecnológico de Monterrey. En cada imagen se refiere el sitio electrónico de origen.

Del 20 al 24 de septiembre tendrá lugar en nuestra ciudad el Congreso Internacional y Exhibición de Biotecnología “bioMonterrey06” en cuya agenda figura el tema de

bioinformática, razón por la cual pretendemos acercarnos a éste vocablo.

La bioinformática es el uso de técnicas y herramientas computacionales para el análisis de la información biológica; es una disciplina científica emergente que utiliza tecnología de la información para organizar, analizar y distribuir información biológica con la finalidad de responder preguntas complejas en biología. Es una nueva disciplina, dedicada a manejar las enormes cantidades de información provenientes, tanto de la secuenciación de las macromoléculas (ADN, proteínas y glúcidos) como de las técnicas de análisis masivo del comportamiento de genes y proteínas.

INVESTIGACIÓN MULTIDISCIPLINARIALa bioinformática es también un área de investigación

multidisciplinaria, sustentada básicamente en la Biología, la Computación y la Informática, vivamente interesada en descifrar la incógnita del genoma humano. Recibe el aporte de otras disciplinas biológicas o biomédicas; por ejemplo, la información hereditaria -estudiada por la Genética- se sabe que reside en las macromoléculas, gracias a la Biología Molecular, la Bioquímica y la Química Orgánica); pero su expresión es importante al manifestarse en la funcionalidad, asunto que estudian la Biología Celular, la Histología, la Organografía, la Neurobiología, la Fisiología, la Inmunología, la Biología del Desarrollo, la

Patología, la Oncología…; la reproducción -estudiada por la Embriología- y las relaciones entre los seres vivos -estudiados por las Ciencias del Comportamiento; la Ecología, la Microbiología,

Director del Centro de Altos Estudios e Investigación Pedagógica

Profesor Ismael Vidales Delgado

12 45

humanísticas clave, como la Ética. Desde luego, Biotecnología evoca aplicación en su mismo nombre (tecnologías relacionadas con los entes biológicos). La Biotecnología debe conducir del conocimiento fundamental a la aplicación tecnológica de ese conocimiento. Así, en su frente de aplicación, el biotecnólogo debe valerse de herramientas de ingeniería y de conocimientos en las áreas de Administración de la Tecnología y Economía.

Y respondiendo a esa naturaleza multidisciplinaria, los problemas de investigación en el área de Biotecnología son más exitosamente atacados, si se enfrentan desde los varios ángulos de estas disciplinas complementarias. Cada vez más, la norma de trabajo en las empresas dedicadas a la Biotecnología es el trabajo “transversal a varias disciplinas” (across disciplines). Así, biólogos, químicos, ingenieros, físicos, computólogos, resuelven problemas complejos. En el diseño racional de un nuevo fármaco, la cercana interacción de expertos en modelación computacional de estructuras, químicos, farmacólogos y físicos, produce recomendaciones a un grupo de químicos sintéticos para el mejor diseño del proceso de síntesis; por ejemplo, de un nuevo fármaco anti-Alzheimer de naturaleza proteica.

ESTRICTO RIGOR ÉTICOSin embargo, no es ése el mismo grupo que se encargará de “escalar” esa síntesis para posibilitar su uso comercial masivo. Será necesario que los químicos, microbiólogos e ingenieros moleculares interactúen con ingenieros bioquímicos de proceso, primero en el laboratorio, luego en plantas piloto, y finalmente en escala producción, para que esta nueva molécula se convierta en fármaco. Y en paralelo al proceso de diseño del fármaco, y de escalamiento del mismo, un grupo de farmacólogos, asistidos por expertos en estadística y médicos con expertise en pruebas clínicas, se encargan de transitar la nueva biomolécula de pruebas en líneas celulares, a pruebas en animales y luego voluntarios humanos, bajo el más estricto rigor ético a fin de validar que el nuevo fármaco es efectivo, pero también seguro.

Y si ahora hablamos del desarrollo de una nueva vacuna en plantas de plátano, o de un nuevo kit para diagnóstico rápido de cáncer, o de la construcción de una nueva cepa recombinante para atacar un problema de contaminación de subsuelos, el escenario es el mismo: un equipo interdisciplinario es el que más exitosa y rápidamente podría avanzar en la investigación.

ALIANZAS DE TRABAJO, ALIANZAS DE AVANCE EFICIENTEEn las grandes compañías, los equipos de trabajo son armados ad hoc para solucionar un problema o desarrollar un nuevo producto y proceso, de acuerdo a la expertise necesaria, según las particularidades del proyecto. Luego, ese equipo “pasará la batuta” a otro grupo de trabajo (normalmente dentro de la misma compañía) y así sucesivamente, hasta transitar todo el proceso desde la concepción de la idea hasta el lanzamiento comercial. Pero aun en las grandes compañías, cada vez es más frecuente recurrir a la estrategia de outsourcing. Una empresa podrá solicitar a una unidad externa a la compañía, que le ayude trabajando en una porción del proyecto global. Éste es un recurso válido, si la empresa colaboradora fuere pensada como más eficiente en el abordaje de la porción del

proceso que se le confiaría. Esta eficiencia puede deberse a su velocidad de respuesta, a su disponibilidad de recurso humano especializado en una cierta tarea, o a su infraestructura dedicada a esa tarea específica. Por ejemplo, una empresa farmacéutica podrá ser muy eficiente en sus procesos de screening de nuevos fármacos, pero pudiera requerir de ayuda en el escalamiento de sus procesos, o en sus necesidades para ejecutar pruebas clínicas.

Entre empresas pequeñas y medianas, el concepto de outsourcing de servicios especializados y de alianzas para trabajar en proyectos de investigación y desarrollo complejos es vital; simplemente, cuestión de sobrevivencia. Las pequeñas empresas biotec del área de San Diego (Start-ups) forman redes de interacción entre ellas para alcanzar el éxito en sus proyectos. Así, algunas son expertas en ingeniería genética, otras en análisis bioquímico instrumental, otras en operar bio-reactores para producción piloto, otras en montaje y evaluación de pruebas clínicas, otras más en proteómica. Desde luego, estas empresas podrán, y de hecho lo hacen frecuentemente, incluir Universidades o Centros de Investigación en sus redes de alianza estratégica.

ENTRE CENTROS DE INVESTIGACIÓN Y UNIVERSIDADES. ¿POR QUÉ NO COLABORAR? La pregunta obligada es: ¿pudiera esta estrategia de alianzas, vinculación y tendido de redes ser provechosa también entre Centros de Investigación y Universidades? La respuesta conclusiva es afirmativa. No existe una sola razón sólida para negarse a la colaboración entre unidades, y sí un sinúmero de razones para hacerlo rutinariamente. Hoy en día existen grupos de investigación en Biotecnología en casi cada universidad dedicada a la generación de conocimiento.

La amplitud de la Biotecnología y sus aplicaciones, y la natural tendencia y conveniencia a la especialización de los grupos de investigación, resulta en un mapa de múltiples unidades de trabajo en áreas biotecnológicas, cada una especializada en un tipo de investigación. Por otro lado, la naturaleza de la infraestructura requerida para desarrollar biotecnología, obliga a que cada grupo adquiera y mantenga el equipamiento que le es necesario y pertinente a su nicho particular de investigación. Esto, en el marco de los proyectos en Biotecnología, complejos y demandantes de capital de conocimiento y recursos de equipamiento diversos, hace explícita la necesidad de compartir expertise y equipamiento entre distintos grupos. Y así, el lema de “uno + uno es más que dos” adquiere sentido.

POTENCIAL DEL TRABAJO CONJUNTOUn grupo especializado en Bioprocesos puede ser un aliado natural de un grupo fuerte en el desarrollo de microorganismos recombinantes para aplicaciones industriales. La expertise en ingeniería de microorganismos del segundo se complementa con el conocimiento y equipamiento en ingeniería de procesos del primero. Si un grupo de investigación dedicado a la inmunología y la bioquímica de reconocimiento de superficies se alía con uno especializado en la fabricación de microdispositvos, resulta obvio el potencial de su trabajo conjunto en el ámbito del diseño de nuevos kits de diagnóstico rápido de padecimientos o de presencia de sustancias tóxicas o

la Parasitología, la Paleontología, la Genética de Poblaciones y la Evolución. Además, la Estadística es fundamental en el manejo de grandes números y en la elaboración de modelos de muchos parámetros; lo mismo decimos de la Física y la Química en la elaboración de modelos y en el análisis de procesos al nivel molecular.

GENOMA HUMANO, MARCA DE LA NUEVA ERAPoco antes de finalizar el siglo XX fue presentado a la comunidad científica el Genoma Humano, sin duda uno de los hitos históricos que marcan la nueva era.

Esto significó el comienzo de la “revolución genómica”; en ese momento, la bioinformática se refería únicamente a la creación y mantenimiento de base de datos donde se almacenaba información biológica; pero, ahora, la detección y tratamiento de enfermedades y la producción de alimentos genéticamente modificados son parte de los hallazgos de la investigación biotecnológica.

Gracias a la bioinformática puede hoy leerse toda la secuen-cia de moléculas que componen el genoma de un organismo; es decir, el “manual de instrucciones” que rige la formación del mismo y es posible la observación de su comportamiento dinámico bajo diversas condiciones experimentales.

Ahora, lo más popular que se presenta en el campo de la bioinformática es el análisis e interpretación de varios tipos de datos; este proceso es conocido como biocomputación. Dentro de la bioinformática y la biocomputación existen otras subdisciplinas importantes; por ejemplo, el desarrollo e implementación de herramientas que permitan el acceso, uso y manejo de varios tipos de información; y el desarrollo de nuevos algoritmos y estadísticas con los cuales se puedan relacionar partes de un conjunto enorme de datos.

La bioinformática modifica exponencialmente el trabajo de laboratorio, al permitir analizar una mayor cantidad de información que la que se puede conseguir en un experimento de laboratorio, proporcionando pistas que luego se podrán comprobar experimentalmente.

ESTUDIO PROFUNDO DE LOS SISTEMAS VIVOSLas perspectivas que presenta la Bioinformática incluyen ahora el estudio profundo y exhaustivo de los sistemas vivos, la Farmacología, la lucha contra la contaminación del ambiente; en fin, que nos augura grandes promesas de bienestar social y de capacidad de predicción de acontecimientos biológicos de inestimable interés; pues esos conocimientos, aparte de proporcionar una información más completa de los sistemas vivos, pueden ser la base para extrapolar modelos sobre el funcionamiento de nuestra sociedad humana y para el desarrollo de sistemas computarizados en la optimización y distribución de recursos.

El manejo de tanta información escapa a las posibilidades manuales, mecánicas y eléctricas hasta hoy utilizadas; la nueva realidad es el desarrollo de sistemas computarizados que suplirán, sin duda alguna, muchas de nuestras deficiencias en la armonía con la biosfera.

44 13

microorganismos patógenos. Un grupo experto en genómica, aliado a uno experto en proteómica, y con conexiones con uno especializado en metabolómica, hacen un triunvirato imbatible en el área de diseño de nuevos biofármacos. Éstos son sólo ejemplos de una proposición que todos sabemos válida: la colaboración complementaria ofrece beneficios para todas las partes y maximiza las posibilidades de éxito en la resolución de problemas complejos.

En los países de vanguardia tecnológica en Biotecnología, la receta de la colaboración para el éxito ha sido ensayada desde hace tiempo. En las sociedades que aspiramos a generar conocimiento y tecnología eficientemente, el reconocimiento de esa necesidad de agrupación, vinculación y trabajo colaborativo es un deber. La formación de redes de colaboración en Biotecnología entre Institutos, Centros, Universidades, Empresas dedicadas a la Biotecnología de nuestros países latinoamericanos, ofrece una gran ventana de oportunidad al éxito en la retadora aventura de generar nuevas Biotecnologías.

En los países latinoamericanos es particularmente difícil disponer de recursos para el montaje y el mantenimiento de infraestructura avanzada para la investigación.

nozco si hay aún algo de verdad en este estereotipo. Sí quisiera pensar, por el bien de nuestras sociedades, que de haber algo verídico en aquella idea, podremos encontrar ampliamente vencedora la consigna del trabajo colaborativo y de las alianzas estratégicas. También creo, como muchos creemos, que la colaboración entre investigadores, grupos e instituciones, puede y debe motivarse con estrategias y políticas. ¿Quién debe formular esas políticas? Sin duda, se hacen necesarios promotores a todos los niveles. El concepto de formación de redes debe comenzar dentro de cada institución y ser promovido por la institución misma. Por ejemplo, el diseño de los nuevos espacios de investigación resulta en un medio para inducir la idea de trabajo colaborativo. La sola idea de adquirir un cromatógrafo de líquidos para cada profesor-investigador resulta obsoleta e impráctica en este nuevo contexto del compartir recursos para hacer más.

INTERCAMBIO DE IDEASEs así como una zona de análisis instrumental común resulta apropiada y eficaz en reafirmar la idea de recursos de equipamiento disponibles para todos. Espacios abiertos, laboratorios de uso común o compartido, sitios dedicados “por diseño” al intercambio de ideas (espacios físicos y/o virtuales) funcionan como catalizadores del intercambio de ideas. Así, la arquitectura de un edificio puede ser factor motivante de la interacción. Ejemplos de la praxis de este concepto son los diseños del Biodesign Institute, de la Univesidad de Arizona (en Estados Unidos) o del Centro de Biotecnología del Tecnológico de Monterrey (aquí en Nuevo León), por citar dos ejemplos de reciente construcción.

El diseño de los Programas Académicos es otro instrumento útil para vincular unidades de investigación. Explicitar en los programas de Posgrado y Pregrado la pertinencia de realizar estancias de investigación en otras Universidades o Centros de Investigación es un camino. Otro también muy relevante es el diseño de Programas de doble grado entre instituciones en alguna de sus múltiples variantes (Licenciatura-Maestría; Doble Maestría; Maestría con Especialidad o Maestría-Doctorado; Doctorado y Estancia Posdoctoral).

VINCULACIÓN ENTRE INSTITUCIONESTambién las instituciones deben explicitar en sus políticas la intención de vincularse con otras instituciones dedicadas a tareas afines o complementarias en México y en el extranjero. Esta explicitación debería ir acompañada de programas que favorezcan la vinculación de sus investigadores con grupos en otras instituciones: programas de intercambio académico, incentivos por preparación de propuestas de investigación interinstitucionales, incentivos por publicaciones con coauto-res de otras instituciones.

En un nivel más general, los gobiernos estatal y federal y sus dependencias deberán jugar un rol como incentivadotes de colaboración y como promotores de la oferta de capacidades de los grupos de investigación locales tanto en el ámbito nacional como internacional. La colaboración efectiva entre nuestros grupos nos ahorrará tiempo y recursos para llegar a nuestras metas comunes: generar, por medio de la Ciencia, el Conocimiento y la Tecnología, bienestar para nuestras sociedades.

En este contexto, compartir estos recursos es por demás una estrategia de trabajo obvia. También la formación de alianzas con centros e institutos consolidados mundialmente, en Estados Unidos, Canadá, Europa, Asia, etcétera, es una oportunidad que sería criminal desechar, una oportunidad ventana al plano de la vanguardia científica.

POLÍTICA Y DISEÑO PARA LA COLABORACIÓN¿Será cierto que el investigador es, por naturaleza, instintiva-mente reservado, poco comunicativo y territorialista? Desco-

Figura 2. La formación de redes entre unidades de investigación debe ser una de las estrategias de operación de los grupos dedicados a la Biotecnología. La imagen muestra algunos de los centros, departamentos e institutos con los que actualmente colaboramos en el Centro de Biotecnología del Tecnológico de Monterrey. En cada imagen se refiere el sitio electrónico de origen.

Del 20 al 24 de septiembre tendrá lugar en nuestra ciudad el Congreso Internacional y Exhibición de Biotecnología “bioMonterrey06” en cuya agenda figura el tema de

bioinformática, razón por la cual pretendemos acercarnos a éste vocablo.

La bioinformática es el uso de técnicas y herramientas computacionales para el análisis de la información biológica; es una disciplina científica emergente que utiliza tecnología de la información para organizar, analizar y distribuir información biológica con la finalidad de responder preguntas complejas en biología. Es una nueva disciplina, dedicada a manejar las enormes cantidades de información provenientes, tanto de la secuenciación de las macromoléculas (ADN, proteínas y glúcidos) como de las técnicas de análisis masivo del comportamiento de genes y proteínas.

INVESTIGACIÓN MULTIDISCIPLINARIALa bioinformática es también un área de investigación

multidisciplinaria, sustentada básicamente en la Biología, la Computación y la Informática, vivamente interesada en descifrar la incógnita del genoma humano. Recibe el aporte de otras disciplinas biológicas o biomédicas; por ejemplo, la información hereditaria -estudiada por la Genética- se sabe que reside en las macromoléculas, gracias a la Biología Molecular, la Bioquímica y la Química Orgánica); pero su expresión es importante al manifestarse en la funcionalidad, asunto que estudian la Biología Celular, la Histología, la Organografía, la Neurobiología, la Fisiología, la Inmunología, la Biología del Desarrollo, la

Patología, la Oncología…; la reproducción -estudiada por la Embriología- y las relaciones entre los seres vivos -estudiados por las Ciencias del Comportamiento; la Ecología, la Microbiología,

Director del Centro de Altos Estudios e Investigación Pedagógica

Profesor Ismael Vidales Delgado

12 45

humanísticas clave, como la Ética. Desde luego, Biotecnología evoca aplicación en su mismo nombre (tecnologías relacionadas con los entes biológicos). La Biotecnología debe conducir del conocimiento fundamental a la aplicación tecnológica de ese conocimiento. Así, en su frente de aplicación, el biotecnólogo debe valerse de herramientas de ingeniería y de conocimientos en las áreas de Administración de la Tecnología y Economía.

Y respondiendo a esa naturaleza multidisciplinaria, los problemas de investigación en el área de Biotecnología son más exitosamente atacados, si se enfrentan desde los varios ángulos de estas disciplinas complementarias. Cada vez más, la norma de trabajo en las empresas dedicadas a la Biotecnología es el trabajo “transversal a varias disciplinas” (across disciplines). Así, biólogos, químicos, ingenieros, físicos, computólogos, resuelven problemas complejos. En el diseño racional de un nuevo fármaco, la cercana interacción de expertos en modelación computacional de estructuras, químicos, farmacólogos y físicos, produce recomendaciones a un grupo de químicos sintéticos para el mejor diseño del proceso de síntesis; por ejemplo, de un nuevo fármaco anti-Alzheimer de naturaleza proteica.

ESTRICTO RIGOR ÉTICOSin embargo, no es ése el mismo grupo que se encargará de “escalar” esa síntesis para posibilitar su uso comercial masivo. Será necesario que los químicos, microbiólogos e ingenieros moleculares interactúen con ingenieros bioquímicos de proceso, primero en el laboratorio, luego en plantas piloto, y finalmente en escala producción, para que esta nueva molécula se convierta en fármaco. Y en paralelo al proceso de diseño del fármaco, y de escalamiento del mismo, un grupo de farmacólogos, asistidos por expertos en estadística y médicos con expertise en pruebas clínicas, se encargan de transitar la nueva biomolécula de pruebas en líneas celulares, a pruebas en animales y luego voluntarios humanos, bajo el más estricto rigor ético a fin de validar que el nuevo fármaco es efectivo, pero también seguro.

Y si ahora hablamos del desarrollo de una nueva vacuna en plantas de plátano, o de un nuevo kit para diagnóstico rápido de cáncer, o de la construcción de una nueva cepa recombinante para atacar un problema de contaminación de subsuelos, el escenario es el mismo: un equipo interdisciplinario es el que más exitosa y rápidamente podría avanzar en la investigación.

ALIANZAS DE TRABAJO, ALIANZAS DE AVANCE EFICIENTEEn las grandes compañías, los equipos de trabajo son armados ad hoc para solucionar un problema o desarrollar un nuevo producto y proceso, de acuerdo a la expertise necesaria, según las particularidades del proyecto. Luego, ese equipo “pasará la batuta” a otro grupo de trabajo (normalmente dentro de la misma compañía) y así sucesivamente, hasta transitar todo el proceso desde la concepción de la idea hasta el lanzamiento comercial. Pero aun en las grandes compañías, cada vez es más frecuente recurrir a la estrategia de outsourcing. Una empresa podrá solicitar a una unidad externa a la compañía, que le ayude trabajando en una porción del proyecto global. Éste es un recurso válido, si la empresa colaboradora fuere pensada como más eficiente en el abordaje de la porción del

proceso que se le confiaría. Esta eficiencia puede deberse a su velocidad de respuesta, a su disponibilidad de recurso humano especializado en una cierta tarea, o a su infraestructura dedicada a esa tarea específica. Por ejemplo, una empresa farmacéutica podrá ser muy eficiente en sus procesos de screening de nuevos fármacos, pero pudiera requerir de ayuda en el escalamiento de sus procesos, o en sus necesidades para ejecutar pruebas clínicas.

Entre empresas pequeñas y medianas, el concepto de outsourcing de servicios especializados y de alianzas para trabajar en proyectos de investigación y desarrollo complejos es vital; simplemente, cuestión de sobrevivencia. Las pequeñas empresas biotec del área de San Diego (Start-ups) forman redes de interacción entre ellas para alcanzar el éxito en sus proyectos. Así, algunas son expertas en ingeniería genética, otras en análisis bioquímico instrumental, otras en operar bio-reactores para producción piloto, otras en montaje y evaluación de pruebas clínicas, otras más en proteómica. Desde luego, estas empresas podrán, y de hecho lo hacen frecuentemente, incluir Universidades o Centros de Investigación en sus redes de alianza estratégica.

ENTRE CENTROS DE INVESTIGACIÓN Y UNIVERSIDADES. ¿POR QUÉ NO COLABORAR? La pregunta obligada es: ¿pudiera esta estrategia de alianzas, vinculación y tendido de redes ser provechosa también entre Centros de Investigación y Universidades? La respuesta conclusiva es afirmativa. No existe una sola razón sólida para negarse a la colaboración entre unidades, y sí un sinúmero de razones para hacerlo rutinariamente. Hoy en día existen grupos de investigación en Biotecnología en casi cada universidad dedicada a la generación de conocimiento.

La amplitud de la Biotecnología y sus aplicaciones, y la natural tendencia y conveniencia a la especialización de los grupos de investigación, resulta en un mapa de múltiples unidades de trabajo en áreas biotecnológicas, cada una especializada en un tipo de investigación. Por otro lado, la naturaleza de la infraestructura requerida para desarrollar biotecnología, obliga a que cada grupo adquiera y mantenga el equipamiento que le es necesario y pertinente a su nicho particular de investigación. Esto, en el marco de los proyectos en Biotecnología, complejos y demandantes de capital de conocimiento y recursos de equipamiento diversos, hace explícita la necesidad de compartir expertise y equipamiento entre distintos grupos. Y así, el lema de “uno + uno es más que dos” adquiere sentido.

POTENCIAL DEL TRABAJO CONJUNTOUn grupo especializado en Bioprocesos puede ser un aliado natural de un grupo fuerte en el desarrollo de microorganismos recombinantes para aplicaciones industriales. La expertise en ingeniería de microorganismos del segundo se complementa con el conocimiento y equipamiento en ingeniería de procesos del primero. Si un grupo de investigación dedicado a la inmunología y la bioquímica de reconocimiento de superficies se alía con uno especializado en la fabricación de microdispositvos, resulta obvio el potencial de su trabajo conjunto en el ámbito del diseño de nuevos kits de diagnóstico rápido de padecimientos o de presencia de sustancias tóxicas o

la Parasitología, la Paleontología, la Genética de Poblaciones y la Evolución. Además, la Estadística es fundamental en el manejo de grandes números y en la elaboración de modelos de muchos parámetros; lo mismo decimos de la Física y la Química en la elaboración de modelos y en el análisis de procesos al nivel molecular.

GENOMA HUMANO, MARCA DE LA NUEVA ERAPoco antes de finalizar el siglo XX fue presentado a la comunidad científica el Genoma Humano, sin duda uno de los hitos históricos que marcan la nueva era.

Esto significó el comienzo de la “revolución genómica”; en ese momento, la bioinformática se refería únicamente a la creación y mantenimiento de base de datos donde se almacenaba información biológica; pero, ahora, la detección y tratamiento de enfermedades y la producción de alimentos genéticamente modificados son parte de los hallazgos de la investigación biotecnológica.

Gracias a la bioinformática puede hoy leerse toda la secuen-cia de moléculas que componen el genoma de un organismo; es decir, el “manual de instrucciones” que rige la formación del mismo y es posible la observación de su comportamiento dinámico bajo diversas condiciones experimentales.

Ahora, lo más popular que se presenta en el campo de la bioinformática es el análisis e interpretación de varios tipos de datos; este proceso es conocido como biocomputación. Dentro de la bioinformática y la biocomputación existen otras subdisciplinas importantes; por ejemplo, el desarrollo e implementación de herramientas que permitan el acceso, uso y manejo de varios tipos de información; y el desarrollo de nuevos algoritmos y estadísticas con los cuales se puedan relacionar partes de un conjunto enorme de datos.

La bioinformática modifica exponencialmente el trabajo de laboratorio, al permitir analizar una mayor cantidad de información que la que se puede conseguir en un experimento de laboratorio, proporcionando pistas que luego se podrán comprobar experimentalmente.

ESTUDIO PROFUNDO DE LOS SISTEMAS VIVOSLas perspectivas que presenta la Bioinformática incluyen ahora el estudio profundo y exhaustivo de los sistemas vivos, la Farmacología, la lucha contra la contaminación del ambiente; en fin, que nos augura grandes promesas de bienestar social y de capacidad de predicción de acontecimientos biológicos de inestimable interés; pues esos conocimientos, aparte de proporcionar una información más completa de los sistemas vivos, pueden ser la base para extrapolar modelos sobre el funcionamiento de nuestra sociedad humana y para el desarrollo de sistemas computarizados en la optimización y distribución de recursos.

El manejo de tanta información escapa a las posibilidades manuales, mecánicas y eléctricas hasta hoy utilizadas; la nueva realidad es el desarrollo de sistemas computarizados que suplirán, sin duda alguna, muchas de nuestras deficiencias en la armonía con la biosfera.

46 11

El profesor Leonardo Santi, presidente del Congreso Internacional bioMonterrey 06, es también presidente del Centro de Biotecnología Avanzada de Génova, Italia; jefe del Departamento de Oncología, Biología y Genética de la Escuela de Posgraduados en Oncología, y de la University School for Technicians in Biotechnology. Ha escrito más de 250 documentos científicos en oncología experimental y patología oncológica, con énfasis en cáncer de pulmón, tumores ocupacionales y modificantes biológicos de respuesta.

Además de otras responsabilidades, es presidente del Comité Nacional Italiano para Bioseguridad y Biotecnología. También es coordinador del Comité Nacional de Cáncer, del Ministerio de Salud.

Santi es miembro de una gran variedad de organizaciones científicas nacionales e internacionales y funge también como parte del consejo editorial de diversas publicaciones científicas internacionales, así como de los siguientes comités: Grupo Europeo sobre Ciencias de la Vida (Comisión Europea, Bruselas), Foro Europeo de Investigación sobre el Cáncer (Comisión Europea, Bruselas), coordinador de los Comités Italo-Americano e Italo-Británico sobre Biotecnología, y miembro de la Comisión Internacional sobre Biosociedad (Cámara Internacional de Comercio, París).

El estereotipo del científico en solitario, encerrado en un laboratorio de investigación, ensimismado en sus ideas y reservado en compartirlas, no tiene sentido en el universo moderno de la investigación.

INTERDISCIPLINARIDAD EN BIOTECNOLOGÍAEn muchas de las disciplinas científicas del hoy día, y en Biotecnología quizá aún más decisivamente, la colaboración entre investigadores y entre grupos de investigación provee una gran ventaja competitiva y amplía el horizonte de alcances. Esto es una consecuencia lógica del carácter multidisciplinario e interdisciplinario de la Biotecnología (ver Figura 1).

La ciencia eje del conjunto de disciplinas que hoy llamamos Biotecnología, es la Bioquímica. La Bioquímica en sí misma es

una ciencia híbrida, donde se aplican los fundamentos básicos de química al entendimiento de los procesos metabólicos ocurrentes en organismos vivos, y al entendimiento de la estructura y función de las moléculas que intervienen en estos procesos. La Bioquímica, como ciencia central, requiere del soporte de áreas “duras”, como la Fisicoquímica, y de ciencias

Doctor Mario Moisés ÁlvarezProfesor investigador Director del Centro de BiotecnologíaTecnológico de Monterrey

Figura 1. La Biotecnología, multidisciplinaria e interdisciplinaria.

Ni idea tenía de lo sucedido en Londres a principios de agosto. “Juro que en mis próximas vacaciones estaré conectada un poco al mundo real -aunque el mundo que suponemos real se asemeje cada vez más a uno

ficticio o a uno sacado de una película de acción- porque así el shock será más leve”, digo al llegar al “Charles de Gaulle” y ver acordonar un área porque alguien dejó una maleta olvidada –suponiendo que se tratase de un conato de bomba-; al observar a gente al borde de un ataque de nervios, mujeres llorando, otras personas desmayadas por las largas filas para ser interrogadas y luego dos revisiones para poder ingresar en el avión. Es decir que pagamos el derecho a ser cuestionados e invadidos de nuestra privacidad y, para colmo de males, sin previo aviso te tiran de tu bolso todo lo parecido a un gel –sanitizador para manos, lápiz labial, etcétera. Por eso digo que juro a la próxima estar más conectada a la realidad.

Aun así, no se salvan los aeropuertos de que se infiltre gente no deseada -terroristas en el peor de los casos-; hace tan sólo unos días, un menor de edad se “coló” en un avión en el Aeropuerto de Gatwick sin pasaporte y sin pase de

abordar. Es por eso que prefiero pasar por todo este trance de interrogatorios y revisiones para evitar cualquier sorpresa. Así sea que me tomen una huella dactilar y una fotografía de mi rostro. Aunque esta medida se ha establecido desde 2004 – y desde hace un año hasta la fecha han sido fotografiados y se han tomado huellas digitales de más de 61 millones de personas- como un modo de control y vigilancia en los puntos de entrada a los Estados Unidos.

Un comunicado de US-VISIT se justifica arguyendo que: La tecnología biométrica protege a los visitantes, lo que hace prácticamente imposible que cualquier otra persona tome su identidad en caso de que sus documentos de viaje sean robados o duplicados. Con este programa han sido detenidos mil cien delincuentes.

Con ello la tecnología biométrica es la bioseguridad del presente y del futuro, ya que se concentra en el registro de las características que hacen único al ser humano, como las huellas dactilares, la voz, el iris, el rostro o el ADN; características que son la contraseña más segura que pueda existir.

Catedrática del Departamento de Comunicación / ITESMIngeniera Claudia Ordaz

10 47

ESTUDIOS TOXICOLÓGICOS, DE FARMACOCINÉTICA Y FARMACODINÁMICACuando un compuesto muestra potencial in vivo, los siguientes pasos son realizar estudios toxicológicos y de farmacocinética y farmacodinámica (Figura 1). Los estudios toxicológicos incluyen pruebas de DL

50, toxicología reproductiva y teratogénica. Los estudios de toxicología aguda de DL

50 cuantifican la dosis del fármaco necesaria para matar al 50 por ciento de la población en estudio. En los estudios de toxicología reproductiva se observan los efectos en fertilidad, número de individuos por camada, peso de la camada, porcentaje de sobrevivencia y malformaciones en los recién nacidos.

Los estudios de farmacocinética y farmacodinámica permiten determinar la tasa de absorción del fármaco, su transformación química en el cuerpo, su vida media y sus principales modos de excreción, así como identificar aquellos órganos del cuerpo donde el fármaco se encuentra en mayor concentración. Esto es sumamente importante para planear las vías de administración del fármaco, dosis y la frecuencia de aplicación del medicamento. Las pruebas toxicológicas son claves, ya que si el fármaco experimental produce algún efecto nocivo, esto es suficiente para que sea descartado y se descontinúe la investigación que ya ha tomado varios años.

Paralelamente a los estudios in vivo, se investiga la biología molecular asociada a la inhibición del cáncer. Destacan estudios de antiangiogénesis, inhibición de quinasas, mecanismos de apoptosis o muerte celular programada, actividad estrogénica, etcétera. Estos estudios son claves para poder entender y eventualmente modificar la bioactividad del fármaco en potencia mediante modificación química o técnicas modernas de química combinatoria. La actividad antiangiogénica es clave para prevenir el crecimiento de los tumores y metástasis de los cánceres.

COMPUESTOS ANTICANCERÍGENOSLa mayoría de los compuestos anticancerígenos descubiertos reciente-mente o que están en las últimas etapas de experimentación tienen un fuerte efecto antiangiogénico; es decir que retardan o inhiben el importante paso de crear la

vascularización o irrigación sanguínea necesaria para que el tumor crezca desmedidamente y posteriormente sea metastásico. Existen modelos para estudiar angiogénesis, donde destacan el ensayo de neovascularización sobre la membrana corioalantoidea de embrión de pollo y otros de crecimiento de células endoteliales humanas en placa in vitro.

Es importante mencionar que una vez que se demuestra fehacientemente la efectividad de un fármaco experimen-tal en animales de laboratorio, y que la experimentación está protegida por una patente, las compañias farmacéuticas muestran un especial interés por adquirir los derechos del uso comercial, con el objetivo de continuar la investigación en un modo de fast track o acelerado prosiguiendo con las pruebas clínicas con humanos.

Está bien establecido que en esta industria altamente competitiva, el tiempo de llegada al mercado es de vital importancia. Se dice que un retardo de días o meses representa pérdidas potenciales de millones de dolares. Un fármaco protegido con una patente que muestre alto potencial anticancerígeno probado con animales de laboratorio, puede llegar a costar entre 10 y 15 millones de dólares.

EL PASO A EXPERIMENTOS CON HUMANOS

Una vez que el compuesto muestra alta efectividad in vivo y no causa problemas toxicológicos y se tiene bien documentada su farmacocinética y dinámica, puede pasar a estudios clínicos con humanos o de fase III. Para poder realizar experimentación con humanos se debe realizar una propuesta o protocolo de trabajo, donde se detallan los objetivos y la metodología del estudio, para que sea aprobado por un comité especializado que incluye expertos en estudios clínicos y en ética. Los protocolos clínicos aprobados, generalmente se prueban primero con pacientes terminales que conscientemente acceden o aprue-ban la administración del fármaco

experimental junto con la terapia convencional que estén llevando. Los datos clínicos generados son sumamente valiosos y críticos para observar efectos terapéuticos comparados, constantes de bioquímica sanguínea y efectos secundarios. Los datos y experiencias adquiridas permiten plantear estudios con mayor número de pacientes hasta llegar a protocolos donde se utilice el fármaco experimental en pacientes no-terminales. Los estudios clínicos son indudablemente los más tardados y costosos. Por lo general, estos estudios, que llegan a costar hasta 50 millones de dólares, son realizados con recursos de las compañias farmacéuticas.

DISEÑO DE BIOPROCESOSOtras áreas de oportunidad en investigación son el diseño de bioproce-sos que optimicen el rendimiento del fármaco en potencia, sin afectar su bioactividad, y la modificación química de las moléculas para impartirles mayor actividad y/o que prolonguen su vida media en el cuerpo y/o reducir sus efectos secundarios.

Las principales líneas de investigación en bioprocesos están enfocadas a la recuperación efectiva del metabolito. Técnicas sofisticadas como cromatografía preparativa, ultrafiltración, sonicación, separación supercrítica con CO

2 y en fases acuosas son utilizadas para separar, extraer y purificar el compuesto químico bioactivo.

El Tecnológico de Monterrey, a través de sus nuevas infraestructuras en el Centro de Biotecnología y Escuela de Medicina e investigadores en las áreas de biotecnología, química, ingeniería de bioprocesos y medicina, está impulsando fuertemente la investigación básica y aplicada para descubrir y eventualmente desarrollar fármacos principalmente derivados de plantas nativas mexicanas.

Esperamos que algunos de los fitoquímicos que hasta hoy han mostrado excelente potencial in vitro e in vivo lleguen en el futuro corto al mercado y beneficien al creciente número de pacientes que contraen cáncer. El mejoramiento en la expectativa y calidad de vida de estos pacientes recompensa por mucho los nobles esfuerzos que se están realizando en investigación.

¿QUÉ ES LA BIOMETRÍA?La biometría consiste en dispositivos de seguridad aplicados a la verificación de la identidad de un individuo de forma automática. Se basa principalmente en las características biológicas, psicológicas y conductuales del individuo; utilizando patrones fisiológicos, digitalizados y almacenados. Los rasgos que comúnmente emplea son: huellas digitales, de vasos sanguíneos en la mano o retina, del rostro, el tamaño, forma y largo de los dedos e incluso el olor de la persona.

¿CUÁL ES SU ORIGEN?Su origen se remonta a finales del siglo XIX, con las huellas dactilares, y desde entonces su uso ha ido ganando popularidad en los sistemas de seguridad aplicados alrededor del orbe. En la actualidad, existen sistemas automáticos que escanean y digitalizan huellas- cuyos usos no se limitan sólo a bancos y prisiones, sino que ya se puede encontrar en ATM´s en Estados Unidos e Inglaterra.

¿CÓMO FUNCIONAN?Los sistemas biométricos se componen de un hardware y un software; el primero captura la característica concreta del individuo, y el segundo interpreta la información y determina su aceptabilidad o rechazo, todo en función de los datos que han sido almacenados por medio de un registro inicial de la característica biométrica que mida el dispositivo en cuestión. Ese registro inicial o toma de muestra es lo que determina la eficacia del sistema. En el caso de las huellas dactilares, un usuario coloca el dedo en un sensor que hace la lectura digital de su huella; después, el programa guardará la información como un modelo; la próxima vez que ese usuario intente acceder al sistema deberá repetir la operación y el software verificará que los datos corresponden con el modelo.

El mismo principio rige para la identificación por el iris/retina, con ayuda de videocámara, el rostro, la mano completa, etcétera. Las tasas de exactitud en la verificación dependen en gran medida de dos factores: el cambio que se puede producir en las personas, debido a accidentes o a envejecimiento, y las condiciones ambientales, como humedad en el aire, suciedad y sudor; en especial en la lectura que implique el

uso de las manos. (Fernández, Elvira, Tecnología: Identificación Biométrica: la llave del futuro 2000).

TIPOS BIOMÉTRICOSCada sistema biométrico utiliza una cierta clase de interfaz, un sensor o mecanismo de captura determinado y un software específico. La identificación por geometría de la mano o huellas digitales, la más extendida, crea una imagen digital tridimensional, que es capturada, calibrada y guardada en un archivo. Para la identificación por el ojo existen dos sistemas: topografía del iris, identificando en pocos segundos más de cuatro mil puntos, y topografía de la retina, midiendo con luz infrarroja de baja intensidad 320 puntos predefinidos en el diagrama de las venas. (Ibidem).

El reconocimiento facial compara las características faciales con una imagen previamente escaneada, lo mismo que la identificación por voz con un patrón pregrabado, que analiza la presión del aire y las vibraciones sobre la laringe. La identificación por firma mide el tiempo, la presión, la velocidad, el ángulo de colocación del lápiz y la velocidad de las curvas, todo a través de un lápiz óptico con el que la persona firma en un soporte específico o pad. Por último, los sensores de olor, aún en desarrollo, utilizan un proceso químico similar al que se produce entre la nariz y el cerebro, sin que los perfumes sean capaces de enmascarar el olor particular de cada uno. (Ibidem)

La biometría es el sistema de bioseguridad que se está haciendo cada vez más familiar hoy en día, aunado a que en la actualidad vivimos “la era del miedo” y nos doblegamos ante los temores de ataques terroristas. Los países del primer mundo están enfrascados en una loca carrera por la construcción de bases de datos, ya sea para control migratorio, en penitenciarias, y hospitales, por lo que muy pronto la identificación por huellas dactilares, la geografía de la mano, el reconocimiento facial, del iris o de la voz se convertirán en los nuevos passwords de entrada a múltiples sistemas, incluso a nuestra propia vivienda.

46 11

El profesor Leonardo Santi, presidente del Congreso Internacional bioMonterrey 06, es también presidente del Centro de Biotecnología Avanzada de Génova, Italia; jefe del Departamento de Oncología, Biología y Genética de la Escuela de Posgraduados en Oncología, y de la University School for Technicians in Biotechnology. Ha escrito más de 250 documentos científicos en oncología experimental y patología oncológica, con énfasis en cáncer de pulmón, tumores ocupacionales y modificantes biológicos de respuesta.

Además de otras responsabilidades, es presidente del Comité Nacional Italiano para Bioseguridad y Biotecnología. También es coordinador del Comité Nacional de Cáncer, del Ministerio de Salud.

Santi es miembro de una gran variedad de organizaciones científicas nacionales e internacionales y funge también como parte del consejo editorial de diversas publicaciones científicas internacionales, así como de los siguientes comités: Grupo Europeo sobre Ciencias de la Vida (Comisión Europea, Bruselas), Foro Europeo de Investigación sobre el Cáncer (Comisión Europea, Bruselas), coordinador de los Comités Italo-Americano e Italo-Británico sobre Biotecnología, y miembro de la Comisión Internacional sobre Biosociedad (Cámara Internacional de Comercio, París).

El estereotipo del científico en solitario, encerrado en un laboratorio de investigación, ensimismado en sus ideas y reservado en compartirlas, no tiene sentido en el universo moderno de la investigación.

INTERDISCIPLINARIDAD EN BIOTECNOLOGÍAEn muchas de las disciplinas científicas del hoy día, y en Biotecnología quizá aún más decisivamente, la colaboración entre investigadores y entre grupos de investigación provee una gran ventaja competitiva y amplía el horizonte de alcances. Esto es una consecuencia lógica del carácter multidisciplinario e interdisciplinario de la Biotecnología (ver Figura 1).

La ciencia eje del conjunto de disciplinas que hoy llamamos Biotecnología, es la Bioquímica. La Bioquímica en sí misma es

una ciencia híbrida, donde se aplican los fundamentos básicos de química al entendimiento de los procesos metabólicos ocurrentes en organismos vivos, y al entendimiento de la estructura y función de las moléculas que intervienen en estos procesos. La Bioquímica, como ciencia central, requiere del soporte de áreas “duras”, como la Fisicoquímica, y de ciencias

Doctor Mario Moisés ÁlvarezProfesor investigador Director del Centro de BiotecnologíaTecnológico de Monterrey

Figura 1. La Biotecnología, multidisciplinaria e interdisciplinaria.

Ni idea tenía de lo sucedido en Londres a principios de agosto. “Juro que en mis próximas vacaciones estaré conectada un poco al mundo real -aunque el mundo que suponemos real se asemeje cada vez más a uno

ficticio o a uno sacado de una película de acción- porque así el shock será más leve”, digo al llegar al “Charles de Gaulle” y ver acordonar un área porque alguien dejó una maleta olvidada –suponiendo que se tratase de un conato de bomba-; al observar a gente al borde de un ataque de nervios, mujeres llorando, otras personas desmayadas por las largas filas para ser interrogadas y luego dos revisiones para poder ingresar en el avión. Es decir que pagamos el derecho a ser cuestionados e invadidos de nuestra privacidad y, para colmo de males, sin previo aviso te tiran de tu bolso todo lo parecido a un gel –sanitizador para manos, lápiz labial, etcétera. Por eso digo que juro a la próxima estar más conectada a la realidad.

Aun así, no se salvan los aeropuertos de que se infiltre gente no deseada -terroristas en el peor de los casos-; hace tan sólo unos días, un menor de edad se “coló” en un avión en el Aeropuerto de Gatwick sin pasaporte y sin pase de

abordar. Es por eso que prefiero pasar por todo este trance de interrogatorios y revisiones para evitar cualquier sorpresa. Así sea que me tomen una huella dactilar y una fotografía de mi rostro. Aunque esta medida se ha establecido desde 2004 – y desde hace un año hasta la fecha han sido fotografiados y se han tomado huellas digitales de más de 61 millones de personas- como un modo de control y vigilancia en los puntos de entrada a los Estados Unidos.

Un comunicado de US-VISIT se justifica arguyendo que: La tecnología biométrica protege a los visitantes, lo que hace prácticamente imposible que cualquier otra persona tome su identidad en caso de que sus documentos de viaje sean robados o duplicados. Con este programa han sido detenidos mil cien delincuentes.

Con ello la tecnología biométrica es la bioseguridad del presente y del futuro, ya que se concentra en el registro de las características que hacen único al ser humano, como las huellas dactilares, la voz, el iris, el rostro o el ADN; características que son la contraseña más segura que pueda existir.

Catedrática del Departamento de Comunicación / ITESMIngeniera Claudia Ordaz

10 47

ESTUDIOS TOXICOLÓGICOS, DE FARMACOCINÉTICA Y FARMACODINÁMICACuando un compuesto muestra potencial in vivo, los siguientes pasos son realizar estudios toxicológicos y de farmacocinética y farmacodinámica (Figura 1). Los estudios toxicológicos incluyen pruebas de DL

50, toxicología reproductiva y teratogénica. Los estudios de toxicología aguda de DL

50 cuantifican la dosis del fármaco necesaria para matar al 50 por ciento de la población en estudio. En los estudios de toxicología reproductiva se observan los efectos en fertilidad, número de individuos por camada, peso de la camada, porcentaje de sobrevivencia y malformaciones en los recién nacidos.

Los estudios de farmacocinética y farmacodinámica permiten determinar la tasa de absorción del fármaco, su transformación química en el cuerpo, su vida media y sus principales modos de excreción, así como identificar aquellos órganos del cuerpo donde el fármaco se encuentra en mayor concentración. Esto es sumamente importante para planear las vías de administración del fármaco, dosis y la frecuencia de aplicación del medicamento. Las pruebas toxicológicas son claves, ya que si el fármaco experimental produce algún efecto nocivo, esto es suficiente para que sea descartado y se descontinúe la investigación que ya ha tomado varios años.

Paralelamente a los estudios in vivo, se investiga la biología molecular asociada a la inhibición del cáncer. Destacan estudios de antiangiogénesis, inhibición de quinasas, mecanismos de apoptosis o muerte celular programada, actividad estrogénica, etcétera. Estos estudios son claves para poder entender y eventualmente modificar la bioactividad del fármaco en potencia mediante modificación química o técnicas modernas de química combinatoria. La actividad antiangiogénica es clave para prevenir el crecimiento de los tumores y metástasis de los cánceres.

COMPUESTOS ANTICANCERÍGENOSLa mayoría de los compuestos anticancerígenos descubiertos reciente-mente o que están en las últimas etapas de experimentación tienen un fuerte efecto antiangiogénico; es decir que retardan o inhiben el importante paso de crear la

vascularización o irrigación sanguínea necesaria para que el tumor crezca desmedidamente y posteriormente sea metastásico. Existen modelos para estudiar angiogénesis, donde destacan el ensayo de neovascularización sobre la membrana corioalantoidea de embrión de pollo y otros de crecimiento de células endoteliales humanas en placa in vitro.

Es importante mencionar que una vez que se demuestra fehacientemente la efectividad de un fármaco experimen-tal en animales de laboratorio, y que la experimentación está protegida por una patente, las compañias farmacéuticas muestran un especial interés por adquirir los derechos del uso comercial, con el objetivo de continuar la investigación en un modo de fast track o acelerado prosiguiendo con las pruebas clínicas con humanos.

Está bien establecido que en esta industria altamente competitiva, el tiempo de llegada al mercado es de vital importancia. Se dice que un retardo de días o meses representa pérdidas potenciales de millones de dolares. Un fármaco protegido con una patente que muestre alto potencial anticancerígeno probado con animales de laboratorio, puede llegar a costar entre 10 y 15 millones de dólares.

EL PASO A EXPERIMENTOS CON HUMANOS

Una vez que el compuesto muestra alta efectividad in vivo y no causa problemas toxicológicos y se tiene bien documentada su farmacocinética y dinámica, puede pasar a estudios clínicos con humanos o de fase III. Para poder realizar experimentación con humanos se debe realizar una propuesta o protocolo de trabajo, donde se detallan los objetivos y la metodología del estudio, para que sea aprobado por un comité especializado que incluye expertos en estudios clínicos y en ética. Los protocolos clínicos aprobados, generalmente se prueban primero con pacientes terminales que conscientemente acceden o aprue-ban la administración del fármaco

experimental junto con la terapia convencional que estén llevando. Los datos clínicos generados son sumamente valiosos y críticos para observar efectos terapéuticos comparados, constantes de bioquímica sanguínea y efectos secundarios. Los datos y experiencias adquiridas permiten plantear estudios con mayor número de pacientes hasta llegar a protocolos donde se utilice el fármaco experimental en pacientes no-terminales. Los estudios clínicos son indudablemente los más tardados y costosos. Por lo general, estos estudios, que llegan a costar hasta 50 millones de dólares, son realizados con recursos de las compañias farmacéuticas.

DISEÑO DE BIOPROCESOSOtras áreas de oportunidad en investigación son el diseño de bioproce-sos que optimicen el rendimiento del fármaco en potencia, sin afectar su bioactividad, y la modificación química de las moléculas para impartirles mayor actividad y/o que prolonguen su vida media en el cuerpo y/o reducir sus efectos secundarios.

Las principales líneas de investigación en bioprocesos están enfocadas a la recuperación efectiva del metabolito. Técnicas sofisticadas como cromatografía preparativa, ultrafiltración, sonicación, separación supercrítica con CO

2 y en fases acuosas son utilizadas para separar, extraer y purificar el compuesto químico bioactivo.

El Tecnológico de Monterrey, a través de sus nuevas infraestructuras en el Centro de Biotecnología y Escuela de Medicina e investigadores en las áreas de biotecnología, química, ingeniería de bioprocesos y medicina, está impulsando fuertemente la investigación básica y aplicada para descubrir y eventualmente desarrollar fármacos principalmente derivados de plantas nativas mexicanas.

Esperamos que algunos de los fitoquímicos que hasta hoy han mostrado excelente potencial in vitro e in vivo lleguen en el futuro corto al mercado y beneficien al creciente número de pacientes que contraen cáncer. El mejoramiento en la expectativa y calidad de vida de estos pacientes recompensa por mucho los nobles esfuerzos que se están realizando en investigación.

¿QUÉ ES LA BIOMETRÍA?La biometría consiste en dispositivos de seguridad aplicados a la verificación de la identidad de un individuo de forma automática. Se basa principalmente en las características biológicas, psicológicas y conductuales del individuo; utilizando patrones fisiológicos, digitalizados y almacenados. Los rasgos que comúnmente emplea son: huellas digitales, de vasos sanguíneos en la mano o retina, del rostro, el tamaño, forma y largo de los dedos e incluso el olor de la persona.

¿CUÁL ES SU ORIGEN?Su origen se remonta a finales del siglo XIX, con las huellas dactilares, y desde entonces su uso ha ido ganando popularidad en los sistemas de seguridad aplicados alrededor del orbe. En la actualidad, existen sistemas automáticos que escanean y digitalizan huellas- cuyos usos no se limitan sólo a bancos y prisiones, sino que ya se puede encontrar en ATM´s en Estados Unidos e Inglaterra.

¿CÓMO FUNCIONAN?Los sistemas biométricos se componen de un hardware y un software; el primero captura la característica concreta del individuo, y el segundo interpreta la información y determina su aceptabilidad o rechazo, todo en función de los datos que han sido almacenados por medio de un registro inicial de la característica biométrica que mida el dispositivo en cuestión. Ese registro inicial o toma de muestra es lo que determina la eficacia del sistema. En el caso de las huellas dactilares, un usuario coloca el dedo en un sensor que hace la lectura digital de su huella; después, el programa guardará la información como un modelo; la próxima vez que ese usuario intente acceder al sistema deberá repetir la operación y el software verificará que los datos corresponden con el modelo.

El mismo principio rige para la identificación por el iris/retina, con ayuda de videocámara, el rostro, la mano completa, etcétera. Las tasas de exactitud en la verificación dependen en gran medida de dos factores: el cambio que se puede producir en las personas, debido a accidentes o a envejecimiento, y las condiciones ambientales, como humedad en el aire, suciedad y sudor; en especial en la lectura que implique el

uso de las manos. (Fernández, Elvira, Tecnología: Identificación Biométrica: la llave del futuro 2000).

TIPOS BIOMÉTRICOSCada sistema biométrico utiliza una cierta clase de interfaz, un sensor o mecanismo de captura determinado y un software específico. La identificación por geometría de la mano o huellas digitales, la más extendida, crea una imagen digital tridimensional, que es capturada, calibrada y guardada en un archivo. Para la identificación por el ojo existen dos sistemas: topografía del iris, identificando en pocos segundos más de cuatro mil puntos, y topografía de la retina, midiendo con luz infrarroja de baja intensidad 320 puntos predefinidos en el diagrama de las venas. (Ibidem).

El reconocimiento facial compara las características faciales con una imagen previamente escaneada, lo mismo que la identificación por voz con un patrón pregrabado, que analiza la presión del aire y las vibraciones sobre la laringe. La identificación por firma mide el tiempo, la presión, la velocidad, el ángulo de colocación del lápiz y la velocidad de las curvas, todo a través de un lápiz óptico con el que la persona firma en un soporte específico o pad. Por último, los sensores de olor, aún en desarrollo, utilizan un proceso químico similar al que se produce entre la nariz y el cerebro, sin que los perfumes sean capaces de enmascarar el olor particular de cada uno. (Ibidem)

La biometría es el sistema de bioseguridad que se está haciendo cada vez más familiar hoy en día, aunado a que en la actualidad vivimos “la era del miedo” y nos doblegamos ante los temores de ataques terroristas. Los países del primer mundo están enfrascados en una loca carrera por la construcción de bases de datos, ya sea para control migratorio, en penitenciarias, y hospitales, por lo que muy pronto la identificación por huellas dactilares, la geografía de la mano, el reconocimiento facial, del iris o de la voz se convertirán en los nuevos passwords de entrada a múltiples sistemas, incluso a nuestra propia vivienda.

48 9

que muestren potencial deben ser probados en diferentes concentraciones, para así obtener una curva EC

50; es decir, la concentración necesaria para inhibir al 50 por ciento la población de las células cancerígenas.

Es importante mencionar que de las células antes citadas, los dos modelos más frecuentemente utilizados son el de cáncer de mama y el de colon. Las primeras son hormono o estrógeno dependientes, mientras que las segundas no lo son. Esto permite a los investigadores saber si el extracto tiene potencial para uno solo o para los dos tipos de cánceres. Lo idóneo es que el extracto tenga capacidad de inhibir los dos tipos de cultivos celulares para que tenga más posibilidades de llegar al mercado.

El cultivo de células de mamífero no es una labor sencilla, ya que se requiere de importantes cuidados en términos de medios de cultivo, temperatura y atmósfera de incubación. Generalmente estas células se cultivan a 37°C en una atmósfera que contiene cinco por ciento de bióxido de carbono.

Una vez que se identifica un extracto crudo con potencial, el mismo es fraccionado con el objeto de ir separando gradualmente compuestos afines o inclusive compuestos específicos (Figura 1). El fraccionamiento y aislamiento de compuestos fitoquímicos todavía se realiza mediante uso de columnas de afinidad, donde se aplican secuencialmente solventes orgánicos con diferente polaridad para ir separando fracciones.

AISLAMIENTO DE COMPUESTOS QUÍMICOSHoy en día es ampliamente practicada la denominada cromatografía preparativa, donde bajo los principios descritos anteriormente y de una manera automatizada, se pueden ir aislando compuestos químicos específicos que eluyeron a diferentes tiempos. La versión más novedosa de cromatografía preparativa consiste en un cromatógrafo de partición centrífuga donde en una sola corrida pueden separarse de un extracto crudo cientos de subfracciones.

La cromatografía preparativa permite obtener suficiente muestra de diferentes subfracciones para repetir los bioensayos in vitro con células cancerígenas (Figura 1). De esta manera, de un extracto crudo que contiene cientos de compuestos químicos, se pueden aislar e identificar aquellos compuestos específicos o fármacos en potencia con mayor bioactividad.

La separación y aislamiento de los compuestos químicos no implica necesariamente su inmediata identificación. Para hacer la identificación puntual se utilizan equipos altamente sofisticados, entre los cuales destacan los espectómetros de masas, equipados con detectores de trampa de iones o tiempo de vuelo o TOF (Figura 1). La combinación de ambas técnicas analíticas permite determinar la masa del compuesto de interés así como de sus fragmentos químicos.

BIBLIOTECA ELECTRÓNICALa huella digital de ese compuesto o espectro de masa es comparado con miles de compuestos químicos contenidos en una biblioteca electrónica que tiene la computadora de los espectrómetros de masas. Existe la posibilidad de que el compuesto químico de interés no se encuentre en la biblioteca, ya que puede ser una molécula que no ha sido previamente identificada o que sea un isómero (compuesto con mismo peso molecular pero diferente estructura química).

La identificación de la estructura química de nuevos compuestos generalmente se realiza mediante Resonancia Magnética Nuclear.

La parte más crítica en el descubrimiento de fármacos son los ensayos con animales de laboratorio, ya que al pasar exitosamente las pruebas in vivo se magnifica la probabilidad de tener el mismo éxito con humanos. En los estudios anticancerígenos in vivo, generalmente se utilizan ratas que padecen de cáncer de mama o colon, que fueron previamente inducidas con DMBA (dimetil bencil antraceno) o AOM (azoxymetano), respectivamente. También se tiene la opción de utilizar ratas modificadas genéticamente que expresan en su gran mayoría el cáncer motivo de estudio.

El reto con estos animales es que tienen un sistema inmunológico muy comprometido, y por consiguiente se necesita de un bioterio especialmente diseñado para prevenir infecciones. Los estudios in vivo son muy efectivos y realistas, ya que el fármaco en potencia es administrado oralmente (intraesofágico) o por vía intravenosa o intramuscular, lo que permite observar si los mismos previenen la aparición de tumores o son efectivos en revertir tumores ya existentes. Los estudios postmortem son críticos y valiosos, ya que indican la histopatología que caracteriza a los diversos tipos de tumores.

Es la ciencia que pasó de las meras descripciones a los enfoques dinámicos de evidencias; a la disciplina general conocida como biología de los sistemas y a la combinación de productos de disciplinas integradoras

en diferentes niveles de organización. La Bioinformática y la Bioseguridad no sólo representan áreas de oportunidad científica en el Tercer Milenio, sino que fundamentalmente se traducen en posibilidades de avances sanitarios, económicos y hasta políticos, para millones de hombres y mujeres que viven en los países pobres.

En el despertar del presente siglo, la Biología llega a erigirse también en una Ciencia de la Información. Ella nos dice, desde que nacemos, cuál es nuestro mapa genético y, con base en ello, cómo debemos vivir para prevenir enfermedades, para fortalecernos, para crecer y hasta para morir.

De la sencilla biología computacional de los años 70, hemos pasado a una biología genómica, donde más allá de definiciones y conceptos formales, se logra integrar la información pertinente para formar un cuadro completo de la actividad de la célula, y estudiar así su comportamiento fisiológico y sus posibles alteraciones en potenciales procesos patológicos.

La Bioinformática es un complejo procesamiento donde funcionan varias computadoras, acopladas entre sí en clusters, como si se tratara de una sola estación de trabajo y, a través de ello, se tienen enormes cantidades de información sobre los organismos vivos sujetos a análisis.

COMITÉS DE BIOINFORMÁTICA Y BIOSEGURIDADCon base en ello, la comunidad internacional asume hoy la urgencia de establecer Comités de Bioinformática y Bioseguridad, donde se establezcan las regulaciones necesarias para el manejo de organismos vivos modificados genéticamente y que, en la agricultura transgénica, tienen ahora mismo su mayor potencial de expresión y crecimiento.

A través de ella y de la ingeniería genética, la ciencia se ha tornado completamente multidisciplinaria. Matemáticas, Física, Información de Sistemas están cotidiana y felizmente

unidas. Los científicos, a través de la genómica, la microbiología industrial, de la patología molecular, han forjado desde fines del siglo pasado y en los albores de éste, un nuevo rostro para la ciencia.

Es el rostro de la bioseguridad destinada a reducir los riesgos de transmisión de microorganismos de fuentes reconocidas, o no reconocidas, de infección en el ramo de la salud; de las políticas y procedimientos adaptados a aminorar los peligros que puedan resultar de la aplicación de biotecnología a la agricultura; es el rostro de una ciencia que piensa en el mapa genético de niños caucásicos, negros, orientales, mestizos, no para buscar inútiles esquemas eugenésicos, sino para hablarnos de la grandeza que la raza humana tiene en sus distintos mapas genéticos y colores.

Investigadora / UANLDoctora Patricia Liliana Cerda Pérez

8 49

industria farmacéutica. Lo idóneo es contar con dos o tres buenos candidatos a fármacos, y cruzar los dedos para que alguno llegue a cristalizar y ser eventualmente comercializado. El tiempo que demora la investigación generalmente para llevar al mercado un fármaco es de un mínimo de 10-12.5 años (Fig. 1).

El descubrimiento de fármacos demanda una fuerte y sofisticada infraestructura de trabajo y de un grupo multidisciplinario de investigadores altamente calificados en las ciencias de la química, nutrición, biotecnología, toxicología, bioingeniería y medicina. Es fundamental el registro de la patente o la protección de los descubrimientos e ideas, debido al fuerte grado de competitividad en la industria farmacéutica. Muestra de esto es que en los últimos cinco años se han aprobado entre siete mil y ocho mil patentes anuales en biotecnología, principalmente farmacéutica. Pocos son los centros de investigación y universidades que incursionan seriamente en esta difícil área de investigación. De cientos o miles de compuestos con potencial, solamente uno o unos cuantos llegan a un mercado cada día más competido, y todavía menos llegan a ser los famosos blockbusters o medicamentos que tienen ventas que ascienden a más de un millón de dólares anuales.

RIQUEZA NACIONAL EN PLANTAS NATIVASLos pasos secuenciales para el descubrimiento de fármacos naturales empieza con la selección del material o planta (Figura 1). Los investigadores mexicanos contamos con diversas regiones ricas en plantas nativas que aún no han sido estudiadas,

6 meses

6 meses

6 meses

6 meses

1 año

6 meses

6 meses

2 años

6 años

Fig. 1. Ruta crítica y tiempos promedios para la obtención de fármacos anticancerígenos.

y con uno de los países que tienen mayor biodiversidad. Juegan un papel crítico la intuición del investigador y las experiencias previas. Plantas que pertenecen a las mismas familias comparten compuestos químicos con estructuras y propiedades semejantes.

Las raíces, tallos, hojas, flor o inflorescencia y frutos pueden contener los compuestos de interés. El estado de madurez, condiciones ambientales y estres pueden afectar significativamente la concentración y bioactividad de los extractos obtenidos. Estos materiales generalmente son cuidadosamente secados o inclusive liofilizados (secado por congelamiento) antes de ser tratados con solventes orgánicos. Una vez que se ha identificado un material con potencial, es sumamente importante hacer una revisión exhaustiva de los diversos acervos bibliograficos y patentes para ver si en realidad éste es novedoso, y por lo tanto la investigación es original. Es realmente desastroso y pérdida de tiempo y recursos trabajar con algún compuesto que ya fue patentado.

Los diversos materiales de la planta son sujetos a procesos de extracción con solventes orgánicos que extraen selectivamente a familias de compuestos con potencial farmacológico. Típicamente se utiliza metanol, etanol, agua, acetato de etilo, acetona, cloroformo, butanol y otros solventes solos o combinados que tienen diferentes grados de polaridad. En los extractos se analiza cualitativa y cuantitativamente la presencia de familias de compuestos. Las pruebas más utilizadas son capacidad antioxidante, fenólicos totales, flavonoides, antocianinas, taninos, terpenos, fitoesteroles, carotenos etcétera.

INHIBIR POBLACIÓN DE CÉLULAS CANCERÍGENASPosteriormente se corren ensayos in vitro para cuantificar la proliferación de células cancerosas variadas, donde destacan las de mama (MCF-7), colon (caco 2), hígado (HepG2), próstata, leucemia megaloblástica y linfoblástica y otras (Figura 1). Estas pruebas de tamizaje son claves, ya que de una simple corrida que demora no más de una semana, se pueden probar más de 50 diferentes extractos, más controles positivos y negativos. Aquellos extractos

Gracias el esfuerzo por brindar un mejor servicio a la comunidad, el Colegio de Estudios Científicos y Tecnológicos, plantel Marín, se hizo

acreedor al reconocimiento “Premio Nuevo León a la Calidad 2006”, que entrega el Gobierno del Estado en coordinación con organismos intermedios, como el Centro de Productividad de Monterrey.

Durante la ceremonia de la decimoséptima entrega del premio, que se llevó a cabo el pasado 28 de agosto, se explicó que durante este periodo se logró la participación de 151 organizaciones aspirantes en diferentes rubros: empresas privadas, instituciones educativas y dependencias de gobierno. Sobre este particular, Gustavo Alarcón Martínez, secretario de Desarrollo Económico, explicó que mediante este incentivo se busca un ambiente de competitividad,

pero con el propósito de que todos los participantes ganen al modernizarse y ofrecer mejores servicios.

EN BUSCA DE LA MEJORA CONTINUA“Convencionalmente, en situaciones de competencia, lo que uno gana el otro lo pierde; sin embargo, en nuestro enfoque de competitividad, el propósito es que todos ganen; la visión sistémica de la competitividad implica que ésta atraviesa todas las partes de la sociedad, pues la mejora continua en los procesos de un sector beneficia siempre directa o indirectamente a todos los demás”, comentó.

A la par del CECyTE, se entregaron siete premios más en el rubro de educación, tres en el área de industria y servicios y uno dedicado al sector gobierno.

La ceremonia fue encabezada por el gobernador, José Natividad González Parás, quien subrayó la necesidad de que el gobierno sea el encargado de

contribuir al avance de la sociedad mediante incentivos a la mejora continua en calidad. “Los gobiernos tenemos la responsabilidad de buscar que los elementos de la competitivi-dad se den y entre ellos están los relativos a la vigencia plena del estado de derecho, están los relacionados a que las burocracias se conviertan en cauces y no en diques de la actividad privada y de la actividad social, y está el imperativo de la mejora regulatoria”.

En el evento participaron también: Alejandro Rodríguez, presidente del Centro de Productividad de Monterrey; Rubén Contreras Ramírez, director general de los Premios Nacionales de Calidad, Exportación y Tecnología; así como autoridades estatales y representantes de organismos locales. Para recibir el premio dedicado al CECyTE plantel Marín, se contó con la presencia de Carlos Rodríguez Acevedo, Maria Magdalena Cruz Valenzuela e Isabel Gutiérrez Chavarría.

Por Carlos Joloy

48 9

que muestren potencial deben ser probados en diferentes concentraciones, para así obtener una curva EC

50; es decir, la concentración necesaria para inhibir al 50 por ciento la población de las células cancerígenas.

Es importante mencionar que de las células antes citadas, los dos modelos más frecuentemente utilizados son el de cáncer de mama y el de colon. Las primeras son hormono o estrógeno dependientes, mientras que las segundas no lo son. Esto permite a los investigadores saber si el extracto tiene potencial para uno solo o para los dos tipos de cánceres. Lo idóneo es que el extracto tenga capacidad de inhibir los dos tipos de cultivos celulares para que tenga más posibilidades de llegar al mercado.

El cultivo de células de mamífero no es una labor sencilla, ya que se requiere de importantes cuidados en términos de medios de cultivo, temperatura y atmósfera de incubación. Generalmente estas células se cultivan a 37°C en una atmósfera que contiene cinco por ciento de bióxido de carbono.

Una vez que se identifica un extracto crudo con potencial, el mismo es fraccionado con el objeto de ir separando gradualmente compuestos afines o inclusive compuestos específicos (Figura 1). El fraccionamiento y aislamiento de compuestos fitoquímicos todavía se realiza mediante uso de columnas de afinidad, donde se aplican secuencialmente solventes orgánicos con diferente polaridad para ir separando fracciones.

AISLAMIENTO DE COMPUESTOS QUÍMICOSHoy en día es ampliamente practicada la denominada cromatografía preparativa, donde bajo los principios descritos anteriormente y de una manera automatizada, se pueden ir aislando compuestos químicos específicos que eluyeron a diferentes tiempos. La versión más novedosa de cromatografía preparativa consiste en un cromatógrafo de partición centrífuga donde en una sola corrida pueden separarse de un extracto crudo cientos de subfracciones.

La cromatografía preparativa permite obtener suficiente muestra de diferentes subfracciones para repetir los bioensayos in vitro con células cancerígenas (Figura 1). De esta manera, de un extracto crudo que contiene cientos de compuestos químicos, se pueden aislar e identificar aquellos compuestos específicos o fármacos en potencia con mayor bioactividad.

La separación y aislamiento de los compuestos químicos no implica necesariamente su inmediata identificación. Para hacer la identificación puntual se utilizan equipos altamente sofisticados, entre los cuales destacan los espectómetros de masas, equipados con detectores de trampa de iones o tiempo de vuelo o TOF (Figura 1). La combinación de ambas técnicas analíticas permite determinar la masa del compuesto de interés así como de sus fragmentos químicos.

BIBLIOTECA ELECTRÓNICALa huella digital de ese compuesto o espectro de masa es comparado con miles de compuestos químicos contenidos en una biblioteca electrónica que tiene la computadora de los espectrómetros de masas. Existe la posibilidad de que el compuesto químico de interés no se encuentre en la biblioteca, ya que puede ser una molécula que no ha sido previamente identificada o que sea un isómero (compuesto con mismo peso molecular pero diferente estructura química).

La identificación de la estructura química de nuevos compuestos generalmente se realiza mediante Resonancia Magnética Nuclear.

La parte más crítica en el descubrimiento de fármacos son los ensayos con animales de laboratorio, ya que al pasar exitosamente las pruebas in vivo se magnifica la probabilidad de tener el mismo éxito con humanos. En los estudios anticancerígenos in vivo, generalmente se utilizan ratas que padecen de cáncer de mama o colon, que fueron previamente inducidas con DMBA (dimetil bencil antraceno) o AOM (azoxymetano), respectivamente. También se tiene la opción de utilizar ratas modificadas genéticamente que expresan en su gran mayoría el cáncer motivo de estudio.

El reto con estos animales es que tienen un sistema inmunológico muy comprometido, y por consiguiente se necesita de un bioterio especialmente diseñado para prevenir infecciones. Los estudios in vivo son muy efectivos y realistas, ya que el fármaco en potencia es administrado oralmente (intraesofágico) o por vía intravenosa o intramuscular, lo que permite observar si los mismos previenen la aparición de tumores o son efectivos en revertir tumores ya existentes. Los estudios postmortem son críticos y valiosos, ya que indican la histopatología que caracteriza a los diversos tipos de tumores.

Es la ciencia que pasó de las meras descripciones a los enfoques dinámicos de evidencias; a la disciplina general conocida como biología de los sistemas y a la combinación de productos de disciplinas integradoras

en diferentes niveles de organización. La Bioinformática y la Bioseguridad no sólo representan áreas de oportunidad científica en el Tercer Milenio, sino que fundamentalmente se traducen en posibilidades de avances sanitarios, económicos y hasta políticos, para millones de hombres y mujeres que viven en los países pobres.

En el despertar del presente siglo, la Biología llega a erigirse también en una Ciencia de la Información. Ella nos dice, desde que nacemos, cuál es nuestro mapa genético y, con base en ello, cómo debemos vivir para prevenir enfermedades, para fortalecernos, para crecer y hasta para morir.

De la sencilla biología computacional de los años 70, hemos pasado a una biología genómica, donde más allá de definiciones y conceptos formales, se logra integrar la información pertinente para formar un cuadro completo de la actividad de la célula, y estudiar así su comportamiento fisiológico y sus posibles alteraciones en potenciales procesos patológicos.

La Bioinformática es un complejo procesamiento donde funcionan varias computadoras, acopladas entre sí en clusters, como si se tratara de una sola estación de trabajo y, a través de ello, se tienen enormes cantidades de información sobre los organismos vivos sujetos a análisis.

COMITÉS DE BIOINFORMÁTICA Y BIOSEGURIDADCon base en ello, la comunidad internacional asume hoy la urgencia de establecer Comités de Bioinformática y Bioseguridad, donde se establezcan las regulaciones necesarias para el manejo de organismos vivos modificados genéticamente y que, en la agricultura transgénica, tienen ahora mismo su mayor potencial de expresión y crecimiento.

A través de ella y de la ingeniería genética, la ciencia se ha tornado completamente multidisciplinaria. Matemáticas, Física, Información de Sistemas están cotidiana y felizmente

unidas. Los científicos, a través de la genómica, la microbiología industrial, de la patología molecular, han forjado desde fines del siglo pasado y en los albores de éste, un nuevo rostro para la ciencia.

Es el rostro de la bioseguridad destinada a reducir los riesgos de transmisión de microorganismos de fuentes reconocidas, o no reconocidas, de infección en el ramo de la salud; de las políticas y procedimientos adaptados a aminorar los peligros que puedan resultar de la aplicación de biotecnología a la agricultura; es el rostro de una ciencia que piensa en el mapa genético de niños caucásicos, negros, orientales, mestizos, no para buscar inútiles esquemas eugenésicos, sino para hablarnos de la grandeza que la raza humana tiene en sus distintos mapas genéticos y colores.

Investigadora / UANLDoctora Patricia Liliana Cerda Pérez

8 49

industria farmacéutica. Lo idóneo es contar con dos o tres buenos candidatos a fármacos, y cruzar los dedos para que alguno llegue a cristalizar y ser eventualmente comercializado. El tiempo que demora la investigación generalmente para llevar al mercado un fármaco es de un mínimo de 10-12.5 años (Fig. 1).

El descubrimiento de fármacos demanda una fuerte y sofisticada infraestructura de trabajo y de un grupo multidisciplinario de investigadores altamente calificados en las ciencias de la química, nutrición, biotecnología, toxicología, bioingeniería y medicina. Es fundamental el registro de la patente o la protección de los descubrimientos e ideas, debido al fuerte grado de competitividad en la industria farmacéutica. Muestra de esto es que en los últimos cinco años se han aprobado entre siete mil y ocho mil patentes anuales en biotecnología, principalmente farmacéutica. Pocos son los centros de investigación y universidades que incursionan seriamente en esta difícil área de investigación. De cientos o miles de compuestos con potencial, solamente uno o unos cuantos llegan a un mercado cada día más competido, y todavía menos llegan a ser los famosos blockbusters o medicamentos que tienen ventas que ascienden a más de un millón de dólares anuales.

RIQUEZA NACIONAL EN PLANTAS NATIVASLos pasos secuenciales para el descubrimiento de fármacos naturales empieza con la selección del material o planta (Figura 1). Los investigadores mexicanos contamos con diversas regiones ricas en plantas nativas que aún no han sido estudiadas,

6 meses

6 meses

6 meses

6 meses

1 año

6 meses

6 meses

2 años

6 años

Fig. 1. Ruta crítica y tiempos promedios para la obtención de fármacos anticancerígenos.

y con uno de los países que tienen mayor biodiversidad. Juegan un papel crítico la intuición del investigador y las experiencias previas. Plantas que pertenecen a las mismas familias comparten compuestos químicos con estructuras y propiedades semejantes.

Las raíces, tallos, hojas, flor o inflorescencia y frutos pueden contener los compuestos de interés. El estado de madurez, condiciones ambientales y estres pueden afectar significativamente la concentración y bioactividad de los extractos obtenidos. Estos materiales generalmente son cuidadosamente secados o inclusive liofilizados (secado por congelamiento) antes de ser tratados con solventes orgánicos. Una vez que se ha identificado un material con potencial, es sumamente importante hacer una revisión exhaustiva de los diversos acervos bibliograficos y patentes para ver si en realidad éste es novedoso, y por lo tanto la investigación es original. Es realmente desastroso y pérdida de tiempo y recursos trabajar con algún compuesto que ya fue patentado.

Los diversos materiales de la planta son sujetos a procesos de extracción con solventes orgánicos que extraen selectivamente a familias de compuestos con potencial farmacológico. Típicamente se utiliza metanol, etanol, agua, acetato de etilo, acetona, cloroformo, butanol y otros solventes solos o combinados que tienen diferentes grados de polaridad. En los extractos se analiza cualitativa y cuantitativamente la presencia de familias de compuestos. Las pruebas más utilizadas son capacidad antioxidante, fenólicos totales, flavonoides, antocianinas, taninos, terpenos, fitoesteroles, carotenos etcétera.

INHIBIR POBLACIÓN DE CÉLULAS CANCERÍGENASPosteriormente se corren ensayos in vitro para cuantificar la proliferación de células cancerosas variadas, donde destacan las de mama (MCF-7), colon (caco 2), hígado (HepG2), próstata, leucemia megaloblástica y linfoblástica y otras (Figura 1). Estas pruebas de tamizaje son claves, ya que de una simple corrida que demora no más de una semana, se pueden probar más de 50 diferentes extractos, más controles positivos y negativos. Aquellos extractos

Gracias el esfuerzo por brindar un mejor servicio a la comunidad, el Colegio de Estudios Científicos y Tecnológicos, plantel Marín, se hizo

acreedor al reconocimiento “Premio Nuevo León a la Calidad 2006”, que entrega el Gobierno del Estado en coordinación con organismos intermedios, como el Centro de Productividad de Monterrey.

Durante la ceremonia de la decimoséptima entrega del premio, que se llevó a cabo el pasado 28 de agosto, se explicó que durante este periodo se logró la participación de 151 organizaciones aspirantes en diferentes rubros: empresas privadas, instituciones educativas y dependencias de gobierno. Sobre este particular, Gustavo Alarcón Martínez, secretario de Desarrollo Económico, explicó que mediante este incentivo se busca un ambiente de competitividad,

pero con el propósito de que todos los participantes ganen al modernizarse y ofrecer mejores servicios.

EN BUSCA DE LA MEJORA CONTINUA“Convencionalmente, en situaciones de competencia, lo que uno gana el otro lo pierde; sin embargo, en nuestro enfoque de competitividad, el propósito es que todos ganen; la visión sistémica de la competitividad implica que ésta atraviesa todas las partes de la sociedad, pues la mejora continua en los procesos de un sector beneficia siempre directa o indirectamente a todos los demás”, comentó.

A la par del CECyTE, se entregaron siete premios más en el rubro de educación, tres en el área de industria y servicios y uno dedicado al sector gobierno.

La ceremonia fue encabezada por el gobernador, José Natividad González Parás, quien subrayó la necesidad de que el gobierno sea el encargado de

contribuir al avance de la sociedad mediante incentivos a la mejora continua en calidad. “Los gobiernos tenemos la responsabilidad de buscar que los elementos de la competitivi-dad se den y entre ellos están los relativos a la vigencia plena del estado de derecho, están los relacionados a que las burocracias se conviertan en cauces y no en diques de la actividad privada y de la actividad social, y está el imperativo de la mejora regulatoria”.

En el evento participaron también: Alejandro Rodríguez, presidente del Centro de Productividad de Monterrey; Rubén Contreras Ramírez, director general de los Premios Nacionales de Calidad, Exportación y Tecnología; así como autoridades estatales y representantes de organismos locales. Para recibir el premio dedicado al CECyTE plantel Marín, se contó con la presencia de Carlos Rodríguez Acevedo, Maria Magdalena Cruz Valenzuela e Isabel Gutiérrez Chavarría.

Por Carlos Joloy

50 7

Sergio O. Serna Saldívar. Nació en Monterrey, Nuevo León. Es ingeniero agrónomo zootecnista por el Instituto Tecnológico y de Estudios Superiores de Monterrey. Tiene Maestría en Nutrición Científica, y Doctorado en Ciencia y Tecnología de Alimentos, ambos por la Universidad de Texas A&M. Es miembro del Sistema Nacional de Investigadores, Nivel III, y regresó a México a través del Programa de Repatriación de Científicos CONACyT.

Ha sido profesor asociado en la Universidad de Sonora; profesor adjunto en la Universidad de Texas A&M, donde además fue investigador científico, y actualmente es catedrático en el ITESM.

Es autor de tres libros: Manufactura y control de calidad de productos basados en cereales”, Los alimentos mágicos de las culturas indígenas de México y Química, almacenamiento e industrialización de los cereales.

Ha recibido numerosos premios y distinciones; entre los más recientes destacan: el premio Excellence Teaching Award, que le otorgó la American Association of Cereal Chemists en 2004; Premio Nacional Científico y Tecnológico “Luis Elizondo” en 2003, y Reconocimiento Nacional al Servicio Social Comunitario 2003.

El descubrimiento de fármacos de origen natural para la prevención y tratamiento del cáncer es un proceso altamente complicado y tortuoso, con escasas posibilidades de éxito. Hasta cierto punto es una

aventura científica, donde el investigador debe contar con muy buena suerte. Sin embargo, las nuevas herramientas de trabajo, especialmente de análisis instrumental de compuestos químicos y de tamizaje para observar el potencial de estos compuestos in vitro permiten identificar

un mayor número de compuestos con potencial para pasar a las pruebas más rigurosas y tardadas de análisis in vivo con animales de laboratorio y estudios clínicos con seres humanos.

Los importantes avances en química analítica instrumental, cultivo de células y biología molecular permiten a los investigadores de hoy en día trabajar mucho más eficientemente, en comparación con los pioneros de la

El problema social del Siglo XX fue la explosión demográfica que pobló los países con demasiados jóvenes.

Por ellos, y bajo su presión, hubo que adelantar la activación de su ciudadanía, proveer universidades y oportunidades de empleo,

aumentar sensiblemente la oferta del entretenimiento y modificar los esquemas morales y religiosos.

El problema social del Siglo XXI, en cambio, es la explosión de la longevidad, que va poblando gradualmente a los países con adultos mayores.

Menos estridentes que los jóvenes del Siglo Veinte, los miembros de la Ola Gris no ejercen mayor presión sobre el tejido social para pedir adecuaciones que se acomoden a la vida prolongada y a los problemas que acarrea. Saben que, fatalmente, todos los

que toman decisiones reaccionarán ante un proceso que los va englobando a ellos.

ACCIONES LEGALES Y MOVIMIENTOS SOCIALESPor esa razón y por la experiencia de la rebelión juvenil de los años 60, de la que esos adultos mayores fueron protagonistas o víctimas, se han propiciado acciones

legales y movimientos sociales, que buscan responder a las necesidades de ellos, antes de que crezca su

inconformidad ante la incomprensión social.

El punto de partida para plantear la problemática de los adultos mayores es admitir que el mundo, la

sociedad y las instituciones no fueron diseñados para la vida longeva.

Los esquemas de pensiones, por ejemplo, contemplaban que los jubilados disfrutarían pocos años esa partida. No tomaron en

cuenta que las generaciones actuales, con el avance del bienestar social, con una medicina prodigiosa, vivirían más allá de los 75 años.CIUDADES DISEÑADAS PARA LOS JÓVENESCiudades, viviendas, equipamiento, fueron diseñados para una población joven y vigorosa; no para adultos mayores de piernas frágiles y sentidos disminuidos.

Doctora Carmen SoberónInvestigadora de los problemas de los adultos mayores

50 7

Sergio O. Serna Saldívar. Nació en Monterrey, Nuevo León. Es ingeniero agrónomo zootecnista por el Instituto Tecnológico y de Estudios Superiores de Monterrey. Tiene Maestría en Nutrición Científica, y Doctorado en Ciencia y Tecnología de Alimentos, ambos por la Universidad de Texas A&M. Es miembro del Sistema Nacional de Investigadores, Nivel III, y regresó a México a través del Programa de Repatriación de Científicos CONACyT.

Ha sido profesor asociado en la Universidad de Sonora; profesor adjunto en la Universidad de Texas A&M, donde además fue investigador científico, y actualmente es catedrático en el ITESM.

Es autor de tres libros: Manufactura y control de calidad de productos basados en cereales”, Los alimentos mágicos de las culturas indígenas de México y Química, almacenamiento e industrialización de los cereales.

Ha recibido numerosos premios y distinciones; entre los más recientes destacan: el premio Excellence Teaching Award, que le otorgó la American Association of Cereal Chemists en 2004; Premio Nacional Científico y Tecnológico “Luis Elizondo” en 2003, y Reconocimiento Nacional al Servicio Social Comunitario 2003.

El descubrimiento de fármacos de origen natural para la prevención y tratamiento del cáncer es un proceso altamente complicado y tortuoso, con escasas posibilidades de éxito. Hasta cierto punto es una

aventura científica, donde el investigador debe contar con muy buena suerte. Sin embargo, las nuevas herramientas de trabajo, especialmente de análisis instrumental de compuestos químicos y de tamizaje para observar el potencial de estos compuestos in vitro permiten identificar

un mayor número de compuestos con potencial para pasar a las pruebas más rigurosas y tardadas de análisis in vivo con animales de laboratorio y estudios clínicos con seres humanos.

Los importantes avances en química analítica instrumental, cultivo de células y biología molecular permiten a los investigadores de hoy en día trabajar mucho más eficientemente, en comparación con los pioneros de la

El problema social del Siglo XX fue la explosión demográfica que pobló los países con demasiados jóvenes.

Por ellos, y bajo su presión, hubo que adelantar la activación de su ciudadanía, proveer universidades y oportunidades de empleo,

aumentar sensiblemente la oferta del entretenimiento y modificar los esquemas morales y religiosos.

El problema social del Siglo XXI, en cambio, es la explosión de la longevidad, que va poblando gradualmente a los países con adultos mayores.

Menos estridentes que los jóvenes del Siglo Veinte, los miembros de la Ola Gris no ejercen mayor presión sobre el tejido social para pedir adecuaciones que se acomoden a la vida prolongada y a los problemas que acarrea. Saben que, fatalmente, todos los

que toman decisiones reaccionarán ante un proceso que los va englobando a ellos.

ACCIONES LEGALES Y MOVIMIENTOS SOCIALESPor esa razón y por la experiencia de la rebelión juvenil de los años 60, de la que esos adultos mayores fueron protagonistas o víctimas, se han propiciado acciones

legales y movimientos sociales, que buscan responder a las necesidades de ellos, antes de que crezca su

inconformidad ante la incomprensión social.

El punto de partida para plantear la problemática de los adultos mayores es admitir que el mundo, la

sociedad y las instituciones no fueron diseñados para la vida longeva.

Los esquemas de pensiones, por ejemplo, contemplaban que los jubilados disfrutarían pocos años esa partida. No tomaron en

cuenta que las generaciones actuales, con el avance del bienestar social, con una medicina prodigiosa, vivirían más allá de los 75 años.CIUDADES DISEÑADAS PARA LOS JÓVENESCiudades, viviendas, equipamiento, fueron diseñados para una población joven y vigorosa; no para adultos mayores de piernas frágiles y sentidos disminuidos.

Doctora Carmen SoberónInvestigadora de los problemas de los adultos mayores

6 51

actitud emprendedora de sus egresados. Enseguida, buscar alianzas con los mejores grupos académicos de la región y del sureste de Estados Unidos. Finalmente, planear, desarrollar y llevar al nivel de vanguardistas, las investigaciones que permitan hacer del CBG el centro por excelencia de innovación de biotecnologías al servicio de los productores de la región.

Para favorecer el éxito del plan anterior, también se puso especial atención en la integración de un equipo administrativo y gerencial que tuviera la sensibilidad y la vocación de servicio para entender y atender las necesidades de los académicos; así como, en una labor intensa de gestoría con los productores de la región, para que vieran al nuevo centro como suyo y demandaran de éste que no se desviara de su misión para que no se convirtiera en un elefante blanco más.

Cuadro 3. Desarrollando y aplicando la biotecnología genómica en el CB.

CONCLUSIONESLa genómica es una ciencia y, por ende, no es sujeto de juicios de valor, pues sólo busca generar conocimiento. Lo que sí debe regularse es la aplicación de este conocimiento en la forma de las tecnologías que emana. La Biotecnología Genómica es tan útil y versátil porque permite explotar la herencia de los seres vivos. Como el hombre depende de éstos para producir alimentos, medicamentos y procesos de producción industrial más limpios, e incluso tecnologías para biorremediar contaminaciones, ha permeado muchos aspectos de la vida contemporánea y lo sigue y seguirá haciendo cada día más.

Buscando una mayor soberanía científica y tecnológica para desarrollar los sectores productivos del área de la salud, agropecuaria y del medio ambiente, aquí se describen dos esfuerzos y sus respectivas experiencias: Un centro de biomedicina y otro de Biotecnología agropecuaria.

AGRADECIMIENTOSEl autor agradece el apoyo de los doctores Herminia Martínez Rodríguez, Agnes Revol Richard, Rocío Ortiz López, Augusto Rojas Martínez, Gerardo Padilla Rivas, Ana Maria Rivas Estilla, Francisco Velazquez Vadillo, Diana Reséndez Pérez, Jorge Ascacio, Alberto Mendoza Herrera, Ana María Sifuentes Rincón, Mario Alberto Rodríguez Pérez, Felipe Serrano Medina, Cuauhtémoc Jacques Hernández, C. Patricia Larralde Corona y José Luis Hernández Mendoza.

enfoque a la transformación y modernización del campo mexicano.

Hoy el CBG cuenta ya con una excelente plantilla de investigadores, una espléndida infraestructura experimental, cinco generaciones de brillantes graduados de su programa de maestría, y sus primeras publicaciones internacionales. Lo anterior, como producto de los proyectos vinculados con los sectores productivos públicos y privados de los siguientes laboratorios que lo conforman y que desarrollan las siguientes líneas de investigación (ver el cuadro 2):

Biotecnología Animal

1. Genotipificación de especies animales de interés económico y ecológico.

2. Genotipificación de patógenos (técnica de identificación molecular de variantes de patógenos).

3. Diagnóstico de patógenos (técnicas de detección basadas en PCR y anticuerpos).

Biotecnología Industrial

1. Aislamiento de hongos fitopatógenos del sorgo y de cítricos, y búsqueda de antagonistas (hongos y levaduras).

2. Optimización del cultivo de Azospirillum spp mediante el estudio de flujos metabólicos.

Biotecnología Vegetal

1. Interacción molecular planta– microorganismo.

2. Detección de alimentos genéticamente modificados.

3. Diversidad genética en plantas, hongos y otros organismos.

4. Resistencia genética a enfermedades en cultivos (frijol).

Biotecnología Ambiental

1. Evaluación de contaminantes genotóxicos en agua, suelo y aire mediante el bioensayo con Drosophila melanogaster.

2. Aislamiento y caracterización molecular de bacterias entomopatógenas.

Bioinformática

1. Diseño de Bases de Datos para su aplicación en el mejoramiento genético asistido en ganado bovino de la región Noreste del país.

Mejoramiento Genéticoy de la Salud del Ganado

Mejoramiento de la Producción Agrícola

Mejoramiento Genéticoy de la Salud de los Recursos Pesqueros

Genotoxicidad Ambiental

Contaminación Acuícola

Control biológico de enfermedades

Producción de bio-fertilizantes

AGRICOLAAGRICOLAPECUARIAPECUARIA INDUSTRIALINDUSTRIALAMBIENTALAMBIENTALACUICOLA ACUICOLA

PROBLE

MAS /

OPORTU

NIDADES

TECNOLO

GÍAS

CIENCIA

GenotipificaciónSelección Basada en QTL´s

Diagnóstico Molecular Vacunas

MicropropagaciónHidroponia

Selección de SimbiontesAlternativas de Producción

Evaluación de Riesgo Genotóxico

Diagnóstico de Entropatógenos

Tecnología de FermentacionesEscalamiento de

Procesos

GenotipificaciónSelección Basada en QTL´s

Diagnóstico Molecular Vacunas

Identificación de QTL´sEpidemiología de

InfeccionesResistencia Genética

a Enfermedades

Interacción Planta-Microorg.Resistencia Genética

a EnfermedadesEcologia de Plagas

Control BiológicoGenética de Peces

Resistencia a Infecciones

Microbiología IndustrialBioingeniería

Modelo para Evaluar Genotóxicos

Ecología de EntropatógenosImpacto Ambiental

Cuadro 2. Líneas de investigación en biotecnología genómica del CBG y sus proyectos.

Recapitulando, el modelo que evolucionó en la CBG (ver el cua-dro 3) durante este poco más de su primer lustro de su existen-cia, fue el de iniciar enfocando los esfuerzos primordialmente a las necesidades más importantes de asistencia tecnológica y a los grandes rezagos de formación de recursos humanos, del campo mexicano en el noreste de México. Luego, en base al diagnóstico anterior, identificar las tecnologías que pudieran ser las más eficaces y eficientes para solucionar dichas necesidades y problemas más apremiantes. De la mano, proceder a diseñar el programa de posgrado más idóneo para la misión del Centro, que por lo tanto debería privilegiar una

Paradójicamente, la irrupción de los muchos jóvenes en el siglo pasado tenía un origen preciso y explicito: eran el producto del Baby Boom, que elevó en forma extraordinaria las tasas de natalidad al fin de las zozobras de la Segunda Guerra Mundial.

El crecimiento, menos explosivo pero de mayor duración que el Baby boom, es el de la generación longeva de hoy en día. No es un problema que vaya a desaparecer por el simple paso del tiempo. Se deja de ser joven con sólo que pasen los años. Los ancianos seguirán siendo ancianos, y multiplicándose, con el paso de los años.

Se imponen, pues, soluciones perennes e integrales. Vamos, hay que rediseñar el sistema jurídico, el proceso laboral, la asistencia social y el sistema económico.

MARCO JURÍDICOHay que modificar las regulaciones para reactivar a los mayores de edad como sujetos de crédito. Conforme a las reglas actuales, una persona mayor de 65 años, así siga trabajando y tenga buenas expectativas de vida, no puede tramitar una tarjeta de crédito o un préstamo bancario o hipotecario.

Si es un hecho que el adulto mayor ve reducidos sus ingresos drásticamente cuando cesa su trabajo formal, deben proveerse salidas fiscales para eximir sus ingresos de la carga normal de impuestos. Cancelárselos como una aportación del estado a su bienestar.

Hay que legislar exenciones para las familias que den alojamiento y alimentos a los abuelos. Eximir a las empresas que contratan adultos mayores de las prestaciones aplicables a ellos, como el Infonavit, el IMSS y los impuestos sobre nóminas. Dejarlos que conviertan esas prestaciones en la reducción de la jornada y aun de la cantidad de días a la semana que laboran esos adultos mayores.

LA CIUDADDebe legislarse normatividad exigible a los ayuntamientos y a los gobiernos estatales, que los alienten a crear zonas peatonales, dar diseño más amigable a pasos peatonales, a los omnibuses, a las aceras, a los edificios públicos.

En aeropuertos y centrales de autobuses, exigir que haya desfibriladores de urgencia en las áreas públicas, para atender a ese segmento vulnerable de la población; tal y como ya se hace en otros países.

LA CASAEstimular la creatividad de los constructores de vivienda para que diseñen modelos transgeneracionales: que sirvan a la familia durante toda su vida, sin importar la edad de los habitantes.

Subsidiar a los adultos mayores para el rediseño amigable de sus viviendas ya existentes; cancelar desniveles, suavizar las puertas y ventanas, dotar de barras los baños y los corredores, colocar botones de aviso para pedir auxilio médico.

OCUPACIONNo es válido ver a los adultos mayores como becarios en vacaciones., Esto es, sólo pensar en su entretenimiento y subsistencia simple.

Hay que verlos como adultos con experiencias por compartir, maestros para los aprendices, asesores para los activos. Vaya, crear bolsas de trabajo temporal, de tiempo reducido, a domicilio.

Crear sistemas de turismo regional., como los que operan estupendamente en Chile. Turismo barato, adecuado a las

fuerzas disminuidas de los usuarios, en transportes cómodos y recorridos considerados.

Las Casas del Abuelo, como las de Cuba, deben proveer entretenimiento pero también ocupaciones y adiestramiento para una nueva “carrera”, así como cursos para enriquecer la vida espiritual y educar la sensibilidad frente a las expresiones artísticas.

Siguiendo el ejemplo de las facilidades que se dan a los invidentes con libros en Braille, auspiciar la edición de periódicos, revistas y libros en tipografía de buen tamaño. Reabrirles, así, el arcón de la imaginación.

ASISTENCIA A LA SALUDHay que acelerar la formación de médicos y enfermeras con énfasis gerontólogico y geriátrico.

Las enfermedades crónicas de los adultos mayores, el cuidado de su salud y la supervisión de prácticas personales sanas demandan la atención de personal capacitado especialmente para atender a los mayores. Atenderlos con una empatía educada y sensible.

Establecer depósitos de auxiliares para la locomoción, como sillas de ruedas, bastones, muletas, camas de hospital, andadores; disponibles con cuotas de mera amortización.

Multiplicar las opciones de visitas médicas y de enfermera a los domicilios de los mayores con dificultades de desplazamiento.

Sólo hemos enumerado algunas de las acciones que se deben instrumentar para la atención integral del adulto mayor. Para dimensionar el problema en su justa proporción y darle un enfoque científico y social hay que alentar la investigación.

Y hacerlo pronto. Porque hay un anciano que ya empieza a posesionarse de nuestro espejo.

52 5

Molecular en el país y Latino América. También han generado la capacidad para traducir este conocimiento genómico en aplicaciones diagnósticas, que se ofrecen ya al público en la forma de una treintena de pruebas diagnósticas de enfermedades mendelianas, oncológicas e infecciosas; asimismo, para intentar nuevos procesos para generar nuevos productos terapéuticos, como la referida HGH recombinante producida en levaduras, así como los nuevos vectores adenovirales de replicación selectiva para tumores, cuya

solicitud de patente ha sido recientemente enviada al Instituto Mexicano de la Propiedad Industrial. Recapitulando, el modelo que evolucionó en la ULIEG (ver el cuadro 1) durante estas dos décadas, fue el enfocar los esfuerzos primordialmente a la consolidación de la investigación básica en varias ramas afines de las ciencias biomédicas, cultivando las tecnologías emanadas de dicha investigación e incursionando en la aplicación de éstas en las industrias farmacéutica y biotecnológica nacionales.

Cuadro 1. Desarrollo y aplicación del conocimiento genómico biomédico en la ULIEG.

Familia GH del Genoma

Humano

Genómica

Celular

Genética

Molecular

Salud

Industrial

Clonación y evolución Génetica

Regulación Génica

Estudio de dis-función génica

Desarrollo de nuevas terapias

Optimización de pruebas diagnósticas

Clonación y expre-srón en levaduras

Descubrimiento denuevas GHs.

Control de la producción Transgénica de GHs.

Diagnóstico de enfer-medades genéticas

Protocolos de Terapia génica del cáncer

El Servicio Diagnóstico

Nueva patentepara producir HGHr

Biología

Medicina

Biotecnología

TEMAAPLICACIONES

CIENCIA RAMA TECNOLOGÍA

2. MINERÍA GENÓMICA ALIMENTARIADurante la consolidación de la ULIEG, colaboraciones exitosas en las que se incursionó en los campos pecuario y agrícola, alimentaron la idea de fundar un Centro de Investigación en Biotecnología Moderna en dichos campos, en el noreste del país. Luego de tocar muchas puertas, la oportunidad se presentó en la ciudad de Reynosa en 1999, donde el IPN había construído un par de años atrás un espléndido edificio, el cual propusimos convertir en el CBG. El planeamiento lo sustentamos con la confianza que nos daban la experiencia acumulada, tecnología desarrollada, investigadores formados y redes de colaboraciones con centros de investigación en el país y del extranjero, que habíamos alcanzado en la ULIEG; y lo justificamos con las siguientes cuatro razones principales:

Primero, aportar un nuevo Centro donde al menos se tuviera la capacidad para traducir oportunamente los descubrimientos genómicos en nuevas biotecnologías.Segundo, centrar las preocupaciones y esfuerzos de los investigadores al servicio de la solución de necesidades de los sectores productivos del campo mexicano, buscando agregar valor a sus productos con innovaciones biotecnológicas; y las del equipo administrativo en servir a los investigadores, para favorecer el éxito de la misión del equipo de investigación.Tercero, capitalizar en las oportunidades que representa el poder aliarse con los excelentes centros de investigación afines instalados en el sureste de los Estados Unidos.Cuarto, ofrecer a la juventud del noreste de México una nueva opción de educación de posgrado pertinente y vanguardista, que abra los cauces a todo este talento y lo

Durante 35 años, el Consejo Nacional de Fomento Educativo (CONAFE) ha brindado servicios educativos a la población que por distintos motivos no es atendida por el sistema tradicional. La memoria de

esa actividad, que se realiza a lo largo y ancho del país, permanecerá como parte de una colección fotográfica que se presenta desde el viernes 18 de agosto en las arcadas del Museo Metropolitano de Monterrey.

La licenciada Elvira Lozano de Todd, directora del espacio cultural, inauguró la exhibición en una ceremonia en la que también participaron funcionarios del CONAFE, entre quienes se encontraban el ingeniero Gustavo Rubén García, delegado en Nuevo León; el ingeniero Marco Julio Linares, director de Medios y Publicaciones, y el licenciado Alfredo Jacob Vilalta, subdirector de Educación Inicial y autor de las fotografías que integran la misma.

“Estas fotografías son parte del archivo documental del CONAFE; es una memoria de los diversos aspectos del programa implementado hace más de tres décadas y que tiene como objetivo ofrecer un modelo de educación para la vida”, explicó Linares.

IMPORTANTE ESFUERZO EDUCATIVOEn las fotografías se pueden apreciar distintos aspectos de las actividades que realizan los instructores comunitarios, la infraestructura que proporcionan las comunidades y parte del extenso paisaje en donde se desarrolla este esfuerzo educativo que ofrece el CONAFE.

“A través del CONAFE, los niños de las comunidades más pobres y marginadas del país tienen acceso a una educación inicial de calidad y a la adquisición de competencias que les den las bases para que se desarrollen en el futuro y abrirles más posibilidades para que vivan mejor”, puntualizó Linares.

Para Jacob, autor de las fotografías, las imágenes son parte del banco documental con que cuenta el CONAFE, y se toman como parte del plan de trabajo de la institución. “Fue toda una labor de logística desarrollada durante más de un año”,

explicó el funcionario, “durante el cual se visitaron los 31 estados de la República, donde se hicieron las fotografías con cuatro temáticas: infraestructura de educación inicial, materiales didácticos, acceso a las comunidades, y padres de familia, educadores y educandos”.

Durante su trabajo estuvo en contacto con la gente más humilde, pero no por ello menos valiosa de este país. Mencionó entre otros a jornaleros, niños migrantes, cirqueros, habitantes de comunidades indígenas, quienes al igual que los paisajes de zonas rurales lejanas fueron el objeto de esta exhibición fotográfica.

CONAFE NUEVO LEÓNCon la educación a niños que habitan las comunidades aisladas y de alta marginalidad, el CONAFE destaca su compromiso de brindar servicio educativo desde preescolar a sexto de primaria, explicó García.

Bajo la titularidad del doctor Roberto Moreira Flores, el CONAFE atiende actualmente a más de un millón 200 mil estudiantes en todo el país, y ofrece útiles, materiales educativos y equipos en 17 mil espacios regulares, además de los sitios que se adecuan para ofrecer este servicio a las distintas comunidades.

Para dar este servicio, el CONAFE proporciona capacitación, apoyo económico a los instructores que ejercen como docentes; realiza supervisión técnico-pedagógica; suministra material didáctico y extiende las constancias de estudio correspondientes.

Parte del programa, mencionó el funcionario, es vincular la educación a proyectos productivos y de bienestar social en los que participen los niños con sus familias, a fin de favorecer la aplicación de conocimientos en su vida cotidiana.

En Nuevo León, el CONAFE atiende 567 comunidades, con casi 4 mil alumnos de enseñanza básica y 63 de secundaria; ofrece 105 becas a través del programa FIDUCAR, y cuenta con 577 figuras docentes; es decir, capacitadotes que no son empleados de la institución descentralizada, puntualizó García.

Exhibe CONAFE memoria fotográfica de su labor educativa de 35 años

En las arcadas del Museo Metropolitano

Por Alma Trejo

52 5

Molecular en el país y Latino América. También han generado la capacidad para traducir este conocimiento genómico en aplicaciones diagnósticas, que se ofrecen ya al público en la forma de una treintena de pruebas diagnósticas de enfermedades mendelianas, oncológicas e infecciosas; asimismo, para intentar nuevos procesos para generar nuevos productos terapéuticos, como la referida HGH recombinante producida en levaduras, así como los nuevos vectores adenovirales de replicación selectiva para tumores, cuya

solicitud de patente ha sido recientemente enviada al Instituto Mexicano de la Propiedad Industrial. Recapitulando, el modelo que evolucionó en la ULIEG (ver el cuadro 1) durante estas dos décadas, fue el enfocar los esfuerzos primordialmente a la consolidación de la investigación básica en varias ramas afines de las ciencias biomédicas, cultivando las tecnologías emanadas de dicha investigación e incursionando en la aplicación de éstas en las industrias farmacéutica y biotecnológica nacionales.

Cuadro 1. Desarrollo y aplicación del conocimiento genómico biomédico en la ULIEG.

Familia GH del Genoma

Humano

Genómica

Celular

Genética

Molecular

Salud

Industrial

Clonación y evolución Génetica

Regulación Génica

Estudio de dis-función génica

Desarrollo de nuevas terapias

Optimización de pruebas diagnósticas

Clonación y expre-srón en levaduras

Descubrimiento denuevas GHs.

Control de la producción Transgénica de GHs.

Diagnóstico de enfer-medades genéticas

Protocolos de Terapia génica del cáncer

El Servicio Diagnóstico

Nueva patentepara producir HGHr

Biología

Medicina

Biotecnología

TEMAAPLICACIONES

CIENCIA RAMA TECNOLOGÍA

2. MINERÍA GENÓMICA ALIMENTARIADurante la consolidación de la ULIEG, colaboraciones exitosas en las que se incursionó en los campos pecuario y agrícola, alimentaron la idea de fundar un Centro de Investigación en Biotecnología Moderna en dichos campos, en el noreste del país. Luego de tocar muchas puertas, la oportunidad se presentó en la ciudad de Reynosa en 1999, donde el IPN había construído un par de años atrás un espléndido edificio, el cual propusimos convertir en el CBG. El planeamiento lo sustentamos con la confianza que nos daban la experiencia acumulada, tecnología desarrollada, investigadores formados y redes de colaboraciones con centros de investigación en el país y del extranjero, que habíamos alcanzado en la ULIEG; y lo justificamos con las siguientes cuatro razones principales:

Primero, aportar un nuevo Centro donde al menos se tuviera la capacidad para traducir oportunamente los descubrimientos genómicos en nuevas biotecnologías.Segundo, centrar las preocupaciones y esfuerzos de los investigadores al servicio de la solución de necesidades de los sectores productivos del campo mexicano, buscando agregar valor a sus productos con innovaciones biotecnológicas; y las del equipo administrativo en servir a los investigadores, para favorecer el éxito de la misión del equipo de investigación.Tercero, capitalizar en las oportunidades que representa el poder aliarse con los excelentes centros de investigación afines instalados en el sureste de los Estados Unidos.Cuarto, ofrecer a la juventud del noreste de México una nueva opción de educación de posgrado pertinente y vanguardista, que abra los cauces a todo este talento y lo

Durante 35 años, el Consejo Nacional de Fomento Educativo (CONAFE) ha brindado servicios educativos a la población que por distintos motivos no es atendida por el sistema tradicional. La memoria de

esa actividad, que se realiza a lo largo y ancho del país, permanecerá como parte de una colección fotográfica que se presenta desde el viernes 18 de agosto en las arcadas del Museo Metropolitano de Monterrey.

La licenciada Elvira Lozano de Todd, directora del espacio cultural, inauguró la exhibición en una ceremonia en la que también participaron funcionarios del CONAFE, entre quienes se encontraban el ingeniero Gustavo Rubén García, delegado en Nuevo León; el ingeniero Marco Julio Linares, director de Medios y Publicaciones, y el licenciado Alfredo Jacob Vilalta, subdirector de Educación Inicial y autor de las fotografías que integran la misma.

“Estas fotografías son parte del archivo documental del CONAFE; es una memoria de los diversos aspectos del programa implementado hace más de tres décadas y que tiene como objetivo ofrecer un modelo de educación para la vida”, explicó Linares.

IMPORTANTE ESFUERZO EDUCATIVOEn las fotografías se pueden apreciar distintos aspectos de las actividades que realizan los instructores comunitarios, la infraestructura que proporcionan las comunidades y parte del extenso paisaje en donde se desarrolla este esfuerzo educativo que ofrece el CONAFE.

“A través del CONAFE, los niños de las comunidades más pobres y marginadas del país tienen acceso a una educación inicial de calidad y a la adquisición de competencias que les den las bases para que se desarrollen en el futuro y abrirles más posibilidades para que vivan mejor”, puntualizó Linares.

Para Jacob, autor de las fotografías, las imágenes son parte del banco documental con que cuenta el CONAFE, y se toman como parte del plan de trabajo de la institución. “Fue toda una labor de logística desarrollada durante más de un año”,

explicó el funcionario, “durante el cual se visitaron los 31 estados de la República, donde se hicieron las fotografías con cuatro temáticas: infraestructura de educación inicial, materiales didácticos, acceso a las comunidades, y padres de familia, educadores y educandos”.

Durante su trabajo estuvo en contacto con la gente más humilde, pero no por ello menos valiosa de este país. Mencionó entre otros a jornaleros, niños migrantes, cirqueros, habitantes de comunidades indígenas, quienes al igual que los paisajes de zonas rurales lejanas fueron el objeto de esta exhibición fotográfica.

CONAFE NUEVO LEÓNCon la educación a niños que habitan las comunidades aisladas y de alta marginalidad, el CONAFE destaca su compromiso de brindar servicio educativo desde preescolar a sexto de primaria, explicó García.

Bajo la titularidad del doctor Roberto Moreira Flores, el CONAFE atiende actualmente a más de un millón 200 mil estudiantes en todo el país, y ofrece útiles, materiales educativos y equipos en 17 mil espacios regulares, además de los sitios que se adecuan para ofrecer este servicio a las distintas comunidades.

Para dar este servicio, el CONAFE proporciona capacitación, apoyo económico a los instructores que ejercen como docentes; realiza supervisión técnico-pedagógica; suministra material didáctico y extiende las constancias de estudio correspondientes.

Parte del programa, mencionó el funcionario, es vincular la educación a proyectos productivos y de bienestar social en los que participen los niños con sus familias, a fin de favorecer la aplicación de conocimientos en su vida cotidiana.

En Nuevo León, el CONAFE atiende 567 comunidades, con casi 4 mil alumnos de enseñanza básica y 63 de secundaria; ofrece 105 becas a través del programa FIDUCAR, y cuenta con 577 figuras docentes; es decir, capacitadotes que no son empleados de la institución descentralizada, puntualizó García.

Exhibe CONAFE memoria fotográfica de su labor educativa de 35 años

En las arcadas del Museo Metropolitano

Por Alma Trejo

4 53

Diagnósticos pasados y recientes apuntan a la impostergable urgencia de invertir más en la promoción de grupos, centros, posgrados y esfuerzos verdaderos de desarrollo y transferencia de biotecnologías a los sectores productivos nacionales, preferentemente. La solución demanda el apoyo de los grupos académicos mejor consolidados y con mayor visión emprendedora del país, y acciones audaces del sector gobierno para catalizar proyectos de vinculación efectiva academia-empresa.

El noreste de México es terreno fértil para empresas científicas, tecnologías y espíritu emprendedor. Así lo justifican la lejanía y frecuente indiferencia del poder central; las adversidades de la naturaleza semidesértica de su entorno; la influencia pragmática y mercantilista del país vecino del norte; la escasa tradición científica, lenta proliferación de grupos y aún débil coherencia de éstos; la pujanza de los grupos industriales autóctonos, así como la relativamente menor burocratización y politización de las instituciones académicas de nivel superior de la región.

El autor concibió el término Biotecnología Genómica en 1999, para referirse a las aplicaciones que vislumbraba se derivarían de los proyectos genómicos de las plantas, animales y microorganismos en curso o por iniciarse al cierre del siglo pasado. Igual hizo con el término Minería Genómica, para referirse a la búsqueda y valoración en los genomas, de genes y sus partes como potencial de aplicación en la Biotecnología Genómica.

En tales circunstancias, y confiado en que sería fácil encontrar líderes de opinión que compraran y apoyaran la pretenciosa idea de forjar instituciones líderes de la biotecnología en la región, el autor encabezó con sus colegas profesores y estudiantes de posgrado, la aventura de desarrollar y aplicar la biotecnología genómica en el noreste de México. De esta experiencia emanaron dos estrategias que se describen a continuación y que, como se verá, al final llegan al mismo punto: hacer ciencia vanguardista que contribuya a formar buenos investigadores, para que los investigadores, sus estudiantes y técnicos, en equipo y apoyados por una administración comprometida, consigan transferir los descubrimientos e invenciones de la era genómica en aplicaciones biomédicas y biotecnológicas que aporten soluciones a los problemas de importancia en la región.

1. MINERÍA GENÓMICA BIOMÉDICAEn abril de 2003, a 50 años del descubrimiento de la estructura del DNA, se concluye el Proyecto del Genoma Huma-no, después de casi 15 años de haber sido concebido. Durante todo este tiempo, numerosos avances y descubrimientos han sido piezas clave para agilizar la elucidación de la enciclopedia hereditaria de nuestra especie. Hoy se avanza en el inventario e identificación de sus genes, en la descripción de los patrones de expresión de éstos y en tratar de entender los roles y las interacciones entre sí de las proteínas que codifican.

Al participar en la década de 1980 en el proyecto de secuenciación del locus hGH (66 mil 500 nucleótidos) que alberga a los genes de las hormonas del crecimiento (HGH) y lactogénica placentaria (HPL, también conocida como

somatotropina coriónica) humanas, considerado en su momento un record mundial de la secuenciación manual más extensa de una región del genoma humano y evidencia de la factibilidad del Proyecto del Genoma Humano, nuestro laboratorio en Monterrey inauguró la era genómica con una serie de descubrimientos e invenciones (10) que han consolidado sus programas de investigación, posgrado y desarrollo tecnológico.

DESCUBRIMIENTOS E INNOVACIONES TECNOLÓGICASLas diferentes facetas del modelo de investigación y los logros de los proyectos representativos de cada uno de los laboratorios de la ULIEG, desde los cuales el autor y sus colegas de la Facultad de Medicina de la UANL suman y complementan sus conocimientos y destrezas, se ilustran con los siguientes descubrimientos e innovaciones tecnológicas claves que han resultado de tales proyectos:

1. En el Laboratorio de Genómica y Bioinformática se han aislado genes y regiones intergénicas de loci GH de primates, para determinar la estructura de dichos loci y así poder contribuir al entendimiento de la evolución de esta familia génica y al surgimiento de los genes que ahora consituyen el locus respectivo en el genoma humano.

2. En el Laboratorio de Biología Celular se han caracterizado los principales elementos de DNA que controlan la expresión y especificidad tisular de los genes miembros de la familia, a fin de entender cómo fue que cuando el gen ancestral GH se duplicó, la copia eventualmente adquirió funciones en la placenta y allí metabolitos diferentes a los de la glándula pituitaria controlaron la expresión de su nuevo producto: el HPL.

3. En el laboratorio de Genética Molecular se desarrolló un nuevo método para diagnosticar deleciones de los genes de la familia hGH-hPL, con el cual se diagnostican las deficiencias aisladas familiares de las respectivas hormonas codificadas por éstos, siendo de particular importancia la detección de la deleción del gen para HGH, pues de no tratarse se instalaría un enanismo severo y de tratarse habría que esperar posibles complicaciones por el rechazo inmune a la forma recombinante de la hormona.

4. En el Laboratorio de Medicina Molecular se han desarrollado vectores para terapia génica con selectividad para células tumorales de origen hipofisiarios, con los que podrán explorarse nuevos enfoques menos invasivos de tratamiento para los tumores de dicha glándula.

5. En el Laboratorio de Biotecnología se han producido en levaduras las proteínas codificadas por los genes miembros de la familia humana, así como por los genes GHs de varios animales. De hecho, al demostrar que dichas levaduras fueron capaces de producir, secretar, madurar, plegar y por ende generar la hormona en forma abundante y biológicamente activa, se consiguió proteger el nuevo proceso en México y Estados Unidos mediante una patente.

Estos esfuerzos de investigación han propiciado colaboracio-nes que han impulsado el desarrollo de la Genética Humana

Por Carlos Joloy

El Consejo de Participación Ciudadana de Ciencia y Tecnología celebró el pasado 17 de agosto su tercera reunión ordinaria, en la cual se presentaron los avances de importantes proyectos de la dependencia, como

la actualización en el congreso BioMonterrey y en el Sistema Estatal de Información e Interacción Científica y Tecnológica (SEIICYT).

En cuanto al tema del Congreso Internacional que se realizará en la ciudad a partir del 20 de septiembre, el doctor Luis Eugenio Todd, director general de la Coordinación de Ciencia y Tecnología, informó que a menos de un mes de distancia para celebrar el evento, se incluyeron nuevas estrategias de difusión como la Bioferia Infantil, esfuerzo con el que se pretende incluir a los niños en la temática de BioMonterrey 2006 mediante la instalación de módulos interactivos de enseñanza.

“Vamos a hacer un sistema en la parte de abajo de Cintermex, donde los niños van a entrar por una especie de corredor interactivo, y estamos ya planeando con investigadores esa exposición”, señaló el funcionario.

DESTACADOS CONFERENCISTAS EN BIOMONTERREYTodd solicitó a los miembros del Consejo participar en la difusión del Congreso, cada uno desde su propia área de influencia, y además les recomendó considerar nuevos eventos para aprovechar la visita de los importantes conferencistas que participarán en BioMonterrey. En cuanto al Sistema Estatal de

Información, Luis Carlos Aceves, realizó una presentación mediante la cual explicó a los asistentes el funcionamiento de esta herramienta, que permite la recolección de información de científicos y tecnólogos en el estado, les permite estar en contacto para formar comunidades sobre temas específicos y también agrupa a representantes de empresas, para así formar un sistema que recolecte la oferta y la demanda de profesionistas y trabajos en Nuevo León.

CREACIÓN DE NUEVAS COMUNIDADES“En las actividades a realizar tenemos que fomentar el crecimiento de esta base de datos, tenemos que incentivar la creación de nuevas comunidades ya que no nos va a servir de mucho el tener el registro si no hay interacción y así tener también un banco de recursos de información”, dijo Todd.

A pesar de que aún no inicia el programa de difusión para dar a conocer el sistema abiertamente, Aceves agregó que ya existen 121 miembros activos y 102 solicitantes registrados en el SEIICYT, que han llegado por medios propios.

Durante la sesión del Consejo se acordó apoyar la creación de un comité interinstitucional coordinado por José A. Galván, para desarrollar las bases de un concurso, mediante el cual se lanzará una convocatoria a la comunidad para el desarrollo de juguetes educativos infantiles que estimulen el aprendizaje de conceptos científicos y tecnológicos.

Por último se decidió que la próxima reunión del Consejo se llevará a cabo el próximo 20 de octubre.

54 3

Hugo Barrera Saldaña. Nació en Ciudad Miguel Alemán, Tamaulipas. Realizó sus estudios profesionales en la Universidad Autónoma de Nuevo León, por la que es licenciado en Biología. Tiene un doctorado en Ciencias Biomédicas de la Universidad de Texas en Houston, Estados Unidos, y un posdoctorado en Biología Molecular por la Universidad Louis Pasteur de Estrasburgo, en Francia. Asimismo, es especialista en Conversión de Tecnología a Capital por la Universidad de Texas, en Austin, y por el Instituto Tecnológico y de Estudios Superiores de Monterrey.

Propuso, fundó y fue primer director de la Unidad de Laboratorios de Ingeniería y Expresión Genéticas en la Facultad de Medicina de la UANL, y propuso y fue primer director del Centro de Biotecnología Genómica del Instituto Politécnico Nacional en Reynosa, Tamaulipas. Ha impartido cursos en Universidades de México, Latinoamérica y España, y actualmente pertenece al Sistema Nacional de Investigadores, en el nivel III. Es miembro de las Academias Nacional de Medicina y Mexicana de Ciencias; es autor de más de 100 publicaciones en revistas científicas como Nature, Science, Journal of Biological Chemistry, Embo Journal y Molecular Medicine y autor del libro Información Genética, su estructura, función y manipulación (1992); y de la patente No. 965082 “Levaduras metilotróficas modificadas genéticamente para la producción y secreción de la hormona del crecimiento humano”. El año 2003, la revista Nature Medicine le dedicó un perfil en su edición de julio. Ha recibido once premios de investigación de la UANL y 15 de carácter nacional. [email protected].

La materia de la biotecnología moderna es inherentemente cercana a las necesidades primarias del hombre, tales como su salud, alimentación y, cada día más, la calidad de su entorno ecológico. Ciertamente existen productos de ella que la sociedad ya asimiló y mucho valora, aunque todavía no entienda bien los procesos que los generaron. Tales son los casos de las hormonas y otras proteínas con propiedades terapéuticas. Baste citar la insulina y el interferón.

Pero también es menester reconocer que existen áreas de la biotecnología en medio de la controversia e incluso censuradas, por causas ya sea genuinas, de preocupaciones por la confiabilidad en las tecnologías emergentes que las sustentan, como es el caso de la clonación terapéutica (dejando fuera la reproductiva, que ni la misma comunidad científica avala aún) o por otras no genuinas –sino más bien tendenciosas, amarillistas o que responden a intereses comerciales siniestros-, pero efectivas, que han logrado establecer un clima adverso para su desarrollo.

México es un país megadiverso en su fauna y flora, todavía dominado demográficamente principalmente por jóvenes que necesitan de una educación y capacitación que les permitan acceder a mejores trabajos y por ende a mejores niveles de vida. A su vez, posee grupos que, aunque muy pocos, son de calidad mundial en la Biotecnología. Ésta ofrece alternativas para explotar en forma renovable, sustentable y segura la megadiversidad de nuestro país.

REVOLUCIÓN DE LA GENÓMICAEl entorno mundial actual para la industria de los sectores de la salud, agroalimentaria y del ambiente todavía está regido por la oportunidad de derivar aplicaciones de la revolución de la genómica. En este entorno, los sectores productivos públicos, sociales y privados del país requieren urgentemente acabar de ingresar a la globalización con la capacidad de innovar sus productos y procesos para agregarles valor, calidad, inocuidad para el ambiente y mayor competitividad.

En México, una de las principales causas de mortalidad son los accidentes de tráfico, y cada quince minutos muere una persona debido a una lesión de los tejidos causada por agentes mecánicos o ‘trauma’. Atendiendo esta situación, se realizó en Monterrey el “XVII Congreso Nacional de Atención del Trauma: Calidad, Excelencia y Equidad”, organizado por la Asociación Mexicana de Medicina y Cirugía del Trauma.

El evento, que se celebró en el Centro Estudiantil del Tecnológico de Monte-rrey del 17 al 19 de agosto, reunió a importantes exponentes del tema provenientes de diferentes países; durante los primeros dos días, los trabajos se dividieron en cuatro diferentes áreas: emergencias y reanimación, cirugía y terapia intensiva, enfermería y medicina prehospitalaria.

MEDIDAS DE PREVENCIÓNCarlos Arreola Rissa, presidente de la Asociación y del Congreso, explicó que la finalidad de las conferencias fue intercambiar experiencias entre los expertos y los asistentes para proponer una forma más eficiente de atención, ya que consideró que en la mayor parte de los accidentes en que fallecen personas, se llega a la conclusión de que se pudo prevenir el deceso aplicando medidas de prevención diferentes a las actuales.

Con el crecimiento de las ciudades, hay mayor población y se incrementan los factores de riesgo. Por ejemplo, las áreas metropolitanas enfrentan los índices más altos de lesiones

y traumatismos por accidentes, y tristemente, como hemos visto en este congreso, la gran mayoría de las lesiones son prevenibles, pero se tiene que tener la opinión de expertos.

Luego de la participación de 50 expositores nacionales y diez provenientes del extranjero en las diferentes conferencias, en cada uno de los temas se concretaron diversas propuestas; una de ellas fue la de desarrollar y establecer un sistema de integración y respuesta conformado por expertos en la medicina de emergencias y que sea capaz de brindar un mejor y más rápido servicio a las víctimas en accidentes de tráfico, principalmente.

Tiene que establecerse un sistema de integración supervisado por expertos; en un campo tan serio no se puede improvisar, ya que el tiempo hace la diferencia, y debemos tener un sistema que garantice la atención

al paciente en estos casos, dijo Arreola Rissa.

PROPUESTA ANTE LAS AUTORIDADESAgregó que la propuesta será promovida por la Asociación que preside ante las autoridades correspondientes, convirtiendo así el resultado del Congreso en una petición real basada en amplias recomendaciones y experiencias que se trataron en el evento.

Por Carlos Joloy

Carlos Arreola Rissa, presidente del XVII Congreso Nacional de Atención del Trauma

2 55

El también catedrático de la Escuela de Medicina del Tecnológico de Monterrey destacó que además del enfoque al tratamiento de las lesiones, es necesario atacar el problema desde otros frentes, y uno de los más importantes es la prevención. Subrayó la notable influencia que tiene el alcohol en los accidentes de tráfico, por lo cual aseguró que es necesaria una mayor atención por parte de las autoridades en este sentido.

Dijo que más de la mitad de los conductores que chocaron y fallecieron en la ciudad, tenían niveles muy altos de alcohol en la sangre. También hemos identificado como de mayor fatalidad los viernes después de las once de la noche, hasta las horas del domingo en la madrugada.

En cuanto a la problemática de accidentes que ocurren a causa del consumo del alcohol, no sólo en México, sino en todo el mundo, se presentó en el Congreso una conferencia especifica sobre el tema a cargo del doctor Larry Gentilello.

La principal recomendación consiste en que los médicos, al momento de atender a una persona que sufrió un accidente y presente síntomas de haber ingerido alcohol, sean capaces de hablar con ella y convencerla para que sea canalizada a otros tipos de ayuda para prevenir escenarios más graves.

El alcohol es la causa más común del trauma en nuestra sociedad; debemos tomar en cuenta que al prevenir el uso de alcohol en nuestros pacientes podemos disminuir los casos de trauma, explicó.

Ante las diversas recomendaciones que se presentaron, Arreola Rissa se comprometió a dar seguimiento y generar propuestas formales desde la Asociación Mexicana de Medicina y Cirugía del Trauma para que los conocimientos generados en el Congreso puedan ser de utilidad en la prevención y tratamiento del trauma.

Inaugurando la era genómica en el noreste de México, 3

El descubrimiento de fármacos anticancerígenos de origen natural, 7

Formación de redes colaborativas en Biotecnología, 11

Bioinformática intensiva, herramienta insustituible para el biólogo moderno, 14

Bioinformática, ¿qué es y a quién le interesa?, 19

Ingeniería de bioprocesospara la producción de vacunas, 21

Del laboratorio biomédico a la Bioinformática, 24

Organismos transgénicos para uso agrícola en México, 28

Los grandes desafíos del Siglo XXI en materia de Bioseguridad, 31

Seminario: Formaciónde biotecnólogos, 34

Creación de la carrera de Biotecnología Genómica, 35

Forma el CECyTE Nuevo León técnicos en Biotecnología, 39

El desarrollo de las tecnologías de información como apoyo a la bioseguridad, 40

Contenido Conocimiento

Luis Carlos Aceves GutiérrezEs ingeniero en Sistemas Computacionales y tiene una Maestría en Administración, ambos grados académicos del Tecnológico de Monterrey. En esa institución hizo una especialidad en Comercio Electrónico. Es profesor asociado en el Departamento de Ciencias Computacionales de la Universidad de Monterrey (UDEM) y pertenece a la Cámara Nacional de la Industria de Electrónica, Telecomunicaciones e Informática. Ha sido evaluador de empresas de alta tecnología de la Fundación México-Estados Unidos para la Ciencia.

MOctavio Martínez de la VegaEs profesor titular del Departamento de Ingeniería Genética Cinvestav-Unidad Irapuato, institución en la cual también se desempeña como coordinador académico.

Gabriel del Río GuerraEs profesor de Asignatura A, Biología Celular en la Facultad de Ciencias de la Universidad Nacional Autónoma de México, y es responsable del Instituto de Fisiología Celular de la misma institución.

Ariel Álvarez MoralesEs doctor en Genética Molecular por la Universidad de Sussex, Reino Unido, y realizó una estancia posdoctoral en el Instituto de Microbiología del Instituto Politécnico Federal en Zurich, Suiza. Es investigador titular del Departamento de Ingeniería Genética, Unidad Irapuato del Cinvestav Guanajuato.

Alba E. Jofre-GarfiasEs doctora en Ciencias, en Biotecnología de Plantas. Trabaja como investigadora titular del Departamento de Ingeniería Genética, Unidad Irapuato, del Cinvestav Guanajuato.

Autores invitados:

16

3819

54 3

Hugo Barrera Saldaña. Nació en Ciudad Miguel Alemán, Tamaulipas. Realizó sus estudios profesionales en la Universidad Autónoma de Nuevo León, por la que es licenciado en Biología. Tiene un doctorado en Ciencias Biomédicas de la Universidad de Texas en Houston, Estados Unidos, y un posdoctorado en Biología Molecular por la Universidad Louis Pasteur de Estrasburgo, en Francia. Asimismo, es especialista en Conversión de Tecnología a Capital por la Universidad de Texas, en Austin, y por el Instituto Tecnológico y de Estudios Superiores de Monterrey.

Propuso, fundó y fue primer director de la Unidad de Laboratorios de Ingeniería y Expresión Genéticas en la Facultad de Medicina de la UANL, y propuso y fue primer director del Centro de Biotecnología Genómica del Instituto Politécnico Nacional en Reynosa, Tamaulipas. Ha impartido cursos en Universidades de México, Latinoamérica y España, y actualmente pertenece al Sistema Nacional de Investigadores, en el nivel III. Es miembro de las Academias Nacional de Medicina y Mexicana de Ciencias; es autor de más de 100 publicaciones en revistas científicas como Nature, Science, Journal of Biological Chemistry, Embo Journal y Molecular Medicine y autor del libro Información Genética, su estructura, función y manipulación (1992); y de la patente No. 965082 “Levaduras metilotróficas modificadas genéticamente para la producción y secreción de la hormona del crecimiento humano”. El año 2003, la revista Nature Medicine le dedicó un perfil en su edición de julio. Ha recibido once premios de investigación de la UANL y 15 de carácter nacional. [email protected].

La materia de la biotecnología moderna es inherentemente cercana a las necesidades primarias del hombre, tales como su salud, alimentación y, cada día más, la calidad de su entorno ecológico. Ciertamente existen productos de ella que la sociedad ya asimiló y mucho valora, aunque todavía no entienda bien los procesos que los generaron. Tales son los casos de las hormonas y otras proteínas con propiedades terapéuticas. Baste citar la insulina y el interferón.

Pero también es menester reconocer que existen áreas de la biotecnología en medio de la controversia e incluso censuradas, por causas ya sea genuinas, de preocupaciones por la confiabilidad en las tecnologías emergentes que las sustentan, como es el caso de la clonación terapéutica (dejando fuera la reproductiva, que ni la misma comunidad científica avala aún) o por otras no genuinas –sino más bien tendenciosas, amarillistas o que responden a intereses comerciales siniestros-, pero efectivas, que han logrado establecer un clima adverso para su desarrollo.

México es un país megadiverso en su fauna y flora, todavía dominado demográficamente principalmente por jóvenes que necesitan de una educación y capacitación que les permitan acceder a mejores trabajos y por ende a mejores niveles de vida. A su vez, posee grupos que, aunque muy pocos, son de calidad mundial en la Biotecnología. Ésta ofrece alternativas para explotar en forma renovable, sustentable y segura la megadiversidad de nuestro país.

REVOLUCIÓN DE LA GENÓMICAEl entorno mundial actual para la industria de los sectores de la salud, agroalimentaria y del ambiente todavía está regido por la oportunidad de derivar aplicaciones de la revolución de la genómica. En este entorno, los sectores productivos públicos, sociales y privados del país requieren urgentemente acabar de ingresar a la globalización con la capacidad de innovar sus productos y procesos para agregarles valor, calidad, inocuidad para el ambiente y mayor competitividad.

En México, una de las principales causas de mortalidad son los accidentes de tráfico, y cada quince minutos muere una persona debido a una lesión de los tejidos causada por agentes mecánicos o ‘trauma’. Atendiendo esta situación, se realizó en Monterrey el “XVII Congreso Nacional de Atención del Trauma: Calidad, Excelencia y Equidad”, organizado por la Asociación Mexicana de Medicina y Cirugía del Trauma.

El evento, que se celebró en el Centro Estudiantil del Tecnológico de Monte-rrey del 17 al 19 de agosto, reunió a importantes exponentes del tema provenientes de diferentes países; durante los primeros dos días, los trabajos se dividieron en cuatro diferentes áreas: emergencias y reanimación, cirugía y terapia intensiva, enfermería y medicina prehospitalaria.

MEDIDAS DE PREVENCIÓNCarlos Arreola Rissa, presidente de la Asociación y del Congreso, explicó que la finalidad de las conferencias fue intercambiar experiencias entre los expertos y los asistentes para proponer una forma más eficiente de atención, ya que consideró que en la mayor parte de los accidentes en que fallecen personas, se llega a la conclusión de que se pudo prevenir el deceso aplicando medidas de prevención diferentes a las actuales.

Con el crecimiento de las ciudades, hay mayor población y se incrementan los factores de riesgo. Por ejemplo, las áreas metropolitanas enfrentan los índices más altos de lesiones

y traumatismos por accidentes, y tristemente, como hemos visto en este congreso, la gran mayoría de las lesiones son prevenibles, pero se tiene que tener la opinión de expertos.

Luego de la participación de 50 expositores nacionales y diez provenientes del extranjero en las diferentes conferencias, en cada uno de los temas se concretaron diversas propuestas; una de ellas fue la de desarrollar y establecer un sistema de integración y respuesta conformado por expertos en la medicina de emergencias y que sea capaz de brindar un mejor y más rápido servicio a las víctimas en accidentes de tráfico, principalmente.

Tiene que establecerse un sistema de integración supervisado por expertos; en un campo tan serio no se puede improvisar, ya que el tiempo hace la diferencia, y debemos tener un sistema que garantice la atención

al paciente en estos casos, dijo Arreola Rissa.

PROPUESTA ANTE LAS AUTORIDADESAgregó que la propuesta será promovida por la Asociación que preside ante las autoridades correspondientes, convirtiendo así el resultado del Congreso en una petición real basada en amplias recomendaciones y experiencias que se trataron en el evento.

Por Carlos Joloy

Carlos Arreola Rissa, presidente del XVII Congreso Nacional de Atención del Trauma

2 55

El también catedrático de la Escuela de Medicina del Tecnológico de Monterrey destacó que además del enfoque al tratamiento de las lesiones, es necesario atacar el problema desde otros frentes, y uno de los más importantes es la prevención. Subrayó la notable influencia que tiene el alcohol en los accidentes de tráfico, por lo cual aseguró que es necesaria una mayor atención por parte de las autoridades en este sentido.

Dijo que más de la mitad de los conductores que chocaron y fallecieron en la ciudad, tenían niveles muy altos de alcohol en la sangre. También hemos identificado como de mayor fatalidad los viernes después de las once de la noche, hasta las horas del domingo en la madrugada.

En cuanto a la problemática de accidentes que ocurren a causa del consumo del alcohol, no sólo en México, sino en todo el mundo, se presentó en el Congreso una conferencia especifica sobre el tema a cargo del doctor Larry Gentilello.

La principal recomendación consiste en que los médicos, al momento de atender a una persona que sufrió un accidente y presente síntomas de haber ingerido alcohol, sean capaces de hablar con ella y convencerla para que sea canalizada a otros tipos de ayuda para prevenir escenarios más graves.

El alcohol es la causa más común del trauma en nuestra sociedad; debemos tomar en cuenta que al prevenir el uso de alcohol en nuestros pacientes podemos disminuir los casos de trauma, explicó.

Ante las diversas recomendaciones que se presentaron, Arreola Rissa se comprometió a dar seguimiento y generar propuestas formales desde la Asociación Mexicana de Medicina y Cirugía del Trauma para que los conocimientos generados en el Congreso puedan ser de utilidad en la prevención y tratamiento del trauma.

Inaugurando la era genómica en el noreste de México, 3

El descubrimiento de fármacos anticancerígenos de origen natural, 7

Formación de redes colaborativas en Biotecnología, 11

Bioinformática intensiva, herramienta insustituible para el biólogo moderno, 14

Bioinformática, ¿qué es y a quién le interesa?, 19

Ingeniería de bioprocesospara la producción de vacunas, 21

Del laboratorio biomédico a la Bioinformática, 24

Organismos transgénicos para uso agrícola en México, 28

Los grandes desafíos del Siglo XXI en materia de Bioseguridad, 31

Seminario: Formaciónde biotecnólogos, 34

Creación de la carrera de Biotecnología Genómica, 35

Forma el CECyTE Nuevo León técnicos en Biotecnología, 39

El desarrollo de las tecnologías de información como apoyo a la bioseguridad, 40

Contenido Conocimiento

Luis Carlos Aceves GutiérrezEs ingeniero en Sistemas Computacionales y tiene una Maestría en Administración, ambos grados académicos del Tecnológico de Monterrey. En esa institución hizo una especialidad en Comercio Electrónico. Es profesor asociado en el Departamento de Ciencias Computacionales de la Universidad de Monterrey (UDEM) y pertenece a la Cámara Nacional de la Industria de Electrónica, Telecomunicaciones e Informática. Ha sido evaluador de empresas de alta tecnología de la Fundación México-Estados Unidos para la Ciencia.

MOctavio Martínez de la VegaEs profesor titular del Departamento de Ingeniería Genética Cinvestav-Unidad Irapuato, institución en la cual también se desempeña como coordinador académico.

Gabriel del Río GuerraEs profesor de Asignatura A, Biología Celular en la Facultad de Ciencias de la Universidad Nacional Autónoma de México, y es responsable del Instituto de Fisiología Celular de la misma institución.

Ariel Álvarez MoralesEs doctor en Genética Molecular por la Universidad de Sussex, Reino Unido, y realizó una estancia posdoctoral en el Instituto de Microbiología del Instituto Politécnico Federal en Zurich, Suiza. Es investigador titular del Departamento de Ingeniería Genética, Unidad Irapuato del Cinvestav Guanajuato.

Alba E. Jofre-GarfiasEs doctora en Ciencias, en Biotecnología de Plantas. Trabaja como investigadora titular del Departamento de Ingeniería Genética, Unidad Irapuato, del Cinvestav Guanajuato.

Autores invitados:

16

3819

56

Como parte de las actividades de la exhibición “Picasso: Obra Gráfica”, el 21 de agosto se realizó una velada cultural en la

que el pintor mexicano José Luis Cuevas habló sobre la trayectoria del genio de Málaga, y culminó con los poemas llenos de erotismo del chileno Gonzalo Rojas.

En el Auditorio del Museo Metropolitano de Monterrey, en una sala abarrotada, los regiomontanos escucharon dos poemas dichos por el casi nonagenario poeta chileno, quien se autodefinió como un “místico concupiscente”. Rojas cerró su presentación en el recinto al declamar su poema Qedeshim Qedeshoth, expresión que en fenicio significa “cortesana del templo”.

Con ello, Rojas dejó una “probadita” de su obra poética en la que destacan sobre todo el amor, el erotismo y el compromiso social.

Mala suerte acostarse con fenicias, yo me acostécon una en Cádiz belísimay no supe de mi horóscopo hastamucho después cuando el Mediterráneo me empezó a exigirmás y más oleaje…Remando hacia atrás llegué casi exhausto a laduodécima centuria: todo era blanco, las aves,el océano, el amanecer era blanco.

Con su obra, Rojas sigue arriesgándose en una poesía en la que prevalece el tema del amor y del erotismo, sello constante en su obra. “Claro que me gustan las mujeres”, afirmó al público que de buena gana celebró sus ocurrencias.

CONSEJO A LOS APRENDICES: PERSEVERANCIADijo que toda la poesía se hace por circunstancias. “Todo poema tiene un grado de realidad”, insistió, y después recomendó a los aprendices de escritores perseverancia y proseguir en la lectura. La poeta mexicana Janeth Clariond, enlace entre el poeta y las autoridades del Museo, habló al iniciar el evento y se congratuló de la presencia de dos artistas, uno plástico (Cuevas) y otro escritor, por la convergencia y el encuentro en dicho evento.

Al finalizar, la señora de Todd agradeció la presencia del alcalde Edgar Olaiz, por el apoyo para la realización de la velada cultural realizada con dos grandes artistas: Cuevas y Rojas.“Gracias al maestro Cuevas y al maestro Rojas, llevaremos sus reflexiones en el corazón”, dijo.

Por Alma Trejo

EDITORIAL

DESCARTESPienso, luego existo

1596 a 1650

La violencia ha acompañado al hombre durante toda su historia y la ciencia ha permanecido pasiva ante este grave hecho.

Es evidente que en la época actual, el problema de la seguridad se ha convertido en una alta prioridad de los gobiernos y en una de-

manda permanente de la sociedad, ya que la justificación fundamental de la existencia del Estado es cuidar la seguridad de los ciudadanos.

Esta problemática se ha incrementa-do a raíz del terrorismo organizado y de los fundamentalismos, que, según los futurólogos, orillarán gradual-mente al mundo a guerras diferentes de las convencionales descritas en la historia.

La aparición de la energía nuclear, con su enorme capacidad destruc-tiva, así como de las armas bac-teriológicas y químico-tóxicas, o de la alteración de los componentes genéticos en forma perversa a través de la nutrición, son nuevos retos que la maldad humana les está dando, no sólo a los estadistas o políticos y menos aún a los policías tradicionales, sino principalmente a los científicos.

Por esa razón, el tema de la Bioseguridad y de la Bioinformática, que serán tratados en el Congreso Internacional de Biotecnología “Bio-MONTERREY 2006”, son de gran importancia, porque incluirán la integración de los nuevos avances en el DNA en la prevención de delitos, el control de plagas integrado a un sistema de defensa y seguridad nacional, y también comunitario e individual, que serán factores funda-

mentales del quehacer de la ciencia futura adaptada a la cultura de la paz.

Integrar los nuevos avances en Biotec-nología para un tratamiento más racional de la criminalidad y de la prevención de los delitos, así como apoyar el sistema judicial, cuya impartición de justicia se ve menguado por la falta de ciencia moderna que permita diagnósticos cere-brales sobre la veracidad de los dichos o hechos, son otras ventanas hacia el

horizonte de una nueva Bioseguridad para nuestras familias.

Ésta es un área muy importante, y por esa razón, durante el congreso, será tratada por expertos nacionales y extranjeros, en busca de nuevos rumbos para ampliar la influencia del conocimiento sobre esta temática, tan candente en la época actual, en donde la violencia recibe el apoyo de la tecnología, pero sin el marco ético que la prevenga.

CONSEJO EDITORIALIngeniero Juan Antonio González AréchigaPresidenteLicenciado Omar Cervantes RodríguezDirector de ComunicaciónSocial del Gobierno del EstadoIngeniero Xavier Lozano MartínezM. C. Silvia Patricia Mora CastroDoctor Mario César Salinas CarmonaDoctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

DIRECTORIOIngeniero Antonio Zárate NegrónDirector del Programa Ciudad Internacional Del ConocimientoDoctor Luis Eugenio ToddDirector General

LA REVISTA CONOCIMIENTO ES EDITADA POR LA COORDINACIÓN DE CIENCIA Y TECNOLOGÍA DE NUEVO LEÓN, Y ABRE SUS PÁGINAS A LAS INSTITUCIONES DE EDUCACIÓN SUPERIOR PARA LA PUBLICACIÓN DE ARTÍCULOS Y NOTICIAS DE CARÁCTER CIENTÍFICO. TELÉFONOS EN LA REDACCIÓN: 83 46 74 99 Y 83 46 73 51 [email protected] REGISTRO SOLICITADO PREVIAMENTE CON EL NOMBRE DE CONOCIMIENTO.

LAS OPINIONES EXPRESADAS EN LOS ARTÍCULOS SON RESPONSABILIDAD EXCLUSIVA DE SUS AUTORES.

Félix Ramos GamiñoDirector EditorialMaestro Rodrigo SotoSecretario EditorialProfesor Ismael Vidales DelgadoEducaciónLicenciado Juan Roberto ZavalaCiencia en FamiliaDoctor Jorge N. Valero GilCiencias Económicas y SocialesDoctor Juan Lauro AguirreCiencias Básicas y del AmbienteIngeniero Gabriel ToddDesarrollo Urbano y SocialDoctor David Gómez AlmaguerCiencias MédicasContador Público José Cárdenas CavazosCiencias Políticas y/o de Administración Pública

Doctora Liliana Patricia Cerda PérezCiencias de la ComunicaciónLicenciados Jorge Pedraza yClaudia OrdazLa Ciencia es CulturaDoctor Óscar Salas FraireEducación Física y DeporteDoctor Mario César SalinasLas Universidades y la CienciaLicenciada Alma TrejoLicenciado Carlos JoloyRedacciónLicenciado Víctor Eduardo Armendáriz RuizDiseñadorArquitecto Rafael Adame DoriaArte GráficoProfesor Oliverio Anaya RodríguezCirculación y Administración

56

Como parte de las actividades de la exhibición “Picasso: Obra Gráfica”, el 21 de agosto se realizó una velada cultural en la

que el pintor mexicano José Luis Cuevas habló sobre la trayectoria del genio de Málaga, y culminó con los poemas llenos de erotismo del chileno Gonzalo Rojas.

En el Auditorio del Museo Metropolitano de Monterrey, en una sala abarrotada, los regiomontanos escucharon dos poemas dichos por el casi nonagenario poeta chileno, quien se autodefinió como un “místico concupiscente”. Rojas cerró su presentación en el recinto al declamar su poema Qedeshim Qedeshoth, expresión que en fenicio significa “cortesana del templo”.

Con ello, Rojas dejó una “probadita” de su obra poética en la que destacan sobre todo el amor, el erotismo y el compromiso social.

Mala suerte acostarse con fenicias, yo me acostécon una en Cádiz belísimay no supe de mi horóscopo hastamucho después cuando el Mediterráneo me empezó a exigirmás y más oleaje…Remando hacia atrás llegué casi exhausto a laduodécima centuria: todo era blanco, las aves,el océano, el amanecer era blanco.

Con su obra, Rojas sigue arriesgándose en una poesía en la que prevalece el tema del amor y del erotismo, sello constante en su obra. “Claro que me gustan las mujeres”, afirmó al público que de buena gana celebró sus ocurrencias.

CONSEJO A LOS APRENDICES: PERSEVERANCIADijo que toda la poesía se hace por circunstancias. “Todo poema tiene un grado de realidad”, insistió, y después recomendó a los aprendices de escritores perseverancia y proseguir en la lectura. La poeta mexicana Janeth Clariond, enlace entre el poeta y las autoridades del Museo, habló al iniciar el evento y se congratuló de la presencia de dos artistas, uno plástico (Cuevas) y otro escritor, por la convergencia y el encuentro en dicho evento.

Al finalizar, la señora de Todd agradeció la presencia del alcalde Edgar Olaiz, por el apoyo para la realización de la velada cultural realizada con dos grandes artistas: Cuevas y Rojas.“Gracias al maestro Cuevas y al maestro Rojas, llevaremos sus reflexiones en el corazón”, dijo.

Por Alma Trejo

EDITORIAL

DESCARTESPienso, luego existo

1596 a 1650

La violencia ha acompañado al hombre durante toda su historia y la ciencia ha permanecido pasiva ante este grave hecho.

Es evidente que en la época actual, el problema de la seguridad se ha convertido en una alta prioridad de los gobiernos y en una de-

manda permanente de la sociedad, ya que la justificación fundamental de la existencia del Estado es cuidar la seguridad de los ciudadanos.

Esta problemática se ha incrementa-do a raíz del terrorismo organizado y de los fundamentalismos, que, según los futurólogos, orillarán gradual-mente al mundo a guerras diferentes de las convencionales descritas en la historia.

La aparición de la energía nuclear, con su enorme capacidad destruc-tiva, así como de las armas bac-teriológicas y químico-tóxicas, o de la alteración de los componentes genéticos en forma perversa a través de la nutrición, son nuevos retos que la maldad humana les está dando, no sólo a los estadistas o políticos y menos aún a los policías tradicionales, sino principalmente a los científicos.

Por esa razón, el tema de la Bioseguridad y de la Bioinformática, que serán tratados en el Congreso Internacional de Biotecnología “Bio-MONTERREY 2006”, son de gran importancia, porque incluirán la integración de los nuevos avances en el DNA en la prevención de delitos, el control de plagas integrado a un sistema de defensa y seguridad nacional, y también comunitario e individual, que serán factores funda-

mentales del quehacer de la ciencia futura adaptada a la cultura de la paz.

Integrar los nuevos avances en Biotec-nología para un tratamiento más racional de la criminalidad y de la prevención de los delitos, así como apoyar el sistema judicial, cuya impartición de justicia se ve menguado por la falta de ciencia moderna que permita diagnósticos cere-brales sobre la veracidad de los dichos o hechos, son otras ventanas hacia el

horizonte de una nueva Bioseguridad para nuestras familias.

Ésta es un área muy importante, y por esa razón, durante el congreso, será tratada por expertos nacionales y extranjeros, en busca de nuevos rumbos para ampliar la influencia del conocimiento sobre esta temática, tan candente en la época actual, en donde la violencia recibe el apoyo de la tecnología, pero sin el marco ético que la prevenga.

CONSEJO EDITORIALIngeniero Juan Antonio González AréchigaPresidenteLicenciado Omar Cervantes RodríguezDirector de ComunicaciónSocial del Gobierno del EstadoIngeniero Xavier Lozano MartínezM. C. Silvia Patricia Mora CastroDoctor Mario César Salinas CarmonaDoctora Diana Reséndez PérezDoctor Alan Castillo RodríguezIngeniero Jorge Mercado Salas

DIRECTORIOIngeniero Antonio Zárate NegrónDirector del Programa Ciudad Internacional Del ConocimientoDoctor Luis Eugenio ToddDirector General

LA REVISTA CONOCIMIENTO ES EDITADA POR LA COORDINACIÓN DE CIENCIA Y TECNOLOGÍA DE NUEVO LEÓN, Y ABRE SUS PÁGINAS A LAS INSTITUCIONES DE EDUCACIÓN SUPERIOR PARA LA PUBLICACIÓN DE ARTÍCULOS Y NOTICIAS DE CARÁCTER CIENTÍFICO. TELÉFONOS EN LA REDACCIÓN: 83 46 74 99 Y 83 46 73 51 [email protected] REGISTRO SOLICITADO PREVIAMENTE CON EL NOMBRE DE CONOCIMIENTO.

LAS OPINIONES EXPRESADAS EN LOS ARTÍCULOS SON RESPONSABILIDAD EXCLUSIVA DE SUS AUTORES.

Félix Ramos GamiñoDirector EditorialMaestro Rodrigo SotoSecretario EditorialProfesor Ismael Vidales DelgadoEducaciónLicenciado Juan Roberto ZavalaCiencia en FamiliaDoctor Jorge N. Valero GilCiencias Económicas y SocialesDoctor Juan Lauro AguirreCiencias Básicas y del AmbienteIngeniero Gabriel ToddDesarrollo Urbano y SocialDoctor David Gómez AlmaguerCiencias MédicasContador Público José Cárdenas CavazosCiencias Políticas y/o de Administración Pública

Doctora Liliana Patricia Cerda PérezCiencias de la ComunicaciónLicenciados Jorge Pedraza yClaudia OrdazLa Ciencia es CulturaDoctor Óscar Salas FraireEducación Física y DeporteDoctor Mario César SalinasLas Universidades y la CienciaLicenciada Alma TrejoLicenciado Carlos JoloyRedacciónLicenciado Víctor Eduardo Armendáriz RuizDiseñadorArquitecto Rafael Adame DoriaArte GráficoProfesor Oliverio Anaya RodríguezCirculación y Administración

ww

w.c

on

oci

mie

nto

enli

nea

.com

N

úm

ero 4

0, d

el 1

al

14 d

e se

pti

emb

re d

e 2

006

Autores invitados: Mario Moisés Álvarez, Gabriel del Río, Marco Rito Palomares, Antonio Alí Pérez, Elva Teresa Aréchiga, Ariel Álvarez Morales, Alba E. Jofre Garfias, Octavio Martínez

Director Luis Eugenio Todd

Doctor Federico Mayor Zaragoza: la cultura de la paz y la bioseguridad.

Ley de Bioseguridad de Organismos Genéticamente Modificados Francisco BolívarMÉXICO

Conferencistas internacionales invitados:

Hugo Barrera SaldañaMÉXICO

Sergio Serna SaldívarMÉXICO

Leonardo SantiITALIA

Luciano MilanesiITALIA

Mary Pat MoyerEE.UU.

Bruce HolmEE.UU.

Francisco BolívarMÉXICO

Marco A. MerazMÉXICO

Juan López de SilanesMÉXICO

Carlos Camacho GaosMÉXICO

Rafael Gual CosíoMÉXICO

Re ConocimientoJuan Roberto Zavala

Doctor Mario Moisés ÁlvarezAutor de numerosos artículos científicos publicados en revistas especializadas, como: Chemical Engineering Science y Journal of Chemical Engineering, y de diversos capítulos en libros como Industrialization of Indigenous Fermented Foods, editorial Marcel Decaer (2004) y Handbook of Industrial Mixing, Science and Practice, editorial Wiley-Interscience (2004), Mario Moisés Álvarez es investigador en las áreas de bioquímica, ingeniería química y bioquímica y física. Actualmente es profesor investigador y director del Centro de Biotecnología del ITESM. Pertenece al Sistema Nacional de Investigadores nivel II.

Es ingeniero bioquímico por el ITESM campus Guaymas. Tiene una Maestría en Ciencias, con especialidad en Ingeniería Química, del ITESM, e hizo otra Maestría con especialidad en Ingeniería Química y Bioquímica en la Rutgers University, en New Jersey, Estados Unidos. Es, además, doctor en Ingeniería Química y Bioquímica por la misma Universidad de Rutgers.

Doctora Elva Teresa Aréchiga Carvajal

Elva Teresa Aréchiga Carvajal es química bacterióloga parasitóloga, por la UANL. Obtuvo su Doctorado en Ciencias, con especialidad en Biotecnología de Plantas, en el Centro de Investigaciones Avanzadas (CINVESTAV). Actualmente realiza una estancia posdoctoral en el Laboratorio de Bioinformática y Genómica comparativa del Departamento de Biotecnología de la Facultad de Medicina de la UANL.

Ha realizado investigación en las áreas de capacidad inmunogénica de proteínas de choque térmico en Clostridium perfringens; en biología molecular del desarrollo y diferenciación de hongos dimórficos en la evolución de la estructura, regulación y función de la familia de la hormona de crecimiento y proteínas relacionadas en primates; de la genómica comparativa a la minería genómica y en la prueba y diseño de organismos genéticamente modificados para la producción de hormona de crecimiento recombinante.

Doctora Olivia Maricela Barrón Cano

Profesora en el ITESM, Olivia Maricela Barrón Cano ha realizado investigación en el uso de abducción como mecanismo lógico de diagnóstico para desarrollo de sistemas expertos; en la integración de diferentes herramientas de software para el análisis de manufacturabilidad de ensambles realizados por robots y en el desarrollo de algoritmos para la identificación de productos lácteos caprinos basados en información genética.

Es ingeniera en Sistemas Electrónicos y tiene una Maestría en Ciencias, con especialidad en Ciencias Computacionales, ambos grados académicos del ITESM, campus Monterrey. Su Doctorado en Inteligencia Artificial es de esta misma institución. Hizo una estancia de investigación, de un año, en la Universidad de Carnegie Mellon, en los Estados Unidos.

Doctora Ana María Guadalupe Rivas Estilla

Investigadora en las áreas de infectología molecular, hepatología y biología molecular en medicina, Ana Maria Guadalupe Rivas Estilla es autora de cuatro capítulos en libros y de 11 artículos científicos publicados en revistas especializadas o en memorias de congresos, como “Identification of Hepatitis C virus (HCV) genotypes in infected patients from the West of Mexico” en la revista Hepatology Research.

Ha sido catedrática en las facultades de medicina de la U de G y de la UANL y es miembro del Sistema Nacional de Investigadores, nivel I. Es química farmacéutica bióloga por la UANL y tiene una Maestría en Ciencias, de la Universidad Nacional Autónoma de México, y un Doctorado en Biología Molecular en Medicina, de la Universidad de Guadalajara (UdeG). El posdoctorado lo hizo en el Albert Einsten College of Medicine, en Nueva York, Estados Unidos, y un segundo en la Universidad de Mc Gill en Montreal, Canadá.

Doctor Marco Antonio Rito Palomares

Con numerosos premios recibidos, como el “Nacional de Ciencia y Tecnología de Alimentos 2002”, otorgado por CONACYT y la compañía Coca Cola; Premio “Rómulo Garza” por Investigación y Desarrollo 2002”, que le confirió el ITESM; Premio a “La Labor Docente” de esta misma institución; y Premio Internacional Foundation for Science (IFS) Jubilee-Award, otorgado por el gobierno sueco, por su contribución al área científica y tecnológica

internacional, Marco Antonio Rito Palomares es investigador en las áreas de biotecnología, alimentos, ingeniería de bioprocesos y separación y purificación de proteínas.

Es ingeniero bioquímico en Alimentos por el Instituto Tecnológico La Paz, en la Paz, Baja California Sur. Tiene una Maestría en Ingeniería Química del ITESM, y un Doctorado en Bioingeniería y Biotecnología por la Universidad Birmingham en Inglaterra. Actualmente es profesor investigador en el ITESM y miembro del Sistema Nacional de Investigadores nivel II.

Doctor José María Viader SalvadóCon un claro interés por las aplicaciones de las herramien-tas de computación y bioinformática a la investigación y desarrollo biotecnológico, José María Viader Salvadó ha realizado también investigación en síntesis estereoquímica de productos de interés biológico; desarrollo y evaluación de métodos rápidos para el diagnóstico de la tuberculosis y en la producción de proteínas recombinantes. Ha sido profesor en las Facultades de Medicina, Ciencias Químicas y actualmente lo es en la de Ciencias Biológicas de la UANL. Pertenece al Sistema Nacional de Investigadores, nivel I.

Es ingeniero químico por el Instituto Químico de Sarriá de la Universidad “Ramón Llull” en Barcelona, España. Su Doctorado en Ingeniería Química, con acentuación en Química Orgánica, lo realizó en Max-Planck-Institut fur Strahlenchemie en la ciudad de Mûlhem a.d. Ruhr, en Alemania, y se lo otorgó el Instituto Químico Sarriá. Es autor de seis capítulos en libros y de numerosos artículos científicos.

A personajes nuestros en Bioinformática y Bioseguridad