I Encuentro Complutense - UCM-Universidad Complutense de...

99
Divulgación en Física Nuclear y de Partículas 2008 I Encuentro Complutense Coordinadores Comité Organizador: D. Cabrera, J. Cal, P.M.G. Corzo, L.M. Fraile, M. Larraona, F. Llanes, B. Peropadre, J. Retamosa, J. del Río, J.M. Udías, Con la financiación del Vicerrectorado de Desarrollo y Calidad de la Docencia

Transcript of I Encuentro Complutense - UCM-Universidad Complutense de...

Divulgación en Física Nuclear y de Partículas

2008

I Encuentro Complutense

Coordinadores Comité Organizador: D. Cabrera, J. Cal, P.M.G. Corzo, L.M. Fraile, M. Larraona, F. Llanes, B. Peropadre, J. Retamosa, J. del Río, J.M. Udías,

Con la financiación del Vicerrectorado de Desarrollo y Calidad de la Docencia

I Congreso Complutense de Divulgación en Física Nuclear y de Partículas 8 de Julio de 2008

ISBN: 978-84-692-5884-2

Julio 2008 1

Índice Parte I. Contribuciones Escritas Leptons Cámara Iglesias, A.; Fuentes Pérez, M.E.; Ginés Bartolomé, L. ...................................... 3 Nuclear Magnetic Resonante (NMR) Larraona Puy, M.; Manjavacas Arévalo, A. ....................................................................... 10 Imagen médica mediante Tomografía por Emisión de Positrones (PET) Cal-González, J.; Vicente, E.; López Herráiz, J.;España, S.;Herranz, E. ......................... 20 El Viaje de los Rayos Cósmicos Gómez Rocha, M.; Blázquez Salcedo, J.L. ....................................................................... 29 Teoría de Matrices Aleatorias: Colectividad de Ginibre Peropadre López, B. .......................................................................................................... 40 Hadronterapia Herranz, E.; López Herráiz, J.; Vicente, E.; España, S.; Cal-González, J.; Udías, J.M. ... 50 Detectors at the lhc: atlas and cms González Merino, B.; González-Santander de la Cruz, C. ................................................ 62 El efecto cherenkov: más allá de la velocidad de la luz García Corzo, P.; Vega Gómez, B.; Plaza Sanz, E.; Escayo Menéndez, J. ..................... 78 Parte II. Pósters Nuclear Physics in Cancer Therapies Alonso Malmierca, M.; Delgado Cienfuegos, F.; Maldonado Cid, A. ................................ 89 Neutrino Mass Research: Doble Beta Decay and the Nemo Project Roldán, E.; Sastre, M.; Torres, J. M. ................................................................................. 90 Neutrinos Bartolomé, J.; Milla, M.J.;Sáez, G. .................................................................................... 91 Ultra High Energy Cosmic Rays And The Auger Project Rodríguez de Marcos, L.; Vázquez Peñas, J.R.; Tabernero Guzmán, H. ........................ 92 Teoría De Perturbaciones Quiral Y Ruptura De Simetrías En Un Gas De Piones A Temperatura Finita Torres Andrés, R. .............................................................................................................. 93 (Ion Separation on-line Device) Isolde Soria Ruiz-Ogarrio, L.; Trenado Bustos, M.A. ................................................................... 94 Quark-Gluon Plasma Lacruz Labora, E. .............................................................................................................. 95 Neutrino Oscillations García Sanz, A.; Ábalos Álvarez, M.; Concejero Sanz,V. ................................................. 96 Transport Properties of A Meson Gas Fernández Fraile, D.; Gómez Nicola, A. ............................................................................ 97

Julio 2008 2

Parte I

Contribuciones Escritas

Julio 2008 3

Leptones A. Cámara1, M. E. Fuentes2, L. Ginés3

1 [email protected] 2 [email protected]

3 [email protected]

Resumen Presentamos un breve repaso de las propiedades de los leptones, partículas

fundamentales de espín semientero en el Modelo Estándar.

I Introducción La física de partículas tiene como objeto el estudio de las interacciones entre los constituyentes de la materia. Debido al creciente desarrollo de la tecnología ha sido posible la creación de nuevos aceleradores y por tanto la posibilidad de alcanzar mayores energías. Esto ha hecho posible el descubrimiento de nuevas partículas, sobre todo en el siglo XX y concretamente en la segunda mitad de éste. Existen cuatro interacciones fundamentales entre partículas. Cada una de ellas tiene un alcance diferente y está gobernada por el intercambio de bosones mediadores de la interacción. En orden decreciente de alcance están: la interacción gravitatoria, cuyo bosón mediador es el gravitón (aún no descubierto); la electromagnética, en la que se intercambian fotones; la fuerte, mediada por el intercambio de gluones; y por último la débil, en la que se intercambian los bosones W+, W- y Z0. Los leptones son fermiones, y no sienten la interacción fuerte, pero sí ven las otras tres. Junto con los quarks forman los leptones fundamentales. Si a los fermiones añadimos los bosones de cada interacción, y quizá el Higgs, tenemos todas las partículas elementales. Los leptones se clasifican en tres familias o sabores, cada una con dos partículas y sus correspondientes antipartículas. En la primera familia se encuentran el electrón y el neutrino electrónico, en la segunda el muón y el neutrino muónico y en la tercera el tauón y su neutrino. El descubrimiento de las dos primeras familias condujo a la búsqueda del cuarto quark y a una “posible (entonces) existencia de la tercera familia. La existencia de la tercera familia quedó patente cuando se descubrió la partícula tau en 1975 y el neutrino tauónico en 2000. Cada familia se diferencia de las otras por la masa de sus partículas y por su tiempo de vida media. El electrón es más ligero que el muón y mucho más que el tauón. Además es una partícula estable, mientras que los dos últimos no lo son. Posteriormente indicaremos en tablas los valores para las masas y los tiempos de vida. Para poder hacerse una idea, el tiempo de vida del tauón, el leptón más inestable, es aproximadamente el tiempo que tarda la luz en atravesar el espesor de una hoja de papel. Los leptones son fermiones, partículas con espín 1/2, y su carga eléctrica (Q) es -1 en el caso de los leptones cargados (electrón, muón y tauón), nula para los neutrinos, y +1 para los antileptones cargados.

Julio 2008 4

Todas las interacciones que tienen lugar entre las partículas presentan propiedades o magnitudes conservadas, asociadas a simetrías. Habrá algunas que se satisfarán siempre hasta donde sabemos, como la conservación de la energía y el momento, el momento angular total y algunas operaciones de simetría, y otras que serán propias de cada grupo concreto de partículas. A los leptones se les asocia el número leptónico L, que se conserva individualmente para cada partícula y es aditivo. Las antipartículas asociadas a cada una de las partículas que constituyen los leptones tendrán un número leptónico igual pero de signo contrario. En la Tabla 1 se muestra una tabla con los valores de la carga eléctrica y el número leptónico.

Tabla 1: Propiedades básicas de los leptones [1]. Partícula Carga eléctrica (e) N.º leptónico

e- -1 Le=1 νe 0 Le=1 µ- -1 Lµ=1 νµ 0 Lµ=1 τ- -1 Lτ=1 ντ 0 Lτ=1

II Leptones Cargados

Los leptones cargados son el electrón, el muón y el tauón, junto con sus antipartículas correspondientes. Estas partículas además de sentir la fuerza débil, perciben las interacciones electromagnética y gravitatoria, aunque la última sea generalmente despreciable. II.1 Electrón El electrón fue descubierto en el año 1897 por J. J. Thomson cuando intentaba explicar la desviación de los rayos catódicos cuando éstos pasaban por un campo eléctrico. Este descubrimiento consiguió explicar las descargas eléctricas observadas entre dos placas (cátodo y ánodo) cuando entre ellas se había establecido una elevada diferencia de potencial. En 1906 Thomson ganó el premio Nobel por dicho descubrimiento. A pesar de conocer su existencia, no se determinó su carga eléctrica y su masa hasta que R. Millikan entre los años 1909 y 1913 realizara unos experimentos con gotas de aceite sometidas a un campo eléctrico vertical. De esta forma, igualando la fuerza eléctrica y la gravedad en el momento en que las gotas quedaban suspendidas en el aire, pudo determinar el valor de la carga eléctrica y la masa del electrón de manera experimental [2]. El electrón es una de las partículas más estudiadas a lo largo de la historia dado que existen muchos fenómenos en los que juega un papel importante (efecto fotoeléctrico, radiactividad, difracción, etc.). Además, es el único leptón cargado estable, con un tiempo de vida media estimado mayor que la edad del Universo. Los valores de su masa y carga eléctrica están tabulados en la Tabla 2 así como el momento magnético anómalo, que en el caso del electrón se consiguió medir en febrero de 2007 con una precisión seis veces mayor que la de la anterior medida. El momento magnético anómalo es una corrección radiativa del momento magnético. Su medida muestra un factor giromagnético, g, que se separa de la teoría de Dirac para partículas de espín 1/ 2 y que apoya las conclusiones de la teoría cuántica de campos. La gran precisión alcanzada, permite a su vez medir la constante de estructura fina, α, con una incertidumbre muy pequeña [3]. Numerosos experimentos, entre ellos uno de la Universidad de California en Berkeley, han estudiado la posible existencia de un dipolo eléctrico permanente en el electrón.

Julio 2008 5

Clásicamente se pensaba que había una distribución uniforme de carga, en cosecuencia un momento dipolar eléctrico nulo. El experimento de LBNL (Lawrence Berkeley National Laboratory) ha acotado el valor del momento dipolar eléctrico resultando d<1.6 e.cm [4].

Tabla 2: Datos tabulados del electrón en el PDG [1]. Masa (MeV) 0,510998902 ± 0,000000021

Carga eléctrica (10-19 C) -1,602176487 (40) Vida media (1024 años) > 4,2

Momento magnético anómalo (106 µB) 1159,6521869 ± 0,0000041 Momento dipolar eléctrico (10-26 ecm) 0,18 ± 0,12 ± 0,10

II.2 Muón El muón fue descubierto en 1937 cuando C. D. Anderson y S. H. Neddenmeyer encontraron una nueva partícula con la misma carga que el electrón, pero con una masa intermedia entre la del electrón y la del protón. En un principio lo denominaron mesón, por estar en medio de ambos, aunque más tarde pasó a denominarse muón y el término mesón fue utilizado para otras partículas. Al tener una masa tan grande (210 veces mayor que la del electrón) es capaz de atravesar grandes distancias sin ser absorbido (ya que la radiación de frenado emitida por aceleraciones en los campos eléctricos de un gas o un material condensado es mucho menor que para el electrón, y no interacciona mediante la fuerza nuclear fuerte como el pión). Por esto se explica que más de la mitad de la radiación cósmica que llega a la superficie de la Tierra esté constituida por muones [2]. El muón es una partícula inestable y se desintegra produciendo partículas estables, sobre todo a través de los distintos canales de desintegración que se muestran a continuación [1]:

Otros canales de desintegración que se buscan, porque su observación daría pistas sobre física más allá del modelo estándar, son los que cambian el sabor del leptón sin la emisión de neutrinos (violan la conservación de los números leptónicos del muón y del electrón, aunque conservan L conjuntamente):

El momento magnético anómalo del muón fue medido con una precisión de 0,54 ppm en el experimento E821 del Brookhaven Alternating Gradient Synchrotron ajustado al Modelo Estándar. El experimento g-2 está basado en observar la precesión del espín del muón cuando da vueltas en un anillo con un campo magnético uniforme. El muón se desintegra espontáneamente produciendo electrones al cabo de un tiempo. Detectándolos se determina el espín del muón. Este experimento permitirá en el futuro medir con mayor precisión el momento eléctrico dipolar del muón e intentar medir la masa del neutrino muónico [5]. Los valores de las propiedades del muón se tabulan en la Tabla 3.

Tabla 3: Datos tabulados del muón en el PDG [3m]. Masa (MeV) 105,6583568 ± 0,0000052

Carga eléctrica (10-19 C) -1,602176487 (40)

Julio 2008 6

Vida media (10-6 s) 2,19793 ± 0,00004 Momento magnético anómalo (10-6 µB) 1165,9160 ± 0,0006 Momento dipolar eléctrico (10-19 ecm) 3,7 ± 3,4

II. 3 Tauón

En 1975 se descubrió el último de los leptones cargados, el tauón. Esta partícula es mucho más pesada que el electrón (3000 veces más), tiene la misma carga y fue detectada en el colisionador de electrones y positrones SLAC (Stanford Linear Accelerator Center) de California. Su descubridor, Martin Lewis Perl, ganó en 1995 el premio Nobel por su descubrimiento [2]. Dado que tiene un tiempo de vida media muy corto no se puede observar directamente en un detector, sino que se deben analizar sus desintegraciones para probar su existencia. Las desintegraciones más probables son las siguientes [1]:

Uno de los experimentos donde se ha medido el momento magnetico anomalo del tauón ha sido el L3, equipado con el detector LEP (Large Electron-Positron collider). En este experimento se ha estudiado el proceso en el que un electrón se aniquila con un positrón formando un fotón y dos partículas tau. El espectro del fotón proporciona información de las partículas tau, y por lo tanto del momento magnético anómalo de éstas. De la misma manera, con un experimento similar se puede obtener la distribución de la carga de las partículas tau y como consecuencia su momento dipolar eléctrico [6]. En la Tabla 4 se muestran las propiedades básicas del tauón.

III

Neutrinos

La energía

de los electrones producidos en la desintegración beta forma un espectro continuo. Eso fue lo que observaron Lise Meitner y Otto Hahn en 1911, lo cual parecía indicar que la conservación de la energía se violaba en dicho proceso. No fue hasta 1934 que Enrico Fermi propuso un modelo satisfactorio para la desintegración beta en la que participaba una partícula muy difícil de detectar: el neutrino[7]. El neutrino es un leptón neutro, y por lo tanto, únicamente siente la interacción débil y la gravitatoria. Esto hace que su detección deba hacerse mediante métodos indirectos, como el experimento de C. L. Cowan y F. Reines en 1953 [8]. En dicho experimento se estimaba la producción de neutrinos en un reactor a través de la triple detección de fotones (véase el Cuadro 1 para más información). Como ya se ha dicho antes, los neutrinos se clasifican en tres familias leptónicas diferentes: electrónica, muónica y tauónica. Recientemente, en 2000, se ha constatado este hecho con ayuda de los resultados experimentales del LEP: la anchura de desintegración del bosón Z en el modelo estándar requiere N = 2, 984± 0, 008 [9,10], siendo N el número de familias leptónicas.

Tabla 4: Datos tabulados del tauón en el PDG [1]. Masa (MeV)

Carga eléctrica (10-19 C)1777,03 + 0,30 - 0,26 - 1,602176487 (40)

Vida media (10-15 s) 290,6 ± 1,1 Momento magnético anómalo (µB) > -0,052 y < 0,058

Momento dipolar eléctrico (10-16 ecm) > -3,7 y < 3,4

Julio 2008 7

Hasta 1998 se pensaba que los neutrinos no tenían masa. Sin embargo, los resultados del Super-Kamiokande (ver sección siguiente) demostraron que existía la oscilación de neutrinos, hecho que implicaba que su masa no es nula [11,12]. Por otro lado, los modelos cosmológicos actuales proporcionan cotas superiores a la suma de la masa de los estados de masa definida de neutrinos. Esta cota es destacamente inferior a la masa de las demás partículas: ∑ mν≤ 0, 62 eV [13]. Mezcla de neutrinos Evidencias de los neutrinos solares, atmosféricos, procedentes de los reactores y de los aceleradores, obligan a asumir, como ya hemos dicho, que los neutrinos se mezclan. Pero, ¿qué significa que se mezclan? Existen tres estados de masa definida para los neutrinos, y a su vez existen tres estados de sabor bien definido: (e, µ, τ). Estas dos bases no coinciden (media entre ellas una rotación). Los leptones cargados pueden interactuar débilmente con los estados de sabor de los neutrinos. Así, el neutrino producido en la desintegración W ± � lα

± �α será de sabor definido

�να�=∑i

U iα�νi �.

y superposición de las diferentes combinaciones lα± �νi , donde i recorre los estados de

masa. La mezcla de neutrinos consiste en que, al propagarse por el espacio libre, los neutrinos en estados de sabor definido pueden oscilar a otro estado de sabor distinto. Eso es consecuencia de la no correspondencia entre los estados de mas y de sabor. (Recordemos que, técnicamente, la evolución temporal libre o “propagación”, viene regida por los autovalores del operador Hamiltoniano o de masa).

Super-Kamiokande[14] El Super-Kamiokande es un gigantesco detector de radiación Cherenkov que contiene cerca de 50.000 toneladas de agua (ver Fig. 2). Está dotado de un purificador de aire y de agua, y está rodeado de fotomultiplicadores. Se encuentra en la mina Kamioka en

Cuadro 1: Experimento de Cowan y Reines En el experimento de Cowan y Reines se utilizaban los neutrones provenientes de un reactor nuclear para producir neutrinos, al desintegrarse éstos mediante beta menos (1). Los neutrinos llegaban a un recinto con protones y Cd113. Al interactuar con los protones se formaban neutrones y positrones (2). Los neutrones chocaban con núcleos de Cd113 trasmutándolos en Cd114*, que emiten un gamma al desexcitarse (3). Los positrones se aniquilaban con otros electrones produciendo dos rayos gamma de 511 KeV (4). Los detectores buscaban triples coincidencias de esos gammas emitidos y así deducían que se ha detectado un neutrino.

Figura 1: Esquema del experimento de Cowan y

Reines para la detección de neutrinos.

n

Julio 2008 8

Japón, enterrado a mil metros bajo tierra. El soterramiento tiene como objetivo dismunir el ruido debido a la llegada de muones cósmicos. El principal cometido del Super-Kamiokande es detectar neutrinos solares a través de dispersión elástica sobre electrones, es decir, el proceso

ν�e± � ν�e± . De la detección del electrón o positrón se obtiene información acerca de la dirección de los neutrinos y del tiempo de llegada de los mismos; la distribución de energía de retroceso de los electrones proporciona el espectro de energía de los neutrinos.

Referencias [1]: Página oficial del Particle Data Group, http://pdg.lbl.gov/.

[2]: M. Ramón Medrano, y R. Fernandez Álvarez-Estrada, Partículas Elementales. La Ciencia Para Todos, México (2003).

[3]: B. Odom, D. Hanneke, B. D'Urso, y G. Gabrielse, New Measurement of the Electron Magnetic Moment Using a One-Electron Quantum Cyclotron, Phys. Rev. Lett. 97, 030801 (2006).

[4]: Página oficial del LBNL, http://www.lbl.gov/.

[5]: Página oficial del experimento G-2, http://www.g-2.bnl.gov/.

[6]: L. Taylor, Measurement of the tau anomalous magnetic momento, Nuc. Phys. B (Proc. Suppl.) 55C, 285-292 (1997).

[7]: Fred L. Wilson, Fermi's Theory of Beta Decay, Am. J. Phys. 36, 1150 (1968).

[8]: R. Fernández y M. R. Medrano, "Partículas Elementales", México (2003).

[9]: M. Chemarin, Number of neutrino families from LEP1 measuraments, Nuc Phys B, Proceedings Supplements, 85, pp. 67-71, (2000).

[10]: C. Amsler et al. (Particle Data Group), PL B667, 1 (2008) (URL: http://pdg.lbl.gov)

[11]: The Super-Kamiokande Collaboration, Evidence for oscillation of atmospheric neutrinos,�Phys. Rev. Lett., 81, pp. 1562-1567, (1998).

Figura 2: Foto del tanque de agua con los fotomultiplicadores.

Foto cortesía de “Kamioka Observatory, ICRR (Institute for Cosmic Ray Research), The University of Tokyo”.

Julio 2008 9

[12]: G. Karagiorgi et al, Leptonic CP violation studies at MiniBooNE in the (3 + 2) sterile neutrino oscillation hypothesis, Phys. Rev. D 75, 013011 (2007).

[13]: A. Goobar, S. Hannestad, E. Mörtsell, and H. Tu, The neutrino mass bound from WMAP 3 year data, the baryon acoustic peak, the SNLS supernovae and the Lyman-α forest, JCAP, 06, pp. 019, (2006).

[14]: Página web del proyecto del Super-Kamiokande, http://www-sk.icrr.u-tokyo.ac.jp/sk/index-e.html.

Julio 2008 10

RESONANCIA MAGNÉTICA NUCLEAR (NMR) Resumen :¿Qué es la NMR?

La NMR (del inglés Nuclear Magnetic Resonance) es una técnica experimental asociada al momento angular intrínseco de espín y a las propiedades magnéticas de los núcleos atómicos. Cuando situamos un núcleo en un campo magnético tiene lugar una interacción entre el momento magnético del núcleo y el campo, resultando en un desdoblamiento energético (es el llamado efecto Zeeman). Mediante la absorción y emisión de fotones electromagnéticos con la frecuencia adecuada pueden producirse transiciones entre esos nuevos estados energéticos. Los momentos magnéticos de los núcleos no solo interaccionan con el campo magnético aplicado sino tambien con los momentos magnéticos de los otros núcleos magnéticos y con los electrones. En consecuencia, el espectro NMR refleja el entorno magnético de los núcleos, revelando la estructura del material al que pertenecen.

1) La fisica de la RMN 1.a) Estudio para un único átomo

Considera un núcleo que se encuentra en un estado Im bajo la acción de un campo magnético estatico B , tal que B esté orientado a lo largo de uno de los ejes cartesianos, sea, por ejemplo, el eje z. La interacción de dicho núcleo con el campo puede describirse en terminos del hamiltoniano intH de la forma:

IzIzzI mBmIBmH γγ −=−= ˆˆ

int [1]

donde zI es la tercera componente del operador de espín y γ es la constante giromagnética, un valor especifico de cada núcleo1. En este artículo trabajaremos bajo la hipótesis de núcleos con espin ½ . En consecuencia, la interacción descrita por [1] desdoblará los estados en dos, separados por una energía

Lsplitting hE ν=Δ [2] donde h es la constante de Planck y Lν es la frecuencia de Larmor o de resonancia,

zL Bπγν

2= [3]

1 Para el proton, la constante giromagnética vale 1171075.26 −−×= sTradHγ

Julio 2008 11

Si ahora aplicamos un pulso electromagnético de radiofrecuencia a la frecuencia de resonancia, polarizado en una dirección perpendicular al plano de B, se inducirán transiciones por la absorción de fotones entre los niveles desdoblados. Una serie de desexcitaciones fotónicas seguirá a dichas absorciones, generando el espectro NMR. 1.2) Estudio para un conjunto de átomos Los sistemas reales están formados por un gran número de núcleos. Por ello, trabajaremos con el momento magnético total M, que resulta de la suma de todos los momentos magnéticos individuales de cada núcleo. Consideremos una muestra situada en una región en ausencia de campo magnético externo. Los espines nucleares estarán uniformemente distribuidos, es decir, los niveles de espin ½ y -½ estarán igualmente ocupados, siendo la magnetización resultante igual a cero (M=0). Si ahora introducimos la muestra en un campo magnético estaticoBz, la magnetización longitudinal M (en el eje z) crecerá progresivamente desde cero hasta un valor maximo M0. En ese momento el sistema habrá alcanzado el equilibrio térmico y la ocupación de los niveles vendrá gobernada por la estadística de Boltzman: el estado de espin ½ ( es decir, aquel orientado como el campo Bz ) estará más poblado que el estado de espin -½, por lo que aparecerá una magnetización M que precesiona sobre el eje z a la frecuencia de Larmor Lν . Si en esta situación aplicamos un pulso de radiofrecuencia de duración t a la frecuencia de resonancia Lν , la muestra estará afectada por la acción de un campo magnético dependiente del tiempo B1(t). Aparecerá un momento o torque que rotará M un angulo θ.

tB1γθ = [4]

Las transiciones entre los dos niveles de diferente espín harán que aumente el número de estados con espin -½ y disminuya el número de estados con espin ½. En consecuencia, disminuye la magnetización longitudinal. Es más, los espines nucleares empiezan a precesionar en fase, incrementando la magnetización transversal x-y.

FIG. 1. Dinámica magnética de los espines nucleares en tres casos: en ausencia de campo magnético estatico (izquierda), con un campo magnético estatico B (medio) y con un campo

Z

Julio 2008 12

magnético externo que es la suma de un campo estático y otro oscilante. Las flechas azules indican la direccion de la magnetización total M. Una vez que apagamos el pulso de radiofrecuencia la muestra necesita un tiempo para alcanzar el equilibrio térmico mediante dos procesos de relajacion. En primer lugar, los espines se desfasan mientras precesionan hasta que la distribución es uniforme. Por consiguiente, la magnetización transversal decrece progresivamente hasta cero. La constante de tiempo que regula este proceso es el llamado tiempo de relajacion transversal T2. En segundo lugar, la desexcitación de un gran número de estados de espin ½ lleva a disminución de la magnetización longitudinal hasta el valor de equilibrio térmico M0 . La constante de tiempo que regula este proceso es el tiempo de relajación longitudinal T1. La ecuación que describe la evolución en el tiempo de la magnetización total M es conocida como la Ecuacion de Bloch :

( ) ( )jMiMT

kMMT

BMdtMd

yxz

ρρρρρρ

+−−−×=2

11

10γ [5]

( )

( ) ( )

( ) ( )

( )[ ]⎪⎪⎪

⎪⎪⎪

⎥⎦⎤

⎢⎣⎡

⎟⎠⎞⎜

⎝⎛−−−=

⎟⎠⎞⎜

⎝⎛−=

⎟⎠⎞⎜

⎝⎛−=

==

10

20

20

expcos11

exp2cossin

exp2sinsin

,,

TtMM

TttvMM

TttvMM

MMMM

z

Ly

Lx

zyx

θ

πθ

πθ

ϖ [6]

2) El espectrómetro pulsado Los componentes de un espectrómetro NMR son:

a) Oscilador de radiofrecuencia: genera una onda de frecuencia oscilante y valor proximo a Lν .

b) Puerta pulsada: Corta la señal oscilante generando un pulso de duracion tw. c) Amplificador: para aumentar la señal. d) Interruptor o duplexer: deja pasar primero la señal pulsada que viene del amplificador (intensa) y luego la señal NMR proviniente de la muestra (débil). e) Bobinas: bobina de excitacion, en el eje x, en la que la señal pulsada genera el campo electromagnético oscilante necesario para activar el experimento, y bobina de detección, en el eje y, en la que la señal NMR es inducida por un campo generado en los procesos de relajación del espin nuclear. Ademas, presenta un circuito LC para ajustar la frecuencia oscilante de la bobina de excitación a la señal eléctrica externa. f) Detector QPS (Quadrature Phase Sensitive): La señal NMR f(t) medida es proporcional a la componente My de la magnetización.

Ecuacion de Bloch

Solución de la ecuación de Bloch

Julio 2008 13

( ) ( ) ( ) ⎟⎠⎞⎜

⎝⎛−=∝

20 exp2cossin T

ttvMMtf Ly πθ [7]

Esta señal oscila demasiado rápido para los detectors ADC corrientes (Analogic to Digital Converters) por lo que usamos otra técnica para comparar la señal NMR con la señal original.

( ) ( ) ( ) ( )

( ) { }( ) { }( )( )[ ] ⎟⎠⎞⎜

⎝⎛−−+=

⎟⎠⎞⎜

⎝⎛−×∝

200

20

exp2cos2cossin

exp2cossin2cos

Tttvvtvv

Tttvtvtf

LL

L

ππθ

πθπ [8]

Si aplicamos un filtro pasa baja, obtenemos la señal FID o de Free Induction Decay:

( ) ( ) ( ) ( )02

2expcossin vvTtttf L −=⎟

⎠⎞⎜

⎝⎛−∝ πδδθ [9]

g) Convertidor: transforma la señal analogica en digital, y la envia al ordenador, que hace la transformada de Fourier de la señal para obtener el espectro de NMR.

∫+∞

∞−

= )2exp()()( tivtfvF π [10]

FIG. 2. Componentes de un espectrómetro NMR. 3)TIEMPOS DE RELAJACIÓN. Como ya se dijo anteriormente los tiempos de relajación T1 y T2 nos van a proporcionar una valiosa información sobre la muestra, debido a que están asociados a procesos relacionados tanto con la interacción entre los espines nucleares y sus entornos moleculares (T1) como con interacciones entre los propios espines nucleares (T2). Tiempo de relajación longitudinal T1 (~s)

Julio 2008 14

Este tiempo esta asociado a la relajación longitudinal por la que la colectividad de espines nucleares recupera el equilibrio térmico mediante transiciones entre los estados de espín - ½ (mayor energía) y + ½ (menor energía), recuperando la magnetización longitudinal (en el eje z). El equilibro térmico se alcanza tras intercambios de energía asociados a dichas transiciones. Este fenómeno es debido al acoplo entre los espines nucleares y sus entornos moleculares y se denomina relajación espín-red. Para medir este tiempo se usan secuencias multipulso, es decir se generan varios pulsos de radiofrecuencias separados por intervalos de tiempo determinados. Estas secuencias multipulso, permiten revelar diferentes características de las muestras y son la base de la espectroscopía NMR moderna. En este caso se pueden usar dos secuencias diferentes: a) Técnica de recuperación de saturación:

FIG. 3. Tecnica de recuperacion de saturacion. Como vemos en la FIG.3, se usan secuencias de dos pulsos de 90º separados por un tiempo t determinado. El primer pulso tumba la magnetización al plano xy, es decir anula Mz, luego se deja que la magnetización se recupere durante un tiempo t y finalmente se vuelve a tumbar al plano xy para poder medirla (recordar que el espectrómetro medía la componente x). Variando el tiempo t se obtienen puntos que se ajustan a una exponencial decreciente, obteniendo T1 como parámetro del ajuste. b) Técnica de recuperación de inversión: Tiene el mismo fundamento que el método anterior, solo que en este caso el primer pulso de las secuencias es de 180º (i.e. invierte el sentido de la magnetización) y por tanto la curva resultante es:

⎟⎟⎠

⎞⎜⎜⎝

⎛⎥⎦

⎤⎢⎣

⎡−−=

10 exp21

TtMM z [12]

Tiempo de relajación transversal T2 (~ms)

90ºx 90ºx

⎟⎟⎠

⎞⎜⎜⎝

⎛⎥⎦

⎤⎢⎣

⎡−−=

10 exp1

TtMM z

90ºx 90ºx

90ºx 90ºx

90ºx 90ºx

[11]

Julio 2008 15

Este tiempo está asociado a la relajación transversal, mediante la cual los espines nucleares dejan de precesionar perdiendo, de este modo, la magnetización transversal (en el plano xy). Este desfase es producido por tres fenómenos:

• Interacciones entre espines: es la causa fundamental, debida a la interacción directa entre pares de espines por ello se denomina relajación espín-espín.

• Desplazamiento químico: núcleos con diferente desplazamiento químico precesan a diferentes frecuencias.

• Inhomogeneidades en el campo magnético externo: núcleos bajo diferentes valores del campo magnético externo precesan a diferentes frecuencias.

El primero da lugar al tiempo de relajación transversal T2 mientras que los otros originan otro tiempo de relajación marginal T´2. Tenemos entonces un tiempo de relajación efectivo:

222

111TTT ′

+=∗ [13]

FIG. 4. Tiempo de relajacion transversal.

Existe una diferencia fundamental en estos procesos, mientras que el proceso de relajación originado por el primer fenómeno es irreversible, el originado por los dos últimos fenómenos, puede ser anulado mediante una refocalización. Por tanto para medir T2 se usan un procedimientos experimentales que eliminan la contribución marginal, un ejemplo de ello son los multipulsos de eco de espín los cuales refocalizan el desfase debido a los dos últimos fenómenos permitiendo la medida del efecto debido al primero.

FIG. 5. Secuencia de multipulsos para producir el eco de espín.

La FIG. 5 muestra una secuencia para producir el eco de espín, consistente en un primer pulso de 90º en x seguido de un tiempo τ, posteriormente se aplican conjuntos formados por pulsos de 180º en y (también se pueden usar pulsos de 180º en x con el mismo resultado), seguidos de intervalos de tiempo 2τ.

Tiempo

xyM

2T

∗2T

Julio 2008 16

FIG. 6. Esquema de la reacción de la muestra al aplicar la tecnica de multipulsos para producer el eco de espin.

Inmediatamente después del primer pulso de 90º en x la magnetización transversal alcanza su valor máximo, y comienza el proceso de relajación, en el que los espines nucleares comienzan a desfasarse. En la FIG.6 se han representado las componentes de la magnetización afectadas por los fenómenos marginales, las cuales precesionan con frecuencias diferentes a la de resonancia. Teniendo en cuenta que en los esquemas se ha usado un sistema de referencia que rota con la frecuencia de precesión de los espines, en este caso tenemos que una componente rota con una frecuencia más alta y la otra con una más baja que la de resonancia. El pulso de 180º en el eje y (o su alternativo en el eje x) invierte estas componentes con respecto al eje x (en el otro caso respecto al eje y) produciendo, tras un tiempo τ su refocalización. Por tanto si medimos la magnetización transversal en el tiempo 2τ, podremos averiguar lo que ha disminuido debido a la relajación espín-espín (puntos azules de la siguiente imagen). Repitiendo este proceso podremos obtener el valor de T2, ajustando a la curva correspondiente.

FIG. 7. Tecnica para medir el tiempo de relajacion transversal T2.

Ya se destacó anteriormente, como base de los métodos de medición de los tiempos de relajación, el papel fundamental que juegan las secuencias multipulsos en la espectroscopia NMR moderna.

i) Inmediatamente después del pulso 900

x(A)

ii) Después de τ iv) Después de 2τ

y

x

y

iii) El pulso de 180º aplicado invierte el eje x.

Todos los esquemas están en un sistema de referencia que rota con la frecuencia de precesión de los espines

[14]

Julio 2008 17

4) Interacciónes y espectro NMR Dependiendo de la naturaleza de la muestra encontramos dos tipos de espectro

NMR, cuyas formas vendrán determinadas por las interacciones magnéticas dominantes actuando sobre la muestra. Las principales interacciones son:

1) El desplazamiento quimico: interacción entre los espines nucleares y su

entorno dentro de la muestra. Al aplicar un campo magnético externo B sobre un núcleo, los electrones

asociados al núcleo precesionan alrededor de B. Aparece un campo magnético inducido Bind por el movimiento de esos

electrones. El valor de Bind dependerá del entorno molecular, por lo que el campo magnético efectivo actuando sobre los espines depende de dicho entorno.

indeff BBBρρρ

−= [15] La frecuencia de Larmor Lν es proporcional al campo efectivo Beff por lo que

será diferente para cada parte de la molécula. En consecuencia, en el espectro NMR de una molécula, cada grupo de líneas

alrededor de una frecuencia específica Lν corresponderá a una parte diferente de dicha molécula.

2) El acoplamiento J: interacción dipolar indirecta entre los espines de dos

núcleos vecinos a través de sus electrones. El efecto de este acoplamiento sobre el espectro NMR es el desdoblamiento de las líneas que corresponden a una determinada

Lν en dos o más. 3) La interacción dipolo-dipolo: interacción directa entre los momentos

magnéticos de espin de dos núcleos vecinos. Tiene sentido para moleculas bien localizadas como en el caso de los sólidos.

A continuación estudiaremos el espectro NMR de líquidos y sólidos, teniendo en cuenta las interacciones dominantes en cada caso.

Julio 2008 18

ESPECTRO NMR

LIQUIDOS SOLIDOS

InteracciONes dominantes

Desplazamiento quimico y acoplamiento J

Desplazamiento quimico e interacción dipolo-dipolo

Hamiltoniano

Para dos protons no equivalentes 1 y 2:

212

21

1ˆˆˆˆˆ IIhJIBIBH zefzefliquido +−−= γγ ηη

Para un sistema de dos espines:

( )

πμ

γγ

γ

4

ˆ3

ˆˆˆ

,,ˆˆˆˆ

05

1

3

212

21

22

11

⎥⎥⎦

⎢⎢⎣

⎡−=

++−=

rrI

rIIH

HIBIBhH

dd

ddzeffzeffsólido

ϖρρϖ

η

Ejemplos

Espectro NMR de 1H del OHCaSO 24. . El OHCaSO 24. es un sistema de 2 espines rotando con una inclinacion variable.

TABLA 1. Comparación entre el espectro NMR de sólidos y líquidos.

3) Aplicaciones QUÍMICA Análisis structural: detalles estructurales,

composición y enlaces químicos. Empleado en la química de los productos naturales y para la síntesis de productos orgánicos.

Estudio de procesos dinámicos: (en soluciones, sólidos o líquidos)

Medida de coeficientes de difusión. Estudios en el equilibrio. Reacciones cinéticas.

BIOLOGÍA Estudios estructurales tridimensionales de macromoléculas y estructuras complejas.

Proteínas. ADN. Polisacáridos.

Julio 2008 19

FARMACIA Diseño de drogas GEOLOGÍA Estudios estructurales de nuevos materiales y minerales

INDUSTRIA Industria petrolífera: determinación del contenido en petroleo , viscosidad y porosidad

de una roca .También para el contenido en hidrógeno del carbón. Industria cosmética: contenido en aceite de las emulsiones, líquidos, polvos y pigmentos. Industria alimentaria: contenido en aceites y grasas. Industria química: viscosidad de liquidos, tasas de difusión molecular, contenido en H de sólidos y líquidos. Industria de los polímeros: Contenido en plásticos, goma, fluorina o hidrógeno de los polímeros. Distribuciones de poros. Medidas de difusión. Industria médica: parámetros de relajacion y medidas de difusión en muestras in-vitro, Imagen por Resonancia Magnetica ( MRI). Industria agrícola: análisis de la composición de fertilizantes y del contenido en aceites de sólidos y semillas.. Industria farmacéutica: peso de los recubrimientos, contenido de aceite de las cáspsulas y tabletas. Composición de los medicamentos.

MEDICINA Imagen por Resonancia Magnetica (MRI) La MRI usa la NMR basada en la deteccion de protones. Forma imágenes de la concentración de protones. Muchos de esos protones se encuentran en forma de moléculas de agua, por lo que la MRI se usa especialmente para formar imágenes de tejidos blandos como el cerebro o los ojos.

Podemos hacer una imagen de una sección transversal de tejido utilizando un gradiente de campo magnético bien calibrado. Como la frecuencia de la señal generada por los protones es proporcional al campo magnético, podemos saber la posición en el tejido de cada línea del espectro correspondiente a una determinada frecuencia. Así podemos conocer la densidad de protones para cada posición dentro del tejido y realizar la correspondiente imagen.

TABLA 2. Resumen de algunas de las aplicaciones importantes de la NMR. 4) Referencias [1] Apuntes de la asignatura: Nuclear Magnetic Resonance (F33SQ6), impartido por la Dra Sue Francis en ‘The University of Nottingham’, 2006. http://www.nottingham.ac.uk/~ppzstf/mrcourse/index.htm [2] Lambert,J.B.;Mazzola, E.P.: Nuclear Magnetic Resonance Spectroscopy: An introduction to Principles, Applications, and Experimental Methods; Pearson Prentice Hall, New Jersey ,1999. [3] MH Levitt, Spin dynamics, Wiley 2001. [4] Hore,P.J., Nuclear Magnetic Resonance, Oxford University Press. [5] NMR spectrums data base: www.aist.go.jp/RIODB/SDBS/cgi-bin/cre_index.cgi [6] NMR web: www.cis.rit.edu/htbooks/nmr/inside [7] Web sobre aplicaciones: http://hyperphysics.phy-astr.gsu.edu/hbase/nuclear/mri.html#c1 [8] Web sobre aplicaciones:http://www.pctnmr.com/Applications.htm [9] Web en italiano con buenas imágenes de NMR-espectros: www2.fci.unibo.it/~montevec/cnmr.htm [10] Web en alemán con buenas animaciones: www.chemgapedia.de/.../nmr_grundlagen.vlu.html

Julio 2008 20

IIMMAAGGEENN MMÉÉDDIICCAA MMEEDDIIAANNTTEE TTOOMMOOGGRRAAFFÍÍAA PPOORR EEMMIISSIIÓÓNN DDEE PPOOSSIITTRROONNEESS ((PPEETT))

JJ.. CCaall--GGoonnzzáálleezz,, EE.. VViicceennttee,, JJ.. LL.. HHeerrrraaiizz,, SS.. EEssppaaññaa,, EE.. HHeerrrraannzz,, JJ.. MM.. UUddííaass

GGrruuppoo ddee FFííssiiccaa NNuucclleeaarr,, DDppttoo.. FFííssiiccaa AAttóómmiiccaa,, MMoolleeccuullaarr yy NNuucclleeaarr,, UUCCMM

1-) INTRODUCCIÓN La Tomografía por Emisión de Positrones (PET) es una técnica de diagnóstico que permite

la visualización in vivo de fenómenos biológicos y bioquímicos de forma no invasiva en los organismos. Gracias a que la PET es capaz de visualizar estos procesos a un nivel molecular, se puede usar en múltiples aplicaciones, entre las que cabe destacar el seguimiento del paciente, la investigación farmacológica, el estudio de enfermedades humanas en modelos de laboratorio, la caracterización de la expresión genética y el estudio de los cambios inducidos en el fenotipo por la manipulación genética en estudios con animales de laboratorio [1].

Se trata de una aplicación de la Física Nuclear a la medicina que complementa a otras técnicas de diagnóstico por imagen, como la Tomografía Axial Computerizada (TAC) o la Resonancia Magnética Nuclear (MRI), ya que a la imagen estructural proporcionada por éstas podemos sumar una imagen funcional. Con PET somos capaces de apreciar las alteraciones funcionales o metabólicas que se producen en el organismo por diversas causas y que preceden a los cambios morfológicos. Es por tanto un método de diagnóstico precoz y un buen ejemplo de lo mucho que puede aportar la física a la medicina.

La característica más importante de esta técnica y que la diferencia de las demás es el empleo de radioisótopos β+ de vida media corta. Estos radioisótopos se introducen en moléculas que posteriormente se inyectan al paciente en cantidades de traza, por lo que no se producen efectos farmacodinámicos apreciables. Estas moléculas se denominan trazadores y su elección depende del objetivo del estudio que se realice al paciente. Los radioisótopos emiten positrones que tras recorrer un cierto espacio se aniquilan con un electrón del medio, dando lugar a la emisión de dos fotones γ en la misma dirección y en sentidos opuestos con una energía de 511 keV cada uno. Los fotones se detectan principalmente cuando éstos interaccionan en un material centelleador y se crea un pulso de luz que es transformado en pulso eléctrico por un tubo fotomultiplicador. El reducido periodo de semidesintegración de los emisores de positrones hace además posible la realización de múltiples estudios en un mismo sujeto en un periodo de pocas horas.

Mediante detectores conectados en coincidencia se pueden detectar ambos fotones y de este modo conocer la línea en la que se encontraba el radioisótopo (LOR - Line Of Response). Usando una combinación simultánea de coincidencias medidas en varias direcciones, con los detectores situados alrededor del paciente, y mediante la utilización de técnicas de reconstrucción de imagen se llega a la obtención de una imagen tridimensional del mapa de distribución del trazador en el paciente.

El ejemplo más común de uso de la técnica PET es la detección de tumores cancerígenos. Las células cancerosas tienen acelerado su metabolismo, lo que tiene como consecuencia un mayor consumo de glucosa en estas. Así, si introducimos un radioisótopo β+ en moléculas de glucosa e inyectamos esta al paciente, se producirá una acumulación del radioisótopo en las células cancerígenas, lo que tendrá como consecuencia que al hacer el escáner PET detectaremos una mayor emisión γ en las regiones tumorales [2], [3].

2-) FISICA DEL PET Básicamente son dos fenómenos los que se dan en la detección de PET: emisión de

positrones por parte de los trazadores que se inyectan a los pacientes y con ello la aniquilación

Julio 2008 21

de estos positrones generando fotones gamma, y por otra parte la detección de dichos rayos gamma.

El esquema general de desintegración es el siguiente:

ν+β+XX ++N

AZN

AZ 11−→

Al emitir el positrón, el núcleo cae a un estado más cercano a la línea de estabilidad. La

energía de emisión no toma un valor fijo, como es el caso de la radiación gamma, debido a que junto con la emisión del positrón se emite un neutrino, repartiéndose la energía entre ambos de forma aleatoria. Los parámetros que definen la forma del espectro beta son su energía máxima y su energía media de emisión.

Figura 1: esquema de desintegración • +

El positrón al ser emitido recorre una distancia que depende de su energía (unos pocos milímetros en medio acuoso) hasta que se aniquila con un electrón del medio material. La masa de ambas partículas se convierte en energía según la ecuación E=mc2 emitiéndose dos fotones con energía de 511 keV en la misma dirección y sentidos opuestos. Cuando el momento lineal en el instante de la aniquilación es distinto de cero la dirección de los fotones γ deja de ser colineal, debido al principio de conservación del momento. A este fenómeno se le conoce como no-colinearidad y tiene gran influencia en PET. Desde que se crea el positrón hasta que se aniquila suelen transcurrir unos 10-9 s, por lo que podríamos considerarlo casi simultáneo.

Los isótopos que se suelen usar son 11C, 13N, 15O y 18F. Los tres primeros tienen una vida media muy corta, por lo que para su empleo es necesario tener un ciclotrón en el mismo centro que el escáner. En cambio, la vida media del 18F es aproximadamente unas dos horas, por lo que se puede crear en centros satélites y ser transportado hasta el hospital en el que se encuentra el escáner. Además el 18F en su desintegración no emite rayos gamma adicionales que puedan llevar a confusión, por lo tanto es el núcleo más apto para PET.

De todos los radiofármacos empleados en esta técnica el más utilizado es el 2-[18F] fluoro-2-desoxi-D-glucosa (18F DG); que nos indica el metabolismo de la glucosa.

La radiación γ resultante de la aniquilación del positrón con un electrón del medio puede interaccionar con la materia mediante alguno de los siguientes procesos [4], [5]:

- Dispersión elástica o Rayleigh: El fotón interacciona con un electrón ligado cambiando de dirección y sin sufrir apenas pérdida de energía. Este efecto es significativo para rayos X o rayos γ de muy baja energía. En la técnica PET la energía de los fotones γ es lo suficiente grande como para poder considerar este efecto despreciable.

- Dispersión inelástica o Compton: El fotón interacciona con un electrón del medio cambiando de dirección y perdiendo parcialmente su energía. Siguiendo las normas de conservación de energía-momento se puede observar que la relación entre la energía

Julio 2008 22

del fotón después de la interacción y el ángulo que se desvía respecto a la dirección inicial viene dada por:

( )cosθ11 2 −−

cmE

EE´

e

γ

γγ

Existe por tanto una energía máxima que el fotón puede ceder a un electrón y que coincide según la expresión cuando el ángulo de dispersión es θ = π. La probabilidad por átomo de que se produzca dispersión Compton es proporcional al número de electrones del medio y por tanto al número atómico Z. Esto viene expresado por la fórmula de Klein-Nishina:

Donde • es la energía del fotón en unidades de la energía en reposo del electrón y r0 es el radio clásico del electrón (que se utiliza como parámetro, pero que no tiene nada que ver con el tamaño de los electrones).

1. Efecto fotoeléctrico: El fotón cede toda su energía a un electrón del átomo. La energía cinética del electrón arrancado viene dada por la expresión:

Ee− =Eγ − Eb=hν − Eb Donde Eb es la energía de ligadura del electrón. La probabilidad de absorción de un fotón por efecto fotoeléctrico es difícil de calcular, pero a partir de los resultados experimentales se conocen sus principales características: Es más significativa a bajas energías (~ 100 keV), aumenta rápidamente con el número atómico Z del material absorbente (~ Z4), decrece rápidamente con la energía del fotón (~ E

-3) y aumenta bruscamente y de forma discontinua cuando la energía del fotón incidente coincide con la energía de ligadura de alguna capa atómica.

- Efectos físicos involucrados en la emisión y detección de la radiación en PET Existen numerosos factores que influirán en la calidad de la imagen obtenida. Los más

significativos son [2]: 1- Rango del positrón: Distancia entre el punto de emisión del positrón y el de

aniquilación con un electrón del medio. 2- No colinearidad: El ángulo con el que son emitidos los fotones γ no es exactamente

180º, debido al pequeño momento que tiene el positrón cuando se produce la aniquilación. 3- Interacción con el detector: Como se ha visto anteriormente, la interacción de los

fotones en el detector se puede producir por dispersión Compton o por efecto fotoeléctrico. En la técnica PET interesa que el mayor número posible de fotones depositen su energía en el detector mediante efecto fotoeléctrico para conseguir la mayor precisión posible en la determinación de la posición de interacción del fotón. Por ejemplo, en un escáner típico donde cada detector está formado por un array de cristales puede suceder que un fotón no deje toda su energía en un solo cristal, sino que sufra una o varias interacciones Compton y deposite su energía en varios cristales, produciéndose una clara pérdida de sensibilidad.

La combinación de estos factores tendrá como consecuencia que el LOR asignado a una coincidencia (LOR: Line Of Response, línea que une a los dos detectores a los que llegan dos fotones derivados de la misma aniquilación) no pase por el punto en el que se ha producido la desintegración. Esto se puede ver claramente en la figura 2.

Julio 2008 23

Figura 2: Influencia de los efectos involucrados en la emisión y detección de la radiación en la línea de respuesta (LOR)

3-) ESCÁNERES EMPLEADOS EN PET Debido a que en PET lo que se detecta son los fotones γ antiparalelos originados por la

aniquilación del positrón emitido en la desintegración β+ con un electrón del medio; un escáner adecuado deberá de ser capaz de detectar estos fotones en coincidencia.

Habitualmente, un escáner PET consta de varios bloques detectores enfrentados dos a dos, cada uno de los cuales dispone de un array de cristales centelleadores, donde el fotón incidente deposita su energía total o parcialmente; y un fotomultiplicador acoplado a cada bloque detector, que se encarga de convertir el débil pulso de luz obtenido en el centelleador en una señal eléctrica y de amplificar dicha señal para que la electrónica pueda procesarla. También es necesario que el escáner posea un sistema electrónico de coincidencia, que será el encargado de decidir si dos eventos consecutivos son efectivamente una coincidencia. Por último, el escáner debe poseer un software adecuado que permita hacer la reconstrucción de imagen PET que se desea obtener [4].

En la figura 3 se muestran las diferentes partes descritas para un escáner PET.

Figura 3: Esquema de un escáner PET

- Cristales centelleadores: Un material centelleador adecuado debe convertir la mayor

fracción de la energía de la radiación γ en fluorescencia inmediata disminuyendo la probabilidad de que se dé fosforescencia. La fluorescencia es el proceso mediante el cual se absorbe radiación y de forma inmediata se reemite en el espectro visible. La fosforescencia a

Julio 2008 24

su vez consiste en la reemisión de radiación con longitudes de onda mayores y con una característica temporal que hace que el proceso sea más lento [5].

Un centelleador ideal debería poseer las siguientes propiedades: 1- Debe convertir la energía cinética de las partículas cargadas en luz visible con alta

eficiencia. 2- Esta conversión debe de ser lineal. 3- El material debe ser transparente a la longitud de onda de la luz que emite. 4- El tiempo de decaimiento de la luminiscencia producida debe ser lo menor posible. 5- El índice de refracción del centelleador debe ser cercano al del fotomultiplicador. Existen en la actualidad dos tipos de materiales centelleadores: Los orgánicos y los

inorgánicos. En PET se suelen usar centelleadores inorgánicos con una elevada densidad y un alto número atómico, para así tener un mayor poder de frenado y mayor probabilidad de que se dé efecto fotoeléctrico. También interesa que el centelleador tenga una respuesta rápida para permitir tasas de conteo elevadas y evitar efectos no deseados como el pile-up (acumulación de dos o más pulsos durante el tiempo de integración del sistema). Lo centelladores más utilizados en PET son:

BGO LSO LYSO GSO

Z efectivo 74 66 63 59

Densidad (g/cm3) 7.13 7.4 7.1 6.7

Índice de refracción 2.15 1.81 1.82 1.89

Producción de luz (fot/MeV) 9000 29000 27000 9000

Longitud de Onda (nm) 480 420 420 430

Tiempo de subida (ns) 5 0.8 0.8 10

Tiempo de decaimiento (ns) 300 40 41 56 Tabla 1: Características básicas de algunos de los centelleadores más empleados en PET [2]

En la siguiente figura se muestra el aspecto de una matriz de cristales centelleadores de las

que usualmente se emplean en PET:

Figura 4: Matriz de centelleadores

- Fotomultiplicadores: Los destellos creados por el centelleador hay que convertirlos en

una señal eléctrica. Esto se consigue gracias a los fotomultiplicadores, que transforman una señal de no más de unos pocos millares de fotones en una corriente eléctrica apreciable sin introducir demasiado ruido en la señal.

Un fotomultiplicador consta básicamente de los siguientes elementos: 1- Fotocátodo: Su función es la de convertir el flujo incidente en un flujo de electrones. 2- Sistema óptico de entrada: Para enfocar y acelerar el flujo de electrones. 3- Multiplicador de electrones: Consiste en una serie de electrodos de emisión secundaria,

denominados dínodos.

Julio 2008 25

4- Ánodo: Capta el flujo de electrones del multiplicador y proporciona la señal de salida.

Figura 5: Estructura típica de un fotomultiplicador [4]

La ganancia típica de un fotomultiplicador suele ser de 106-107 electrones por fotón

incidente. Otro parámetro de gran importancia en los fotomultiplicadores es la eficiencia cuántica del fotocátodo, que se define como el cociente entre el número de fotoelectrones emitidos y el número de fotones incidentes.

En la figura 6 se muestra un tubo fotomultiplicador acoplado a una matriz de cristales centelleadores usado en un escáner PET.

Figura 6: Tubo fotomultiplicador En muchos escáneres PET modernos (especialmente en aquellos destinados a pequeños

animales) se emplean fotomultiplicadores sensibles a la posición de interacción del fotón incidente. Este tipo de fotomultiplicadores presentan un fotocátodo que cubre toda la superficie transversal, una estructura multiplicadora de electrones (dínodos) y una malla de ánodos. Cada ánodo recoge el número de electrones que lleguen a su superficie. Hay que tener en cuenta que la ganancia de los ánodos no tiene por qué ser uniforme, lo que influirá al determinar en que cristal interacciona el fotón gamma incidente [2].

- Electrónica de coincidencia: La electrónica se encarga de analizar y almacenar la

información proveniente de los bloques detectores. Una etapa se encarga de decidir si dos eventos están correlacionados (en coincidencia). Si es así, una segunda etapa se encarga de integrar los pulsos para calcular la energía depositada e identificar la localización de la interacción [4].

- Escáneres PET de pequeños animales Además de emplearse para el diagnóstico de enfermedades en humanos (principalmente

detección de tumores), la técnica PET se usa también en investigación biomédica con pequeños animales.

El pequeño tamaño de estos animales hace que se requiera una resolución en las imágenes del orden de 1 mm. Para alcanzar este grado de precisión es necesario conocer muy bien las características del escáner y los procesos físicos involucrados.

Julio 2008 26

A modo de ejemplo, vamos a presentar las características principales del escáner rPET, desarrollado en el Laboratorio de Imagen Médica del Hospital General Universitario Gregorio Marañón [6]. Este escáner consta de cuatro detectores enfrentados dos a dos, en coincidencia cada uno con su opuesto. Para adquirir una imagen tomográfica, se realiza un muestreo rotatorio. Se ha estudiado que el muestreo rotatorio con paradas amplía la resolución espacial de estos escáneres, frente al muestreo con rotaciones continuas.

En la tabla 2 se presentan las características generales de este escáner.

Diámetro 16.0 cm FOV Axial 4.8 cm Número de módulos detectores 4 PMT’s sensibles a la posición Número de cristales 3600 Tamaño del cristal 1.60 mm x 12 mm Número de líneas de

coincidencia 1.62 x 106

Tabla 2: Características generales del escáner rPET [6]

El fotomultiplicador acoplado a este escáner es el Hamamatsu H8500 [7], que con una

malla de 8 x 8 ánodos es sensible a la posición.

Figura 7: Vista coronal y sagital del escáner rPET [6]

4-) OBTENCIÓN DE IMÁGENES EN PET La reconstrucción de imágenes es el último paso antes de que el especialista disponga del

instrumento con el que realizará su diagnóstico, la imagen PET. A partir de los datos recogidos en el tomógrafo se pueden obtener las imágenes mediante

un algoritmo de reconstrucción. El tipo de algoritmo que utilicemos tendrá gran repercusión en la calidad de la imagen que obtendremos. Hay básicamente dos tipos de métodos de reconstrucción: 1. Métodos directos o de Fourier (FBP): Son métodos rápidos y sencillos cuyos resultados

son buenos siempre que el número de cuentas sea alto. 2. Métodos iterativos/estadísticos (MLEM): Los métodos iterativos dan mejores resultados,

las imágenes tienen un mayor contraste y una mejor relación señal-ruido. Sin embargo, estas técnicas requieren un mayor esfuerzo computacional y un mayor tiempo de cálculo. Estos últimos producen resultados producen resultados superiores en comparación con los

métodos directos ya que reducen los artefactos (patrones regulares en la imagen producidos por una mala reconstrucción) y el ruido. Sin embargo, una desventaja importante de estos métodos es su lenta convergencia a una imagen aceptable y su alto coste de cómputo. No

Julio 2008 27

obstante, en la actualidad se pueden hacer ya estos cálculos en tiempos razonables, sobre todo si se hace uso de procesadores en paralelo y en arquitecturas dedicadas de bajo coste. Entre los algoritmos propuestos, el algoritmo MLEM usando subconjuntos ordenados (OSEM), está mostrando ser el que ofrece resultados más fiables. El deterioro de la calidad de imagen después de un determinado número de iteraciones, fenómeno bien conocido en reconstrucción iterativa, es el segundo punto principal a resolver durante la implementación y aplicación de estos métodos. La regularización Bayesiana o las aproximaciones con post filtrados se están convirtiendo hoy en los métodos preferidos para controlar el ruido en las imágenes reconstruidas [8].

A modo de ejemplo, se muestran dos imágenes de una rata obtenidas mediante 3D-OSEM con un escáner eXplore-Vista [9] para pequeños animales en el Laboratorio de Imagen Médica del Hospital Gregorio Marañón.

1. Combinación de las técnicas PET/CT La técnica PET proporciona una imagen funcional, no disponible con otras técnicas como

la Resonancia Magnética o la Tomografía Axial Computerizada (TAC). Sin embargo, la resolución espacial de PET está intrínseca limitada, y por lo tanto no genera una representación tan detallada de la estructura del órgano como la TAC ó la MRI.

La combinación de la técnica PET con la TAC o MRI nos dará una información dinámica dentro de una imagen estructural detallada del cuerpo.

A modo de ejemplo se muestran unas imágenes obtenidas con el escáner rPET/CT del Laboratorio de Imágen Médica del Hospital Gregorio Marañón.

5-) CONCLUSIONES

Las conclusiones que se pueden extraer del estudio realizado son las siguientes:

Figura 8: Ejemplos de reconstrucción de imagen con 3D-OSEM en PET. A la izquierda: adquisición ósea con Fluorina F-18. Ratón de 30 g, dosis inyectada de 900 μCi. (eXplore VISTA [9]). A la derecha: Adquisición de

cuerpo entero con FDG, ratón de 25 g, dosis inyectada de 380 μCi. (eXplore VISTA [9])

Figura 9: Ejemplos de fusión PET/CT en PET. A la izquierda: fusión de imágenes FDG-PET y CT de un ratón (escáner rPET/CT [6]). A la derecha: imagen fusionada FDG-PET/CT de un cerebro de rata (escáner rPET/CT [6])

Julio 2008 28

I. La técnica PET ofrece imágenes del metabolismo de un paciente en estudio al que se le han inyectado moléculas marcadas con un determinado núcleo radiactivo, emisor de positrones (11C, 13N, 15O, 18F).

II. Es un buen ejemplo de las muchas aplicaciones de la física nuclear a la medicina. III. Poseer un modelo realista de los procesos físicos presentes en la emisión y detección

de las radiaciones es de gran importancia a la hora de obtener imágenes realistas y de alta calidad para estudios biomédicos en PET.

IV. La fusión de las técnicas PET con TAC ó MRI nos proporciona una imagen funcional combinada con una imagen estructural.

6-) BIBLIOGRAFÍA [1] Evaluación de las características y rendimiento de escáneres PET de pequeños

animales. Esther Vicente Torrico. Trabajo para la obtención del DEA. http://nuclear.fis.ucm.es/research/thesis/dea_esther.pdf

[2] Mejora de la identificación del cristal de interacción en escáneres PET de alta resolución mediante simulaciones. Jacobo Cal González. Trabajo Académicamente Dirigido.

http://nuclear.fis.ucm.es/research/thesis/trabajo_dirigido-jacobo.pdf [3] Mejora de la identificación del cristal de interacción en escáneres PET de alta

resolución. Catherine Murphy-OĆonnor Cantillo. Trabajo Académicamente Dirigido. http://nuclear.fis.ucm.es/research/thesis/trabajo-catherine-julio7-2006.pdf [4] PeneloPET: Un entorno de simulación Monte-Carlo para la tomografía por emisión

de positrones. Samuel España Palomares. Trabajo para la obtención del DEA. http://nuclear.fis.ucm.es/research/thesis/samuel_dea.pdf

[5] Radiation detection and measurement. Glenn F. Knoll

[6] http://hggm.es/imagen

[7] Hamamatsu: Flat panel type multianode photomultiplier tube asseinglembly: H8500, H8500B

[8] http://nuclear.fis.ucm.es/becarios/fisica_medica.htm

[9] http://www.suinsa.com

Julio 2008 29

El Viaje de los Rayos Cósmicos María Gómez Rocha y Jose Luis Blázquez Salcedo

Resumen

En este artículo se describen las etapas que atraviesa un rayo cósmico desde su origen hasta su llegada a la tierra y detección. Consideraremos las distintas posibilidades de generación y propagación, así como algunos de los métodos de detección que se utilizan actualmente.

2. Un Poco de Historia

El descubrimiento de los rayos cósmicos ocurre en parte por accidente. A principio del siglo XX las investigaciones en torno a la radiactividad eran muy intensas y ya se sabía que “misteriosamente” el aire se encuentra en continua ionización (a un ritmo importante, 10-20 átomos por cm3 cada segundo). Por aquel entonces no había nada que indujese a pensar en un proceso distinto a la radiactividad terrestre, así que se suponía que a alturas suficientemente alejadas del suelo se dejaría de encontrar ionización ambiental.

Víctor Hess, de Austria, alcanzó a hacer en 1912 medidas en globo a una altura de 5 Km. Los resultados fueron desconcertantes: la ionización aumentaba fuertemente con la altura. Los datos le sugerían que una radiación con un poder de ionización muy elevado incidía sobre la atmósfera procedente del espacio exterior.

Kohlhöster, en Alemania, hizo medidas a 9 Km de altura, encontrando que la ionización era 50 veces superior que en la superficie. Millikan, pensando en demostrar que Hess estaba equivocado, refinó las medidas experimentales. Sin embargo todos los resultados avalaban la hipótesis de Hess. Algo estaba ionizando la atmósfera terrestre y venía de fuera. El propio Millikan bautizó estos objetos con el nombre de Rayos Cósmicos.

En los treinta años que siguieron a esta polémica, el interés sobre los rayos cósmicos se debió entre otras cosas a que se trataba de la única fuente de partículas de alta energía disponible. Fue un gran éxito que la electrodinámica cuántica diese en 1940 con una explicación factible de la lluvia de rayos cósmicos, descubierta en 1929 por Skobelzyn. Skobelzyn observó estas cascadas directamente en una cámara de niebla y unos años más tarde, en 1934, Carl Anderson descubre en ellas el positrón (predicho por Dirac seis años antes). En estas mismas cascadas se descubrieron otras partículas como el muón.

Destaca en los años 40 el físico español Arturo Duperier (nacido en Pedro Bernardo, Avila, 1896, y profesor de esta universidad Complutense), exiliado a Inglaterra tras la Guerra Civil Española. Alcanzó un importante prestigio internacional por sus numerosos estudios sobre rayos cósmicos y diversas propiedades que descubrió en las cascadas de partículas.

Con el rápido progreso de los aceleradores de partículas en los años 50 y 60, los rayos cósmicos perdieron interés. En los aceleradores se podía hacer física de altas energías con mayor libertad y no limitarse a la mera observación, siempre menos práctica.

Hasta el desarrollo de la técnica aeroespacial no se contó con observaciones directas sobre los rayos cósmicos primarios. Esto ha permitido a los científicos conocer

Julio 2008 30

la composición y la energía de estos objetos, así como comprender un poco mejor su origen.

3. Características Principales de los Rayos Cósmicos

Habitualmente se distingue entre rayos cósmicos primarios y secundarios. Por rayos cósmicos primarios se entiende todo el torrente de partículas cargadas procedente del espacio que constantemente bombardea la atmósfera terrestre. Los rayos cósmicos

secundarios son aquellas partículas que resultan de la interacción nuclear entre los rayos primarios y los núcleos atómicos atmosféricos. Comenzaremos estudiando los primeros.

Cuando se representa en una gráfica el flujo de rayos cósmicos primarios como función de su energía se encuentra el Espectro de Rayos Cósmicos (figura 1). Se trata de un espectro que sigue una potencia, esto es: F ≈ K·E-γ. Explicar porqué el espectro es de esta forma sería un gran logro, y en el siguiente capítulo se exponen las hipótesis que mas convencen a la comunidad científica a día de hoy. Se distinguen dos puntos clave: la rodilla (1015 eV) y el tobillo (1019 eV). Estos puntos nos dan pistas acerca del posible origen de los rayos cósmicos, y nos permite clasificarlos en tres tipos: Rayos poco energéticos de origen solar (hasta 1010 eV), rayos cósmicos galácticos con origen en las explosiones de supernova (hasta la rodilla), y partículas de alta energía, de origen incierto y cuyo flujo es muy bajo, de 1 partícula por kilometro2 al año. El 15 de Octubre de 1991, en Dugway, Utah, se detectó la partícula mas energética conocida por el momento, un protón apodado jocosamente “Oh-my-God Particle”, de energía aproximada 3·1020 eV. Su masa equivalente era semejante a la de una bacteria.

A continuación profundizaremos en el origen de cada tipo de rayo cósmico primario.

V. Origen de los Rayos Cósmicos

1. Partículas Energéticas Solares

Los rayos cósmicos de menor energía, de aproximadamente hasta 1010eV, tienen su

Figura 1: Espectro de los Rayos Cósmicos

Figura 2: Ejemplo de Fulguración Solar

Julio 2008 31

origen en el sol y se conocen como viento solar o SEP (Solar Energetic Particles). Se aceleran en el sol como resultado de gigantescas explosiones en la atmósfera solar (llamaradas solares) y también en la eyección repentina de plasma desde la corona solar (figura 2). El campo geomagnético de nuestro planeta desvía la mayor parte del viento solar que el sol proyecta sobre él, protegiéndonos de estos rayos tan energéticos que de otra forma serían letales para nosotros. Y es que, aunque son partículas considerablemente menos energéticas que las del resto del espectro de rayos cósmicos, su flujo es muy superior. Esto supone un problema técnico bastante importante en todo lo referido a viajes espaciales. Estas partículas son capaces de atravesar el casco de las naves espaciales, y si estas salen del campo geomagnético, la tripulación y sus sistemas electrónicos pueden sufrir graves daños.

2. Aceleración en Supernovas

Actualmente existe bastante consenso a la hora de atribuir a las Supernovas la producción de Rayos Cósmicos de entre 1010 y 1015 eV. El mecanismo, a grandes rasgos, es el siguiente:

Las explosiones de Supernova constituyen uno de los fenómenos más violentos observados en el universo. Acontecen en el estadio final de la evolución de estrellas con masas mayores a 4 veces la solar. Estas son capaces de realizar la fusión de elementos pesados hasta producir hierro y trazas de elementos con aún más nucleones, pero al terminarse en su interior el combustible nuclear, no son capaces de mantener el equilibrio hidrostático, por lo que el núcleo de la estrella colapsa.

Las densidades en el interior de la estrella son tan elevadas, que electrones y protones se combinan para formar neutrones, liberando gran cantidad de neutrinos. Estos neutrinos enfrían la estrella, pues portan energía y apenas interaccionan con la materia, por lo que la estrella vuelve a colapsarse debido a que ya no hay electrones degenerados que sustenten su peso. Sin embargo el principio de exclusión de Pauli, esta vez para neutrones, detiene el colapso en un proceso que dura 1/4 de segundo. El núcleo de neutrones degenerados se frena, provocando una onda de choque tremenda en las capas interiores de la estrella y que viaja hacia el exterior. Sin embargo las capas exteriores de la estrella también colapsan (de hecho se comprimen con un 15% de la velocidad de la luz). De camino encuentran a la onda de presión que expulsa hacia fuera todo el material. Se trata de una onda de choque supersónica, con energía suficiente como para que en esta colisión ocurran nuevas reacciones nucleares, con formación de metales más pesados que el hierro.

Al final lo que resulta es una nube de materia en expansión (conocida como resto de supernova, figura 3) en cuyo interior habitualmente se encuentra la estrella compacta, consecuencia del colapso del núcleo de la estrella primigenia. Esta nueva estrella genera un campo magnético muy potente, que es perturbado en las inmediaciones del frente de ondade

Figura 3: Restos de la Supernova de Eta Carinae

Julio 2008 32

choque. Este campo magnético perturbado genera un campo eléctrico, capaz de acelerar partículas que atraviesen eventualmente el frente (figura 4).

En principio estas partículas no son otra cosa que núcleos atómicos dispersos por las inmediaciones de la supernova. Estos se mueven sobre las líneas de campo magnético, que como son perturbadas por el shock, generan un campo eléctrico que proporciona diferencia de potencial a la partícula. Por cada transito a través del shock, la partícula gana energía, hasta que eventualmente logra la suficiente como para escaparse al medio interestelar.

El mecanismo es fundamentalmente una aceleración estocástica de partículas por dispersión en una nube magnética (teniendo en cuenta el frente en expansión). Con modelos de este tipo se obtienen resultados muy positivos. El espectro predicho es de tipo potencia, y además el valor numérico de este es muy próximo al medido. La energía máxima típica que puede alcanzar una partícula mediante este proceso es de 1015 eV. No es poco en absoluto, pues a esta energía encontrábamos lo que llamamos "rodilla" del espectro.

3. Rayos Cósmicos de Alta Energía

Por tanto no es factible que partículas con energías por encima de los 1015 eV se aceleren en supernovas, y aun no hay seguridad sobre su origen. Sin embargo la investigación en este campo es activa. El observatorio Pierre Auger confirmó en Noviembre de 2008 haber encontrado correlación entre los núcleos activos de galaxias y las trayectorias de los rayos cósmicos más energéticos. De hecho, aunque la investigación apenas ha comenzado, se tienen indicios de que esas partículas tan energéticas provienen de los núcleos galácticos activos más próximos a nosotros (al menos hasta unos 200 millones de años luz, figura 5) Los Núcleos Activos de Galaxias o AGN estarían formados por objetos muy compactos, posiblemente agujeros

negros súper masivos. A su alrededor se forma un disco de acreción de plasma, con un campo magnético muy intenso, capaz de liberar hasta la mitad de la energía en reposo de la materia. A este tipo de objetos corresponden las galaxias Seyfert, los quásares y los blázares. El proyecto Auger recién iniciado ya ha dado los primeros resultados positivos a este respecto (figura 6).

Figura 4: Aceleración Estocástica de Partículas: frente de choque de una Supernova

Figura 5: Chorro de Materia del Núcleo

Activo de la Galaxia M87.

Julio 2008 33

Es posible que los rayos cósmicos también se formen por otros mecanismos, como agujeros negros. Otras evidencias muestran que ciertos rayos cósmicos proceden del disco galáctico. Se han detectado rayos cósmicos anómalos procedentes del objeto Cygnus X-3, que no hay que confundir con el agujero negro Cygnus X-1. Estos rayos cósmicos hacen pensar que se trate de una estrella de neutrones o quizá algo más exótico, como una estrella de quarks.

VI. Un Viaje Cósmico

2. Propagación y Efecto del Campo Magnético Galáctico

Una vez las partículas han sido aceleradas hasta una cierta energía, y tras liberarse de la fuente que las emitió, comienzan a propagarse como rayos cósmicos por el medio interestelar. En función de la energía que porten, su propagación será de una forma u otra. Recordemos que son partículas cargadas, y que en el medio interestelar encontramos nubes de materia y campos magnéticos y de radiación…

Las partículas con menos energía, de origen solar, tendrán una propagación corta por el sistema solar, y se verán alterados fundamentalmente por los campos magnéticos terrestres y solares.

Los rayos cósmicos de origen galáctico, pese a haberse formado en fuentes concretas, no nos proporcionan información acerca de su origen. De hecho las observaciones con satélite de los rayos cósmicos primarios muestran isotropía en su distribución.

Si bien la partícula ya no guarda información acerca de la fuente que la emitió, en su viaje puede dejar un rastro que nos sirva de

Figura 6: Primeras correlaciones debidas al Proyecto

Auger entre AGN (azul) y fuentes de alta energía (rojo) (naranja)

Figura 7: Rayos Gamma en la Vía Lactea

Figura 8: Ejemplo de Campo Magnético Galáctico

en la galaxia espiral M51

Julio 2008 34

pista. Y en efecto, se observan rayos gamma muy energéticos, 10 -1000 MeV, que debe ser resultado de la interacción de los rayos cósmicos con la materia del medio interestelar (figura 7).

El hecho de que casi toda esta radiación gamma provenga del disco galáctico nos dice qué algo confina a los rayos cósmicos en el. La radiación gamma emitida se entiende fácilmente si pensamos en los efectos Bremsstrahlung y Compton.

En ocasiones estas colisiones producen isótopos radiactivos, como el 10Be. Es un elemento útil porque nos sirve para estimar cuanto tiempo están atrapados los rayos cósmicos en el medio galáctico antes de poder escaparse de él. Se estima que este tiempo es de 10 millones de años.

¿Qué es lo que mantiene atrapados a los rayos cósmicos en la galaxia? Como es de esperar, un campo magnético.

Nuestra galaxia, y en general cualquier galaxia, posee un campo magnético global del orden de 10-10 Teslas. Es un campo magnético muy complejo, y a nivel local puede ser altamente irregular, dependiendo del objeto astronómico que exista en las inmediaciones. Pero en general, mediciones de la polarización de la luz estelar y otros experimentos, señalan que el campo magnético está contenido en el plano galáctico y se distribuye con la densidad de materia, es decir, en los brazos espirales (figura 8). Se trata por tanto de un problema de magneto-hidrodinámica, con modelos detallados que explican bastante bien fenómenos como la difusión, convección y ganancia de energía que experimentan los rayos cósmicos en su viaje por la galaxia.

Para energías superiores a los 1016 eV nos situamos por encima de la rodilla del espectro de rayos cósmicos. Fundamentalmente lo que ocurre con estas energías es que el campo magnético galáctico no es lo suficientemente potente como para mantener atrapadas a las partículas, que terminan por escaparse y convertirse en lo que llamamos rayos cósmicos extragalácticos. En este caso las partículas poseen una energía tan grande, que estos procesos de dispersión no les influyen apenas, y por eso la distribución es anisotrópica, permitiéndonos reconocer su fuente de origen (figura 6).

3. Efecto de la Espalación sobre la Composición

Sea cual sea el origen del rayo cósmico y su energía particular, si medimos una cantidad suficiente de ellos la composición que encontraremos será una distribución como la que muestra la figura 9. En rojo se muestra la abundancia en el sistema solar y en azul la propia de los rayos cósmicos galácticos. La abundancia es muy similar pero sin embargo hay elementos cuya abundancia es notablemente mayor para los rayos cósmicos. Se encuentra una gran anomalía en los elementos Li, Be, y B. La explicación es que estos elementos se forman abundantemente cuando protones de alta energía colisionan con átomos de C, N y O. A este fenómeno se le conoce como espalación. Estos elementos producidos son inestables, y por eso en particular la proporción de Be sirve como indicador en el estudio de la interacción de los rayos cósmicos con el campo magnético galáctico. Lo mismo ocurre con el grupo Sc, Ti, V, Cr y Mn.

Figura 9: Comparación de abundancias de elementos

Julio 2008 35

4. Influencia del Campo Magnético Solar

A medida que los rayos cósmicos se introducen en nuestro Sistema solar, su trayectoria debe curvarse en la heliosfera, todo el espacio dominado por el campo magnético solar. El Sol posee una capa externa o atmósfera solar que se encuentra en continua expansión, debido a las altas temperaturas a las que se encuentra, que permite superar incluso la fuerza gravitatoria del astro. Esta expansión de la atmósfera genera un plasma, consistente en un gas altamente ionizado, que como se mencionó en la sección II, es conocido como viento solar. Cuando los rayos cósmicos extrasolares se adentran en el Sistema solar su trayectoria se enfrenta principalmente a dos efectos: el del viento solar, que tiende a expulsarlos del Sistema, y el del campo magnético solar, que las atrae hacia su interior. El movimiento de rotación del Sol y la inclinación de eje dipolar magnético hacen que estos efectos dependan del tiempo, encontrándose en consecuencia variaciones temporales en el flujo de partículas recibidas en La Tierra. A estas variaciones hay que añadir las relacionadas con la actividad del Sol, como son las manchas solares, fáculas, protuberancias, filamentos, espículas, ráfagas… Pero estos efectos no se discutirán en detalle aquí.

5. A través del Campo Magnético Terrestre

El último tramo de las partículas cargadas que tienen como destino nuestro planeta está ocupado por el campo magnético terrestre. Dijimos al principio que las observaciones con satélite de los rayos cósmicos primarios muestran isotropía en su distribución. Sin embargo, al ser partículas cargadas tienden a enrollarse en las líneas de campo. Para que estas partículas puedan finalizar su trayectoria sin apenas desviarse, deben tener una cierta “rigidez”, propiedad que está relacionada con su energía, con la intensidad del campo magnético y la latitud. De esta manera, para una latitud y una región del espacio, existe una energía por debajo de la cual ningún rayo puede evitar colisionar con la atmósfera. Sólo partículas con energías muy elevadas podrían proporcionarnos información sobre sus fuentes.

Figura 10: Líneas del campo magnético terrestre

Julio 2008 36

VII. Incidencia en la Tierra

3. Cascadas Atmosféricas

Finalmente, cuando el rayo cósmico toma contacto con la atmósfera, comienza a interaccionar con los componentes de la misma, mediante colisiones que conllevan reacciones nucleares, en las cuales los núcleos atmosféricos y la partícula primaria se fragmentan en núcleos secundarios y se producen nuevas partículas; todas ellas continúan el viaje hacia la superficie terrestre. Este fenómeno se conoce como lluvia o cascada atmosférica. Gran parte de las partículas producidas en estas reacciones son piones neutros, positivos y negativos (π0, π+, π-), que pueden desintegrarse o bien colisionar nuevamente produciendo nuevas partículas. El pión π0 está involucrado en la parte de la cascada conocida como componente electromagnética, ya que se desintegra en dos fotones, los cuales a continuación producen pares e--e+. Éstos se aceleran en los campos de los núcleos cercanos que atraviesan, creando fotones, que viajan con ellos en dirección a la tierra. El resultado de este proceso es una lluvia de electrones y fotones que se acercan a la superficie en forma de disco. Este disco va creciendo en superficie a medida que las partículas van avanzando, debido a la dispersión Coulombiana que se produce con los núcleos que encuentran en el camino.

Por otro lado, los piones cargados π+ y π-, pueden desintegrarse en un muón y un neutrino. El muón se desintegra en un e- y dos neutrinos. A pesar de su corta vida media, por viajar a velocidades cercanas a la de la luz, el tiempo de vida medio de los muones medido desde el sistema de referencia Tierra resulta mayor, ya que se ven afectados por la dilatación temporal relativista., El muón puede detectarse fácilmente en la tierra, dado el rastro de ionización que produce a su paso.

Figura 11: Cascada atmosférica

Julio 2008 37

4. Detección de Rayos Cósmicos

Una vez conocido el tipo de partículas que llegan a la Tierra, se pueden utilizar distintos métodos experimentales para detectarlas, en función de su energía y de la clase de partícula que finalmente llega al suelo.

En ocasiones pueden utilizarse métodos de detección directos, que permitan recoger y examinar la partícula primaria. Para ello los dispositivos de detección son transportados a alturas muy elevadas, donde el rayo cósmico aún no haya desencadenado una cascada de reacciones. Esto puede hacerse mediante globos o satélites.

Pero si lo que pretendemos detectar son partículas de muy alta energía, al ser éstas mucho menos frecuentes, es preferible detectar en tierra los millones de productos generados en la cascada, que ocuparán, en general, grandes extensiones de terreno. Los dispositivos que utilizan esta técnica se conocen como detectores indirectos.

Algunos dispositivos de este tipo se describen a continuación:

Matriz de contadores

Esta técnica se utiliza para detectar la componente electromagnética, ya que consiste en dispositivos capaces de interaccionar con partículas cargadas, midiendo además el instante de tiempo en que se produjo la interacción. Estos detectores se sitúan repartidos y ordenados en amplias extensiones de tierra, de modo que, en conjunto, permiten medir la densidad superficial del disco, así como la dirección de llegada, obtenida por comparación de tiempos. El método de detección se basa en la excitación y posterior desexcitación del material que constituye el dispositivo, que produce un flash de luz que es detectada por un fotomultiplicador.

Observación de luz Cherenkov

Figura 12: Matriz de contadores del experimento HEGRA

Figura 13: Parte trasera de un tanque Cherenkov. Observatorio Pierre Auger

Julio 2008 38

Cuando una partícula cargada se mueve en un medio dieléctrico a una velocidad superior a la de la luz en ese dieléctrico, se produce la emisión de una radiación conocida como luz Cherenkov. Esta radiación puede detectarse directamente utilizando fotomultiplicadores; de modo similar a la detección de la componente electromagnética se puede obtener información acerca de la dirección de llegada y de la energía del rayo, a partir del disco de fotones. Esta vez el disco es mucho más pequeño, ya que como los fotones no son partículas cargadas, no se ven afectados por colisiones elásticas con los núcleos, como les ocurría a los electrones.

Detectores de fluorescencia

En el proceso de formación de la cascada que se explicó al principio, las moléculas atmosféricas sufren continuas excitaciones. Al desexcitarse, estas moléculas emiten una radiación de fluorescencia que puede detectarse mediante dispositivos especiales, conocidos como Ojo de Mosca, ya que reciben la radiación desde todas las direcciones.

VIII. Conclusiones

El estudio de los rayos cósmicos involucra, como hemos podido comprobar, a muchas ramas de la física. En el viaje de los rayos cósmicos, desde su origen hasta su detección, actúan todas las fuerzas físicas conocidas, incluídas las dos fuerzas nucleares fuerte y débil. Pese a que el interés en esta materia disminuyó con la aparición de los primeros aceleradores de partículas, en las últimas décadas esta rama experimental se ha revitalizado notablemente, encaminándose hacia la investigación en campos como la astrofísica y la cosmología. Hoy en día la investigación en rayos cósmicos nos permite obtener información acerca de sus fuentes (supernovas, agujeros negros…) y sobre su composición. También nos permite conocer la estructura a gran escala del Universo, permitiéndonos contrastar nuestros modelos cosmológicos teóricos.

IX. Referencias - Stanev, Todor. High Energy Cosmic Rays. 2ª Edición. Springer-Praxis. Berlin,

2004. - Friedlander, Michael W. Cosmic Rays. 1ª Edición. Harvard University Press.

Washington, 1990. - A. Otaola, Javier y F. Valdés-Galicia, José. Los Rayos Cósmicos: Mensajeros de

las Estrellas. 2ª Edición. Fondo de cultura económica. México, 1995. Disponible en http://bibliotecadigital.ilce.edu.mx

- Arqueros, Fernando. Rayos Cósmicos: Las Partículas más Energéticas de la Naturaleza. Revista A Distancia, Uned. Madrid 1994. Disponible en http://sagan.gae.ucm.es/fisica/report.html

- Fernández, A., García, E., Salazar, H., Valdés , J., Villaseñor, L. y Zepeda, A.”El Observatorio Pierre Auger de rayos cósmicos”, sitio web "Sociedad Mexicana de Física", consultado el 17/ 11/2008. URL: http://www.smf.mx/boletin/Oct-96/articles/auger.html

Figura 14: Detector “Ojo de Mosca”

Julio 2008 39

- Albrecht Unsöld. The New Cosmos: An Introduction to Astronomy and Astrophysics. 5ª Edición. Springer, 2001

- Giacalone, Joe y Jokipii, J.R. Shock Acceleration of High-Energy Cosmic Rays: The Importance of the Magnetic-Field Angle. Department of Planetary Sciences, University of Arizona, Tucson, 2005

- Correlation of the Highest-Energy Cosmic Rays with Nearby Extragalactic Objects, The Pierre Auger Collaboration (9 Noviembre, 2007) Science 318

- Pagina Web del Observatorio Pierre Auger. http://www.auger.org.

Julio 2008 40

1. INTRODUCCIÓN: TEORÍA DE MATRICES ALEATORIAS

La Teoría de Matrices Aleatorias (Random Matrix Theory) nació hacia finales de los años cincuenta y principios de los sesenta de la mano de Wigner, Dyson y Mehta. En principio se formuló para dar una interpretación a los niveles muy excitados de los núcleos pesados, donde el modelo de capas no es aplicable. La idea inicial fue, dado el desconocimiento de los detalles de la interacción nuclear, prescindir de los mismos y realizar una descripción estadística. Es decir, renunciar al estudio en detalle de un núcleo concreto y tratar de encontrar propiedades que caractericen el conjunto de espectros nucleares en general. De hecho, la RMT se podría interpretar como una “clase” de física estadística; al contrario que esta, que dado un hamiltoniano con unas propiedades determinadas propone una colectividad de sistemas (colectividades microcanónica canónica y macrocanónica) que se ajustan a dicho hamiltoniano, la teoría de matrices aleatorias propone una colectividad de hamiltonianos para describir un sistema (en este caso, el núcleo). El núcleo complejo se modela como una caja negra en la que las partículas interaccionan de modo desconocido. Esto nos lleva a escribir el hamiltoniano del núcleo como una matriz cuyos componentes son elegidos al azar, considerando como única restricción las simetrías de nuestro sistema e imponiendo a los elementos de matriz una distribución de máxima incertidumbre. La teoría de matrices aleatorias se ha vinculado en los últimos años con el caos cuántico, pero no es su única aplicación, hasta el punto en que hoy en día se considera una disciplina en sí misma. En la siguiente imagen, la primera comprobación experimental en física nuclear de esta ley de espaciamientos a primeros vecinos; datos del “nuclear data ensemble”.

Estas son las distribuciones de espaciamientos a primeros vecinos propias de los sistemas caóticos, según la conjetura de Bohigas, Giannoni y Schmit, o conjetura BGS

Julio 2008 41

(esta en principio sólo fue formulada para el GOE), que fue formulada en 1984 por Bohigas, Giannoni y Schmit: “Las fluctuaciones del espectro de sistemas cuánticos invariantes bajo inversión temporal cuyos análogos clásicos son sistemas caóticos son igual a las predichas por el GOE”. En la imagen se muestran los resultados para el estadio o billar de Sinaí en los que se basó la conjetura BGS. No deja de ser sorprendente cómo dos sistemas tan diferentes como un billar cuántico y un núcleo atómico presentan las mismas fluctuaciones espectrales. Analizaron espectros experimentales de una gran cantidad de núcleos atómicos distintos, y encontraron que la distribución de espaciamientos a primeros vecinos podía ser descrita perfectamente por la curva de Wigner para el GOE. Todavía no se ha demostrado satisfactoriamente la conjetura BGS. Todos los intentos de demostrarla se basan en algún tipo de aproximación semiclásica.

2. COLECTIVIDADES CLÁSICAS Y DE GINIBRE El desarrollo principal del presente trabajo se basará en el estudio de matrices aleatorias complejas, en ausencia de cualquier clase de simetría. Intentaremos verificar la validez de los cálculos asociados a las matrices aleatorias complejas, y encontrar analogías con lo ya conocido en matrices aleatorias con espectro de autovalores real. 2.1.1 Colectividades Gaussianas Antes de abordar directamente este tema, recordaremos brevemente en qué consisten los tipos de colectividades gaussianas más usuales en física. Se consideran principalmente tres tipos de hamiltonianos o clases de universalidad, que, atendiendo a la simetría del problema, dan lugar a la definición de otras tantas colectividades: - Colectividad GOE: compuesta por matrices aleatorias, hermíticas y simétricas. - Colectividad GUE: compuesta por matrices aleatorias y hermíticas. - Colectividad GSE: compuesta por matrices hermíticas y autoduales. - Colectividad GDE: O colectividad de Poisson; compuesta por matrices diagonales

y reales. Salvo en el caso del GDE, cuyos autovalores son directamente los elementos generados, las otras tres distribuciones de probabilidad dan lugar a un espectro de energías que se caracteriza por la presencia de correlaciones entre los distintos niveles (esto es, cada nivel de energía no puede generarse mediante una variable aleatoria independiente). La distribución de probabilidad ),...,( 11 mmHHp de los elementos de matriz no debe depender de la base a la que se aplica. Por tanto

)',...,'(),...,( 1111 mmmm HHpHHp =

Dicha relación implica que la distribución de probabilidad sólo puede depender de trazas de potencias de H. Además supondremos que los elementos de matriz no están correlacionados:

)()...()(),...,( 121111 mmmm HpHpHpHHp =

Julio 2008 42

La única forma funcional que obedece ambas condiciones es la siguiente:

⎥⎦

⎤⎢⎣

⎡−⎟

⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛= ∑

jiij

mmm

mm HAAAHHp,

24/)1(2/

11 exp2),...,(ππ

Diagonalizando el hamiltoniano, podemos expresar la distribución de probabilidad en función de los valores propios de H. La siguiente expresión recoge los resultados de las tres colectividades y para un número arbitrariamente grande de la dimensión de la matriz:

)E(AN...N

eEEC)E(P∑

−= =

<∏ 1

21μ

μ

νμ

β

νμ

Donde β (índice de repulsión) es 0,1, 2 o 4 para las colectividades GDE, GOE, GUE y GSE respectivamente, y C es una constante que se obtiene normalizando la densidad de probabilidad, integrando sobre todo el eje real.

Se observa que todas estas colectividades poseen una propiedad en común: la hermiticidad. Este es el motivo por el cual son relevantes en física, sobre todo en lo que al mundo cuántico se refiere. Todo observable cuántico ha de ser hermítico. Este requerimiento de hermiticidad, se traduce en que los autovalores de las matrices están contenidos en el eje real (como ha de corresponder a un sistema físico: su espectro de energías es real). Por ello, la necesidad de interpretar parte del espectro energético como los autovalores de una matriz han restringido la atención a colectividades cuyo espectro está contenido en una dimensión. 2.1.2 Colectividad de Ginibre Es la situación en la que nos encontramos con las matrices aleatorias complejas; al no ser hermíticas, sus autovalores pueden ser complejos, y estos se distribuirán adecuadamente en un disco de tamaño N , siendo N la dimensión de la matriz. La colectividad asociada a este tipo de matrices es debida a Jean Ginibre y como tal lleva su nombre. En el artículo original, Ginibre estudia la distribución de autovalores y correlaciones tanto de matrices aleatorias complejas, simplécticas y reales; el motivo de este orden de estudio es su dificultad. Para el caso de matrices aleatorias complejas, se conoce una expresión analítica tanto de la distribución de autovalores en el plano complejo, como de las correlaciones a N puntos Eliminando el requerimiento de hermiticidad en el GUE, pasamos de una colectividad de matrices unitarias, a una colectividad gaussiana de matrices con autovalores complejos arbitrarios, llamada colectividad de Ginibre. La distribución de probabilidad conjunta es similar a la calculada para el GOE:

)z(N...

jijiNn

N

ii

ezzC)z,...,z(P∑

−= =

<

∏ 1

21 21

1 π

A diferencia del GOE, la constante C se obtiene integrando sobre variables de Grassman en todo el plano complejo. Una vez calculada la constante de normalización, la distribución de probabilidad es:

∏∏<=

−⎟⎟

⎜⎜

⎛=

N...

jiji

N...

k

z

n zz!k

e)z,...,z(Pk 1 21

11

2

π

Julio 2008 43

2.2 Análisis espectrales Antes de hacer cualquier estudio acerca de las fluctuaciones espectrales, debemos hacer un reescalado (unfolding) de energías del sistema con el valor de la densidad media. Esta última se calcula integrando sobre todas las variables la distribución de probabilidad conjunta. Para la colectividad de Poisson, tenemos que la densidad de autovalores es:

2

)( EeEg −= En el caso de las colectividades GOE GUE y GSE, dando lugar a la conocida ley del semicírculo de Wigner, característica de los sistemas caóticos:

∫ <−

== 1,12),...,,(...)(2

22 EEEEEPdEdENEg NN π

En rojo, la ley del semicírculo de Wigner, y en verde la distribución de autovalores para una colectividad de Poisson (como no podía ser de otra manera, se trata de una gaussiana). Al no ser esta densidad media constante, no podemos realizar directamente el estudio de las fluctuaciones, ya que están influidas de distinta manera por la densidad media. ,

Veamos qué pasa para la colectividad de Ginibre: la densidad de probabilidad para un solo autovalor se obtiene integrando la densidad de probabilidad conjunta sobre todas las variables de Grassman, menos sobre la que estamos calculando dicha probabilidades:

π

22

12

2

11

12

22

1

kzN...

kk

zN...

jNN

ezde!jN)z,...,z(Pzd...zdN)z(P)z(g ∏∫∏∫ −

⎟⎟⎠

⎞⎜⎜⎝

⎛=== ∫ ∑∏∏ ⎟

⎞⎜⎝

⎛−⎟⎟

⎞⎜⎜⎝

⎛ −−N...

in

n*m

imn

*i

N...

m

N...

ll

*l zzdd

111

11

ηηηη

Donde hemos hecho uso de expresiones anteriores para simplificar la densidad de probabilidad conjunta. Haciendo las N-1 integrales sobre kz , la densidad )(zg queda:

⎟⎟

⎜⎜

⎛ −==

nnz

erfczPzg22

1)()(2

1 π

En este caso la densidad media es aproximadamente constante, por lo que puede describir directamente las fluctuaciones espectrales sin necesidad de recurrir al unfolding.

Julio 2008 44

3. DISTRIBUCIÓN DE ESPACIAMIENTOS A PRIMEROS VECINOS

La )s(P se define como la distribución de espaciamientos de primeros vecinos is , siendo iiis εε −= +1 . La )s(P mide las correlaciones de corto alcance en el espectro y la repulsión de niveles. La )s(P correspondiente a colectividades gaussianas puede calcularse a partir de las distribuciones de autovalores correspondientes, pero dicho calculo es complicado. En lugar de considerar matrices de dimensión arbitraria, Wigner realizó el cálculo para matrices de dimensión dos por dos, y obtuvo las siguientes expresiones:

⎪⎪⎪⎪

⎪⎪⎪⎪

⎟⎠⎞

⎜⎝⎛−

⎟⎠⎞

⎜⎝⎛−

⎟⎠⎞

⎜⎝⎛−

=

GSEss

GUEss

GOEss

sP

2436

18

222

2

964exp

32

4exp32

4exp

2

)(

ππ

ππ

ππ

que resultan ser muy buenas aproximaciones para matrices de dimensión arbitraria. En ellas observamos que sí existe repulsión. En la siguiente figura se muestran las distribuciones de espaciamientos a primeros vecinos para las tres clases de colectividades gaussianas, y la correspondiente a la ley de Poisson [6]. Observamos cómo hay repulsión en las tres colectividades, y no hay repulsión en el caso de Poisson.

Para valores pequeños de s, la curva que crece mas despacio es la del GSE, la siguiente sería la del GUE, y la que crece más deprisa es la del GOE, ya que según las expresiones el comportamiento de estas a s pequeño es:

⎪⎪⎩

⎪⎪⎨

=

GSEs

GUEs

GOEs

sP4

2)(

El exponente de s se denomina “exponente de repulsión”; se dice que el GOE tiene repulsión lineal, el GUE repulsión cuadrática, y el GSE repulsión cuártica. En el caso de niveles descorrelacionados, el exponente es cero. Distribución de espaciamientos en la colectividad de Ginibre: La distribución de espaciamientos a primeros vecinos se calcula a través de la probabilidad de que un autovalor tenga a su vecino más próximo a una distancia menor

o igual a “s”: ds

)s(dI)s(P = , donde la distribución de probabilidad integrada )s(I es:

>−−−−−−<−= )szz()...szz()szz()s(I N 113121 θθθ

Sin más que operar, obtenemos: 23 2

21 ses)s(P −=

Julio 2008 45

En la siguiente imagen se encuentran las curvas teóricas P(s) para matrices 2x2 y para el cálculo asintótico;

Existen discrepancias entre las distribuciones de espaciamientos para matrices 2x2 y matrices de dimensión superior (a partir de N=20 las curvas P(s) están en excelente acuerdo con las obtenidas para el desarrollo asintótico). Esto no ocurre en el caso de las colectividades clásicas, donde la aproximación de espaciamientos a primeros vecinos obtenida a partir de matrices 2x2 es prácticamente idéntica a la obtenida para matrices de orden arbitrariamente grande.

4. DENSIDAD DE AUTOVALORES Nuestro trabajo se centra en comprobar numéricamente los resultados obtenidos por Ginibre para la colectividad compleja; para ello estudiamos primero isotropía y homogeneidad de la distribución de autovalores: 4.1 Isotropía: Coordenadas en el eje ξ : Centroide, y potencias del centroide:

ξξ sinycosxu qqq += ∑=

=N

q

kq

k )(uN

)(u1

1 ξξ

Calculemos el valor medio del centroide sobre la distribución de autovalores:

{ } ( ) =+==⎟⎟⎠

⎞⎜⎜⎝

⎛= ∫∫∫ ∫ ∏

=

kkN

qq

k sinycosxzdN

)z(zPdN

)z(P)(uzd...)(u ξξπ

ξξ 21

21

1

2 11

∫∫∫ +=−

+=+=

++

ππ

πθξθ

πθξθξθ

π

2

0

222

0

1

0 221

)k(Nd)cos(

N)k(Nd)sinsincos(cosrdr

N

kkkk

N

Integrando:

⎪⎩

⎪⎨

+−=

parksi!)!k(!)!k(N

imparksi)(u k

212

Comprobemos esto numéricamente: Calculamos las primeras diez potencias de )(u ξ para ππππξ ,,,, 43240= : De aquí en adelante, los resultados son para matrices de dimensión 1600.

Julio 2008 46

4.2 Homogeneidad: Podemos decir entonces que la densidad de autovalores sólo depende de la distancia radial: )r(P),r(P)iyx(P)z(P ==+= θ En el caso de la homogeneidad, comprobaremos numéricamente que la densidad se comporta como la función error complementaria.

∫ ∫=π

θ2

0 0

R

drd)z(gr)R(n , derivando: )R(gRdR

)R(dn π2= RdR

)R(dnR

)R(g ∝=π21

Izquierda: Representación de la densidad radial numérica comparada con la predicción teórica para N >>1: Derecha: Histograma tridimensional de la densidad de autovalores en el plano complejo. Esta densidad converge rápidamente a un valor constante a medida que aumentamos la dimensión de la matriz.

0=ξ 4

πξ = 2πξ =

43πξ =

u 0,00000 0,00001 0,00001 0,00001

2u 1,00063 1,00063 1,00050 1,00065 3u 0,00008 0,00012 -0,00006 0,00001 4u 1,00187 1,00163 1,00179 1,00179 5u 0,00018 0,00020 -0,00015 0,00002 6u 1,00368 1,00337 1,00383 1,00354 7u 0,00029 0,00029 -0,00020 -0,00001 8u 1,00602 1,00576 1,00662 1,00608 9u 0,00043 0,00043 -0,00018 0,00005

10u 1,00908 1,00880 1,01014 1,00892

⎟⎟

⎜⎜

⎛ −=

nnz

erfczg22

1)(2

π

Julio 2008 47

Véase a simple vista este hecho en las siguientes imágenes: Una distribución de autovalores asociada a la colectividad de Ginibre, y una distribución de autovalores en el plano lanzados al azar (Poisson en 2D)

5. CÁLCULO DE LA P(S) Las siguientes imágenes se muestran las distribuciones P(s) calculadas numéricamente a través del programa Ginibre para una colectividad de 100 matrices, de dimensiones 100, 900 y 1600, y una comparación con la predicción teórica:

A la vista de los resultados, y en virtud de 23 2

21 ses)s(P −= , podríamos pensar en que

existe una “repulsión” cúbica, en analogía con las colectividades clásicas; veamos esto a través de un caso más claro, a ver si es verdadera esta “repulsión” entre autovalores:

Julio 2008 48

Para el GDE (o colectividad de Poisson), a través de la distribución de espaciamientos, observábamos descorrelación entre los autovalores (ausencia de repulsión); ¿será así también para el caso Poisson en dos dimensiones? Esta es la distribución de autovalores para una matriz de dimensión 1600 diagonal con autovalores complejos, así como su distribución P(s). Pese a que la distribución de autovalores en el plano se ha hecho a través de números aleatorios (es decir, estadísticamente independientes entre ellos) observamos que presentan correlaciones, ya que cerca del origen, P(s) 0→ . Esto se debe a que al pasar al plano complejo, hemos introducido el jacobiano, y es éste el que produce este efecto. Se infiere de este resultado que no es trivial la extensión del término “repulsión” que empleábamos en una dimensión.

6. PRÓXIMOS OBJETIVOS El cálculo de la P(s) en espectros reales resulta trivial, ya que es una secuencia ordenada de autovalores (izquierda). En cambio, en espectros bidimensionales existen distintos criterios: En la figura central se ejemplifica cómo puede hacerse. El hecho de eliminar el primer vecino, una vez este ha sido contado no parece en absoluto erróneo. Sin embargo cualquier bibliografía trabaja con una P(s) calculada a partir del gráfico de la derecha, considerando el primer vecino de cada punto sin eliminarlos recursivamente; eso puede variar significativamente la P(s).

Nuestra próxima meta es calcular la P(s) tal y como acabamos de explicar, así como verificar si esta colectividad compleja es capaz de caracterizar la distribución de partículas secundarias generadas por un rayo cósmico:

Julio 2008 49

La imagen de la izquierda muestra dicha distribución de partículas. A simple vista no se asemeja ni a la colectividad compleja ni a la de Poisson bidimensional, ya que la distribución de partículas no ha sido sometida al reescalado (unfolding) habitual para que la densidad media sea constante.A la derecha podemos ver dicha distribución reescalada.

RESUMEN Y CONCLUSIONES:

La presente memoria versa acerca de la teoría de matrices aleatorias complejas; antes de profundizar en dicho temas, hemos resumido los conceptos, fundamentos teóricos y aplicaciones más importantes de las colectividades hermíticas o clásicas más empleadas en física. Como ejemplo más significativo, hemos hecho hincapíe en el caos cuántico, ya que actualmente es la rama de la física en la que se encuentra mayor aplicación. Hemos hecho un estudio teórico de la colectividad de Ginibre compleja. Comprobamos con éxito los resultados teóricos mediante experimentos numéricos: Para el caso de la isotropía y homogeneidad, hemos podido ver cómo la distribución de autovalores se ajusta satisfactoriamente a la función error complementaria, y cómo a medida que aumentamos la dimensión de la matriz, los resultados van mejorando (nótese que debido a la pérdida de simetrías en las matrices, la convergencia hacia el valor teórico va siendo más lenta). Para las colectividades empleadas, las distribuciones de espaciamientos a primeros vecinos están en gran acuerdo con la curva teórica para el desarrollo asintótico. Esto es debido a la universalidad de las fluctuaciones. Por el contrario, no podemos hacer una analogía sencilla con las colectividades hermíticas, ya que no podemos hablar de repulsión cúbica en el caso de nuestra colectividad, y la definición de espaciamientos a primeros vecinos no queda del todo clara. Esto hace que no podamos encontrar sistemas físicos sencillos que vengan descritos por esta colectividad (es difícil encontrar analogía con la mecánica cuántica, ya que perdemos el concepto de hermiticidad, y por ello los autovalores están en el plano complejo, dejando de describir las energías de un sistema). REFERENCIAS:

1. MÜLLER-GROELING, A. WEIDENMÜLLER, Random matrix theories in quantum physics: common concepts (Elsevier).

2. M.L. MEHTA, Random matrices (Academic Press). 3. F. HAAKE, Quantum signatures of chaos (Springer). 4. J. GINIBRE, J. Math. Phys. 6 440 (1965). 5. O. BOHIGAS, M.J. GIANNONI, C. SCHMIT, Phys. Rev. Lett. 52, 1 (1984).

Julio 2008 50

HHAADDRROONNTTEERRAAPPIIAA

EE.. HHeerrrraannzz,, JJ.. LL.. HHeerrrraaiizz,, EE.. VViicceennttee,, SS.. EEssppaaññaa,, JJ.. CCaall--GGoonnzzáálleezz,, JJ.. MM.. UUddííaass.. GGrruuppoo ddee FFííssiiccaa NNuucclleeaarr,, DDppttoo.. FFííssiiccaa AAttóómmiiccaa,, MMoolleeccuullaarr yy NNuucclleeaarr,, UUCCMM

1. Introducción La radioterapia es uno de los tratamientos empleados para combatir el cáncer. Esta disciplina de la medicina utiliza radiaciones ionizantes para destruir células cancerosas y reducir el tamaño de los tumores. La radioterapia destruye o lesiona las células en el área que recibe tratamiento, al dañar su material genético y hacer imposible su crecimiento y reproducción. Aunque la radiación daña tanto células cancerosas como normales, muchas de éstas se recuperan de los efectos de la radiación y logran funcionar adecuadamente. El objetivo de la radioterapia consiste en maximizar la dosis aplicada sobre la región del tumor sin irradiar el tejido sano colindante. En el caso de la radiación electromagnética (rayos X y rayos gamma), la distribución de dosis, exponencial decreciente cuando el haz penetra en el organismo (figura 1), hace difícil aproximarse a esta situación ideal, sobre todo en tumores profundos. En las últimas décadas, se han desarrollado técnicas de alta precisión que emplean múltiples haces de intensidad modulada que convergen sobre el tumor (IMRT). De esta forma, se disminuye en lo posible la irradiación de órganos sanos próximos al tumor y se consiguen distribuciones de dosis altamente satisfactorias. No obstante, la inevitable dosis proporcionada a tejidos sanos, inaceptable en muchos casos, constituye un serio factor limitante para la radioterapia convencional. El empleo de partículas pesadas cargadas (protones e iones pesados) en radioterapia (Hadronetrapia) permite una distribución de dosis en los tejidos completamente diferente (figura 1), lo que constituye su principal ventaja frente a la radioterapia con fotones. Cuando estas partículas penetran el organismo, su pérdida de energía por unidad de longitud es inversamente proporcional al cuadrado de su velocidad. Esta dependencia hace que la máxima pérdida de energía y mayor densidad de ionización se produzca al final del recorrido de la partícula, cuando su velocidad es próxima a cero. Como veremos, esta distribución de dosis reduce considerablemente la radiación suministrada al tejido sano, respecto a la proporcionada por la radioterapia convencional, al localizar la dosis fundamentalmente sobre la región del tumor. La historia de la Hadronterapia se remonta a 1946, cuando el físico estadounidense Robert Wilson propuso el uso de protones para la terapia del cáncer. Hasta entonces se utilizaban exclusivamente para la investigación. Los primeros tratamientos comenzaron en 1954 en el Lawrence Berkeley Laboratory (California). En estos tratamientos, los haces se distribuían sobre el tumor usando sistemas de distribución pasivos, formados por dispersores y filtros. Es decir, se usaba básicamente la misma tecnología que con los haces de fotones y esto impedía sacar provecho de las propiedades de las partículas.

La situación ha cambiado drásticamente en el último decenio. Investigaciones realizadas en el GSI, Darmstadt (Alemania) y CHIBA (Japón) junto con las

Julio 2008 51

investigaciones llevadas a cabo previamente en Berkeley, han conducido a la demostración de que la terapia con haces de hadrones puede alcanzar porcentajes de curación muy superiores a las de la terapia tradicional en tumores localizados en zonas inaccesible por cirugía y rodeadas de tejidos vitales. Sin embargo, esto sólo ha sido posible gracias al desarrollo tecnológico. Nuevos sincrotrones, sistemas de distribución activa de los haces y nuevas instalaciones permiten hoy en día obtener una distribución de dosis óptima sobre todo el volumen del tumor. La hadronterapia es un tratamiento innovador y lleno de ventajas. Por eso, en los últimos años, los gobiernos están proponiendo numerosos proyectos para la construcción de centros especializados, y empresas privadas, han empezado a invertir en este prometedor mercado emergente. 2. Características físicas y biológicas de los haces de partículas pesadas cargadas.

2.1. Distribución de dosis con haces de hadrones cargados. Pico de Bragg

Al penetrar en un medio absorbente, las partículas pesadas cargadas, tales como protones e iones pesados, pierden su energía principalmente por interacciones coulombianas con los electrones del medio. La pérdida de energía por unidad de longitud recorrida (o poder frenado, normalmente expresado en KeV/mm o KeV/(g/cm2), en tejido) es inversamente proporcional a la raíz cuadrada de la velocidad de éstas partículas y su expresión viene dada por la fórmula de Bethe [1]:

)(2ln4 2

2

24

EfI

vmvm

nzedxdE e

e

e =⎥⎦

⎤⎢⎣

⎡⎟⎟⎠

⎞⎜⎜⎝

⎛−=

π

dónde ne es la densidad electrónica del medio absorbente, z es la carga efectiva

del protón o ión pesado, v su velocidad, e I el potencial de ionización medio. En esta ecuación no se incluyen los términos relativistas ni las correcciones de baja energía.

Esta dependencia inversa con el cuadrado de la velocidad explica que las partículas pesadas cargadas depositen el máximo de la densidad de energía al final de su recorrido, dónde su velocidad es próxima a cero. Es lo que se conoce como pico de Bragg.

Julio 2008 52

Figura1. Curvas de distribución de dosis en función de la profundidad

de haces de protones, iones de carbono y fotones Cuando un haz monoenergético de protones o iones pesados penetra en un medio material (figura 1, medio acuoso, semejante al organismo, en este caso) la curva de distribución dosis-profundidad se caracteriza por una dosis baja a la entrada, cerca de la piel, comparada con la dosis proporcionada en una estrecha región al final de su recorrido (pico de Bragg). De esta forma, es posible irradiar una pequeña región localizada del cuerpo, con una dosis mucho mayor que la que se recibe a la entrada, en el tejido superficial.

La tasa de pérdida de energía de un haz monoenergético al atravesar un medio uniforme es siempre la misma, por lo que las partículas del haz se frenarán a la misma profundidad, lo que se denomina rango de la partícula. Por tanto, la profundidad del pico de Bragg depende de la energía inicial de los protones y de los tejidos que atraviesan. Modulando la energía de las partículas incidentes, es posible extender la región del pico de Bragg para localizar la dosis en un volumen más extenso. Es lo que se denomina pico de Bragg extendido.

Figura 2. Modulando la energía de los haces incidentes se localiza la

dosis en un volumen más extenso (pico de Bragg extendido)

Además, la dosis de radiación disminuye bruscamente detrás del pico de Bragg, lo que evita que órganos críticos y tejido sano reciban radiación no deseada.

Julio 2008 53

Estas características físicas de los haces de protones e iones hacen que este tipo

de radioterapia esté especialmente indicada para tumores profundos o tumores próximos a estructuras críticas del organismo, ya que la dosis proporcionada al tejido sano colindante al tumor se reduce considerablemente respecto a la proporcionada por la radioterapia convencional.

2.2. Efectividad biológica relativa. Protones frente a iones pesados.

En cualquier tipo de radioterapia uno de los factores más importantes es la

eficacia de la radiación sobre los tejidos involucrados en el tratamiento. La eficacia es distinta para cada tipo de radiación y, además, depende de factores físicos, químicos y biológicos. Por tanto, para cuantificarla se introduce un parámetro relativo, es decir, un parámetro que compara la eficacia biológica de diferentes tipos de radiación.

Para un efecto biológico determinado, la Efectividad Biológica Relativa (RBE)

se define como la relación entre la radiación gamma de una fuente de cobalto-60 necesaria para producir el efecto deseado y la dosis de depositada por la radiación bajo estudio para producir el mismo efecto.

Según esta definición, lo que interesa es que con la menor dosis posible se

consiga el mismo efecto biológico, es decir RBE >1. Este factor es muy complejo, ya que es una combinación de factores físicos y biológicos. Físicamente dependerá del número atómico y de la energía del ión y, biológicamente, del tipo de célula.

2.2.1 Características Físicas RBE depende de la densidad de ionización. Si la densidad de ionización

disminuye, el ADN tendrá más posibilidades para autorepararse y, por tanto, RBE disminuirá. A su vez, la densidad de ionización depende de:

- Numero atómico. A mayor numero atómico Z, mayor densidad de ionización. - Energía del ion. A mayor energía, el diámetro del haz será mayor, LET

disminuye y con esto la densidad de ionización. Por tanto, las formas de aumentar RBE según la densidad de ionización son:

aumentando el número atómico y disminuyendo la energía del ion.

2.2.2 Características Biológicas. El RBE depende del tipo de células, es decir, de la capacidad de reparación de

las células. Las células con poca capacidad de reparación presentan poco aumento del parámetro, mientras que células con gran capacidad de reparación, como son las células de los tumores radioresistentes, son más sensibles a los cambios del RBE.

Julio 2008 54

Otro factor es el patrón temporal de distribución. La forma de aplicar el tratamiento también influye, cuanto menor sea el tiempo entre los haces inyectados menor será el tiempo que el ADN disponga para la reparación y por tanto RBE aumenta.

Por otro lado, justo al final del recorrido, cuando las energías son muy bajas y la

LET (Transferencia Lineal de Energía) muy alta, la densidad de ionización excede la necesaria para dañar el ADN. Por eso, el efecto biológico se satura y RBE disminuye.

Así, RBE aumenta con la LET hasta la saturación, su valor varía en cada punto

de la curva de Bragg y toma valores mayores para células de tumores radioresistentes. 2.3. Protones vs iones pesados

La principal ventaja de los iones de carbono frente a los protones es que presentan una Efectividad Biológica Relativa (RBE) mayor [2]. La RBE depende de la Transferencia Lineal de Energía (LET) que se define como la tasa promedio de deposición de la energía por unidad de longitud a lo largo de la trayectoria. Normalmente la LET se mide en KeV/μm. La LET alcanza un valor máximo al final del recorrido donde los electrones del objetivo son emitidos con energía cinética baja, formando una nube de electrones en torno a la trayectoria del ión. Los efectos radio-biológicos se producen sobre todo por los electrones. Cuanto mayor sea la densidad electrónica y, por tanto, la densidad de ionización, mayor será la

efectividad biológica. Figura 3. Trayectoria de los iones de carbono y protones en dimensión nanométrica, comparado con una representación esquemática del ADN.

Los protones son partículas de baja LET, 30 KeV/μm, por lo que su efectividad

biológica es similar a la de los fotones. En el caso de los iones de carbono el valor de la Transferencia Lineal de Energía varía en un rango de 30-100 KeV/ μm. Además, el valor máximo de LET se alcanza en el pico de Bragg. Los iones de carbono tienen por tanto una elevada eficiencia biológica debido a que la contribución de alta LET se restringe principalmente a la zona del tumor.

Además la RBE también depende del tipo de célula. El objetivo principal de la radiación es el ADN, que se encuentra en el núcleo celular, y su integridad es necesaria para la supervivencia de la célula. Por eso dispone de un sistema de reparación muy complejo. En cambio si es expuesto a dosis locales muy elevadas (local se refiere a unos pocos nanómetros, que son las dimensiones del ADN), entonces las lesiones se empiezan a agrupar y el sistema de protección es incapaz de reparar todas. Esto es lo

Julio 2008 55

que ocurre cuando las partículas ionizantes son iones de carbono, que debido a que tienen mayor capacidad de ionización, producen una mayor densidad de electrones secundarios y esto es lo que produce el daño irreparable, como se puede ver en la figura 3. En cambio, la ionización que producen los protones es más dispersa, por eso RBE de los protones es cercano a 1 y el de los iones de carbono varía entre 2 y 5. 3. Hadronterapia frente a radioterapia convencional Como hemos visto, el uso de hadrones puede proporcionar numerosas mejoras en la radioterapia debido a sus propiedades intrínsecas: tienen un rango bien definido y, además, presentan un máximo en la dosis depositada al final de su recorrido. Variando la energía del haz es posible situar el pico de Bragg en el interior del tumor. También se puede superponer varios haces para formar el pico de Bragg extendido y cubrir así toda la extensión del tumor. Además, la dosis depositada más allá del pico de Bragg es esencialmente cero. En cambio, los fotones presentan una disminución de dosis exponencial y por tanto no localizada. Por otro lado, tanto los protones como los iones pesados son partículas cargadas, por lo que pueden desviarse y focalizarse con ayuda de imanes. Estas propiedades de los hadrones hacen que la dosis depositada en los tejidos sanos se reduzca considerablemente y el número de sesiones aplicadas al paciente sea menor. Por todo ello, que esta técnica esté especialmente indicada para tumores profundos, situados en zonas próximas a estructuras críticas del organismo o tumores pediátricos, donde una posible irradiación de órganos sanos sería inaceptable

Figura 4. Comparación entre el tratamiento de un tumor cerebral con 9 campos de rayos-X

(IMRT) (izquierda) y cuatro campos de iones de protones (derecha). Biológicamente, protones y fotones producen el mismo efecto sobre los tejidos ya que tienen un RBE muy parecido. La diferencia

está en cómo se distribuye esta dosis, ya que para los protones está mucho más localizada en el tumor, evitando así irradiar los tejidos sanos

El principal problema que presentan los protones es su eleva rigidez magnética. Por ejemplo para protones de 230-250 MeV, que es una energía típica en radioterapia, imanes convencionales deben tener un radio mínimo de 1.3 m. Esto provoca que la dimensiones del acelerador (4- 7 m) y de las líneas de trasporte sean muy grandes y, por tanto, muy costosas.

Julio 2008 56

La principal desventaja que presentan los iones de carbono es técnica. Si la rigidez magnética ya supone una dificultad para la terapia con protones, con iones esta situación empeora. La rigidez magnética se multiplica hasta por un factor de 3. Por eso los aceleradores y las líneas de transporte serán tanto más grandes y costosos. Así, físicamente producen mejores resultados las terapias con protones, pero tienen desventajas tecnológicas. 4. Técnicas de aplicación de dosis 4.1 Sistemas de dispersión pasiva

Los primeros tratamientos con haces de protones comenzaron en 1954 en el Lawrence Berkeley Laboratory (California). En estos tratamientos el haz se distribuía sobre el volumen blanco utilizando los denominados sistemas pasivos de dispersión (figura 5): dispersores, compensadores y colimadores que fueron adaptados de la terapia convencional de fotones.

Figura 5. Esquema empleado en los sistemas de dispersión pasiva Para conseguir que el haz se asemejase lo más posible al emitido por una fuente

puntual de radiación y conseguir un flujo homogéneo en el ángulo sólido útil para el tratamiento, se empleaban láminas metálicas. El ensanchamiento del pico de Bragg se obtenía empleando una rueda rotatoria de espesor variable, que produce el rango en profundidad del haz deseado. Para dar forma al haz se usaban compensadores y colimadores: mediante los colimadores se trataba de limitar el campo de radiación en la dirección lateral para abarcar sólo la región del tumor. La función del compensador era adaptar el haz de forma que la máxima dosis se depositase sobre el tumor, empleando para ello distintos materiales absorbentes.

Todos estos dispositivos, debían elegirse individualmente para cada paciente y además los compensadores y colimadores también para cada campo de radiación.

Debido a la complejidad y coste de los aceleradores, los sistemas de transporte

del haz y los sistemas de distribución de dosis, la hadronterapia se desarrolló

Julio 2008 57

inicialmente empleando aceleradores diseñados para la investigación de física nuclear y de partículas.

Todo esto limitaba drásticamente la hadronterapia fundamentalmente por tres razones:

Razones técnicas: Los haces de protones empleados estaban fijos en la dirección horizontal (algunas veces verticalmente). Esto suponía una desventaja importante frente a la radioterapia convencional en la que ya se irradiaba al paciente desde múltiples direcciones y sin movimiento del mismo. No se contaba con un sistema de rotación para la irradiación en el que el paciente permaneciese fijo en la misma posición. Como consecuencia, los movimientos del paciente podían provocar desplazamientos de los órganos y estructuras, lo que podía suponer la irradiación del tejido sano. Además, las coordenadas relativas de los órganos son distintas según que el paciente estuviese tumbado o sentado. Todos estos factores limitaban los tipos de tumores que podían ser irradiados. La principal ventaja de la irradiación con protones, dosis cero detrás del volumen que se desea irradiar así como ajustar la dosis máxima en dicho volumen, se veía prácticamente anulada por la incapacidad de rotar la fuente de protones alrededor del paciente.

La necesidad de transportar a los pacientes desde los hospitales a los centros dónde se encontraban los aceleradores reducía tanto el número de pacientes tratados como el de clínicas capaces de participar en el proyecto.

Razones económicas: El uso de aceleradores experimentales no especializados para el uso clínico resultaba muy costoso.

Los iones eran tratados como fotones sin hacer uso de su principal característica,

la carga eléctrica, que hace posible controlar fácilmente los haces de protones por medio de campos magnéticos. En estas condiciones, la hadronterapia no podía competir con la avanzada tecnología de la radioterapia con electrones y fotones. 4.2 Sistemas de dispersión activa Estos sistemas de dispersión pasiva fueron empleados en todos los centros de hadronterapia hasta 1997. En este año se empezó a desarrollar, en el GSI (Alemania) y el PSI (Paul Scherrer Institute, Villingen, Suiza), un nuevo ‘sistema de dispersión activa’ en el que los hadrones cargados eran guiados magnéticamente sobre la zona de tratamiento.

Julio 2008 58

Figura 7: El haz de partículas se focaliza punto a punto sobre el tumor para cada energía de los iones

empleando un sistema de desviación magnética (Técnica de ‘spot scanning’ o ‘raster scann’)

En este caso el haz de partículas se distribuye directamente sobre el paciente. Para la modulación longitudinal, se varía dinámicamente el rango del haz. Ya no es necesario el uso de degradadores si disponemos de un acelerador que permita cambiar la energía del haz en cada ciclo y lateralmente el haz es escaneado mediante imanes que lo desvían. Así se puede conseguir una alta conformidad de la irradiación.

Existen dos modos de escaneo, el continuo y el intermitente. En ambos se divide el objetivo en láminas de energía constante. Dentro de cada lámina se definen pequeños volúmenes llamados voxeles. Cada uno de estos será irradiado por un haz de una intensidad determinada previamente calculada. En el caso del modo intermitente se va irradiando voxel a voxel y se desconecta el haz al cambiar de posición. En cambio, en el modo continuo, combinando la velocidad de escaneo con la intensidad, se puede producir una distribución de flujo inhomogénea sin necesidad de interrumpir el haz. A estas técnicas se las denomina ‘escaneo por intensidad modulada’ y fueron definidas por primera vez en PSI para protones y en GSI para iones de carbono con el objetivo de obtener la mejor conformidad de dosis.

Figura 8. Tumor tratado en el GSI (Izquierda). Técnica de ‘spot scanning’ empleada en PSI

Para lograr una mayor flexibilidad en el tratamiento, el acelerador se acopla a un

sistema de distribución del haz llamado ‘gantry’ que permite focalizar los hadrones sobre el tumor desde cualquier ángulo.

En la figura 9 se muestra un ejemplo de área de tratamiento de protones con un

‘gantry’ isocéntrico, que es el tipo de ‘gantry’ más empleado en protonterapia [3]. El ‘gantry’ gira alrededor de un eje y dirige el haz desde una dirección determinada hasta el tumor que se posiciona en el isocentro del sistema, de esta forma al girar el ‘gantry’ el tumor se irradia desde varias direcciones.

Una excepción a este tipo de ‘gantry’ es el excéntrico, empleado en el PSI [3], figura 9. La cama del paciente está fija al ‘gantry’ y tiene una posición diferente para

Julio 2008 59

cada ángulo del mismo. La ventaja de esto es que el ‘gantry’ se puede construir de una manera más compacta.

En general, los ‘gantry’ suministran una energía entre 200MeV y 250 MeV, tienen un radio medio de 5 m y una longitud media de 10 m.

Figura 9. Gantry isocéntrico para protones diseñado por Mitsubishi (izquierda). Gantry excéntrico de PSI (derecha)

La construcción y desarrollo del ‘gantry’ para iones de carbono ha sido mucho más lenta debido a la mayor rigidez magnética. El centro pionero en desarrollar un proyecto para la construcción de este tipo de ‘gantry’ fue el HIT [3], figura 10. Este dispone de dos estructuras de soporte que mantienen la estructura rotatoria. Se trata de un ‘gantry’ isocéntrico con un peso aproximado de 570 toneladas. También lleva incorporado todos los componentes para realizar la distribución de haces por scanner, por tanto proporciona flexibilidad en los haces carbono de hasta 430 MeV/u que pueden ser depositados en cualquier dirección, ya que el ‘gantry’ puede girar 360 º. Debido a las dimensiones y el peso de esta estructura, fue realmente un desafío incorporarlo dentro del edificio, por eso este ‘gantry’ sólo estuvo disponible a principios de este año, después de 5 años de trabajo.

Figura 10. Ejemplo de instalación de Hadronterapia, Heidelberg (Derecha). Grantry isocéntrico empleado en dicha instalación y diseñado para iones de carbono (Izquierda)

Julio 2008 60

5. Instalaciones

La terapia con partículas comenzó en 1954 en el Lawrence Berkeley National Laboratory (LBNL) con el primer tratamiento con protones. Más tarde, en Berkeley también fueron usados iones de helio y otros más pesados. Pero ha sido el ciclotrón de Harvard el que ha efectuado mayor número de tratamientos. Comenzó en 1961 y sigue operativo hoy en día. Otro centro de tratamiento con protones fue abierto en Uppsala, Suecia, en 1957. En Francia, dos centros, en Niza y Orsay, llevan operativos desde 1991. Y en Rusia, gran número de pacientes han sido tratados con protonterapia. Loma Linda fue el primer centro médico especializado en abrirse, ya que hasta entonces todos se habían construido a partir de laboratorios físicos de investigación. Hoy en día este centro es el que más pacientes atiende, aproximadamente 1000 al año. Además de tratamientos con tumores profundos con protones de 200 MeV, existen tratamientos muy eficaces para tumores oculares. El centro más activo en este tipo de enfermedad es Optis en PSI, Villigen. Hasta ahora 3000 pacientes han pasado por este centro. También en Clatterbridge, Niza y Berlín se han abierto centros para el tratamiento de cánceres oculares. El desarrollo de centros de iones pesados es mucho más lento debido principalmente a motivos económicos. Sin embargo debido a los altos valores de RBE, Berkeley empezó a investigar con iones Argón, que mostraban un alto control del tumor pero depositaban demasiada energía y los tejidos circundantes eran drásticamente afectados. Así, Berkeley cambió a iones más ligeros y trató unos 400 pacientes con iones de Neón. Finalmente, fue en NIRS, Chiba, donde se iniciaron tratamientos con iones de carbono. De los 29 centros registrados hasta el 2005, tan solo 3 realizan tratamientos con iones más pesados. Estos son en Europa, GSI, y en Japón, HIMAC y HIBMC. Cen País Partícula E. clíni

Figura 11. Hadronterapia en el mundo. Más de 50.000 pacientes tratados en todo el mundo. La gran mayoría de países europeos tienen ya un centro de hadronterapia en funcionamiento o en

construcción.

Julio 2008 61

6. Conclusiones

La Hadronterapia es una técnica de radioterapia externa de muy alta conformidad de dosis: permite tratar tumores localizados en zonas próximas a estructuras críticas del organismo y tumores pediátricos, en los que una mínima cantidad de dosis resulta inaceptable.

Esta técnica está indicada también para tumores que no responden correctamente a la radioterapia convencional de fotones y electrones (tumores radio-resistentes)

El futuro de la Hadronterapia está íntimamente ligado a la construcción de nuevas instalaciones especializadas que cuenten con aceleradores de partículas con fines médicos así como la instrumentación tecnológica adecuada.

BILBLIOGRAFÍA [1] Manual of Biomedical uses of radiation. William R. Hendee (Ed.) [2] ‘Radiotherapy with beams of carbon ions’ Ugo Amaldi and Gerhard Kraft. Reports on Progress in Physics, 68, 2005 [3] ‘Gantry desing for proton and carbon Hadrontherapy facilities’ U. Weinrich, GSI, Darmstadt, Germany. Proceedings of EPAC 2006, Edinburgh, Scotland [4] Advances in Charged Particle Therapy FIAS Colloqium, November 11, 2004. Thomas Haberer [5]‘Proton beams in radiotherapy’, V.S. Khoroshkov, E.I. Minakova. Eur.J.Phys. 19, 1998. [6]‘Treatment delivery principles for ion therapy’. Th. Haberer,GSI, Darmstadt, Germany, 2003. [7] http://nuclear.fis.ucm.es/research/thesis/trabajos-investigacion.htm/TAD-ana-garcia.pdf

Julio 2008 62

DETECTORES EN EL LHC: CMS Y ATLAS

Beatriz González Merino Clara González-Santander de la Cruz

En este artículo vamos se detallan las características generales y particulares de los detectores ATLAS y CMS del acelerador LHC. Son detectores de propósito general, es decir, están diseñados para abarcar el rango más grande posible de fenómenos físicos que sucederán en el LHC, desde la búsqueda del bosón de Higgs hasta la supersimetría. ¿QUÉ ES EL LHC? El LHC es un gran acelerador, cuyas siglas corresponden a Large (grande), debido a su tamaño; Hadron, debido a que las partículas aceleradas son protones e iones de Pb; y Collider (colisionador), debido a que las partículas forman dos haces que viajan en direcciones opuestas y colisionan en cuatro puntos a lo largo de la circunferencia. Está localizado en Ginebra (Suiza), y su puesta en funcionamiento está todavía en fase de pruebas. Se ha construido gracias a la financiación y colaboración de unos doscientos físicos de treinta y cuatro países diferentes.

La energía producida en la colisión es la suma de las energías de los dos haces, mayor que la producida en el caso de que un haz colisione con un blanco en reposo. Esta colisión de tan alta energía puede dar lugar a nuevas partículas, que serán detectadas y analizadas gracias a los seis experimentos que se localizan a lo largo del acelerador: ATLAS, CMS, ALICE, LHCb, TOTEM, LHCf, como puede observarse en la figura 1.

GENERALIDADES SOBRE DETECTORES

Los detectores de partículas están construidos

para poder registrar y visualizar las partículas

que proceden de las colisiones que se producen en

los aceleradores, su identificación se realiza a

partir de la información obtenida sobre la carga,

la masa o el momento. Existen dos tipos

diferentes de ellos: de objetivo fijo si se hace

viajar hasta él las partículas, de manera que

aquellas que han sido generadas tras la colisión contra el objetivo tienden a viajar hacia adelante,

por ese motivo el detector tiene forma de cono y se sitúa detrás del lugar donde tiene lugar la

colisión; o de haces de colisión, si se poseen dos haces que viajan en sentidos contrarios de manera

Datos importantes acerca del LHC Longitud de la circunferencia 26659 m

Número de imanes 9300 Número de dipolos 1232

Número de cuadripolos 858 Energía nominal para los

protones 7 TeV

Energía nominal para los iones 2.76 TeV

Luminosidad 1034cm-2s-1 Número de vueltas por

segundo 11245

Número de colisiones por segundo 600 millones

Figura 1: El acelerador de partículas LHC. Pueden observarse los distintos detectores que se encuentran a lo largo de la circunferencia principal, y las distintas líneas de aceleración previas. Además están indicadas en distintos colores las trayectorias descritas por las partículas.

Julio 2008 63

que las partículas generadas son radiadas en todas las direcciones con lo que los detectores suelen

tener forma cilíndrica.

Los detectores están construidos con diferentes capas, cada una de las cuales tiene una misión y se

encarga de la detección de un cierto tipo de partículas:

Zona de colisión del haz de partículas: su función es transportar en haz de grupos de protones.

Dispositivo de rastreo (tracking device): permite diferenciar entre las partículas con carga y

aquellas que no la tienen puesto que muestra los caminos seguidos por las primeras gracias a las

marcas que dejan éstas al interactuar con los átomos de la sustancia con la que cuenta el detector.

Posee además un campo magnético que permite distinguir entre las partículas con carga positiva y

las de carga negativa ya que la desviación que sufren al atravesarlo unas y otras se produce en

sentidos contrarios; también permite conocer el momento de la partícula ya que la curvatura de la

trayectoria será menor cuánto más rápido viaje. Se pueden distinguir dos partes en él:

• Cámara de gas: el medio que se tiene ionizado es un gas y los iones o electrones generados son

recogidos bajo potentes campos eléctricos, su resolución espacial se encuentra entre los 50-100μm.

Fig. Objetivo fijado Fig. Colliding beams

Julio 2008 64

• Detectores semiconductores: la partícula que pasa crea un conjunto de electrones y de huecos en

un reversely-biased, normalmente es silicio. Los detectores del artilugio están subdivididos en

pequeños píxeles.

Calorímetro: recoge la energía perdida por la partícula mientras lo atraviesa y está diseñado para

absorber por completo la mayoría de ellas que procedan de la colisión, es el instrumento utilizado

para identificar partículas neutras más importante de todos con los que cuenta el detector. Se

pueden distinguir dos tipos:

• Calorímetro electromagnético (ECAL): mide la energía de las partículas cuando éstas interactúan

con aquellas que se encuentran cargadas en el interior de la materia. Ese contacto genera una lluvia

electromagnética, la energía inicial de la partícula es traspasada a positrones y electrones cuyo

número será proporcional a la energía incidente, dicho número es el detectado por el sistema

situado entre dos placas de plomo. Detecta principalmente la presencia de fotones, electrones y

positrones.

• Calorímetro de hadrones (HCAL): mide la energía de las partículas formadas por quarks (los

hadrones) a través de las partículas cargadas que se generan cuando estos interactúan con los

núcleos atómicos de la sustancia que posee el calorímetro. Detecta los piones, los protones y los

neutrones.

Los neutrinos escapan de la detección, pero su presencia puede inferirse del balance energético que

debe haber en la colisión.

Detector de muones: Los muones interaccionan con la materia debido a su carga eléctrica, sin

embargo debido a que son mucho más masivos que los electrones están mucho menos afectados por

las fuerzas eléctricas de los núcleos atómicos que encuentran a su paso. Su pérdida de energía se

debe a la formación de los pares electrón-ión que generan a lo largo de su trayectoria. Los muones

Julio 2008 65

van a penetrar mucho más en los materiales que los hadrones con lo que las partículas que se

detectan fuera del calorímetro de hadrones solo pueden tratarse de ellos. Este sistema de detección

permite determinar el momento y el signo del muón. Existen diferentes tipos:

• Drift tubes: está formado por tubos de metal que se encuentran rellenos de gas y que poseen

largos alambres que recorren su eje. Entre el alambre y la pared del tubo se establece un alto

potencial para poder detectar los muones que lo atraviesan mediante los diferentes impulsos

eléctricos que producen.

• Cámaras de tiras catódicas (Cathode Strip chambers): se usan para detectar los muones cuyo

movimiento forma un pequeño ángulo con el tubo por el que viaja el haz de protones. Se encuentra

formado por alambres situados paralelos unos a otros dentro de una cámara de metal cuyas

paredes siguen las formas de los alambres y que se encuentra rellena de gas. Se aplica un alto

voltaje entre el alambre y las paredes de metal, igual que en el caso anterior, para que cuando los

muones las atraviesen se produzcan señales que permitan determinar su posición.

• Thin gap chambers

• Resistive Plate chambers:

Cada una de las partículas que se generan en la colisión será detectada en una zona u otra del

detector dependiendo de sus propiedades.

Julio 2008 66

ATLAS y CMS son los dos detectores de propósito general que existen en el LHC. Ambos investigarán sobre un amplio rango de la física incluyendo la búsqueda del bosón de Higgs, dimensiones extra y partículas que podrían ocultar la materia oscura. Estos detectores deben ser herméticos para que el mayor número de partículas pueda ser detectado. Por ello, y por conveniencia en la fabricación, adoptan la forma de “barrel plus end-caps” (barril con tapas), donde un cilindro cubre la región central y dos láminas circulares cubren los ángulos próximos al haz, pero lo harán con diferente diseño y diferentes soluciones tecnológicas para los mismos problemas.

ATLAS: A Toroidal LHC Aparatus

Mide 46m de largo y 25m de alto, es el mayor colisionador construido nunca y en él colaboran más

de 1700 miembros de 159 institutos diferentes pertenecientes a más de 37 países.

Figura 2: Representación de las diferentes zonas que posee un detector y del comportamiento de las diferentes partículas en ellas. Los neutrinos no están representados porque rara vez interactúan con la materia, solo pueden ser detectados por pérdida de masa y de energía.

Julio 2008 67

Estas son las diferentes partes que forman el detector desde su zona más interna hasta el exterior:

• El tubo que transporta el haz de protones circula por el centro del detector. En la zona del mismo

donde se produce la colisión los dos grupos de protones al viajar uno en sentido contrario al del

otro.

• Detector interno: podemos encontrar en él a su vez, diferentes partes:

- Detector de píxeles: es el sensor más próximo al punto de colisión. Se encuentra formado por

capas delgadas de silicio subdivididas en píxeles de dimensiones 50x400μm2, el detector ATLAS

tiene aproximadamente 140 millones de esos pequeños píxeles. Cerca de la colisión los mismos están

distribuidos cilíndricamente mientras que lejos lo hacen en forma de disco. Cada vez que una

partícula cargada atraviesa una de las capas una señal es generada, esto es una medida precisa de

la posición que tenía en ese instante la partícula lo que nos permite conocer si ha sido producida en

el punto de colisión o unos pocos milímetros más lejos como un producto de decaimiento.

Julio 2008 68

- Semiconductor rastreador (SCT), Strip detector: se diseñó para conseguir una mayor precisión en

las medidas en el ámbito radial intermedio mediante la determinación del momento y del

parámetro de impacto. Posee diferentes capas de silicio subdivididas en estrechas franjas; cada una

de las capas posee dos conjuntos diferentes de franjas: unas se encuentran paralelas al eje del haz

en los cilindros y a las otras de manera radial a él en los discos, la intersección de ambas

proporciona una imagen tridimensional de la posición de la partícula. Las partículas atraviesan las

franjas que posee el detector, y cuando una de ellas se encuentra cargada el píxel de silicio que ha

sido tocado va a enviar una señal que nos permitirá conocer la trayectoria que ha sido seguida.

Además posee un sistema de enfriamiento mediante evaporación que mantiene la temperatura del

silicio –7ºC aunque la energía disipada por el detector llegue a 30kW.

- Transition Radiation Tracker (TRT): están formados por tubos rellenos de gas que poseen

alambres a lo largo de su centro, entre ellos y la pared del tubo se establece una diferencia de

potencial de manera que cuando una partícula atraviesa uno de ellos el alambre produce una

descarga que permite determinar la zona por la cual ha pasado dicha partícula. En la parte central

de la sección los tubos corren paralelos al tubo de colisión del haz de protones mientras que en el

final de la misma se colocan de manera radial.

• A continuación se encuentra el calorímetro, el cual a su vez está dividido en dos partes:

- Calorímetro de argón líquido (electromagnético): está formado por delgadas láminas de plomo de

1.5 mm de grosor inmersas en un baño de argón líquido a –183ºC separadas por dispositivos que se

encargan de detectar los impulsos. Las partículas atraviesan el argón líquido produciendo en el

viaje iones que son leídos como pulsos eléctricos por los electrodos de Kapton.

Julio 2008 69

- Calorímetro de baldosas (hadronic): se encarga de detectar los hadrones emitidos con ángulos

superiores a 25º procedentes de la colisión de los haces de protones. Consiste en una estructura

circular de acero con 500000 baldosas de plástico con 3mm de grosor que detectan las lluvias de

hadrones y producen señales proporcionales a su número, el cual a su vez lo es a la energía que

llevaba el hadrón. Estas baldosas se encuentran agrupadas en diferentes módulos controlados y

leídos por 3 fibras ópticas. Además posee una zona con argón líquido muy similar a la del

calorímetro electromagnético, sólo que en este caso las placas que lo forman no son de plomo sino

de cobre.

• Algunas de las zonas del detector se encuentran dentro de un campo magnético, el cual

proporciona información sobre el signo de la carga de la partícula y su momento. El sistema

magnético del detector también se puede dividir en dos partes:

- Imán solenoidal: está localizado fuera del propio detector; el campo magnético de 2T está

generado por una corriente de 8000A que circula en espiral a lo largo de una estructura cilíndrica

hueca. Su función es desviar cada partícula cargada que proceda de la colisión, de manera que

aquellas que han sido emitidas perpendiculares al haz describirán círculos en su interior mientras

que aquellas que no lo han sido, que formaban cierto ángulo con ella, describirán una hélice

circular.

Julio 2008 70

- Imanes toroidales: son un juego adicional de imanes situado en las regiones exteriores del

calorímetro, producen un campo magnético cuyas líneas son círculos centradas entorno a la línea

del haz, es decir, las líneas de campo son perpendiculares al mismo y se encuentran alrededor de él.

El campo toroidal va a desviar los muones en el plano que queda definido por el eje del haz y la

posición del muon.

• Detector de Muones: es la capa más externa del detector porque los muones son partículas

cargadas que pueden viajar a lo largo de todo el material del calorímetro de manera que solo los

muones alcanzarán esta capa. Este sistema determina el signo y el momento de los muones con

mejor precisión que el sistema de rastreo, además permite determinar la presencia de neutrinos

mediante la detección de perdida de energía. Podemos encontrar en él diferentes partes: MDT

(resolución del tubo: 80 micrómetros), CSC (resolución 60 micrómetros) TGC y RCP (campo

eléctrico de 5000V/mm)

CMS: Compact Muon Solenoid Es un detector para las colisiones protón-protón, diseñado para soportar la luminosidad más alta en el LHC, aunque también está adaptado para estudios a bajas luminosidades. El principal objetivo del CMS es disponer de un sistema de detección de muones avanzado, para lo que resultan necesarios el mejor calorímetro electromagnético y hadrónico, junto con un dispositivo de rastreo muy preciso.

Haciendo un corte transversal en el detector, y desde el interior hacia el exterior, se distinguen las siguientes zonas:

Julio 2008 71

• Dispositivo de rastreo: Constituido por un cilindro de 6 m de longitud y 2.6 m de diámetro. Está basado en detectores de silicio que proporcionan medidas muy precisas del momento de las partículas que lo atraviesan. Hay aproximadamente 25000 detectores en 210 m2.

• Calorímetro electromagnético: Uno de los principales objetivos del diseño del CMS es construir un

calorímetro electromagnético muy preciso, por lo que está basado en cristales centelleadores (cerca de 80000 cristales de PbWO4). Prácticamente toda la energía de los electrones y los fotones es depositada en el volumen del cristal, resultando una alta resolución en la medida de la energía. Además, en frente del calorímetro se sitúa un preshower detector, que contiene detectores de silicio en forma de tiras, para mejorar la separación de γ-π0.

• Calorímetro hadrónico: En este detector se pueden distinguir tres tipos de calorímetros hadrónicos. - El hadronic barrel (HB) y el hadronic endcap (HE) están basados en láminas absorbentes de 50 mm de cobre intercaladas con placas de cristales centelleadores de 4 mm de grosor. Mientras que el HB está formado por dos semicilindros de 4.4 m, el HE consta de dos grandes estructuras situadas en el final del cilindro, embebidas en el campo magnético. - El hadronic forward (HF) constituido por dos partes situadas en los extremos del detector. Está constituido por láminas absorbentes de acero y fibras de cuarzo insertadas en ellas. El paso de una partícula cargada a través de una fibra de cuarzo produce radiación Cerenkov, que es usada para determinar la energía de los haces de partículas generados en la colisión. • Detector de muones: Es la última región del detector, situados detrás de los calorímetros. Consiste en

cuatro regiones para la detección de muones intercaladas con placas de hierro en forma de yunque. En la región interna cilíndrica están dispuestas en cilindros concéntricos alrededor del haz central, mientras que en las regiones extremas del detector se disponen como discos perpendiculares al haz.

El aspecto más importante del diseño del detector es la configuración y parámetros del campo magnético. El momento de las partículas es determinado a partir del curvamiento de sus trayectorias, por lo que una alta resolución en esta medida se puede alcanzar gracias a un alto

poder de curvatura. En un sistema solenoidal al ser el campo magnético paralelo al haz el desvío de las trayectorias se produce en el plano transversal y aumenta la precisión, además es más reducido en tamaño que un sistema toroidal.. Por ello, el diseño del CMS está basado en un solenoide que proporciona un alto campo magnético (4T). Consta de un imán superconductor fabricado con bobinas de niobio y titanio de 13 m de longitud y 6 m de diámetro, enfriadas a una temperatura de -270ºC. La inductancia del imán es de 14 Henrios, y la corriente nominal es de 19500 amperios, resultando una energía total acumulada de 2.66 GJ, por lo que dispone de circuitos de bombeo para disipar con seguridad esta energía.

Julio 2008 72

ALGUNOS EXPERIMENTOS QUE TENDRÁN LUGAR EN EL LHC Y SERÁN DETECTADOS EN

ATLAS Y CMS

BOSÓN DE HIGGS:

El Modelo Estándar de la física de partículas ha unificado la interacción electromagnética

(portador: γ, fotones sin masa) y la interacción débil (portadores: bosones Z0, W+, W-, bastante

masivos: 80-90GeV). De acuerdo con este modelo, las partículas adquieren su energía a través de la

interacción con el campo de Higgs, lo que implica la existencia de una nueva partícula: el bosón de

Higgs, H0. La teoría no predice la masa de está partícula, pero sí las tasas de producción y los

modos de desintegración para cada posible masa. Por tanto, midiendo las desintegraciones en

ATLAS y CMS la masa de H0 podrá ser determinada.

Si la masa está en el rango de 80-140 GeV la desintegración H0→γγ es la vía más prometedora. En

cambio, si la masa está en el rango de 130-700 GeV las desintegraciones más probables son

H0→ZZ*→2l+2l- y H0→ZZ→2l+2l-. La detección se basa en relies en el excelente desarrollo de los

detectores de muones, los dispositivos de rastreo y los calorímetros electromagnéticos.

Julio 2008 73

SUPERSIMETRÍA:

La supersimetría (SUSY) predice que cada fermión (particulas de spin semientero) tiene un

“supercompañero” de spin 0, mientras que cada bosón (partícula de spin entero) tiene uno de spin

½. Hoy en día, ninguno de estos “supercompañero” han sido detectados, posiblemente debido a las

diferentes masas de las partículas con respecto a sus superpartículas. En la escala de los TeV, a la

que opera el LHC, podrían ser detectados.

Julio 2008 74

Otras aplicaciones

Los grandes avances tecnológicos que ha sido necesario desarrollar para que los detectores del

LHC pudieran llevar acabo sus respectivas misiones han sido aplicados además a otras muchas

áreas de la ciencia. A continuación podemos ver algunos de los ejemplos más relevantes:

Avances médicos:

• Píxeles de silicio: se encuentran en la mayoría de las capas internas de los detectores, cerca de 100

millones de ellos son capaces de determinar el camino exacto que ha seguido una partícula cargada

producida en las colisiones protón-protón. Este mismo tipo de píxeles detectores puede ser usado en

imágenes biomédicas cuando es necesario obtener una gran resolución espacial, como ocurre por

ejemplo en las mamografías. El detector simplemente cuenta la cantidad individual de rayos X que

ha sido absorbida mediante pequeños contadores que se encuentran situados en cada uno de los

píxeles, esto ofrece una imagen digital real de la dosis de rayos X recibida en cada una de las partes

radiadas.

• Contador de fotones: están situados en los píxeles de los detectores que emplean el chip XPAD.

Basándose en ellos se ha desarrollado el PIXSCAN, un nuevo método para la tomografía

computerizada, CT, que mejora el contraste entre tejidos blandos. Debido al tamaño

extremadamente pequeño del detector empleado podemos combinar esta técnica con la Tomografía

Julio 2008 75

por Emisión de Protones (PET), porque mientras que éste ofrece únicamente la posición del tumor

el CT proporciona la imagen del órgano completo.

• Microfranjas de silicio: a partir de ellas se ha desarrollado un sistema que permite grabar la

actividad neuronal a gran escala para poder así estudiar las señales enviadas por el tejido de la

retina al cerebro con la información recibida del exterior. Esto permite aumentar el conocimiento

que se posee sobre la manera en que los impulsos visuales llegan al cerebro y son interpretados en él

pudiendo algún día llegar a culminar en el desarrollo de una vista artificial para la gente ciega.

Avances técnicos:

• XPIX: detector que es usado en el chip XPAD. Se ha adaptado a una nueva generación de fuentes

de rayos X de gran intensidad que son utilizadas para el estudio de la estructura de las proteínas o

del estado sólido de la materia. Con ello se ha logrado mejorar considerablemente la calidad de las

imágenes además de disminuir el tiempo necesario de exposición en su toma, con lo que se evita la

posible destrucción del material por la exposición a la radiación.

• Medida ultrasónica de vapores: se desarrollo para poder detectar el exceso de concentración en el

vapor de fluorcarbono que se encuentra en los sistemas de refrigeración de la zona interna del

detector. Esto fue empleado para analizar la mezcla de gases utilizada en la producción de

Julio 2008 76

semiconductores donde la concentración de elementos pesados debe estar muy controlada. Además

se ha aplicado a la anestesia clínica para poder resolver mezclas en ella con gran precisión.

• Localización de personal de emergencia: fue creado por el personal del ATLAS, consta de un

gran número de sensores infrarrojos que permiten seguir el movimiento de todas las personas que

se encuentran en un determinado área desde un centro de control. Este sistema es aplicable a

cualquier escenario, especialmente minas donde los trabajadores pueden ser difícilmente

localizables en una situación de emergencia, o en situaciones con gran cantidad de humo o de niebla.

• Procesado industrial de imágenes: los detectores del CERN generan una cantidad ingente de

datos. Basado en el desarrollo que se siguió en los detectores para procesar toda esta información la

compañía Silicon Software GmbH creó sistemas de bajo precio que ofrecían gran procesado de las

imágenes industriales que pudieran ser tomadas en la ejecución de sus actividades.

Avances culturales:

• Método precisión óptica: fue usado para poder medir y alinear cada uno de los detectores

individuales de silicio en el semiconductor tracker del ATLAS. Inspirándose en él se siguió la

misma estrategia para medir de manera precisa la forma de la ranura en los soportes mecánicos de

sonido. Esto permite reconstruir las grabaciones con gran fidelidad y reducir significantemente el

nivel de ruido. Como en este método no hay un contacto físico con el material de la cinta puede

usarse para restaurar y preservar grabaciones históricas.

• Red computerizada: el CERN posee una gran red de colaboradores en diferentes partes del

mundo que participan en el análisis y el almacenamiento de los datos recogidos en los diferentes

experimentos. La infraestructura desarrollada para poder llevar acabo estas funciones ha sido

utilizada en otros procesos que cuentan también con un gran número de datos como por ejemplo la

predicción climática

o la exploración petrolífera.

Julio 2008 77

• Educación: existe un gran número de alumnos que se encuentran involucrados en el desarrollo de

ciertas partes de los detectores. Esta colaboración les proporciona una gran experiencia sobre el

funcionamiento del trabajo que se está realizando actualmente en los laboratorios modernos,

además de ofrecerles la posibilidad de colaborar en grupos internacionales de investigación. Con

esta experiencia se prepara a los estudiantes para un amplio espectro de profesiones tanto en la

ciencia y la tecnología, como en la educación y en la administración.

Julio 2008 78

El efecto Cherenkov: más allá de la velocidad de la luz Pablo García Corzo

Julio 2008 79

Julio 2008 80

Julio 2008 81

Julio 2008 82

Julio 2008 83

Julio 2008 84

Julio 2008 85

Julio 2008 86

Julio 2008 87

Julio 2008 88

Parte II

Pósters

Julio 2008 89

Julio 2008 90

Julio 2008 91

Julio 2008 92

Poster 4

Julio 2008 93

Julio 2008 94

Julio 2008 95

Julio 2008 96

Julio 2008 97