Facultad de Ciencias Exactas - UNICEN
Transcript of Facultad de Ciencias Exactas - UNICEN
Universidad Nacional del Centro de la Provincia de Buenos Aires
Facultad de Ciencias Exactas
Técnicas de análisis y cuantificación en imagen médica en el estudio de enfermedades neuronales
Trabajo final de la carrera de
Ingeniería de Sistemas
Delfina Braggio
Director:
Ignacio Larrabide
Tandil, Marzo de 2016
1
Índice de contenido
Capítulo 1: Introducción y motivación…………………………………………….. 4 Conocimientos aplicados en el desarrollo de este trabajo…………………....6
Estructura del trabajo…………………………………………………………...7
Capítulo 2: Marco teórico……………………………………………………………. 8 Capítulo 3: Análisis de datos de DTI……………………………………………….. 17
Materiales y metodología……………………………………………………….18
Metodología……………………………………………………. ……… 18
Materiales…………………….…………………………………………19
Análisis de datos……………………………………………………….. 21
Capítulo 4: FSL……………………………... ………………………………………... 24 Sobre la herramienta…………………………………………………………... 24
Flujo de trabajo…………………………………………………………………. 25
Corrección de distorsiones……………………………………………..25
Extracción del parénquima cerebral………………………………….. 29
Cálculo de autovalores y autovectores………………………………..33
Análisis estadístico…………………………………………………….. 35
Preparación de los datos: TBSS ……………………………..35
TBSS_1_preproc……………………………………... 36
TBSS_2_reg…………………………………………...38
TBSS_3_postreg……………………………………... 39
TBSS_4_prestats……………………………………...41
Comparación entre hemisferios en TBSS…………...43
GLM y randomise……………………………………………....44
GLM…………………………………………………….44
Randomise……………………………………………..45
Capítulo 5: SPM………………………………………………………………………...47 Sobre la herramienta…………………………………………………………....47
Flujo de trabajo…………………………………………………………………..48
Corrección de distorsiones……………………………………………..48
Extracción del parénquima cerebral…………………………………...51
Cálculo de autovalores y autovectores………………………………...54
2
Análisis estadístico…………………………………………………….. 56
Preparación de los datos……………………………………... 56
Corresgistracion………………………………………. 57
Creación del template………………………………....58
Registración con el template………………………….60
Creación de máscara………………………………… 62
Suavizado……………………………………………... 62
Cálculo de estadísticas………………………………………...63
Capítulo 6: Comparación entre herramientas……………………………………..68 Comparación de la arquitectura………………………………………………..68
Codificación…………………………………………………………………….. 69
Comparación de resultados…………………………………………………….70
Corrección de distorsiones……………………………………………. 70
Extracción de parénquima cerebral………………………………….. 73
Cálculo de autovalores y autovectores………………………………..76
Análisis estadístico…………………………………………………….. 79
Atributos de calidad……………………………………………………………..81
Eficiencia……………………………………………………………….. 82
Capítulo 7: Conclusiones……………………………………………………………..86 Trabajos futuros…………………………………………………………………87
Bibliografía…………………………………………………………………………….. 89
3
Capítulo 1: Introducción y motivación
Las técnicas de adquisición de imágenes médicas generan grandes volúmenes de
datos. Estos datos requieren de herramientas especializadas para poder ser almacenados,
transmitidos y, principalmente, analizados. A partir de su análisis se puede proveer gran
cantidad de información respecto de la salud de una persona, así como de riesgos o
posibles alternativas de tratar una enfermedad. Es de gran importancia el desarrollo de
técnicas informáticas que faciliten el análisis de los datos generados, de forma rápida y
eficiente, facilitando el trabajo del personal médico. Gracias a este tipo de herramientas se
puede realizar un análisis minucioso y profundo de gran cantidad de imágenes en poco
tiempo, destacando aquellos aspectos de importancia a nivel sanitario para un posterior
análisis médico. Además, gracias a su eficiencia, estas herramientas consiguen realizar
estudios generales, sobre grupos de individuos, logrando así encontrar interrelaciones entre
aspectos médicos, biológicos y, por ejemplo, geográficos. Este tipo de interrelaciones son
muy complejas, además de lentas, de reconocer sin la ayuda de alguna herramienta que
automatice el estudio de las imágenes.
En los últimos años, el uso de técnicas avanzadas de imagen médica han permitido
explorar con mayor detalle la anatomía y el funcionamiento del cerebro humano. Por
ejemplo, el uso de imagen de resonancia magnética (MRI) tanto de anatomía como de
función, permite estudiar las conectividad entre diferentes regiones del cerebro, tanto en
humanos como en animales. Adicionalmente, otros estudios como Angiografía
intervencionista intracraneal (Interventional Angiography), Tomografía Computarizada (CT)
y Tomografía Computacional de Perfusión (Perfusion CT) permiten obtener información muy
detallada de la composición de los tejidos y su función.
La imagen mediante resonancia magnética de difusión (DWMRI) junto con la
tractografía han mostrado gran potencial para la investigación invivo de la arquitectura de la
materia blanca, especialmente debido a los avances en desarrollo de técnicas para el
modelado de datos. Muchas aplicaciones clínicas (desórdenes neurodegenerativos,
desórdenes psiquiátricos, planeamiento prequirúrgico, entre otros) emplean imágenes de
difusión en conjunto con la convencional resonancia magnética. [2]
Hoy en día DWMRI es la única técnica no invasiva capaz de lograr una imágen de
la materia blanca del cerebro humano. Su éxito proviene de su capacidad de describir
acertadamente la geometría e integridad de la microestructura subyacente. DWMRI logra
4
capturar la difusión promedio de las moléculas de agua, que sondean la estructura biológica
de los tejidos a escalas mucho menores que la resolución de la imágen. [3]
El uso de este tipo de imágenes es muy amplio, ya sea en la clínica o en la
investigación. A través de ellas podemos desde explorar la integridad tisular, hasta inferir las
zonas que se activan ante determinado proceso cognitivo, pasando por la posibilidad que
brindan para determinar cómo están conectadas anatómica/funcionalmente unas y otras
zonas del cerebro [4]. Se podría afirmar que la información que esta técnica nos ofrece es
tan rica y variada, que por ahora las limitaciones a su uso no son otras que las que imponga
nuestro ingenio en la definición de nuevas metodologías para el análisis e interpretación del
enorme caudal de datos que nos ofrece la MRI [4].
Más allá de estas imágenes, se presentan muchos desafíos al momento de
analizarlas: los datos “contenidos” en ellas son diversos, y requieren de un análisis profundo
para poder obtener información acertada de ellos.
Es por eso que es necesario el análisis, desarrollo y evaluación de distintas técnicas
que puedan ayudar a analizar e interpretar el enorme caudal de datos que nos ofrece la
MRI, lo que permitirá estudiar correlaciones entre la conectividad cerebral y procesos
cognitivos tanto en salud como en enfermedad.
Como se dijo anteriormente, son diversas las enfermedades neurológicas que
pueden obtener un beneficio en su tratamiento mediante el análisis de distintos tipos de
imágenes. Gracias a un buen análisis de imagen neurológica se pueden detectar
enfermedades, hacer un seguimiento durante el tratamiento de la enfermedad, se pueden
planear cirugías entre muchas otras aplicaciones.
En este trabajo se tomaron dos herramientas especializadas en el análisis de
imágenes neurológicas para realizar una comparación entre ellas. Para poder contrastar su
desempeño, se tomó un dataset adecuado con imágenes correspondientes a estudios
neurológicos realizados en el marco del proyecto de conectoma humano (the human
connectome project, http://www.humanconnectome.org/). Estas imágenes, fueron
procesadas por ambas herramientas, siguiendo un flujo de trabajo similar con cada una de
ellas. Con esto se logró comparar los resultados obtenidos en cada instancia del
procesamiento y, por consiguiente, se pudieron contrastar las herramientas según distintos
atributos.
Las herramientas elegidas son SPM (http://www.fil.ion.ucl.ac.uk/spm/) y FSL
(http://fsl.fmrib.ox.ac.uk/fsl), ambas son paquetes de software para el análisis de
5
neuroimágenes. Presentan una amplia variedad de módulos especializados en las distintas
modalidades de imágenes y son ampliamente utilizadas en el ambiente de imágenes
neurológicas.[13]
Para poder seguir una línea de trabajo clara en el desarrollo de este trabajo, se eligió
un trabajo de investigación y se replicaron algunos de sus pasos (“Contribución de las
imágenes de resonancia magnética por tensor de difusión al diagnóstico de displasias
corticales focales” realizado por Juan P. Princich, et. al.)[28]. De esta forma, los pasos
seguidos corresponden a los procesos realizados habitualmente en el ambiente de la
neuroimagen y, por consiguiente, las pruebas sobre las herramientas no son aisladas sino
que siguen un proceso claro y secuencial.
Este trabajo toma importancia no sólo por su contenido, sino que también busca
formar una base teórica para poder lograr una especialización en la temática tratada en
posteriores estudios de postgrado.
Conocimientos aplicados en el desarrollo de este trabajo
Durante el desarrollo de este trabajo, se han logrado aplicar los conocimientos
adquiridos a lo largo de la carrera. Diversas materias se vieron involucradas en este trabajo.
Tanto para comprender la adquisición de las imágenes de resonancia magnética y las
transformaciones aplicadas a las imágenes, como para introducir el uso de MATLAB, y
comprender la arquitectura y los procesos de las herramientas. Se han aplicado
conocimientos de:
Análisis matemático
Álgebra lineal
Programación
Física
Ciencias de la computación
Electricidad y magnetismo
Probabilidades y estadística
Teoría de la información
Diseño de sistemas de Software
Taller de imágenes médicas
6
Estructura del trabajo
A continuación se presenta un resumen de cómo está estructurado el trabajo.
En el capítulo 2 de este trabajo se presenta un marco teórico, con una revisión de
aquellos conceptos necesarios para el entendimiento de la temática.
En el capítulo 3 se presenta con más detalle el dataset elegido y el trabajo de
investigación que se desea replicar.
Luego, en los capítulos 4 y 5 se presentan los detalles del desarrollo del trabajo en
las dos herramientas probadas. Ambos capítulos presentan la misma estructura y en ellos
se detallan los pasos seguidos durante el trabajo, las características de cada herramienta y
los resultados obtenidos durante las pruebas realizadas.
En el capítulo 6 se presenta una comparativa de las herramientas. Se destacan
aspectos generales de ellas y, en particular, se comparan los resultados obtenidos luego de
cada paso del procesamiento.
Por último, en el capítulo 7 se exponen las conclusiones del trabajo realizado y
futuros trabajos relacionados.
7
Capítulo 2: Marco teórico El sistema nervioso central está comprendido de células neuronales conectadas
entre sí mediante axones, que funcionan como líneas de transmisión entre diferentes
regiones neuroanatómicas. El entendimiento de cómo el cerebro y la médula espinal
funcionan no es posible sin el conocimiento de cómo las diferentes regiones anatómicas
están conectadas entre sí. [22]
Comparado con la materia gris, la materia blanca ha sido dejada de lado en el
estudio del cerebro. La tendencia a dejarla de lado es debido, particularmente, a que el
mayor desarrollo de funciones cognitivas y emocionales está dado por parte de la corteza
cerebral. La materia blanca atrae menos consideración porque ha sido percibida por tener
un rol de soporte fisiológico y su anatomía fue siempre menos entendida. Se le ha dado
mucha importancia a la corteza cerebral por su fuerte relación con la inteligencia, la
memoria, el lenguaje, la función ejecutiva y la personalidad. A pesar de esto, la materia
blanca también amerita la atención de los neurocientíficos, no sólo porque sirve para
conectar las distintas partes de la corteza cerebral entre sí, sino también porque es blanco
de numerosas y diversas patologías.
La materia blanca forma parte de casi el 50% del encéfalo y eso es razón suficiente
para ser tenida en cuenta. El número de desórdenes cerebrales en los que la materia
blanca está parcial o exclusivamente involucrada pasan la centena y, sin excepción, todos
ellos tienen la capacidad de ejercer un impacto dañino en la función cognitiva o emocional.
[23]
Entre los aspectos más beneficiados con el estudio de la materia blanca se
encuentra el diagnóstico médico. La Imagen de resonancia magnética (MRI) se ha
convertido en el principal método para diagnosticar enfermedades tales como la esclerosis
múltiple y, con el constante avance en el estudio y desarrollo de técnicas de DTI, se puede
esperar mejoras en el diagnóstico de distintas neuropatologías. A partir de esto se puede
mejorar el tratamiento del paciente, si se conoce la etiología, localización, extensión e
impacto de las lesiones en la materia blanca. Los médicos clínicos estarán habilitados para
evaluar síntomas y señales en pacientes conociendo las lesiones específicas, pudiendo así
conocer relaciones entre el cerebro y el comportamiento humano. Además va a mejorar
nuestro conocimiento global del funcionamiento del cerebro, pudiendo conocer la conexión
entre la materia gris y la blanca. [23]
8
La imágen de resonancia magnética (MRI) apareció en 1980 e inmediatamente
mejoró la imágen clínica de la materia blanca. En contraste con la tomografía computada, la
resonancia magnética provee vistas detalladas de la materia blanca del cerebro y la médula
espinal, lo cual no sólo clarificó características de enfermedades conocidas (como la
esclerosis múltiple) sino que también habilitó el descubrimiento de nuevas (como la
enfermedad de desaparecimiento de materia blanca (VWM). [23]
En los 90´ el ritmo continuo de descubrimiento, llevó a la aparición de la MRI de
difusión (DWMRI) [23]. Debido a que la DWMRI usa una tecnología de imagen rápida, es
altamente resistente al movimiento del paciente, y el tiempo de formación de imágenes
varía desde unos pocos segundos a 2 minutos. Como consecuencia, la DWMRI ha
asumido un papel esencial en la detección de infarto cerebral agudo y en la diferenciación
de infarto agudo de otros procesos de enfermedad. [18]
La DWMRI proporciona información potencialmente única sobre la viabilidad del
tejido cerebral. Proporciona contraste visual que depende del movimiento molecular del
agua, el cual puede ser alterado sustancialmente por distintas enfermedades. La principal
aplicación de la DWMRI ha estado en las imágenes cerebrales. [18]
Como se dijo anteriormente, la DWMRI es un tipo de MRI basada en la medición del
movimiento de las moléculas de agua en un voxel de tejido. La difusión ocurre como el
resultado del constante movimiento de las moléculas de agua. El agua compone entre el 60
y el 80 por ciento de nuestro peso corporal y el calor asociado con nuestra temperatura
corporal energiza las moléculas de agua haciéndolas sacudirse azarosamente. Este
fenómeno es llamado movimiento browniano [17]. El incesante movimiento de las moléculas
de agua en un tejido es influenciado por una variedad de factores tales como restricciones
debidas a las membranas celulares, citoesqueleto o macromoléculas [22]. Empleando el
conocimiento de cómo las características microestructurales contribuyen al proceso
difusional general, es posible obtener información valiosa sobre la microestructura biológica
simplemente observando el movimiento de las moléculas de agua. [22]
9
Figura 1. Esquema con funcionamiento básico de la imagen de resonancia magnética
Para sensibilizar la adquisición de la resonancia magnética de manera que se
detecten los movimientos de las moléculas de agua se aplican gradientes intensos en el
campo de imagen. Cuando las moléculas de agua atraviesan dichos gradientes
experimentan cambios de fase que dependen de su dirección y velocidad. Dichos cambios
de fase se traducen en un aumento o disminución de la señal (ver figura 1) [15].
Para obtener una imagen ponderada en difusión se aplican pulsos de gradiente de
difusión en una secuencia de pulso de RM convencional. La intensidad de la imagen
depende de la difusividad efectiva de las moléculas marcadas en el volumen excitado [15].
En este tipo de imágenes, tanto la densidad de protones (PD) como los tiempos de
relajación T1 y T2 y el coeficiente de difusión (D) son ampliamente usados. La densidad de
protones representa la concentración de agua. T1 y T2 son los tiempos de relajación de la
señal después de la excitación y están relacionados con factores ambientales como
viscosidad o presencia de macromoléculas cercanas. El término de difusión D representa al
movimiento browniano de las moléculas de agua.
La ecuación 1 es una ecuación simplificada del aporte de los distintos factores a la
señal S captada por la resonancia magnética:
10
(1)D(1 )e e S = P − e −TR/T1 −TE/T2 −bD
Donde TR y TE representan el tiempo de excitación y el periodo de preparación
respectivamente, y b es el factor de difusión.
Si se obtienen dos imágenes con diferente b (b1 y b2), pero los demás parámetros
(TR y TE) se mantienen iguales, se puede deducir el valor de D a partir de los valores de
señal obtenidos (S1 y S2):
(2)− n ( )/(b2/b1)D = l S1S2
Donde la fórmula de b es la siguiente:
G δ (Δ /3)b = γ2 2 2 − δ
Siendo el cociente giromagnético, G es la fuerza del gradiente aplicado, la γ δ
duración del mismo y el tiempo entre dos pulsos [49].Δ
Figura 2. Diagrama esquemático que explica la relación entre el movimiento del agua y la aplicación de los gradientes. Cada círculo representa moléculas de agua en distintos lugares de un pixel. Los vectores en los círculos representan la fase de la señal. Si las moléculas se mueven durante la aplicación de los gradientes, el segundo gradiente no puede alinear perfectamente las fases de las moléculas, lo cual lleva a una pérdida de señal. En este caso, los movimientos verticales (paralelos al gradiente aplicado) no llevan a pérdida de señal.
Dado que las moléculas de agua tienden a difundirse más libremente a lo largo de
la dirección de las fibras neuronales, si se puede cuantificar la orientación de preferencia de
11
difusión, entonces esto se puede relacionar con la orientación axonal. Uno de los aspectos
más significativos en los estudios de difusión por resonancia magnética es que siempre se
detecta el movimiento molecular a lo largo de un eje predeterminado, que está fijado por la
orientación del gradiente de campo aplicado. Todas las máquinas de MRI están equipadas
con tres gradientes ortogonales llamados X, Y y Z. Combinando estos tres gradientes puede
calcularse cualquier eje arbitrario. [22]
Por otro lado, al variar el valor de la variable b, la intensidad de la señal captada por
el resonador cambia. La forma más intuitiva para cambiar su valor es agrandando la
separación entre dos pulsos de gradiente. Cuanto más grande es esta separación, más
tiempo tiene el agua para moverse libremente, lo cual lleva a más pérdida de señal.
Aplicando distintos gradientes, se puede entonces calcular un mapa de coeficientes
de difusión o mapa de coeficiente de difusión aparente (ADC) en el que la intensidad de
cada píxel es proporcional al grado de difusión en él [24].
En tejidos como la materia gris, donde la difusividad medida a nivel voxel es
independiente de la orientación del tejido (isotrópica), es común describir la características
de difusión con sólo un escalar (ADC). En cambio, en medios anisotrópicos, como la
materia blanca donde la difusividad medida es conocida por depender de la orientación del
tejido, un solo ADC no caracteriza adecuadamente la movilidad, ya que este varía según la
orientación del gradiente aplicado [22]. Para evitar la medición de difusión a lo largo de
miles de ejes (lo cual sería necesario para encontrar el eje donde la difusión es máxima)
surge un modelo en el que las mediciones respecto a distintos ejes son representadas por
un elipsoide 3D.
12
Figura 3. Comparación esquemática de valores de anisotropía fraccional según el movimiento del agua.
Si el agua está confinada en un sistema alineado homogéneamente podemos
asumir que el proceso de difusión dibuja una elipse en la que el eje mayor está alineado con
la orientación de las fibras. Las propiedades de este elipsoide: el largo del mayor, mediano y
menor eje (autovalores 1, 2 y 3) y sus orientaciones (autovectores v1, v2 y v3) pueden λ λ λ
ser definidos con 6 parámetros. Para convertir los resultados de las mediciones a estos 6
parámetros es utilizada una matriz simétrica de 3x3 llamada tensor [15].
Figura 4. Representación geométrica del tensor de difusión
Una vez que estos 6 parámetros son obtenidos para cada pixel, se pueden generar
distintas métricas. Existen múltiples formas para caracterizar la difusión anisotrópica, uno de
los parámetros más empleados en la práctica habitual es la anisotropía fraccional (FA).
La anisotropía fraccional es un valor escalar comprendido entre 0 y 1 que describe
el grado de anisotropía del proceso de difusión. El valor 0 indica que la difusión es isotrópica
(sin ninguna orientación preferible), un valor 1 significa que la difusión ocurre a lo largo de
13
un sólo eje. La anisotropía fraccional (FA, de su nombre en inglés) es calculada a partir de
los autovalores λ1, λ2, y λ3 del tensor de difusión.
Su fórmula es la siguiente: A F = √21
√λ1 +λ2 +λ3 2 2 2√(λ1−λ2) +(λ2−λ3) +(λ3−λ1) 2 2 2
Como puede notarse a partir de su fórmula, la anisotropía fraccional es una medida
de la anisotropía de la difusión, pero es un escalar independiente de la dirección, sólo
representa que tan fuertemente direccionada es la difusión en ese punto en particular.
El estudio sobre los valores de anisotropía fraccional en las distintas regiones de la
materia blanca ha sido tema de estudio en relación a diversas enfermedades neurológicas.
Estudios han demostrado que existe una correlación entre los valores de FA y la presencia
de esclerosis múltiple en pacientes; además estos valores presentan una correlación con la
discapacidad presente en los individuos, lo que sugiere que el monitoreo de la anisotropía
fraccional puede servir como un control más del avance de la enfermedad [25].
También hay estudios que han encontrado relación entre los valores de FA y los
desórdenes bipolares, sugiriendo una disminución de la anisotropía fraccional en la región
prefrontal como una evidencia temprana de trastorno bipolar en el paciente [26].
Existen también estudios que sugieren un crecimiento en los valores de anisotropía
fraccional en distintas regiones de la materia blanca, durante el aprendizaje de nuevas
habilidades [27].
La dMRI ha sido extendida al estudio de neuroanatomía y neuropatología y la
imagen de tensores de difusión (DTI) ha emergido como una importante nueva técnica para
la caracterización precisa de las estructuras cerebrales en el cerebro tanto sano como
enfermo.
Además de los estudios de FA existen diversas aplicaciones de la imagen de
difusión. Una de las más importantes y que presenta un futuro prometedor es el cálculo de
la tractografía. La tractografía es una técnica de modelado que representa una
reconstrucción de los tractos neuronales a partir de la información contenida en las
imágenes de tensor (DTI). Esta modalidad saca provecho de la direccionalidad de los
tensores de la DTI y, a partir de diversos algoritmos, reconstruye los tractos de materia
blanca del cerebro.
14
Figura 5. Visualización gráfica del funcionamiento del algoritmo básico de reconstrucción de
tractografía.
Es una técnica nueva, y todavía presenta grandes desafíos al momento de
reconstruir las fibras, especialmente en aquellas zonas en que se presentan cruces de
tractos. Es por esto que es motivo de investigación, y que constantemente surgen nuevos
avances en el campo. Las aplicaciones que conlleva la creación de la tractografía son muy
variadas: pueden servir para la planificación de cirugías neurológicas, para estudiar el
impacto de enfermedades neuronales y, sobre todo, para aprender sobre la conectividad en
el cerebro. Con la aparición de avances en esta área, se puede establecer qué partes
funcionales de la materia gris están conectados con cuáles, pudiendo entender de manera
más global el funcionamiento del cerebro.
Figura 6. Ejemplo de la visualización de una tractografía, coloreada para poder intuir
direccionalidad.
15
Tanto para poder reconstruir los tractos de manera fiel como para poder establecer
una relación entre la FA y las distintas patologías, es necesario poder automatizar el estudio
de las imágenes DWMRI. El avance en este campo está fuertemente ligado a la tecnología
y es de suma importancia la aparición y desarrollo de distintos métodos, algoritmos y
herramientas que facilitan y automatizan el análisis de las imágenes, permitiendo así sacar
el máximo provecho a los datos contenidos en ellas.
Existen diversas herramientas que facilitan el estudio de este tipo de imágenes, las
cuales proveen facilidades para la comparación y el análisis de correlación entre distintos
factores. Estas herramientas presentan paquetes con facilidades para las distintas etapas
del procesamiento y análisis de imágenes médicas. Más específicamente, en el caso de las
DWMRI, estas herramientas cuentan con funcionalidades especializadas en el
preprocesamiento, registración y segmentación de imágenes. Facilitan la reconstrucción de
los tensores de difusión y de los mapas de FA y cuentan además con herramientas
especializadas en el análisis estadístico de ellos, ya sea comparando valores de un mismo
paciente a través del tiempo, grupos de control con grupos de pacientes, o cualquier
agrupación sobre la cual se quiera realizar algún estudio.
Teniendo en cuenta esto, en este trabajo se tomaron dos herramientas
especializadas en el análisis de imágenes neurológicas para realizar una comparación entre
ellas. Se tomaron las mismas imágenes y se aplicó el mismo flujo de trabajo en ellas con
ambas herramientas, comparando paso a paso los resultados obtenidos. Además se realizó
una comparación general de las herramientas, teniendo en cuenta otros aspectos, tales
como los atributos de calidad. En particular, se realizó todo el procesamiento relacionado a
la comparación de los mapas de anisotropía fraccional de distintos pacientes siguiendo el
trabajo de investigación de otro grupo especializado en el tema [28]. A lo largo de este
preprocesamiento se tomaron distintas medidas y se fueron comparando los resultados
obtenidos con ambas herramientas para poder comparar su funcionamiento.
16
Capítulo 3: Análisis de datos de DTI
En este trabajo se hará una comparación entre dos herramientas utilizadas para el
análisis de imágenes neurológicas: FSL y SPM.
FSL es una biblioteca completa de herramientas de análisis para FMRI, MRI y DTI
creada por el grupo de análisis FMRIB en Oxford, UK. SPM es un kit de herramientas de
software académicas para el análisis de imágenes, desarrollado por el centro Wellcome
Trust de neuroimagen en UCL, Londres. En los siguientes capítulos se describirán de
manera más completa estas herramientas.
Estas herramientas fueron elegidas, ya que ambas son ampliamente usadas en el
ambiente de imágenes neurológicas [50] [51] [52]. Son de libre acceso y constan de un
conjunto de herramientas completo para el análisis de distintos tipos de imágenes de
resonancia magnética. Por otro lado, presentan un fuerte enfoque en lo que significa
comparación de imágenes agrupadas por distintas categorías, presentándose, ambas,
como una fuerte alternativa al momento de realizar investigaciones académicas.
Debido al incipiente crecimiento de investigaciones relacionadas con la imagen de
difusión (dMRI) y los hallazgos realizados relacionando distintos valores derivados de estas
imágenes (por ejemplo la anisotropía fraccional) es importante contar con herramientas que
faciliten estos estudios y sean capaces de inferir conclusiones válidas de manera eficiente.
Tanto FSL como SPM cuentan con módulos especializados en el análisis estadístico de
imágenes, permitiendo la comparación de grupos, comparación entre hemisferios
cerebrales o comparación de imágenes de un mismo individuo a través del tiempo. Gracias
a cualidades como estas es que ambas herramientas, a pesar de ser relativamente nuevas,
se encuentran fuertemente consolidadas en el ambiente de la neuroimagen.
A pesar de presentar cualidades similares, ambas herramientas presentan enfoques
distintos, cada una tiene sus fortalezas y sus limitaciones respecto a distintos criterios. Es
por eso que en este trabajo se decidió compararlas, para poder conocer sus alcances con
mayor profundidad y poder así utilizarlas de manera más fructífera en trabajos futuros
relacionados con el tema.
17
Materiales y metodología
Para poder contrastar ambas herramientas, sus cualidades, debilidades y distintos
usos, se tuvieron en cuenta distintos aspectos para compararlas, en primer lugar se
compararon ciertos aspectos generales de ellas tales como la plataforma sobre la que se
pueden ejecutar, formatos de imágenes aceptados, extensibilidad, etc.
Luego se decidió realizar un mismo trabajo en paralelo en ambas, contrastando los
resultados obtenidos con cada una de ellas. Por un lado se midió la eficiencia de ambas
herramientas a lo largo de todo el proceso; por otro se compararon los resultados obtenidos
a cada paso, teniendo en cuenta distintas medidas dependientes de los aspectos a
comparar.
Metodología
Para empezar, se eligió el trabajo “Contribución de las imágenes de resonancia
magnética por tensor de difusión al diagnóstico de displasias corticales focales” realizado
por Juan P. Princich et. al. [28]. En este trabajo se analizan las características de la
anisotropía fraccional en una serie de pacientes con displasia cortical focal (DCF), para
evaluar la contribución diagnóstica de la resonancia magnética de difusión
Se eligió como metodología de trabajo replicar parcialmente el análisis de datos
realizado por este estudio, el que servirá para lograr una introducción en el estudio científico
y sus metodologías, y poder así seguir una línea de investigación en trabajos futuros. Este
trabajo está enfocado en el análisis de la anisotropía fraccional, tema que presenta una
línea de investigación novedosa y prometedora. Además, en la sección “trabajos futuros” de
este paper en particular, se contaba con poder realizar el mismo análisis realizado, por
medio de estadísticas especializadas (TBSS o VBM) las cuales están disponibles en las
herramientas antes citadas y que sirven como un buen comienzo en el entendimiento de las
investigaciones relacionadas con imágenes de difusión.
En este trabajo de investigación se tomaron las imágenes neurológicas de 21
controles y 11 pacientes. El protocolo de obtención de las imágenes fue el siguiente: Se
escanearon todos los pacientes en un equipo RM de 1,5 T (Intera, Philips Medical Systems,
Best, Países Bajos) con bobina de cabeza de seis canales, factor SENSE de 2, en una
secuencia single shot diffusionweighted tipo ecoplanar (TR/TE = 6.860/102 ms, matriz en
112 × 112, ancho de banda de 95 kHz, campo de visión 22 × 22 cm2), valor b de 800
s/mm2 aplicado secuencialmente en 32 direcciones de gradientes no colineales, entre 6070
18
cortes axiales de 2 mm de espesor con una imagen en B0 sin aplicación de gradientes en
cada posición. Se obtuvieron tres adquisiciones sin gap, con un tiempo total promedio de
entre 13 y 16 minutos y una resolución final isotópica de 2 mm. También se incluyeron
secuencias estructurales T1 3D (spoiled gradient recovery volume TR/TE/TI = 9,2/4,2/450
ms, matriz 256 × 256, campo de visión de 256 × 256 mm2, espesor de 1 mm) con
resolución final isotópica de 1 mm.
Adicionalmente, todos los pacientes obtuvieron secuencias 2D FLAIR (TR/TE/TI =
10.000/147/2.200 ms, matriz 192 × 256, campo de visión de 24 × 24 cm2, y espesor de
corte entre 4 y 5 mm, sin gap) en planos axial y coronal.
Sobre las imágenes de difusión se realizó, resumidamente, la siguiente serie de
procesos:
Corrección de las distorsiones inducidas por corrientes eléctricas, utilizando
un algoritmo que determina la transformación afín óptima aplicada a cada
imagen de difusión.
Cálculo de los principales autovectores y autovalores a partir de las DTI,
generando mapas (imágenes volumétricas) de FA y difusividad media.
Corregistracion y modificación de las imágenes de FA según las
características comunes con las imágenes de T1 3D de alta resolución y con
las imágenes FLAIR.
Remoción de las estructuras extracraneales, y sobreimposición de los mapas
de FA de cada sujeto en un espacio común con las imágenes FLAIR y T1 3D
para visualizar en tres planos diferentes la relación con la DCF.
Filtrado de los umbrales de AF entre valores de 0,1 y 0,45 para eliminar la
organización más isotrópica de la corteza cerebral y facilitar la visualización
de la sustancia blanca.
Análisis visual de los mapas de AF, a cargo de dos neuroradiólogos
experimentados.
Análisis estadístico: Los resultados se compararon apareados por edad,
sexo, tiempo de evolución y tipo de epilepsia, características imaginológicas
y de EEG, mediante las pruebas U de MannWhitney y análisis de chi al
cuadrado o ANOVA.
Materiales
Para poder reproducir parcialmente los pasos anteriores, en primer, lugar se buscó
un dataset adecuado. Como en este trabajo, el objetivo no es encontrar correlación entre la
19
DCF y los mapas de FA (como si lo es en el trabajo a reproducir) sino poder evaluar las
herramientas, sus usos y sus resultados, no fue necesario encontrar pacientes que
presentaron la enfermedad, ni tampoco fue necesario que el número de pacientes fuera
considerable. Teniendo en cuenta esto, se consiguieron las imágenes correspondientes a 4
pacientes. Los datos fueron adquiridos a través del equipo MGHUSC para el proyecto
“Human connectome project” y consisten a las imágenes de difusión de 35 adultos sanos.
Los datos fueron recogidos por un scanner Siemens 3T personalizado, el cual es un sistema
Skyra 3T modificado. Para la adquisición de datos fue utilizado un arreglo de bobinas
ceñidas al cerebro de 64 canales (64channel, tightfitting brain array coil).
Los pacientes corresponden a adultos sanos de entre 20 y 59 años. En la tabla
siguiente se muestran los géneros y las edades de los 4 pacientes seleccionados:
Paciente Género Rango de edad
P1 Masculino 3034
P2 Femenino 2529
P3 Masculino 3539
P4 Femenino 2529
Dentro del dataset, se cuenta tanto con imágenes estructurales como de difusión.
A continuación se muestra una tabla con los detalles de los protocolos de
adquisición de imagen de difusión.
Parámetro Valor
Secuencia Spinecho EPI
TR/TE (ms) 8800/57
δ/Δ (ms) 12.9/21.8
FOV (mm) 210 x 210
Matriz 140 x 140
Cortes 96 cortes, 1.5mm de grosor, vóxeles isotrópicas de 1.5 mm de lado
iPAT 3
Factor multibanda 1
20
Espaciado de echo (ms) 0.63
BW 1984 Hz/Px
Phase Partial Forier 6/8
bvalues 1000, 3000, 5000, 10,000 s/mm2
Tiempo de adquisición total 89 mins
Los escaneos de difusión fueron adquiridos en 5 corridas:
Nro de corrida
bvalue (s/mm2)
Direcciones de difusión
Tiempo de adquisición(min:seg)
1 1,000 64 11:44
2 3,000 64 11:44
3 5,000 128 (set1) 21:51
4 10,000 128 (set1) 21:51
5 10,000 128 (set2) 21:51
Además, una imagen con b=0 fue obtenida cada 14 volúmenes de difusión, dejando
un total de 552 volúmenes.
Si bien la información es mucha, (6,8 Gb por paciente aproximadamente) se lo eligió
porque se presenta bastante completo y documentado por cada paciente, incorporando
también estudios anatómicos, que pueden, por ejemplo, ser útiles para el registro de los
resultados.
Para más detalles, la documentación completa de las imágenes se encuentran en la
siguiente página: http://humanconnectome.org/documentation/MGHdiffusion/
Análisis de datos
Una vez obtenidos los datos, y antes de reproducir el trabajo antes citado, se decidió
seleccionar una cantidad menor de volúmenes por paciente. Esto llevaría a facilitar el
procesamiento de las imágenes, ya que los 552 volúmenes por paciente originales
requerirían muchos recursos en su análisis. Se decidió tomar los primeros 28 volúmenes,
correspondientes a un valor de b=1000, a excepción del volumen 0 y el 14 que
corresponden a imágenes con un valor b=0, los cuales serán de utilidad para el
preprocesamiento.
21
Para poder seleccionarlos, primero se descompuso la imagen original en sus 552
volúmenes y luego combinar los primeros 28 en una nueva imagen. Para lograrlo se utilizó
la herramienta FSL, este proceso no se realizó en ambas herramientas ya que era
meramente práctico y no representaba un aspecto que se compararía entre ambas.
Además de modificar la imagen, se debieron modificar los archivos bval y bvec,
borrando aquellos valores que ya no corresponden, dejando sólo los primeros 28 valores.
Una vez que se lograron los datos deseados se pudo pasar a probar las distintas
herramientas.
Debido a que el trabajo que se desea replicar realiza las comparaciones de manera
principalmente visual, los pasos seguidos en esta tesis no son estrictamente iguales a los
del trabajo original sino que siguen su estructura principal e intentan lograr los mismos
resultados de manera automatizada.
El procedimiento ejecutado en cada herramienta se dividió en 4 pasos principales:
corrección de distorsiones, extracción de parénquima cerebral, cálculo de autovalores y
autovectores y análisis estadístico.
El primer paso (corrección de distorsiones) busca, justamente, corregir aquellos
artefactos comunes en las imágenes de resonancia magnética de difusión: el movimiento
del paciente y la presencia de corrientes de Foucalt. Los altos gradientes utilizados para
obtener las imágenes de difusión crean corrientes de Foucault en las partes conductoras del
imán, causando distorsiones geométricas en las imágenes de difusión dependientes,
principalmente, de la amplitud y dirección de los gradientes de difusión. Los efectos de
estas corrientes eléctricas dependen de la secuencia de pulsos, la calibración y el diseño
del scanner. Estos efectos, junto con los causados por los posibles movimientos de cabeza
del paciente durante la adquisición de las imágenes, pueden ser corregidos registrando las
imágenes de difusión con las imágenes que no presentan estas distorsiones. [21]
En el segundo paso se separa de las imágenes preprocesadas el parénquima
cerebral de los demás tejidos, para poder realizar los demás análisis sobre los tejidos
funcionales del cerebro. Esto generalmente se lleva a cabo por medio de la creación de una
máscara específica.
En el tercer paso se calculan los principales autovalores y autovectores de la imagen
de difusión (aquellos nombrados en el marco teórico) y además ciertas métricas
relacionadas como la difusividad media y la anisotropía fraccional.
Todos los pasos anteriores serían necesarios, también, para la creación de la
tractografía correspondiente a la imagen. En este caso, excede al alcance del trabajo, pero
es de importancia destacar que, como se dijo anteriormente, es un campo de investigación
22
en crecimiento y muy innovador en lo que se refiere al conocimiento de la conectividad del
sistema nervioso.
El último paso es el que más se distingue entre las dos herramientas y se
corresponde al análisis estadístico de la anisotropía fraccional de las imágenes. Ambas
herramientas presentan un enfoque distinto, como se verá en las secciones
correspondientes. Básicamente se agruparon los pacientes en dos grupos arbitrarios y, por
medio del análisis de los valores de anisotropía fraccional, se buscaron en qué zonas de la
materia blanca se diferencian entre ellos. Los resultados se muestran mediante imágenes
de las zonas diferentes entre grupos y, además, se contrasta lo obtenido con las dos
herramientas destacando sus diferencias.
23
Capítulo 4: FSL
Sobre la herramienta
FSL (FMRIB Software Library) es una librería completa de herramientas de análisis
de imágenes neurológicas de diverso tipo: MRI estructural, funcional y de difusión. Fue
escrita, desde 1998, principalmente por los miembros del grupo de análisis FMRIB de
Oxford.
Está disponible una versión precompilada para descargar para los sistemas
operativos más comunes, y también está disponible el código fuente para ser compilado por
el usuario. Los sistemas operativos sobre los que corre son basados en UNIX, para que
funcione sobre windows es necesario hacerlo a través de una máquina virtual.
Está disponible de manera gratuita para su uso académico y nocomercial. Sólo se
cobra su uso a aquellos usuarios que tengan provecho económico a partir de su uso.
Está desarrollada en base a C++/UNIX. Sus principales razones de diseño fueron la
velocidad, modularidad y portabilidad que esta combinación les aportaba.
Presenta una interfaz de usuario para casi todos sus módulos, simple de usar, y la
cual, simplemente, organiza la ejecución de líneas de comando individuales [29].
Los formatos de imagen aceptado por defecto es NIFTI1, aunque además puede
leer otros formatos menos vigentes como los siguientes:
ANALYZE: Par .hdr .img (encabezado con información e imagen)
ANALYZE_GZ: formato analyze comprimido
NIFTI_PAIR: Nuevo formato NIFTI1, usando un par de encabezado e
imagen por cada imagen 3D/4D.
NIFTI: formato NIFTI1 en un sólo archivo .nii (que tiene la información de
encabezado al principio, seguido por los datos de imagen.
NIFTI_GZ y NIFTI_PAIR_GZ: NIFTI y NIFTI_PAIR comprimidos.
Debido al amplio abanico de herramientas libres que realizan la conversión del
formato .dcm a .nii (dcm2nii tool, mri_convert y MRIConvert, entre otros) esta herramienta
no consta de ningún módulo que realice esa conversión, ni tampoco acepta imágenes con
esa extensión.
Esta herramienta cuenta con un amplio número de módulos, que implementan
facilidades, especializados en el análisis y procesamiento de los distintos tipos de
resonancias magnéticas, módulos especializados en el análisis estadístico y otro grupo de
24
herramientas más generales, especializadas en la visualización, reducción de ruido,
visualización de atlas, entre otros.
A continuación se muestra el listado completo de módulos presentes en la
herramienta:
MRI funcional: FEAT, MELODIC, FABBER, BASIL, VERBENA
MRI estructural: BET, FAST, FIRST, FLIRT & FNIRT, FSLVBM, SIENA & SIENAX,
fsl_anat
MRI de difusión: FDT, TBSS, EDDY, TOPUP
GLM / estadísticas: GLM general advice, Randomise, Cluster, FDR, Dual
Regression, Mm, FLOBS
Otras: FSLView, Fslutils, Atlases, Atlasquery, SUSAN, FUGUE, MCFLIRT, Miscvis,
POSSUM, BayCEST
Flujo de trabajo
A continuación se presenta, en distintas secciones, el flujo de trabajo realizado con
la herramienta, detallando aspectos de los módulos utilizados y los resultados obtenidos
luego de aplicar cada uno de ellos.
Corrección de distorsiones
Los artefactos más comunes en las imágenes de difusión son debidos a las
corrientes de Foucault (o llamado también eddy current) y al movimiento de cabeza por
parte del paciente durante el tiempo de adquisición de la imagen.
La herramienta FSL presenta de dos herramientas especializadas en la corrección
de este tipo de artefactos dentro del módulo FDT: los submódulos eddy_correct y eddy
[30]. El primero (que fue el utilizado en este trabajo) puede ser utilizado a través de una
interfaz gráfica de usuario y por línea de comando, el último sólo por comando.
Cabe destacar, como se aclaró antes, que en FSL la mayoría de los módulos
presentan una interfaz gráfica de usuario. Estas GUI cumplen la función de mejorar la
usabilidad de la herramienta, dándole la facilidad al usuario de no tener que memorizar ni
lidiar con líneas de comando, las cuales pueden ser más tediosas en su uso. Pero estas
interfaces cumplen sólo esa función, no agregan funcionalidad extra y no existen facilidades
que estén presentes en alguna GUI pero no por línea de comando. En cambio, algunos de
los módulos (incluyendo algunos de los ejecutados para el desarrollo de este trabajo) sólo
25
pueden ser ejecutados por comando sin tener, todavía, una interfaz gráfica que haga más
ameno su uso.
Por otro lado, dejando de lado la usabilidad, el hecho de que la ejecución de los
módulos de esta herramienta estén ligados a líneas de comando UNIX, facilita el
procesamiento de imágenes en muchos puntos. La naturaleza de estos comandos (los
cuales permiten el procesamiento de forma de pipeline, facilitan la manipulación de archivos
y, entre otras cosas, aceptan el uso de gramáticas regulares para establecer nombres de
archivos) facilita la automatización de los procesamientos sobre imágenes. Por ejemplo, si
ya se conoce una serie de procesos óptimos a ejecutar sobre un grupo de imágenes, se
puede crear un comando que lo haga de forma automática, sin tener que hacerlo de forma
“manual” sobre cada una de las imágenes.
Volviendo a los comandos utilizados para la corrección de las distorsiones, como se
dijo anteriormente, FSL presenta la herramienta eddy_correct y eddy
Eddy_correct
El comando utilizado en este trabajo fue eddy_correct. Es más simple que el
comando eddy [30] (el cual se explicará brevemente en los siguientes párrafos) y presenta
tanto una interfaz gráfica de usuario (ver figura 7) como su alternativa vía comandos.
Figura 7: Interfaz gráfica de usuario del módulo de FSL, eddy_correct
No presenta muchos parámetros de entrada: sólo la imagen que se quiere corregir y
el volumen de referencia para las registraciones. Como volumen de referencia se utilizó el
volumen 0, que no corresponde a una imagen de difusión, sino que tiene valor b=0. Esto es
recomendable ya que cuanto menor es el valor de b, menores son las distorsiones
generadas durante la adquisición.
26
La línea de comando correspondiente es eddy_correct y tiene la siguientes
estructura:
eddy_correct <4dinput> <4doutput> <reference_no> [<interp>]
Como se mencionó antes, una alternativa es el siguiente comando:
eddy monsoon
Argumentos obligatorios:
imain: Archivo con todas las imágenes de las cuales se estimarán
las distorsiones.
mask: Máscara del cerebro.
index: Archivo con los índices de todos los volúmenes de imain,
acqp y topup
acqp: Archivo con los parámetros de adquisición
bvecs : Archivo con los bvectores de los volúmenes de imain
bvals: Archivo con los bvalores de los volúmenes de imain
out: nombre de la salida
Argumentos opcionales:
session: Archivo que contiene los índices de sesión para todos los
volúmenes en main
topup: Nombre base para los archivos de salida de topup
flm: primer nivel de modelo EC (linear/ quadratic/ cubic)
fwhm: FWHM para el filtro condicional al estimar los parámetros
niter: Número de iteraciones (por defecto 5)
resamp: método de remuestreo final (jac / LSR)
repol: Detectar y reemplazar rebanadas atípicos
En este trabajo en particular, no se puede aplicar este comando. Este se realiza
complementariamente a otro preproceso llamado topup, en el cual se estima el campo
magnético al que fue sometido el paciente. Con el dataset que se tiene, no se puede
realizar, pero está investigado que da mejores resultados la combinación de topup+eddy
que eddy_correct solamente.[31]
En cuanto a la salida se tiene un log con las correcciones realizadas y la imagen
modificada. Las diferencias entre la imagen sin corregir y la corregida son muy sutiles
27
visualmente. Se realizaron pruebas con imágenes con un mayor b (en la cual las
distorsiones resultan mayores) y las diferencias son más visibles. En las figura 8 y figura 9
se ven las diferencias que existen entre la imagen original y la imagen luego de aplicar el
proceso de corrección.
Figura 8. Sección de una imagen con parámetro de adquisición b=3000, sin aplicar eddy_correct
Figura 9. Misma sección que en figura 8, luego de aplicar eddy_correct
Figura 10. Ejemplo de la aplicación de eddy_corect: en la izquierda se ve una sección antes de aplicar las correcciones, a la derecha la imagen corregida
28
Por último también se hizo la prueba con imágenes que presentan alta distorsión
(bvalue=5000) como así también alto ruido. Estas correcciones fueron realizadas a modo
de destacar un poco mejor las diferencias visuales entre la imagen cruda y la imagen
corregida (ver figuras 11 y 12).
Figura 11. Cortes de una imagen sin corrección de distorsiones.
Figura 12. Mismos cortes que en figura 11, con corrección de distorsiones por medio de FSL eddy_correct.
Como puede apreciarse, en ninguno de los casos los cambios son visualmente
notables. En el capítulo 6 se presenta una análisis numérico de las diferencias entre los
resultados de esta herramienta y SPM.
Extracción del parénquima cerebral
El siguiente paso en el preprocesamiento de las imágenes es la extracción del
parénquima cerebral para poder calcular los tensores en las zonas adecuadas.
Nuevamente, FSL tiene un módulo especializado en la extracción del cráneo y se llama BET
(Brain extraction tool).
Esta herramienta utiliza un modelo deformable que evoluciona para adaptarse a la
superficie del cerebro por la aplicación de un conjunto de fuerzas de modelado localmente
adaptables.[19]
29
Cuenta con una interfaz gráfica de usuario muy simple (Figura 13), sin gran cantidad
de opciones.
Figura 13. Interfaz gráfica de usuario del módulo de extracción del parénquima cerebral BET
Los siguientes son los detalles de la aplicación del algoritmo de extracción BET por
medio de línea de comando. Nuevamente, no presenta más opciones que la interfaz de
usuario.
bet <input> <output> [opciones]
Opciones principales:
o Generar contorno de la superficie del cerebro superpuesta
con la imagen original
m Generar máscara binaria
s Generar una imagen aproximada del cráneo
n No generar como salida la imagen del cerebro segmentado
f <f> Umbral de intensidad fraccional (entre 0 y 1); por defecto =
0,5; valores más pequeños dan mayores estimaciones del contorno
del cerebro
30
g <g> Gradiente vertical en el umbral de intensidad fraccional
(Entre 1 y 1); predeterminado = 0; valores positivos dan mayor
contorno del cerebro en la parte inferior
r <r> Radio de la cabeza (en mm); la esfera inicial se establece a
la mitad de ésta.
c <x y z> Centro de gravedad (en mm) de la superficie de malla
inicial.
t Aplicar umbralado al cerebro segmentado y a su máscara.
e Genera la superficie cerebral como una malla en formato
.vtk
Variaciones del algoritmo BET (opciones mutuamente excluyentes): Por
defecto: BET2
R Estimación robusta (itera BET varias veces)
S Limpieza de ojos y nervio óptico (útil si luego se utiliza el
módulo SIENA)
B Bias field & neck cleanup (útil si luego se utiliza el módulo
SIENA)
Z Mejora BET si el campo de visión es pequeño en Z
F Aplicar a datos 4D
A Ejecuta BET2 y BETSURF para obtener las superficies del
cráneo.
A2 <T2> Funciona como A, utiliza como entrada la imagen T2
correspondiente.
En primer lugar se aplicó el algoritmo, a las imágenes corregidas, de forma estándar,
manteniendo el parámetro Fractional intensity threshold en su valor original 0.5. Los
resultados obtenidos no fueron adecuados, la máscara resultante era de menor tamaño que
el cerebro, dejando partes importantes fuera. Además no se encontró completa, sino que
presentaba agujeros en su composición, lo que no debería ocurrir en una máscara de este
tipo. En la figura 14 se aprecia la máscara resultante con los valores por defecto,
corresgistrada sobre la imagen a la que se le quiere generar la máscara.
31
Figura 14. En amarillo se ve la máscara resultante luego aplicar BET estándar con el parámetro fractional intensity threshold con un valor de 0.5
Luego de observar que la máscara no era adecuada, se probaron distintos valores
de umbral para encontrar una más adecuada. En la figura 15 se encuentran las distintas
máscaras creadas de manera yuxtapuesta, las máscaras más pequeñas son aquellas con
valor de umbral más grande, y cabe aclarar que una máscara creada a partir de un umbral u
contiene a cualquier máscara creada a partir de un umbral p con p>=u.
Figura 15. Máscaras yuxtapuestas, para distintos valores de umbral, comprendidos entre 0.2 y 0.7
El valor que resultó más adecuado fue 0.25, y fue el utilizado para todos los
pacientes. Otra prueba realizada para la creación de máscaras fue elegir el algoritmo BET
robusto en lugar del estándar. El algoritmo robusto itera sobre el mismo algoritmo varias
veces. Los resultados obtenidos con el algoritmo robusto no son visualmente mejores que
los obtenidos con el algoritmo estándar.
Su aplicación es muy rápida, y el resultado obtenido es de buena calidad. No
necesita el ajuste de muchos parámetros, sólo del umbral, el cual no necesitó un reajuste
para los demás pacientes. Por otro lado, la generación de la máscara se realizó sólo sobre
uno de los volúmenes (con valor b=0) ya que, cuando se realizó la corrección de
32
distorsiones, todos los volúmenes de un mismo paciente fueron corregistrados al mismo
espacio.
Cálculo de autovalores y autovectores
Una vez obtenida la máscara se procede a calcular los principales autovalores y
autovectores, además del mapa de anisotropía fraccional correspondiente a la imagen de
difusión. Este último es de importancia porque es el que se analiza para encontrar una
correlación entre sus valores y la extensión de la zona de displasia cortical focal.
Para poder obtenerlos, FSL cuenta con un submódulo llamado DTIFIT [32] dentro
del módulo FDT. DTIFIT cuenta con una interfaz gráfica y puede, también, ser ejecutado
desde línea de comando. En la figura 16 se muestra la GUI correspondiente al módulo.
Figura 16. Interfaz gráfica de usuario del módulo de FSL DTIFIT
Por línea de comando tiene la siguiente forma:
dtifit verbose
Argumentos obligatorios:
k,data imagen DTI
o,out Nombre base de la salida
m, mask Máscara binaria BET
33
r,bvecs Archivo con bvectors
b,bvals Archivo con bvalues
Argumentos opcionales:
cni Entrada confound regressors
sse Salida suma de errores cuadráticos
w,wls Calcular los tensores con los cuadrados mínimos
ponderados
littlebit Sólo procesar una pequeña área del cerebro.
save_tensor Guardar los elementos del tensor
z,zmin min z
Z,zmax max z
y,ymin min y
Y,ymax max y
x,xmin min x
X,xmax max x
Como parámetros de entrada se recibe la imagen de difusión corregida, la máscara
obtenida con la herramienta BET los bvalues y los bvectors correspondientes. Además,
dentro de las opciones avanzadas se puede elegir entre el algoritmo estándar de regresión
linear y la regresión weighted leastsquares. Se utilizó el algoritmo estándar (al igual que
con la otra herramienta) y la máscara obtenida anteriormente. En la interfaz gráfica de
usuario se pueden especificar los archivos manualmente o simplemente ponerlos todos en
una misma carpeta (con los prefijos adecuados) y correr el algoritmo desde ese directorio.
El algoritmo tiene como salida los siguientes archivos:
<nombreBase>_V1 1er autovector
<nombreBase>_V2 2do autovector
<nombreBase>_V3 3er autovector
<nombreBase>_L1 1er autovalor
<nombreBase>_L2 2do autovalor
<nombreBase>_L3 3er autovalor
<nombreBase>_MD mapa de difusividad media
<nombreBase>_FA mapa de anisotropía fraccional
<nombreBase>_MO modo de la anisotropía
<nombreBase>_S0 señal T2 cruda, sin difusión.
34
Para posteriores análisis estadísticos se utilizan los mapas de anisotropía fraccional
de cada paciente. En las figuras 17 y 18 se muestran el mapa de difusividad media y el de
anisotropía fraccional de un paciente, ambos obtenidos con la herramienta.
Figura 17. Mapa de difusividad media obtenida con la herramienta DTIFIT de FSL
Figura 18. Mapa de anisotropía fraccional obtenida por el módulo DTIFIT de la herramienta FSL
Todos estos archivos reflejan diferentes características del cerebro, y pueden ser
utilizados para el análisis posterior de los pacientes. En este caso, y en numerosos estudios
científicos realizados [33] [34] , los posteriores análisis son a partir del mapa de anisotropía
fraccional el que, como se explicó en secciones anteriores, refleja qué tan fuertemente
direccionada es la difusividad en el paciente.
Análisis estadístico
Preparación de los datos: TBSS
En último lugar se realiza el análisis estadístico sobre los mapas de anisotropía
fraccional. Es en este punto en lo que más difieren ambas herramientas, ya que su enfoque
35
es muy distinto. En primer lugar se explicarán los pasos realizados con esta herramienta, en
la siguiente sección se detallarán los procesos realizados con la herramienta SPM y en el
siguiente capítulo se contrastarán una con otra.
La herramienta correspondiente para el análisis de la materia blanca en FSL se
llama TBSS (tractbased spatial statistics) [35]. Nace como una alternativa muy fuerte para
la comparación de mapas de FA entre individuos. Inicialmente surge ante las limitaciones
que presentan los algoritmos de comparación enfocados en análisis a nivel voxel existentes
hasta ese momento. Estos algoritmos son dependientes del tipo de registración utilizado, y
no existe todavía un consenso en cuál es la manera de aplicarlos de manera que las
conclusiones derivadas de ellos sean válidas. Los enfoques basados en vóxeles serán
descritos con más detalle en el siguiente capítulo cuando se haga una revisión sobre la
herramienta SPM, la cual presenta módulos especializados en el análisis a nivel vóxel.
TBSS se presenta como un método que tiene como objetivo cubrir las falencias de
los algoritmos basados en comparación de vóxeles, mejorando la sensibilidad, objetividad e
interpretabilidad del análisis multisujeto de las imágenes de difusión. A grandes rasgos
realiza una registración nolinear seguida de proyecciones sobre una representación de
tractos invariantes entre sujetos (llamado “mean FA skeleton”).
Cuenta con 4 módulos principales, que se ejecutan en un orden preestablecido
sobre todos los datos a analizar. A continuación se presenta más en detalle cómo funciona
el algoritmo, describiéndolo paso por paso.
TBSS_1_preproc
TBSS_1_preproc es el primer paso dentro del procesamiento. Realiza varios pasos
de preprocesamiento simples, como escalar los volúmenes de las imágenes y erosionar
ligeramente los mapas de anisotropía fraccional. Es muy rápido, y como resultado la imagen
se ve erosionada.
Se ejecuta sobre todos los mapas simultáneamente (los cuales se encuentran
previamente en una misma carpeta), se reubican en un subdirectorio llamado origdata y
como salida se tienen las imágenes preprocesadas, y nuevas máscaras, los cuales se
encuentran ubicados sobre una nueva subcarpeta llamada FA. Además FSL crea un nuevo
directorio llamado slicedir con un archivo .html llamado index (figura 19), que permite
visualizar una vista estática de las distintas imágenes de entrada para chequear que no
haya problemas con el preprocesamiento.
36
Figura 19. Archivo index.html resultado de aplicar tbss_1_preproc
La forma de ejecutarlo es sólo por línea de comando, y no tiene más parámetros que
las imágenes de entrada. Se pueden usar gramáticas regulares, así que es conveniente
disponer de todos los mapas en un mismo directorio y ejecutar el comando sobre esa
carpeta de la siguiente manera:
tbss_1_preproc *.nii.gz
En la figura 20 se muestra el resultado sobre uno de los individuos. Visualmente se
puede apreciar una leve erosión sobre la imagen.
Figura 20. A la izquierda se muestra el mapa de FA original, a la derecha, el mismo corte del mapa luego de la aplicación de TBSS_1_preproc
37
TBSS_2_reg
El segundo paso de TBSS a realizar es TBSS_2_reg. Este módulo calcula la
registración nolinear a llevar a cabo, alineando todos los mapas de FA al espacio estándar
1x1x1 mm. La imagen objetivo usada en las registraciones puede ser un mapa estándar
predefinido, puede ser elegido manualmente, o puede ser elegido el sujeto más típico del
conjunto. La guía de uso de la herramienta recomienda el uso del espacio estándar
FMRIB58_FA como imagen objetivo.
En primer lugar se realiza una registración afín, para alcanzar un alineamiento inicial.
Luego se realiza una alineación no linear con grados de libertad (DoF) intermedios y es
basada en deformaciones de forma libre y BSplines. FSL ha tomado esta postura, ya que
su objetivo es alinear suficientemente las imágenes pero manteniendo su estructura general
intacta. El objetivo de las deformaciones de forma libre es deformar una imagen moviendo
puntos de control de una malla subyacente. El campo de deformación aplicado es
encontrado para posiciones de la imagen entre los puntos de control de la malla usando
interpolación de tipo BSpline. La deformación óptima es encontrada moviendo puntos de
control de manera que el costo de la registración sea mínima.
Como se dijo antes existen 3 formas posibles de aplicar esta instancia de tbss. A
continuación se muestra la forma de ejecutar este paso por línea de comando con sus
respectivas opciones:
tbss_2_reg [opción]
Opciones excluyentes:
T: usar la imagen FMRIB58_FA_1mm como objetivo para las
registraciones nolineares (recomendado).
t <objetivo>: usar la imagen <objetivo> como objetivo para las
registraciones nolineares.
n: Encontrar el mejor objetivo entre todas las imágenes.
Nuevamente, al igual que el paso anterior, el comando se ejecuta desde la carpeta
que ahora contiene las subcarpetas: origdata y FA. Como entrada se tienen las imágenes
preprocesadas y como salida genera N archivos .nii (siendo N la cantidad de individuos
total) por cada sujeto ( archivos en total) que representan las modificaciones a realizar N2
para alinearse con cada uno de los demás sujetos. Además hay archivos .log, .mat, y .msf
por cada uno de estos archivos.
38
En este trabajo primero se probó con la opción recomendada (T) y se calcularon las
modificaciones necesarias para alinear las imágenes con el estándar FMRIB58_FA_1mm.
Luego se ejecutó el paso 3 de TBSS (el cual aplica estas transformaciones). Los resultados
obtenidos no fueron favorables, resultando uno de los mapas extraño, muy alejado de la
apariencia normal de un mapa de FA, en la figura 21 se puede apreciar el sujeto extraño.
Figura 21. Resultado extraño sobre uno de los mapas de FA , luego de la aplicación de tbss_2_reg con la opción T.
Debido a esto, se decidió volver unos pasos atrás y aplicar el paso tbss_2_reg con la
opción n, la cual calcula las modificaciones necesarias para transformar cada sujeto en
todos los demás del conjunto para luego encontrar al más típico de ellos. Como era de
esperarse, esta opción es considerablemente más lenta que la anterior, incluso con 4
sujetos. En las especificaciones de la herramienta dicen tardar 10xN minutos si se utiliza la
opción T y 5xNxN si se utiliza la opción n siendo N la cantidad de sujetos.
Una vez realizado este paso, si bien llevó más tiempo, los resultados obtenidos
fueron más adecuados, y visiblemente de mejor calidad.
TBSS_3_postreg
En este paso se aplican las transformaciones nolineales encontradas en el paso
anterior sobre todos los individuos y luego se aplica una transformación afín para llevarlas al
espacio MNI152 1x1x1mm. Luego se concatenan todas las imágenes generando una
imagen 4D llamada all_FA en un nuevo subdirectorio llamado stats en el que cada volumen
corresponde a un individuo.
Además se crea un nuevo archivo llamado mean_FA con el promedio de todas las
imágenes de FA. Para poder crearlo, la herramienta simplemente promedia las imágenes.
La imagen resultante se ve más suavizada y menos nítida (figura 22) como resultado de
esta operación.
39
Figura 22. A la izquierda se ve el mapa de uno de los pacientes. A la derecha el mismo
corte de la imagen mean_FA.
Luego, a partir de mean_FA, se genera el archivo mean_FA_skeleton. Este
esqueleto busca representar los tractos que son comunes a todos los sujetos y los
representa como una línea o superficie que recorre el centro del tracto original. Para poder
generar este esqueleto, la herramienta realiza una búsqueda y filtrado de los vóxeles con
mayor FA a lo largo de líneas transversales a cada tracto.
Para ejecutar este módulo se utiliza el siguiente comando:
tbss_3_postreg [opción]
Opciones excluyentes: S : Derivar mean_FA y mean__FA_skeleton del promedio de los
sujetos del estudio (recomendado) T : Utilizar FMRIB58_FA y su esqueleto en lugar de los derivados
del estudio. Las salidas generadas por este comando (descritas anteriormente) son las
siguientes:
mean_FA
all_FA
mean_FA_skeleton
En este trabajo se utilizó la opción recomendada S. Como en el paso anterior se
había elegido la opción n, en el momento de registrar las imágenes primero se debe
40
encontrar al sujeto “más típico” del conjunto. Para lograrlo, la herramienta registra cada
sujeto con los demás, resume cada campo de deformación por su desplazamiento medio y
elige el sujeto con menor distancia promedio a los demás sujetos.
Como se dijo anteriormente, una vez alineadas las imágenes, se concatenan
generando el archivo all_FA, se genera el archivo mean_FA con las imágenes promediadas
y se genera el esqueleto promedio.
En la figura 23 se encuentra el esqueleto mean_FA_skeleton, umbralado y dispuesto
sobre uno de los volúmenes de all_FA.
Figura 23. En verde se ve la imagen mean_FA_skeleton, con sus valores comprendidos entre 0.25 y 0.6, se encuentra superpuesto sobre la imagen all_FA
Luego de realizar este paso, y como chequeo de calidad, se comprobó que el
esqueleto esté bien alineado con los tractos principales de materia blanca de todos los
pacientes. Se ve algo tortuoso, en especial cuando no es recto, esto se debe a que el
algoritmo que genera el esqueleto, encuentra ciertas dificultades en determinar una línea
perpendicular a los tractos cuando estos se curvan.
TBSS_4_prestats
Este es último paso dentro del módulo tbss y lo que hace, en líneas generales, es
umbralar la imagen mean_FA_skeleton y encontrar el esqueleto en cada imagen individual.
En este momento se proyectan las imágenes de FA perteneciente a cada sujeto en
el esqueleto mean_FA_skeleton. El objetivo en este momento es considerar desajustes
residuales entre los sujetos después de los registros no lineales iniciales. En cada punto del
41
esqueleto, se busca para todas las imágenes del conjunto, el máximo valor de FA en el
camino perpendicular a cada tracto (mismo proceso realizado para crear el esqueleto
promedio) y se asigna ese valor de FA al voxel del esqueleto. Este proceso logra un
alineamiento entre el esqueleto y las imágenes de FA de cada sujeto sin necesidad de una
preregistración nolinear perfecta. Cualquier diferencia sistemática en la localización exacta
del lugar del tracto entre grupos de sujetos no sesgará la comparación de los valores de FA
entre los grupos.
Para ejecutar este paso se utiliza el siguiente comando:
tbss_4_prestats <threshold>
Siendo el threshold recomendado algún valor entre 0.2 y 0.3 en este caso se eligió
0.27.
Como salida genera los archivos:
all_fa_skeletonised
mean_fa_skeleton_mask
mean_fa_skeleton_mask_dst
El archivo mean_fa_skeleton_mask_dst corresponde a un mapa de distancias entre
los tractos del esqueleto y los demás vóxeles de la imagen, y es de utilidad para la
proyección de los distintos individuos al esqueleto principal.
En la figura 24 se muestra la proyección de uno de los pacientes al esqueleto. Para
cada uno de los volúmenes la estructura del esqueleto sigue siendo la misma, lo que varía
en todos ellos son los valores de FA correspondientes a cada vóxel de la imagen.
42
Figura 24. En la figura se muestra uno de los volúmenes correspondientes a all_fa_skeletonised
En este punto, ya están los datos listos para realizar comparaciones entre sujetos o
grupos. Cada imagen de FA correspondiente a los sujetos del estudio ha sido pre alineada a
un espacio común usando registración no lineal, un esqueleto común ha sido formado y
cada imagen individual ha sido totalmente alineada a éste. Los datos aptos para el análisis
estadístico están de la forma de una imagen 4D, siendo la 4ta dimensión el id del paciente.
Sólo resta comparar los esqueletos entre ellos a nivel voxel.
Comparación entre hemisferios en TBSS
FSL cuenta también, dentro del módulo tbss, con una herramienta para facilitar la
comparación entre hemisferios cerebrales de un paciente. En el trabajo de investigación que
se busca replicar parcialmente en este trabajo, se buscaba realizar comparaciones de los
mapas de FA, entre hemisferios, para poder así delimitar la zona afectada por la
enfermedad. Por eso, es de importancia destacar que en esta herramienta también se
cuenta con las facilidades para poder realizarlo.
El workflow para llevar a cabo una comparación interhemisférica es similar al
realizado para el análisis de grupos. Luego de realizar los 4 pasos correspondientes a
TBSS, se utiliza el script tbss_sym. Este script genera una imagen de FA promedio
(mean_FA) simétrica y, a partir de esta, se calcula el esqueleto derivado.
El proceso, resumido, es el siguiente: el esqueleto asimétrico precalculado en los
pasos anteriores es levemente dilatado. Luego la imagen de FA promedio (mean_FA) es
generada, invirtiendo sagitalmente la imagen promedio precalculada y calculando el
promedio entre ambas (original e invertida). A partir de esta imagen se genera un nuevo
esqueleto provisorio, el cual es enmascarado por el esqueleto dilatado original. Este paso
se lleva a cabo para evitar incluir en el estudio aquellas zonas cerebrales lejos de ser
simétricas en un primer momento. Por último, y para descartar las asimetrías restantes, el
esqueleto simétrico se invierte respecto al eje sagital y se enmascara con su versión
invertida.
En un paso siguiente, los mapas de FA de todos los individuos son proyectados en
este nuevo esqueleto simétrico, permitiendo así el análisis entre hemisferios. Por último, y
para facilitar el análisis posterior, se realiza una nueva imagen 4D llamada
all_FA_skeletonised_left_minus_right, la cual contiene en sus vóxeles el valor
correspondiente a la diferencia de intensidades entre hemisferios.
43
GLM y randomise
El próximo y último paso en el procesamiento y análisis de las imágenes, es sacar
conclusiones sobre sus características, comparándolas en dos grupos separados.
Para el cálculo de estadísticas se usan en conjunto dos herramientas de FSL: GLM y
randomise. La primera es utilizada para diseñar el análisis por medio de matrices y la
segunda realiza las comparaciones pertinentes.
GLM
Esta herramienta debe su nombre al modelo lineal generalizado (General linear
model) [36] y es una ayuda para el diseño y creación de las matrices correspondientes para
el posterior análisis estadístico. Su uso no es esencial, pues las matrices pueden ser
creadas manualmente sin problemas, pero sirve para evitar errores de diseño que podrían
ser difíciles de detectar y podrían llevar a resultados inesperados o no deseados.
Presenta una interfaz de usuario para su uso que da la posibilidad de elegir el tipo
de diseño a realizar, el número de entradas (individuos) en el estudio, permite agrupar estos
individuos en distintos grupos y realizar distintas comparaciones entre estos grupos.
Para este estudio, se realizó la comparación entre dos grupos de dos sujetos cada
uno: el primer grupo con los pacientes P1 y P2 y el segundo con los pacientes P3 y P4. Las
pruebas elegidas para llevar a cabo fueron únicamente la comparación entre grupos de los
valores de FA de los tractos de materia blanca. En otra palabras, encontrar en cuáles
píxeles del esqueleto los valores del grupo A eran considerablemente mayores que los del
grupo B y viceversa.
Figura 25. Resumen del diseño estadístico generado con GLM.
Como se puede apreciar en la figura 25, el diseño del análisis es muy simple. La
creación de grupos fue arbitraria y sólo se eligieron los contrastes de comparación de
44
valores de intensidad. Para este caso en particular no era de utilidad realizar otro tipo de
comparaciones. Para realizar otro tipo de estudios más completos, se pueden crear distintos
grupos entre los pacientes teniendo en cuenta distintos factores tales como la edad, el
género, la presencia de alguna habilidad, entre otros. En este caso se decidió un modelo
simple ya que el objetivo era conocer el método a aplicar y las herramientas y no realizar
una investigación exhaustiva sobre los pacientes del grupo.
Randomise
Una vez generado el diseño del análisis a realizar, se utilizó el módulo de FSL
randomise [36] para poder llevar a cabo las comparaciones. Randomise es una herramienta
de FSL para inferencia de permutación (permutation inference) para imágenes neurológicas.
A continuación se muestra el uso del script:
randomise i <input> o <output> d <design.mat> t <design.con> [options]
Argumentos obligatorios:
i <input> Imagen 4D de entrada
o <out_root> Nombre base de la salida
Presenta un alto número de argumentos opcionales, que no se detallan aquí, pero
que se encuentran documentados en el sitio de la herramienta. Para este estudio, el script
randomise se utilizó de la siguiente manera:
randomise i all_FA_skeletonised.nii o tbss m mean_FA_skeleton_mask d
design.mat t design.con c 1.5
Donde m es la máscara que indica qué vóxeles se van a comparar, d es la matriz de
diseño y t el archivo de contraste. Además se eligió la opción c (umbralado basado en
clúster) con un valor 1.5, el cual es recomendado para este estudio en particular, debido a la
cantidad de pacientes.
Como archivos de salida se tienen:
<BaseName>_tstat1.nii
<BaseName>_tstat2.nii
<BaseName>_clustere_corrp_tstat1.nii
<BaseName>_clustere_corrp_tstat2.nii
45
Los primeros dos archivos corresponden a las comparaciones crudas. Sus vóxeles
representan las diferencias entre ambos grupos: <BaseName>_tstat1.nii se corresponde al
primer contraste (vóxeles en los que los valores de FA del grupo 1 superan a los del grupo
2) y <BaseName>_tstat2.nii al segundo contraste (vóxeles en los que los valores de FA del
grupo 2 superan a los del grupo 1). Los últimos dos archivos son un filtrado sobre los
resultados crudos, representando sólo aquellos vóxeles que se encuentran en
agrupamientos de cierto tamaño.
En la figura se ven los resultados obtenidos mediante el uso del script randomise.
Figura 26. En azul se puede ver la imagen <BaseName>_tstat2.nii, representando las diferencias de FA entre ambos grupos. En rojo se ve la imagen <BaseName>_clustere_corrp_tstat2.nii, correspondiente a un valor de umbral de 1.5
Por último, cabe destacar que esta herramienta cuenta con facilidades para umbralar
el mapa estadístico obtenido, o para engrosar aquellas secciones en las que se presentan
diferencias, para lograr una visualización más clara.
46
Capítulo 5: SPM
Sobre la herramienta
El paquete de software SPM fue desarrollado por el Wellcome Trust Centre for
Neuroimaging (Londres) y ha sido diseñado para el análisis de secuencias de imágenes
neurológicas. Las secuencias pueden ser serie de imágenes de distintos grupos de
personas o del mismo individuo en distintos momentos.
La versión actual está diseñada para el análisis de imágenes del tipo fMRI, PET,
SPECT, EEG y MEG y está completamente disponible en la comunidad de neuroimagen,
promoviendo la colaboración y el análisis conjunto entre laboratorios. Su enfoque es basado
en vóxeles (voxelbased), y emplea la inferencia clásica, para hacer algún comentario sobre
respuestas específicas regionalmente a factores experimentales.
Es un conjunto de funciones y subrutinas de MATLAB (The MathWorks, Inc) con
algunas rutinas escritas en C y compiladas externamente. Funciona sobre las plataformas
en las que corre MATLAB (Unix, Windows, Mac OS y GNU/Linux), aunque,
alternativamente, existe una versión standalone de la herramienta que no requiere la
licencia de MATLAB pero viene con limitaciones.
No tiene costo asociado a la instalación pero es distribuido bajo los términos de una
licencia general pública GNU (GNU general public licence). Es altamente colaborativa,
presenta una amplia variedad de módulos fácilmente integrables, desarrollados por distintos
investigadores alrededor del mundo.
Presenta una interfaz gráfica de usuario o puede ejecutarse vía comando de matlab.
Entre sus interfaces gráficas cuenta con un Batch Editor que facilita la creación de los
distintos comandos posibles, indicando qué parámetros deben especificarse y de qué
manera. El batch editor permite también la ejecución secuencial de módulos, permitiendo la
vinculación de un script y el siguiente. Esto resulta muy práctico para el procesamiento de
imágenes, en el que generalmente se tiene una rutina secuencial en la que los parámetros
de salida de un paso funcionan como entrada del siguiente. También se encuentra
disponible el almacenamiento de los scripts diseñados, de manera que un módulo puede
ser reutilizado posteriormente para otros archivos de entrada.
El formato básico de imágenes que lee es NIFTI1, todas las imágenes son escritas
en este formato, aunque se pueden importar otro tipo de imágenes (DICOM, PAR/REC,
MINC y ECAT7) por medio de herramientas integradas.
47
Como se dijo anteriormente, cuenta con una amplia variedad de extensiones de fácil
integración. En este trabajo, para el preprocesamiento de las imágenes se utilizará el
paquete de herramientas ACID (Artefact correction in diffusion images) el cual es un kit de
herramientas de software académico para el preprocesamiento de dMRI que se integra
completamente con SPM8 y posterior. Su autor es Siawoosh Mohammadi (Department of
Systems Neuroscience University Medical Center HamburgEppendorf) y presenta con
distintos módulos especializados (corrección de movimiento, creación de máscara, etc..) los
cuales se listan a continuación:
Preprocesamiento de imágenes DTI:
Make Brain Mask
ECMOCO (eddy current and motion correction)
POAS
HySCO
Tensor Fitting
Fit Diffusion Tensor
COVIPER
Spatial Normalization for FAVBS
FAVBS Normalisation
En la siguiente sección se detallan los pasos seguidos con esta herramienta.
Una vez realizado el preprocesamiento preliminar y el cálculo de los mapas de
anisotropía fraccional, los subsiguientes pasos de procesamiento y análisis estadístico
fueron realizados a partir de módulos de herramientas básicos presentes en SPM.
Flujo de trabajo
Corrección de distorsiones
Para poder realizar la corrección de las distorsiones se utilizó el módulo ECMOCO
[37], dentro del conjunto de herramientas ACID. Está basado en el módulo spm_coreg de
SPM y combina parámetros para la estimación del campo magnético aplicado
independientemente de la dirección de difusión.
Como imagen objetivo se tiene una imagen que no presenta las distorsiones
características de las imágenes de difusión. En este caso se tomó el volumen 0, que
corresponde a un valor b=0. Como se ve a continuación, el módulo realiza una registración
afín, con una configuración recomendada de 9 parámetros para lograr que todos los slices
48
de la imagen queden alineados globalmente y no presenten deformaciones
correspondientes a las distorsiones generadas por el campo magnético.
En la figura 27 se muestra la interfaz de ECMOCO.
Figura 27. Batch editor correspondiente al móodulo ECMOCO
Parámetros de entrada:
Target image: Volumen de referencia, como la función de optimización subyacente
es independiente de la modalidad, cualquier imagen sirve, independientemente de su
bvalue. De todos modos, se recomienda usar una con bajo bvalue, porque son las
que presentan menos distorsión correspondiente a Eddy current.
Source images: Todas las imágenes del DTI dataset que deben ser corregidas.
Registration parameters: Parámetros que se desean corregir, se puede elegir entre
12 parámetros afines. Se pueden elegir libremente, pero se recomiendan los
siguientes para corregir eddy current y movimiento de cabeza: [1 1 1 1 1 1 0 1 0 1 1
0];
Write option images: Opción para elegir si se quiere escribir las imágenes
registradas.
Write option figure: Opción para elegir si se quiere ver los parámetros de estimados
de corrección para cada imagen.
49
Como salida se tienen los volúmenes modificados, un archivo .mat con las
transformaciones aplicadas a cada volumen y dos gráficos que representan visualmente los
cambios aplicados en cada volúmen (figura 28 y 29).
Figura 28. Parámetros de corrección de Eddy current, por cada slice.
Figura 29. Parámetros de corrección de movimiento, por cada slice.
Nuevamente, las diferencias entre la imagen original y la corregida no son
visualmente apreciables en las imágenes del estudio (figura 30).
50
Figura 30. A la izquierda se ve la imagen original, a la derecha la imagen corregida.
Su aplicación es simple, presentando pocos parámetros y facilitando la aplicación
del módulo de SPM coreg. El análisis de los resultados, comparados con los obtenidos de la
otra herramienta, se realizará en el siguiente capítulo.
Extracción del parénquima cerebral
Al igual que con la herramienta FSL, el siguiente paso a llevar a cabo es el de la
creación de una máscara para poder extraer el parénquima cerebral y luego calcular los
principales autovalores y autovectores a partir de la imagen resultante.
Nuevamente, ACID presenta un módulo con este propósito: Make Brain Mask. En la
figura 31 se muestra la interfaz gráfica del mismo.
51
Figura 31. Interfaz gráfica de usuario del módulo ACID→ Make brain mask
Su interfaz es muy simple y requiere de pocos parámetros. Los parámetros de
entrada son los siguientes:
Mapas de probabilidad de materia gris y blanca
Imágenes a ser “enmascaradas”
Cobertura cerebral deseada
Núcleo de suavizado
En primer lugar, el parámetro Mapas de probabilidad de materia gris y blanca fue
asociado con los mapas de probabilidad de tejidos correspondientes a la materia gris,
blanca y líquido cefalorraquídeo provistos por la herramienta (presentes en una subcarpeta
del software). Esto no dió buenos resultados, pues los mapas no se encontraban alineados
con las imágenes de difusión, por lo que la máscara resultante no coincidía con las regiones
que se querían diferenciar. A causa de esto, se realizó una segmentación de la imagen, con
el módulo New Segment de SPM.
Sin entrar en detalles, el módulo new segment utiliza los mapas de probabilidad de
los tejidos nombrados anteriormente para segmentar las imágenes difusión. Esta función
segmenta, corrige desplazamientos y normaliza espacialmente, todo en el mismo modelo.
Tiene como datos de entrada las imágenes a segmentar (pueden ser distintos tipos de
52
imagen), los mapas de distribución de tejidos y algunos parámetros correspondientes a las
correcciones a realizar.
Como resultado se tienen los distintos segmentos alineados con la imagen original.
En la figura 32 se muestran los distintos segmentos obtenidos, correspondientes a la
materia gris, materia blanca y líquido cefalorraquídeo. Debido a que no son excluyentes, el
segmento de materia blanca está levemente montado sobre la materia gris, por encontrarse
en la capa superior.
Figura 32. Segmentos obtenidos con spm→ new segment
Una vez obtenidos los segmentos necesarios se creó la máscara con ellos. Se
dejaron los parámetros que tiene por defecto (brain coverage 0.8 y smooth kernel [3 3 3]).
Para crear una máscara a partir de los segmentos, el batch create brain mask utiliza la
función básica de SPM ImCalc que se utiliza para realizar cálculos entre imágenes
(promedios, sumas,etc...).
Debido a que la máscara resultante con los valores por defecto (ver figura 33) no cubría
bien toda la zona deseada y presentaba agujeros, se cambió el valor del parámetro brain
coverage, siendo 0.5 un valor más adecuado (ver figura 34).
53
Figura 33. Máscara resultante, luego de aplicar el algoritmo de ACID→ Make brain mask con los valores por defecto.
Figura 34.En azul, se ve la máscara resultante, luego de aplicar el algoritmo de ACID→Make brain mask con el parámetro brain coverage con un valor de 0.5. Para destacar las diferencias, se superpuso con la máscara realizada con los valores por defecto (en verde).
Una vez enmascarado el parénquima cerebral, el próximo paso corresponde al
cálculo de la imagen de tensor de difusión (DTI). Como se verá en la próxima sección, esto
también fue llevado a cabo con el módulo especializado en imágenes de difusión ACID.
Cálculo de autovalores y autovectores
Para el cálculo de los autovalores y autovectores, además del mapa de anisotropía
fraccional, se utilizó el módulo de ACID Fit diffusion tensors [38] [39]. Esta herramienta
cuenta con los métodos mínimos cuadrados ordinarios, mínimos cuadrados ponderados y
tensorfitting robusto.
Cuenta con una interfaz gráfica y sus parámetros de entrada son los siguientes:
Imágenes de difusión: Imágenes de difusión preprocesadas.
Direcciones de difusión: Arreglo de 3xN con las direcciones de difusión
(bvectors), deben respetar el mismo orden que las imágenes.
bvalues: Vector de 1xN con los valores de difusión (bvalues), deben
también respetar el orden de las imágenes.
54
Matriz de reorientación: Matriz de reorientación de los vectores de difusión.
Útil si los gradientes están definidos en un distinto sistema de coordenadas
que las imágenes.
Región de interés (opcional): Región sobre la cual se quiere calcular los
tensores.
Algoritmo para calcular los tensores: Se puede elegir entre tres distintos
algoritmos.
Fit defaults
Como salida presenta los siguientes archivos:
Difusividad axial
Difusividad radial
Difusividad media
Difusividad axialradial
Anisotropía fraccional
Autovalores
Autovectores
Rootmean square of tensorfit error
Promedio de imágenes de difusión
Estimación de imagen sin difusión
En la figura 35 se muestra un mapa de anisotropía generado por la herramienta.
Figura 35. Mapa de anisotropía fraccional generado por el módulo Fit Tensors.
Para este estudio en particular se utilizarán sólo los mapas de anisotropía fraccional
de cada paciente, generados por este módulo. Estos mapas serán los que se contrasten
mediante estadísticas para luego detectar diferencias entre los pacientes.
55
Análisis estadístico
Como se dijo anteriormente, la base de la herramienta SPM es el análisis estadístico
a nivel voxel. La mayoría de sus módulos están creados y adaptados para tal fin: se
presentan módulos para la registración y segmentación de imágenes bajo diversos criterios.
El modo general del análisis estadístico a nivel voxel se describe a continuación. En
este caso en particular y debido a la naturaleza de los datos, el algoritmo fue modifcado en
los puntos que se creyeron necesarios para lograr resultados más confiables.
Preparación de los datos
VBM (voxelbased morphometry)[40] surge en 1999 como un innovador estudio
morfológico, más generalizado que los estudios tradicionales basados en morfología, en los
cuales el área a analizar y comparar debía ser delimitada previamente, dificultando la
automatización del método y acotando la investigación a áreas predeterminadas. En el caso
de VBM el estudio es global y tiene en cuenta todo el parénquima cerebral. Puede ser
aplicado para distintos estudios de un mismo sujeto o para comparar distintos pacientes.
Su línea de trabajo es la siguiente:
Normalización espacial: Este paso implica transformar las imágenes de los
distintos pacientes al mismo espacio estereotáctico. Esto se logra registrando
cada imagen con un mismo template, minimizando así la diferencia entre la
imagen registrada y la plantilla. No se busca con esta transformación que
todas las imágenes se correspondan exactamente entre sí, sino corregir
diferencias en la forma global del cerebro.
Segmentación: Las imágenes normalizadas son luego segmentadas en
materia gris, materia blanca y líquido cefalorraquídeo.
Suavizado: Las imágenes segmentadas son luego suavizadas con un filtro
Gaussiano. Esto se realiza para minimizar las diferencias residuales entre
imágenes luego de la normalización.
Análisis estadístico: basado en el modelo general lineal (GLM). Es utilizado
para identificar las diferencias presentes entre los distintos individuos.
Como se puede ver, el método es muy general y puede utilizarse para comparar
distintos tipos de imágenes o diferentes regiones neurológicas. Para este caso en particular,
se especializó el enfoque para poder adaptarlo al estudio de mapas de anisotropía
fraccional. No hay un consenso sobre cuál es la mejor manera de aplicar el método, aunque
56
hay estudios al respecto [41] y, debido a que no existe un estándar confiable con el cual
comparar los resultados, es un área en la que se sigue investigando.
Para adaptar el método, se analizaron las metodologías utilizadas en estudios
similares [42] [43] y se buscó aquella que resultara más adecuada. Los pasos llevados a
cabo fueron los siguientes:
Los mapas de anisotropía fraccional fueron registrados a un mapa estándar.
Luego se creó un template a partir del promedio de los mapas alineados.
Los mapas originales fueron registrados con el template
Las imágenes resultantes fueron suavizadas
Se realizó una comparación de los mapas, distribuidos en dos grupos.
En las siguientes secciones se explica más detalladamente los pasos realizados con
la herramienta.
Corresgistracion
Como se dijo anteriormente, el objetivo en este paso del procesamiento es alinear
globalmente las imágenes. Para poder realizarlo, se utilizó la herramienta spm_coreg [44].
La cual, como todas las herramientas de SPM, cuenta con una interfaz gráfica básica que
facilita el armado de los scripts. En la figura 36 se muestra el batch editor con la instrucción
correspondiente.
57
Figura 36. Interfaz gráfica de usuario de spm_coreg
Para este paso se decidió elegir como imagen objetivo el paciente P1, que fue el
elegido como el más típico por la herramienta FSL. El proceso es rápido, los parámetros no
fueron retocados, sino dejado los por defecto. A las imágenes se le aplicaron ciertas
transformaciones lineales para alinearse con la imagen objetivo.
La herramienta spm_coreg implementa una registración basada en el trabajo de
Collington [53], el cual utiliza un modelo de cuerpo rígido (rigidbody model) basado en
vóxeles. Este modelo puede ser parametrizado con tres traslaciones y tres rotaciones
alrededor de los diferentes ejes.
El método de interpolación original descrito en el trabajo de Collington ha sido
modificado por SPM, suavizando levemente las imágenes de manera que converja de
manera más rápida.
La idea en este instancia no es alinear perfectamente todas las imágenes, sino
llevarlas a un mismo espacio para poder crear un template a partir de ellas. El cual luego
servirá como imagen objetivo para una registración no lineal entre las imágenes de los
pacientes.
Creación del template
58
Una vez alineadas las imágenes se calculó un template a partir de ellas. Esta
decisión fue tomada en base a que los contrastes presentes en los mapas de anisotropía
fraccional no son de la misma naturaleza que los presentes en otro tipo de imágenes
estándar. Por otro lado, si el estándar es derivado de las propias imágenes es probable que
las deformaciones necesarias para luego alinear las imágenes sean menores,
manteniéndose así más fieles a los originales.
Para la creación de templates, SPM cuenta con una herramienta llamada DARTEL
[45]. En la figura 37 se muestra su interfaz.
Figura 37. Interfaz gráfica de usuario de la herramienta DARTEL→ Create template
Dartel es un conjunto de herramientas para lograr una registración de imágenes
entresujetos más acertada. Para este paso en particular se utilizó DARTEL→ create
template. Este módulo estima las deformaciones no lineares que mejor alinean a todos los
sujetos. Esto es logrado alternando iterativamente entre la creación de un template y la
registración de las imágenes con este template.
El procedimiento inicia creando un template inicial, esto se logra promediando las
imágenes importadas, previamente corregistradas, y luego suavizando este promedio. Una
vez generado el template, se calculan las transformaciones necesarias para que cada sujeto
quede alineado con él. Luego se lleva a cabo una nueva ronda: se crea un nuevo template y
59
se calculan las transformaciones nuevamente. El resultado final es una serie de templates y
archivos .nii que corresponden a las transformaciones necesarias para registrar cada
individuo con el último template generado.
El proceso completo es muy extenso, y su duración depende de la cantidad de
iteraciones realizadas y de la cantidad de pacientes que se desean registrar. Para este caso
en particular, se dejaron los valores por defecto de la herramienta. En total son 6 iteraciones
en las que los valores de suavizado y de regularización van decreciendo, de manera que las
deformaciones necesarias para registrar las imágenes con el template inicialmente son
suaves y, a medida que avanzan las iteraciones, son más precisas. De esta manera,
durante el proceso de creación del template, se va obteniendo en cada etapa una plantilla
más similar a las imágenes originales y menos difuminada. En la figura 38 se ven algunos
de los templates generados:
Figura 38. Ejemplo de templates generados por la herramienta DARTEL>make template. A la izquierda se muestra el template generado en la primer iteración, en el centro el template generado en la cuarta iteración, y a la derecha el template final (sexta iteración).
Una vez generado el template final, se deben aplicar las transformaciones
calculadas, necesarias para que cada imagen se alinee con él.
Registración con el template
Para llevar a cabo este paso se utilizó el módulo DARTEL→ create warped [45].
Este módulo tiene como entrada las transformaciones a aplicar (calculadas en el paso
anterior para cada paciente) y las imágenes a las que se les debe aplicar la transformación.
En la figura 39 se ve su interfaz gráfica.
60
Figura 39. Interfaz gráfica de usuario del módulo DARTEL>create warped
El proceso es muy rápido y tiene como salida las imágenes corregidas (sin
reemplazar las anteriores). En la figura 40 se muestra la evolución de uno de los pacientes
a través del preprocesamiento. En primer lugar se tiene el mapa de anisotropía fraccional
crudo, luego el mismo mapa corregistrado con los demás pacientes y, por último, la imagen
alineada con el template generado.
Figura 40. A la izquierda se ve el mapa de anisotropía fraccional original de uno de los pacientes. La imagen central corresponde al mismo mapa, corregistrado con los demás mapas. En la imagen de la derecha se ve la imagen alineada con el template generado.
61
Creación de máscara
Lo único que dista a los datos de poder compararlos sería aplicarles alguna máscara
ya que los valores que se desean comparar son sólo aquellos correspondientes a la materia
blanca. Para poder crear la máscara, se utilizó nuevamente el módulo new segment de
SPM, sobre el template generado por DARTEL y se umbraló el segmento generado
resultando una máscara adecuada (valor de umbral 0.1). En la figura 41 se puede ver uno
de las imágenes con la máscara ya aplicada.
Figura 41: Mapa de anisotropía fraccional de un paciente, registrado con los demás y con máscara aplicada.
Por otro lado, se decidió aplicar un suavizado en la imagen, para poder minimizar los
efectos que pueden haber generado una mala registración entre imágenes.
Suavizado
Para poder realizar un suavizado de las imágenes se utilizó el módulo SPM→
Smooth [44]. Como entrada se deben especificar las imágenes que se desean suavizar y el
tamaño del núcleo de suavizado Gaussiano (Fullwidth at half maximun) que se desea
aplicar. Otra vez se optó por utilizar valores similares a los utilizados en otros estudios, y se
utilizó un valor de [4 4 4]. Se aplica rápidamente, y ahora los datos ya están listos para
poder ser comparados mediante un análisis estadístico adecuado.
Debido a que las imágenes suavizadas perdían gran parte de la definición que
tenían sus predecesoras (ver figura 42), el análisis estadístico se realizó dos veces: sobre
las imágenes sin suavizar y sobre las suavizadas.
62
Figura 42. A la izquierda se ve la imagen enmascarada, sin aplicar el suavizado. A la derecha se presenta la misma imagen, luego de aplicarle el filtro Gaussiano
Figura 43. Interfaz gráfica de usuario del módulo SPM>Smooth
Cálculo de estadísticas
63
Para lograr una coherencia entre los resultados obtenidos con esta herramienta y
con los logrado a partir de FSL, el diseño del modelo estadístico se mantienen igual para
ambas. Se agrupan los pacientes en dos grupos: un grupo con los pacientes P1 y P2 y otro
con los individuos P3 y P4. Los contrastes a realizar serán también iguales: se calculará en
qué zonas de los mapas los valores de anisotropía fraccional son significativamente
mayores para un grupo que para el otro y viceversa. Para generar el modelo estadístico a llevar a cabo, en primer lugar se utiliza la
herramienta specify2nd level que se corresponde con el análisis de grupos (a diferencia de
specify1st level que se utiliza para estudios de individuo). En la figura 44 se muestra la
interfaz correspondiente.
Figura 44. Interfaz gráfica de usuario de la herramienta specify 2ndlevel
En el campo diseño se elige “Twosample ttest”. Se deben especificar cómo se
desean separar los dos grupos y el directorio donde se desea guardar el diseño. Presenta
más parámetros que, para este caso en particular, se dejaron con sus valores por defecto.
Como salida se presenta un archivo llamado SPM.mat que resume la especificación del
diseño estadístico.
64
Figura 45. Imagen que resume el diseño del análisis estadístico
Una vez creados los grupos se utiliza la herramienta “Estimate” de SPM, la cual
tiene como entrada el archivo SPM.mat generado en el paso anterior.
Figura 46. Interfaz gráfica de usuario del módulo estimate
65
Por último, se deben especificar los contrastes a realizar y ejecutar el análisis. Para
esto se cuenta con la herramienta “Results” que, nuevamente, tiene como archivo de
entrada SPM.mat. Como salida presenta 5 archivos de tipo .nii:
beta_0001
beta_0002
mask
ResMS
RPV
En este caso, al igual que cuando se analizó la herramienta FSL, se decidieron
definir dos contrastes para poder analizar en qué vóxeles difieren significativamente ambos
grupos.
Figura 47. Interfaz gráfica de usuario para la creación de contrastes
Una vez generado todo el análisis, se pueden visualizar los resultados. Para poder
ver los resultados se debe elegir alguno de los contrastes y luego ciertos parámetros como:
Máscara.
pvalue.
Extensión del resultado: referido en cantidad de vóxeles. Esto indica el
tamaño de los agrupamientos de vóxeles que representen gran diferencia.
Para el caso de la imagen sin suavizar, no se utilizó máscara. En cambio para la
imagen suavizada se utilizó la máscara creada en pasos anteriores. Esto fue para evitar que
en la comparación entre grupos aparecieran diferencias fuera de las zonas deseadas,
debidas a la aplicación del filtro.
66
En cuanto al pvalue (valor de significancia) se fue variando sólo para ver los
resultados obtenidos. En la figura 48 se muestra un ejemplo del mapa estadístico generado
por la herramienta, para un valor de p=0.05
Figura 48. Resultados luego de aplicar el módulo Results. Valor p=0.05
Además, con esta herramienta, se permite a partir del mismo archivo (SPM.mat)
recalcular los resultados, variando distintos parámetros tales como el valor de p, la
aplicación de máscara o incluso el contraste. Los resultados pueden almacenarse como una
archivo .fig para luego poder visualizarse.
67
Capítulo 6: Comparación entre herramientas
Comparación de la arquitectura
En esta sección se compara la estructura arquitectónica general de ambas
herramientas, principalmente en lo que se refiere al procesamiento de las imágenes y, por
consiguiente, al flujo de trabajo realizado con ellas.
Ambas herramientas funcionan de manera similar: para lograr versatilidad separan
sus prestaciones en módulos bien delimitados, los cuales tienen una funcionalidad
específica, permitiendo que el usuario pueda elegir los pasos a seguir en su análisis.
En la mayoría de los casos, los módulos presentan como variables de entrada una o
más imágenes, las cuales se pueden modificar, usar de template o realizar cálculos sobre
ellas. Las variables de salida de ambas herramientas suelen ser también imágenes, sobre
las cuales se ha aplicado algún procesamiento deseado por el usuario. De esta forma, y
como pudo apreciarse en los capítulos anteriores, cuando se desea realizar un trabajo que
involucra el procesamiento de imágenes, éste es realizado en cierta cantidad de pasos
atómicos y desacoplados, vinculados por las imágenes de salida. Como se puede ver en la
figura, la salida de un paso en el procesamiento, es entrada del siguiente.
Figura 49. Se presenta un simple ejemplo del flujo de trabajo general de estas herramientas
De esta forma también se permite la paralelización de trabajos (siempre y cuando el
procesador y el sistema operativo lo permita) aumentando el throughput y, por consiguiente,
la productividad y/o eficiencia en el trabajo a realizar.
En casos especiales para facilitar largos procesamientos, la herramienta SPM, en
sus herramientas anexas, cuenta con módulos que consisten en la combinación de dos o
68
más módulos simples. De esta forma, se automatiza el proceso, minimizando la intervención
del usuario.
Codificación El desarrollo de este trabajo fue principalmente centrado en el análisis y
comparación de las herramientas nombradas anteriormente y de los resultados obtenidos
por ellas en el análisis de imágenes de difusión.
Durante el procesamiento realizado con ambas herramientas, se partió de los scripts
templatizados provistos por ellas, los cuales se instanciaron según las necesidades
correspondientes a cada paso.
En cuanto a la herramienta FSL, el flujo de trabajo era claro: presenta un conjunto de
herramientas específico para el preprocesamiento de imágenes de difusión que siguen un
orden preestablecido. También presenta, como se expuso en la sección FSL>Análisis
estadístico>TBSS, un módulo específico para la preparación de los mapas de anisotropía
fraccional para el posterior análisis estadístico. Es por eso que para utilizar esta herramienta
se necesitó estudiar y comprender los scripts, y luego aplicarlos con los parámetros
adecuados.
SPM presenta una interfaz que facilita la creación y guardado de scripts, que fue
utilizada en todos los pasos del procesamiento de imágenes. En cada uno de los pasos, los
parámetros fueron modificados para adaptarse al conjunto de imágenes de entrada en
proceso.
Luego de realizar el workflow en ambas herramientas, los resultados fueron
comparados. En todos los casos se realizó una comparación cualitativa (inspección visual),
en algunos casos, se realizó también una comparación y análisis cuantitativo evaluando
métricas de calidad. Para realizar el análisis cuantitativo, se desarrollaron rutinas que
permiten analizar de forma cuantitativa las diferencias entre las imágenes resultantes en
cada paso.
Estas rutinas de comparación se desarrollaron en la plataforma MATLAB,
especializada en el análisis de imágenes. Se eligió esta plataforma, debido a sus rutinas
especializadas en la manipulación de imágenes y su facilidad en hacer comparaciones a
nivel vóxel, ya que opera con las imágenes en forma de matrices ndimensionales, con
optimización en las operaciones entre ellas.
Las rutinas implementadas fueron especializadas para cada comparación que se
realizó, y su objetivo principal fue extraer indicadores de similitud o distancia entre las
imágenes resultantes por ambas herramientas.
69
Comparación de resultados
Corrección de distorsiones
Como se dijo anteriormente los artefactos más comunes en las imágenes de difusión
están relacionados con las corrientes de Foucault y con el movimiento de cabeza del
paciente. La mayoría de las herramientas especializadas en las imágenes de difusión han
desarrollado módulos especializados en la corrección de estos artefactos.
FSL presenta su módulo: eddy_correct y SPM el suyo: ECMOCO. Ambos funcionan
de forma automática y presentan pocos parámetros. SPM presenta una salida más
completa, con archivo correspondientes a los cambios realizados y gráficos
correspondientes. Visualmente no se ven grandes cambios en los resultados de ambas
herramientas ni entre ellos y el original.
La ventaja de la herramienta FSL sobre SPM es la aparición de una mejora sobre el
algoritmo básico y es la aplicación del algoritmo eddy junto con el módulo top up (ambos
sólo por línea de comando). Si bien no se utilizó en este trabajo, ya que se buscaba
contrastar algoritmos similares en ambas herramientas, es bueno destacar que presenta
ciertos avances sobre el algoritmo clásico.[48]
Dado que visualmente no se destacan grandes diferencias entre los resultados, se
decidió realizar ciertas operaciones entre las imágenes para destacar sus diferencias. El
primer paso a seguir fue normalizar ambas imágenes, llevándolas a la escala [0,1], ya que
sus valores eran muy amplios y no respetaban la misma escala. Para lograr esto se realizó
la siguiente operación:
´M = M−min(M)max(M)−min(M)
Siendo M´ la imagen normalizada, M la imagen original, Min(M) la intensidad mínima
presente en la imagen y Max(M) la intensidad máxima.
Con esto se logró que todos los valores de la imagen quedaran comprendidos en la
escala [0,1] respetando las proporciones entre ellos.
Una vez logrado esto, se tienen las imágenes normalizadas. Lo que se hace a
continuación, es crear una nueva imagen de iguales dimensiones a las originales, en la que
la intensidad de cada voxel representa el valor absoluto de la diferencia entre los vóxeles
correspondientes a la misma posición de las imágenes a comparar.
En la figura 50 se muestra la imagen resultante de calcular la diferencia entre
vóxeles.
70
Figura 50. En la imagen se muestra la diferencia de intensidades entre las dos imágenes.
Además, para tener un valor numérico y no sólo visual, se realizó una sumatoria de
todas esas diferencias y se dividió ese valor por la cantidad de vóxeles de la imagen
teniendo así una media de la diferencia por voxel. Además se determinó la máxima y
mínima diferencia presente entre vóxeles.
En la siguiente tabla se presentan los resultados obtenidos. Cada columna
representa a un paciente distinto y las filas corresponden a cada indicador calculado.
Diferencias entre las imágenes corregidas
P1 P2 P3 P4
Diferencia por voxel
0.0110 0.0158 0.0100 0.0393
Máxima diferencia entre vóxeles
0.2946 0.4989 0.3545 0.4020
Mínima diferencia entre vóxeles
0 6.9132e10 8.6183e10 2.0775e07
Como puede apreciarse en las estadísticas, el promedio de diferencia es muy bajo,
resultando en imágenes similares, pero los valores máximos de diferencia son elevados,
llegando a casi 0.5 en el paciente P2.
A modo de análisis se buscó la ubicación de aquellos vóxeles que presentan más
diferencia entre las dos imágenes preprocesadas, se descubrió que corresponden a
aquellos que forman parte del cráneo o de la materia gris (ver figura 51), principalmente en
los bordes, lo cual no es de importancia para este problema en particular ya que los análisis
subsiguientes están centrados en el análisis de la materia blanca.
71
Figura 51. Se muestra en azul los máximos valores de diferencia entre imágenes
Como última prueba se decidió aplicarles una máscara a las imágenes, para dejar
de lado aquellos vóxeles pertenecientes al fondo de la imagen y al cráneo. De esta forma se
busca evitar que las diferencias entre vóxeles que no contribuyen luego en el cálculo de
autovalores y autovectores alteren el valor estadístico. La máscara aplicada a las imágenes
(para este paso en particular) fue la misma para ambas.
Se realizaron los mismo cálculos que anteriormente, y además se tomó el error
promedio de los vóxeles distintos de cero: en otras palabras, no se dividió la suma del error
por la cantidad total de vóxeles, sino por aquellos pertenecientes a la máscara.
En la siguiente tabla se muestran los resultados, nuevamente las columnas
corresponden a los pacientes, y las filas a los indicadores calculados.
Diferencias entre las imágenes corregidas con máscara aplicada
P1 P2 P3 P4
Diferencia por voxel 0.0023 0.0021 0.0018 0.0086
Diferencia por voxel, sin tener en cuenta el fondo
0.0085 0.0088 0.0071 0.0377
Máxima diferencia entre vóxeles
0.2946
0.4989 0.3545
0.3771
Mínima diferencia entre vóxeles
0 0
0 0
72
Figura 52. Diferencia por vóxel entre imágenes preprocesadas con ambas herramientas. La línea naranja corresponde al análisis de las imágenes sin aplicarles máscara, la azul luego de aplicar una máscara y sin promediar los vóxeles correspondientes al fondo de la imagen.
Como se puede ver en la figura 52, al aplicar la máscara la diferencia por vóxel
decrece para todos los pacientes, resultando un valor aún más bajo, incluso cuando no se
tuvo en cuenta el fondo.
Luego de realizar estos análisis se puede concluir que ambas herramientas logran
un resultado bastante similar, presentando grandes diferencias en los bordes de las
imágenes, probablemente debido a una leve desalineación entre ellas. El uso de ambas
herramientas es simple y presenta pocos parámetros. La elección de una herramienta u otra
por parte del usuario para realizar estas correcciones, no dependerá principalmente de los
resultados esperados, sino de otros aspectos tales como la eficiencia o la plataforma
deseada. Como se verá en la sección de este capítulo, correspondiente al análisis de
eficiencia de ambas herramientas, FSL consigue realizar las correcciones en
aproximadamente la mitad del tiempo que SPM, lo cual puede ser un aspecto a tener en
cuenta al momento de elegir herramienta.
Extracción de parénquima cerebral
Como se expuso anteriormente, ambas herramientas presentan un módulo para la
creación y aplicación de una máscara, facilitando así la extracción del parénquima cerebral.
73
FSL presenta el módulo BET (brain extraction tool) el cual genera máscaras de
buena calidad y presenta ciertos parámetros que han sido retocados para lograr una
máscara deseable para este trabajo en particular (ver capítulo FSL).
SPM, dentro de su herramienta ACID presenta un módulo especializado para la
creación de máscaras con parámetros similares a el módulo BET. La diferencia está en su
aplicación, para lograr la creación de la máscara primero se tiene que segmentar la imagen
utilizando el módulo new segment de SPM (ver capítulo SPM). Este detalle hace que la
aplicación general sea menos sencilla, requiriendo de un paso extra.
En cuanto a sus resultados, como se ve en la figura 53, la máscara creada por SPM
excede a la creada por FSL sobre todo en la región inferoposterior, siendo una máscara un
poco mayor a lo deseada.
Figura 53. En la imagen se ven las máscaras creadas por ambas herramientas, superpuestas. La máscara verde corresponde a la creada con FSL, la azul a la creada por SPM.
Figura 54. En la imagen se ven las máscaras creadas por ambas herramientas, sobre el mismo corte. La máscara verde corresponde a la creada con FSL, la azul a la creada por SPM.
Nuevamente, para realizar una comparación numérica entre ambos resultados, se
tomaron ciertos indicadores para comprobar qué tanto se parecen ambas máscaras. Debido
a que no se tenía una delineación ideal marcada manualmente, no fue posible tomar
indicadores que representaran la precisión de estas máscaras, entonces se decidió
compararlas entre ellas. Para ello se utilizó el coeficiente de SorensenDice [46][47].
74
Este coeficiente es un estadístico utilizado para comparar la similitud de dos
muestras, fue desarrollado independientemente por la botánicos Thorvald Sørensen y Lee
Raymond Dice . Su fórmula es la siguiente:
SQ = A + B| | | |
2 A||| ∩
B|||
donde A y B son el número de especies en las muestras A y B, respectivamente, y C
es el número de especies compartidas por las dos muestras; QS es el cociente de similitud
y varía de 0 a 1.
Si bien este indicador fue creado para la comparación de especies, es fácilmente
aplicable a cualquier conjunto, dando una medida de qué tan similares son dos conjuntos.
Para calcularlo primero se calculó la intersección de ambas máscaras
multiplicándolas entre ellas.
para todo voxel de las máscaras.ij M1 2)ij 1ij 2ij M = ( ∩
M = M *M
Se obtiene así, una nueva imagen con iguales dimensiones que las máscaras,
donde cada voxel de ella representa la multiplicación de los vóxeles de igual posición de
ambas máscaras.
Para sumar el número de elementos de cada máscara, simplemente se sumó el
valor de todos sus vóxeles. Luego, el indicador de SorensenDice se calculó para cada
paciente dividiendo la intersección entre las máscaras por la suma de elementos de ellas.
Como complemento se calculó que tanto difieren cada máscara de la intersección entre
ellas, para ello se dividió la cantidad de vóxeles en los que difieren sobre la cantidad de
elementos de la intersección. A continuación se muestra la fórmula:
ifD =M1 2||| ∩
M|||
M1 − M1 2| |||| ∩
M|||
En la siguiente tabla se muestran los indicadores calculados para cada imagen.
P1 P2 P3 P4
Índice de SorensenDice
0.9821 0.9815 0.9796 0.9362
Tamaño de intersección (|Intersección|)
498020 vóxeles
439860 vóxeles
464430 vóxeles
427080 vóxeles
75
Tamaño de máscara generada por FSL (|FSL|)
503514 vóxeles
443546 vóxeles
476655 vóxeles
427182 vóxeles
Tamaño de máscara generada por SPM (|SPM|)
510660 vóxeles
452750 vóxeles
471560 vóxeles
485220 vóxeles
|FSL||Intersección|
0.0110
0.0083 0.0263 0.0002
|SPM ||Intersección| 0.0253 0.0293 0.0154 0.1361
Como puede apreciarse en la tabla, ambas muestras son muy similares para todos
los pacientes, dando un valor por encima de 0.90 en todos los casos y muy cercano a 1 en
los pacientes P1, P2 y P3. Además (en general) FSL genera una máscara más acotada y,
por ende, más cercana a la intersección. Hay que destacar también que la similitud entre las
máscaras se debe también en parte a los ajustes realizados en los parámetros de entrada
de los algoritmos correspondientes a cada herramienta. Con estos ajustes se buscó que la
máscara resultante se asimile lo más posible a lo que se creía una máscara “ideal” para
este caso en particular.
Como conclusión puede decirse que ambas herramientas funcionan bien, generando
máscaras similares y adecuadas. Ambas necesitan de un ajuste de los parámetros de
entrada para lograr el objetivo, por lo menos para las imágenes de este experimento en
particular. El uso de SPM es más tortuoso ya que primero debe segmentarse la imagen y
luego recién crear la máscara. FSL lo hace automáticamente.
Cálculo de autovalores y autovectores
Para buscar diferencias en este punto se tuvieron en cuenta sólo los mapas de FA.
Se utilizó el mismo método que para la corrección de distorsiones, solo que las imágenes ya
estaban normalizadas y enmascaradas. Simplemente se tomó la media de la diferencia
pixel a pixel, sin tener en cuenta los valores 0. En la figura 55 se muestra, en primer lugar,
un mapa con las diferencias entre las imágenes a nivel vóxel.
76
Figura 55. Diferencias entre los mapas de anisotropía fraccional calculados por ambas herramientas
Luego, al igual que para comparar la corrección de distorsiones, se realizó un
análisis numérico. Para el análisis se utilizó matlab, por su facilidad para operar
aritméticamente con imágenes. En la siguiente tabla se muestran los resultados:
P1 P2 P3 P4
Máxima diferencia entre vóxeles
1 1 1 1
Mínima diferencia entre vóxeles
0 0 0 0
Diferencia por vóxel 0.0294 0.0283 0.0242 0.0240
Diferencia por vóxel, sin tener en cuenta el fondo
0.0958 0.1035 0.0867 0.0939
Por último, como se puede observar en la figura las mayores diferencias se deben a
que la máscara aplicada a ambas imágenes es diferente. Para evitar que se refleje en los
resultados las diferencias generadas en pasos anteriores del procesamiento, se decidió
aplicar la misma máscara a ambas imágenes para poder así realizar los cálculos. En la
siguiente tabla se muestran los resultados luego de aplicar la máscara.
P1 P2 P3 P4
Máxima diferencia entre vóxeles
1 1 1 1
Mínima diferencia entre vóxeles
0 0 0 0
Diferencia por vóxel 0.0136 0.0136 0.0137 0.0137
77
Diferencia por vóxel sin tener en cuenta el fondo
0.0508 0.0578 0.0541 0.0603
Como se puede apreciar comparando los valores obtenidos (ver figura 56), el valor
de diferencia promedio entre imágenes disminuyó considerablemente en todos los
pacientes cuando a ambas imágenes se les aplica la misma máscara. Aún así los valores
mayores de diferencia se localizan en los vóxeles periféricos.
Figura 56. Diferencias de intensidad entre vóxeles para uno de los pacientes del conjunto.
Figura 57. Gráfico que representa la diferencia promedio entre ambos mapas de anisotropía fraccional. La línea azul corresponde a la comparación entre los mapas resultantes de cada herramienta. La línea naranja a esos mismos mapas pero con igual máscara aplicada. En ambos indicadores, no se tuvo en cuenta el fondo para calcularlos.
78
Como puede observarse en los indicadores extraídos, nuevamente los resultados
obtenidos con ambas herramientas son similares. El uso de una otra no modificaría el
resultado final, por lo cual la elección de una de ellas dependerá de otros aspectos.
Análisis estadístico
La mayor diferencia que presentan ambas herramientas a lo largo del procesamiento
realizado en este trabajo es el enfoque que tienen al momento de buscar diferencias entre
individuos en sus mapas de FA.
SPM utiliza el enfoque basado en vóxeles, el cual es ampliamente utilizado para
comparación entre individuos o a través del tiempo. No es específico para la materia blanca
y requiere que los datos sufran transformaciones nolineares para lograr que los mapas
resulten lo más alineados posible.
El mayor problema en este tipo de herramienta son las registraciones, es
comprobado que los resultados obtenidos por este tipo de análisis en FA, está fuertemente
ligado al tipo de registración utilizado. Hay acá un conflicto: por un lado se debe poder de
alguna forma asegurar que la comparación que se realiza corresponde a las mismas
regiones/vóxeles entre individuos, pero, por otro lado, si esto se logra mediante una
registración estricta, ciertas características de los pacientes se pierden.
El uso de suavizado en las imágenes como parte del proceso es también
controversial. Puede ayudar a mejorar desalineaciones residuales, pero puede cambiar la
naturaleza de la imagen si no se elige adecuadamente, no existen criterios de importancia
para poder elegirlo.
FSL surge como una mejora ante los algoritmos de VBS ya utilizados, pero tiene sus
limitaciones. FSL presenta un enfoque nuevo (2006) específico para materia blanca y, más
específicamente, para mapas de anisotropía fraccional. Las registraciones llevadas a cabo
por esta herramienta tienen en cuenta los tractos principales y los utiliza para poder registrar
los distintos individuos. Es más “confiable”, es más segura la correspondencia entre vóxeles
de distintos individuos, algo que no se logra completamente con SPM.
Por otro lado, hay zonas extensas de la materia blanca que son dejadas de lado en
este enfoque, dependiendo el estudio, ciertas diferencias pueden no ser halladas. La
formación del esqueleto reduce el tracto al ancho de un voxel. Esto podría empeorar aún
más con la mejora de la resolución de las resonancias, donde los vóxeles serán de un
tamaño menor y, por ende, mayor parte (grosor) de los tractos serán dejados de lado. Al
dejar de lado la direccionalidad y sólo utilizar los valores de anisotropía fraccional en el
79
armado del esqueleto, puede haber problema en la proyección, ya que en ciertos lugares
hay cruce de fibras y puede que los vóxeles no sean bien reconocidos.
Además, el ruido puede llegar a afectar la generación del esqueleto. También,
debido a que el esqueleto es creado a partir del promedio de los pacientes, la robustez del
mismo se ve comprometida por ellos. En otras palabras, si los pacientes presentan mucha
variabilidad estructural entre ellos, el esqueleto resultante puede no ser adecuado.
Este método funciona especialmente para la comparación entre tractos principales.
En los tractos secundarios es más problemático. Cuando el ancho del tracto es menor que
un voxel, es difícil determinar por qué existe una reducción en el valor de FA. Esto puede
ser debido a que el valor de intensidad del voxel se ve afectada por materia gris o a una
disminución real de la anisotropía fraccional.
También existe la posibilidad que se excluyan partes de la materia blanca de la
formación del esqueleto, debido a una alta reducción de FA debido a alguna patología. En
este caso, regiones de gran importancia en el estudio (ya que representan grandes
cambios) no serían tenidas en cuenta. Esto no es muy probable que ocurra, disminuyendo
esta probabilidad con el aumento de pacientes en el estudio. Pero, en caso de que el
análisis sea para un mismo paciente a través del tiempo, y que la disminución del valor de
anisotropía fraccional sea notoria, los resultados sí pueden verse afectados por esta
problemática.
Ambas herramientas y, especialmente FSL, presentan problemas si la enfermedad a
investigar tiene asociados cambios morfológicos. Sus comparaciones nos están centradas
en ello, sino en analizar los cambios de anisotropía fraccional.
Expuestas las virtudes y debilidades de cada una de ellas, se puede ver que el
enfoque presente en ellas para la preparación de datos para el análisis estadístico es muy
distinto. En este trabajo, se buscó realizar un flujo de trabajo con SPM lo más adecuado
posible al estudio que se desea realizar. Se tomaron trabajos relacionados, en los que se
realizan comparaciones entre mapas de anisotropía fraccional y se aplicaron pasos
similares, basados en el enfoque general de VBM.
La elección de una herramienta u otra para poder realizar comparaciones ya no
depende de factores como la eficiencia sino del método aplicado en sí. FSL, con su módulo
TBSS, presenta un enfoque claro, organizado y más preciso, en el que las diferencias
detectadas son confiables aunque acotadas. No se ve tan fuertemente afectada por la
registración como SPM, pero no es aplicable a cualquier estudio ya que no detecta cambios
en la totalidad de la materia blanca.
80
Por otro lado SPM, sí realiza un estudio “global” del cerebro. Incluso puede aplicarse
al estudio de materia gris (en este caso particular no tiene sentido, ya que la anisotropía
fraccional de la materia gris no es tan variable como en la materia blanca). Si bien puede
detectar diferencias en mayores zonas, la alineación de tractos entre pacientes no es tan
confiable como en TBSS y se encuentra altamente afectada por la registración llevada a
cabo en el preparado de los datos.
Si el estudio a realizar fuese la evolución de un paciente a lo largo de, por ejemplo,
una enfermedad, SPM puede resultar un método muy adecuado. Debido a que la estructura
global no varía a través del tiempo, las registraciones a realizar no afectarán fuertemente la
“anatomía” del paciente, logrando una alineación buena sin grandes transformaciones no
lineares en las imágenes originales. Así, detectar cambios en los valores de anisotropía
fraccional a través del tiempo se ve facilitado por el uso de esta herramienta.
Atributos de calidad
En esta sección se analizan otros aspectos para poder comparar ambas
herramientas, independientes de los métodos utilizados y relacionados con sus atributos de
calidad.
Ambas herramientas son gratuitas, aunque SPM, al estar desarrollada sobre
MATLAB, requiere de su instalación previa, la cual tiene un costo asociado. FSL es gratuita
para el uso académico y no requiere ninguna herramienta de base.
Ambas son de instalación muy simple. Y ambas funcionan sobre una amplia
variedad de plataformas. FSL no funciona sobre el sistema operativo Windows, sólo lo logra
por medio de una máquina virtual.
En cuanto a la extensibilidad, SPM es fácilmente extensible y dispone de muchos
complementos especializados en distintos procesamientos de neuroimagen desarrollados
por investigadores alrededor del mundo. Al igual que MATLAB, es colaborativo y presenta
facilidades para incorporar estas distintas herramientas. Tiene un batch editor, que funciona
como una interfaz común a los distintos módulos que posee. En este batch editor se facilita
el armado de scripts, mediante la elección de los parámetros necesarios para cada proceso.
Pueden cargarse distintos módulos y ejecutarse en conjunto, además tiene la posibilidad de
guardar los scripts para ejecutarlos en otro momento o modificarlos.
FSL presenta también la facilidad de ejecutar scripts, pero estos por medio de una
terminal. Por otro lado, muchos de sus módulos cuentan con una GUI, pero al ejecutar por
medio de la interfaz de usuario, los scripts no se guardan, solo se ejecutan. Si se quiere
automatizar un proceso, deben generarse manualmente los scripts.
81
Ambos presentan buena usabilidad. Aunque FSL es más intuitivo para el usuario, se
encuentra bien estructurado, con buena navegabilidad y sin demasiado anidamiento. SPM,
en cambio, es menos amigable para el usuario.
En cuanto a la visualización de imágenes, ambas presentan módulos para ello, pero
FSL presenta una interfaz más completa. Con la posibilidad de visualizar distintas imágenes
en un mismo espacio, a modo de capas. Presenta opciones de edición de las imágenes
(colores, modulación...)
En cuanto a la documentación o guías de uso, los módulos integrados de SPM
dependen de sus creadores, algunos módulos se presentan muy completos, otros no. Los
módulos base, en cambio, se encuentran descritos en el manual de la herramienta, donde
se especifica su modo de uso y ejemplos de su aplicación.
SPM permite la conversión de imágenes del formato DICOM al formato .NIFTI, FSL
no.
SPM presenta un amplio módulo de análisis estadístico, aunque mayormente
enfocado en las fMRI. Además, al estar integrado en MATLAB, se encuentra la posibilidad
de poder realizar subprocesos desde la terminal de matlab de manera totalmente integrada
con la herramienta y tomando provecho de sus facilidades para operar con imágenes.
Eficiencia Como última medida de comparación se decidió medir la eficiencia de cada
herramienta a lo largo de todo el procesamiento. Para esto se registraron los tiempos que
tardan en realizar cada tarea, para poder compararlos luego. Para poder contrastar los
datos de manera más fácil, los tiempos se registraron en una tabla y luego se realizó un
gráfico en base a ellos.
Tiempos correspondientes al preprocesamiento y el cálculo de autovalores y
autovectores para ambas herramientas (por paciente).
SPM FSL
Corrección de distorsiones 60 minutos 30 minutos
Extracción de parénquima cerebral 9 minutos 1 minuto
Cálculo de autovalores y autovectores 2 minutos 1 minuto
Tiempo total 71 minutos 32 minutos
82
Figura 58. El gráfico representa los tiempos que tarda cada herramienta en realizar el preprocesamiento sobre las imágenes.
En las siguientes tablas se encuentran los tiempos que registra cada herramienta en
los pasos correspondientes al preparado de las imágenes para análisis estadístico.
Tiempo de preparado de los mapas de FA por parte de la herramienta SPM
Paso del procesamiento Tiempo registrado
Corregistración entre pacientes 4 minutos
Creación del template 70 minutos
Registración no linear con el template 1 minuto
Suavizado 1 minuto
Total 76 minutos
Tiempo de preparado de los mapas de FA por parte de la herramienta FSL
Paso del procesamiento Tiempo registrado
TBSS_1_preproc 2 minutos
TBSS_2_reg 110 minutos
83
TBSS_3_postreg 5 minutos
TBSS_4_prestats 1 minuto
Total 118 minutos
Figura 59. El gráfico representa los tiempos que tarda cada herramienta en preparar los
mapas de anisotropía fraccional para el posterior análisis estadístico.
Cabe aclarar que la plataforma es distinta para ambas herramientas, FSL se
ejecutaba sobre una máquina virtual con ubuntu, con un límite de 4 GB de memoria RAM y
2 procesadores, esta máquina virtual se encontraba corriendo sobre una máquina con
sistema operativo windows 8. SPM, en cambio, se encontraba corriendo sobre el sistema
operativo nativo (windows 8), con 8 GB de memoria RAM y procesador i55200U con 2
núcleos.
Al no ejecutarse sobre la misma plataforma, la diferencia de eficiencia no es una
medida 100% confiable y se encuentra ligada al entorno de ejecución de las herramientas.
FSL, de esta forma, se encuentra desfavorecida, al no tener acceso pleno a las
prestaciones de la máquina.
A pesar de esto, en el caso del preprocesamiento previo al cálculo de autovalores y
autovectores, FSL superó considerablemente en tiempo a SPM, logrando procesar las
imágenes en un tiempo menor y obteniendo unos resultados similares a los alcanzados por
SPM. Esta diferencia, se encuentra fuertemente ampliada con el aumento de pacientes, ya
que el tiempo de preprocesamiento por paciente de SPM es del doble que el de FSL, lo cual
resulta más notorio cuando la muestra es mayor.
84
Por otro lado, en el caso del preparado de los mapas de FA para el análisis
estadístico, la herramienta SPM logró realizar todo el proceso en un tiempo mucho menor
que FSL (76 minutos SPM y 118 FSL), concentrándose la mayor diferencia en la creación
de un template personalizado y la registración de las imágenes con el mismo. Nuevamente
hay que hacer una consideración: en el caso de FSL, la elevada cantidad de tiempo
transcurrido en ejecutar el módulo TBSS_2_reg se debe, principalmente, a la opción elegida
para este estudio. Como se expuso en la sección correspondiente, se decidió registrar las
imágenes de todos los pacientes con el individuo más típico de dicho conjunto. Para poder
lograrlo, previamente se debieron realizar muchos cálculos para poder determinar cuál
paciente era el más típico, cálculos que no fueron realizados con la herramienta SPM. En el
caso de que la cantidad de pacientes se incremente, en estudios posteriores, se hará
menos factible poder ejecutar tbss_2_reg con la opción elegida en este caso, debido a que
su tiempo se encuentre en el orden de O( ) siendo N la cantidad de pacientes de la N2
muestra.
85
Capítulo 7: Conclusiones En este trabajo se ha introducido el análisis, procesamiento y cuantificación de
imágenes neurológicas, especialmente de las imágenes de difusión, las cuales
principalmente son utilizadas para analizar la estructura y la integridad de la materia blanca
del cerebro.
A lo largo de este trabajo se han aplicado diversos conocimientos adquiridos durante
el desarrollo de la carrera. Estos conocimientos pertenecen a distintas ramas relacionadas
con física, álgebra lineal, análisis estadístico, análisis matemático, programación, análisis de
diseño de Software, ciencias de la computación y teoría de la información. En conjunto
logran establecer un marco teóricopráctico adecuado para el desarrollo de este trabajo.
Para acercarse al tema, se decidió seguir un workflow habitual en la práctica,
replicando parcialmente los pasos de un trabajo de investigación en el tema. Para lograrlo,
se utilizaron dos herramientas muy utilizadas en el ambiente de neuroimagen: SPM y FSL.
Ambas prestan facilidades para el análisis específico de imágenes de difusión. Lo que se
buscó en este trabajo fue, a medida que se iba conociendo el Software estudiado, poder
comparar las herramientas tanto en su estructura general como en los resultados obtenidos
con ellas.
Los primeros pasos llevados a cabo fueron los correspondientes al
preprocesamiento de las imágenes: corrección de distorsiones propias de las imágenes de
difusión, creación de una máscara adecuada y cálculo de las imágenes de tensor (DTI)
derivadas de las imágenes de difusión, entre ellas los mapas de anisotropía fraccional de
cada paciente. Estos mapas fueron los analizados en pasos posteriores de la investigación.
Como se pudo comprobar en la investigación, los resultados obtenidos con ambas
herramientas en esta etapa de preprocesamiento son similares. El uso de una u otra no
debería influir en el resultado final del estudio realizado sobre las imágenes preprocesadas.
La mayor diferencia que presentan en esta instancia es el tiempo de procesamiento: FSL lo
logra en aproximadamente la mitad del tiempo que SPM, lo cual cobra mayor importancia
con el crecimiento del número de imágenes que se desea procesar o de los volúmenes
correspondientes a cada imagen.
Luego de preprocesar las imágenes individualmente y calcular los mapas de
anisotropía fraccional para cada una de ellas, se realizaron ciertos procesamientos para
alinearlas y poder realizar comparaciones entre ellas. Para poder realizar este
procesamiento, FSL cuenta con un enfoque especializado para este tipo de imágenes y,
gracias a esto, presenta un flujo de trabajo claro. Los resultados obtenidos del análisis
86
estadístico a partir de las imágenes de esta herramienta, son más confiables, ya que la
alineación entre las distintas imágenes del conjunto es mejor lograda gracias al enfoque de
TBSS (tract based spatial statistics). Por otro lado, los resultados son más limitados ya que
la comparación entre imágenes se realiza sobre regiones acotadas de ellas. Por lo cual, si
bien el análisis no suele generar falsos positivos, puede presentar gran cantidad de falsos
negativos. Es por esto que el uso de esta herramienta depende principalmente de qué
objetivo tiene el usuario a la hora de comparar las imágenes.
Por otro lado, SPM no tiene un flujo de trabajo bien definido en esta área, y los
resultados obtenidos por ella dependen en gran parte del tipo de procesamiento y
registración que se haga sobre las imágenes del conjunto. El análisis con esta herramienta
puede realizarse comparando las imágenes completas y no sólo algunas áreas de ellas,
como con FSL, aunque los resultados obtenidos dependen en gran parte de las
deformaciones aplicadas en cada imagen en el procesamiento.
En cuanto el uso de ellas, ambas son de fácil aprendizaje. Si se quieren realizar
cálculos intermedios sobre las imágenes, SPM presenta más facilidades para ello: al estar
integrada con MATLAB se pueden crear rutinas intermedias de manera muy simple, y
aplicarlas sobre la imágenes sin problemas de “integración” y contando con las facilidades
que aporta el lenguaje.
Ambas herramientas se presentan completas y la elección sobre alguna de ellas
dependerá básicamente del tipo de comparación que se quiera hacer entre las imágenes o
de la plataforma sobre la que el usuario suela utilizar. Si el estudio comparativo es entre
imágenes del mismo tipo y para un sujeto en particular (por ejemplo a través del tiempo) es
probable que los resultados obtenidos con SPM sean más fructíferos. Esto se debe a que,
posiblemente, la registración entre estas imágenes no deforme mucho a las originales y, las
diferencias entre ellas sean reales y no consecuencia de una mala alineación.
Trabajos futuros
La línea de trabajo de análisis de imágenes de difusión es prometedora,
principalmente por sus aplicaciones en el entendimiento del cerebro humano, su
funcionamiento y tratamiento en el caso de enfermedades. Gracias a los avances científicos
y tecnológicos, el área de neuroimagen es un campo en constante crecimiento.
Como trabajos futuros se propone una especialización más profunda en el área,
empezando por comprender en mayor detalle los pasos en el procesamiento de las
imágenes de difusión y buscando una manera óptima de aplicarlos.
87
Otro campo que ha demostrado gran potencial y el que, gracias a los avances en el
desarrollo de técnicas relacionadas, presenta una línea de investigación prometedora, es el
relacionado con la tractografía. Es importante lograr exprimir al máximo la información
contenida en las imágenes de difusión y poder entender más en profundidad la estructura y
conectividad del sistema nervioso central.
88
Bibliografía
1. VillaUriol,M.C., Larrabide,I., et al (2010). Toward integrated management of cerebral aneurysms. Phil. Trans. Series A, Mathematical, physical, and engineering sciences, 368(1921), 2961–82.
2. Prckovska, V., M. Andorra, E. MartinezHeras, P. Villoslada, R. Duits, D. Fortin, P. Rodrigues, and . Descoteaux. "Contextual diffusion image postprocessing aids clinical applications." In Visualization and Processing of Higher Order Descriptors for MultiValued Data,, Springer, 2015.
3. Descoteaux, M. and C. Poupon. "DiffusionWeighted MRI." In Comprehensive Biomedical Physics, edited by D. Belvic and K. Belvic, 3 (6): 8197. Elsevier, 2014. DOI
4. Iturria Medina, Yasser. “Caracterización de la conectividad anatómica cerebral a partir de las neuroimágenes de la difusión y la teoría de grafos”. Diss. Universidad de Ciencias Médicas de la Habana., 2013.
5. del Toro, Oscar Alfonso Jiménez, et al. "Epileptogenic lesion quantification in MRI using contralateral 3d texture comparisons." Medical Image Computing and ComputerAssisted Intervention–MICCAI 2013. Springer Berlin Heidelberg, 2013. 353360.
6. Shorvon, S. D. "Epidemiology, classification, natural history, and genetics of epilepsy." The Lancet 336.8707 (1990): 9396.
7. Melcon, M. O., et al. "Prevalence of epilepsy in an Argentine community. Neuroepidemiology 21 (2002): 209.
8. Sander, Josemir W. "The epidemiology of epilepsy revisited." Current opinion in neurology 16.2 (2003): 165170.
9. Kochen, S., and M. O. Melcon. "Prognosis of epilepsy in a community‐based study: 8 years of follow‐up in an Argentine community." Acta neurologica scandinavica 112.6 (2005): 370374.
10. Smith, Stephen M., et al. "Tractbased spatial statistics: voxelwise analysis of multisubject diffusion data." Neuroimage 31.4 (2006): 14871505.
11. Ashburner, John, and Karl J. Friston. "Voxelbased morphometry—the methods." Neuroimage 11.6 (2000): 805821.
12. M.W. Woolrich, S. Jbabdi, B. Patenaude, M. Chappell, S. Makni, T. Behrens, C. Beckmann, M. Jenkinson, S.M. Smith. Bayesian analysis of neuroimaging data in FSL. NeuroImage, 45:S17386, 2009
89
13. S.M. Smith, M. Jenkinson, M.W. Woolrich, C.F. Beckmann, T.E.J. Behrens, H. JohansenBerg, P.R. Bannister, M. De Luca, I. Drobnjak, D.E. Flitney, R. Niazy, J. Saunders, J. Vickers, Y. Zhang, N. De Stefano, J.M. Brady, and P.M. Matthews. Advances in functional and structural MR image analysis and implementation as FSL. NeuroImage, 23(S1):20819, 2004
14. 3. M. Jenkinson, C.F. Beckmann, T.E. Behrens, M.W. Woolrich, S.M. Smith. FSL. NeuroImage, 62:78290, 2012
15. Duque, A., Roa, E., & Castedo, J. (2008). Anatomía de la sustancia blanca mediante tractografía por tensor de difusión. Radiología, 50(2), 99111.
16. Filley, C. M. (2011). Neurobiology of white matter disorders.
17. Moritani, T., Ekholm, S., & Westesson, P. L. A. (2009). Diffusionweighted MR imaging of the brain. Springer Science & Business Media.
18. Schaefer, P. W., Grant, P. E., & Gonzalez, R. G. (2000). Diffusionweighted MR imaging of the brain 1. Radiology, 217(2), 331345.
19. S.M. Smith. Fast robust automated brain extraction. Human Brain Mapping, 17(3):143155, November 2002.
20. [Smith 2006] S.M. Smith, M. Jenkinson, H. JohansenBerg, D. Rueckert, T.E. Nichols, C.E. Mackay, K.E. Watkins, O. Ciccarelli, M.Z. Cader, P.M. Matthews, and T.E.J. Behrens. Tractbased spatial statistics: Voxelwise analysis of multisubject diffusion data. NeuroImage, 31:14871505, 2006.
21. Mohammadi S, Moller HE, Kugel H, Muller DK, Deppe M (2010) Correcting eddy current and motion effects by affine wholebrain registrations: evaluation of threedimensional distortions and comparison with slicewise correction. Magn Reson Med 64: 10471056; doi: 10.1002/mrm.22501
22. Basser, P. J., & Ozarslan, E. (2009). Introduction to diffusion MR. Diffusion MRI: From quantitative measurement to invivo neuroanatomy.
23. Filley, C. M. (2011). Neurobiology of white matter disorders.
24. Mori, S., & Zhang, J. (2006). Principles of diffusion tensor imaging and its applications to basic neuroscience research. Neuron, 51(5), 527539.
25. Cercignani, M., Inglese, M., Pagani, E., Comi, G., & Filippi, M. (2001). Mean diffusivity and fractional anisotropy histograms of patients with multiple sclerosis. American Journal of Neuroradiology, 22(5), 952958.
26. Adler, C. M., Adams, J., DelBello, M. P., Holland, S. K., Schmithorst, V., Levine, A., ... & Strakowski, S. M. (2006). Evidence of white matter pathology in bipolar disorder adolescents experiencing their first episode of mania: a diffusion tensor imaging study. American Journal of Psychiatry, 163(2), 322324.
90
27. Scholz, J., Klein, M. C., Behrens, T. E., & JohansenBerg, H. (2009). Training induces changes in whitematter architecture. Nature neuroscience, 12(11), 13701371.
28. Princich JP, Consalvo D, Kauffman M, Seifer G, Blenkmann A, Kochen S. Contribución de las imágenes de resonancia magnética por tensor de difusión al diagnóstico de displasias corticales focales. Rev Neurol 2012; 54: 45360
29. Jenkinson, M., Beckmann, C. F., Behrens, T. E., Woolrich, M. W., & Smith, S. M. (2012). Fsl. Neuroimage, 62(2), 782790.
30. Andersson, J. L., & Sotiropoulos, S. N. (2016). An integrated approach to correction for offresonance effects and subject movement in diffusion MR imaging. NeuroImage, 125, 10631078.
31. Yamada, H., Abe, O., Shizukuishi, T., Kikuta, J., Shinozaki, T., Dezawa, K., ... & Imamura, Y. (2014). Efficacy of distortion correction on diffusion imaging: comparison of FSL eddy and eddy_correct using 30 and 60 directions diffusion encoding. PloS one, 9(11), e112411.
32. Behrens, T. E. J., Woolrich, M. W., Jenkinson, M., Johansen‐Berg, H., Nunes, R. G., Clare, S., ... & Smith, S. M. (2003). Characterization and propagation of uncertainty in diffusion‐weighted MR imaging. Magnetic resonance in medicine,50(5), 10771088.
33. Grieve, S. M., Williams, L. M., Paul, R. H., Clark, C. R., & Gordon, E. (2007). Cognitive aging, executive function, and fractional anisotropy: a diffusion tensor MR imaging study. American Journal of Neuroradiology, 28(2), 226235.
34. Scholz, J., Klein, M. C., Behrens, T. E., & JohansenBerg, H. (2009). Training induces changes in whitematter architecture. Nature neuroscience, 12(11), 13701371.
35. Smith, S. M., Jenkinson, M., JohansenBerg, H., Rueckert, D., Nichols, T. E., Mackay, C. E., ... & Behrens, T. E. (2006). Tractbased spatial statistics: voxelwise analysis of multisubject diffusion data. Neuroimage, 31(4), 14871505.
36. Winkler, A. M., Ridgway, G. R., Webster, M. A., Smith, S. M., & Nichols, T. E. (2014). Permutation inference for the general linear model. Neuroimage, 92, 381397.
37. Mohammadi, S., Möller, H. E., Kugel, H., Müller, D. K., & Deppe, M. (2010). Correcting eddy current and motion effects by affine whole‐brain registrations: Evaluation of three‐dimensional distortions and comparison with slicewise correction. Magnetic Resonance in Medicine, 64(4), 10471056.
38. Mohammadi, S., Hutton, C., Nagy, Z., Josephs, O., & Weiskopf, N. (2013). Retrospective correction of physiological noise in DTI using an extended tensor model and peripheral measurements. Magnetic resonance in medicine, 70(2), 358369.
91
39. Mohammadi, S., Freund, P., Feiweier, T., Curt, A., & Weiskopf, N. (2013). The impact of postprocessing on spinal cord diffusion tensor imaging. Neuroimage,70, 377385.
40. Ashburner, J., & Friston, K. J. (2000). Voxelbased morphometry—the methods. Neuroimage, 11(6), 805821.
41. Mohammadi, S., Keller, S. S., Glauche, V., Kugel, H., Jansen, A., Hutton, C., ... & Deppe, M. (2012). The influence of spatial registration on detection of cerebral asymmetries using voxelbased statistics of fractional anisotropy images and TBSS. PLoS One, 7(6), e36851.
42. Takao, H., Abe, O., Yamasue, H., Aoki, S., Kasai, K., Sasaki, H., & Ohtomo, K. (2010). Aging effects on cerebral asymmetry: a voxelbased morphometry and diffusion tensor imaging study. Magnetic resonance imaging, 28(1), 6569.
43. Afzali, M., & SoltanianZadeh, H. (2010, May). Comparison of voxelbased morphometry (VBM) and tractography of diffusion tensor MRI (DTMRI) in temporal lobe epilepsy. In Electrical Engineering (ICEE), 2010 18th Iranian Conference on (pp. 1823). IEEE.
44. Penny, W. D., Friston, K. J., Ashburner, J. T., Kiebel, S. J., & Nichols, T. E. (Eds.). (2011). Statistical parametric mapping: the analysis of functional brain images: the analysis of functional brain images. Academic press.
45. Ashburner, J. (2007). A fast diffeomorphic image registration algorithm.Neuroimage, 38(1), 95113.
46. Sørensen, T. (1948). A method of establishing groups of equal amplitude in plant sociology based on similarity of species and its application to analyses of the vegetation on Danish commons. Biol. Skr., 5, 134.
47. Dice, L. R. (1945). Measures of the amount of ecologic association between species. Ecology, 26(3), 297302.
48. Andersson, J. L., Skare, S., & Ashburner, J. (2003). How to correct susceptibility distortions in spinecho echoplanar images: application to diffusion tensor imaging. Neuroimage, 20(2), 870888.
49. Stejskal, E. O., & Tanner, J. E. (1965). Spin diffusion measurements: spin echoes in the presence of a time‐dependent field gradient. The journal of chemical physics, 42(1), 288292.
50. Furutani, K., Harada, M., Minato, M., Morita, N., & Nishitani, H. (2005). Regional changes of fractional anisotropy with normal aging using statistical parametric mapping (SPM). The Journal of Medical Investigation, 52(34), 186190.
51. Jones, D. K., Symms, M. R., Cercignani, M., & Howard, R. J. (2005). The effect of filter size on VBM analyses of DTMRI data. Neuroimage, 26(2), 546554.
92
52. Smith, S. M., Fox, P. T., Miller, K. L., Glahn, D. C., Fox, P. M., Mackay, C. E., ... & Beckmann, C. F. (2009). Correspondence of the brain's functional architecture during activation and rest. Proceedings of the National Academy of Sciences, 106(31), 1304013045.
53. Collignon, A., Maes, F., Delaere, D., Vandermeulen, D., Suetens, P., & Marchal, G. (1995, June). Automated multimodality image registration based on information theory. In Information processing in medical imaging (Vol. 3, No. 6, pp. 263274).
93