Facultad de Ciencias Exactas - UNICEN

93
Universidad Nacional del Centro de la Provincia de Buenos Aires Facultad de Ciencias Exactas Técnicas de análisis y cuantificación en imagen médica en el estudio de enfermedades neuronales Trabajo final de la carrera de Ingeniería de Sistemas Delfina Braggio Director: Ignacio Larrabide Tandil, Marzo de 2016 1

Transcript of Facultad de Ciencias Exactas - UNICEN

Page 1: Facultad de Ciencias Exactas - UNICEN

Universidad Nacional del Centro de la Provincia de Buenos Aires

Facultad de Ciencias Exactas

Técnicas de análisis y cuantificación en imagen médica en el estudio de enfermedades neuronales

Trabajo final de la carrera de

Ingeniería de Sistemas

Delfina Braggio

Director:

Ignacio Larrabide

Tandil, Marzo de 2016

1

Page 2: Facultad de Ciencias Exactas - UNICEN

Índice de contenido

Capítulo 1: Introducción y motivación…………………………………………….. 4 Conocimientos aplicados en el desarrollo de este trabajo…………………....6

Estructura del trabajo…………………………………………………………...7

Capítulo 2: Marco teórico……………………………………………………………. 8 Capítulo 3: Análisis de datos de DTI……………………………………………….. 17

Materiales y metodología……………………………………………………….18

Metodología……………………………………………………. ……… 18

Materiales…………………….…………………………………………19

Análisis de datos……………………………………………………….. 21

Capítulo 4: FSL……………………………... ………………………………………... 24 Sobre la herramienta…………………………………………………………... 24

Flujo de trabajo…………………………………………………………………. 25

Corrección de distorsiones……………………………………………..25

Extracción del parénquima cerebral………………………………….. 29

Cálculo de autovalores y autovectores………………………………..33

Análisis estadístico…………………………………………………….. 35

Preparación de los datos: TBSS ……………………………..35

TBSS_1_preproc……………………………………... 36

TBSS_2_reg…………………………………………...38

TBSS_3_postreg……………………………………... 39

TBSS_4_prestats……………………………………...41

Comparación entre hemisferios en TBSS…………...43

GLM y randomise……………………………………………....44

GLM…………………………………………………….44

Randomise……………………………………………..45

Capítulo 5: SPM………………………………………………………………………...47 Sobre la herramienta…………………………………………………………....47

Flujo de trabajo…………………………………………………………………..48

Corrección de distorsiones……………………………………………..48

Extracción del parénquima cerebral…………………………………...51

Cálculo de autovalores y autovectores………………………………...54

2

Page 3: Facultad de Ciencias Exactas - UNICEN

Análisis estadístico…………………………………………………….. 56

Preparación de los datos……………………………………... 56

Corresgistracion………………………………………. 57

Creación del template………………………………....58

Registración con el template………………………….60

Creación de máscara………………………………… 62

Suavizado……………………………………………... 62

Cálculo de estadísticas………………………………………...63

Capítulo 6: Comparación entre herramientas……………………………………..68 Comparación de la arquitectura………………………………………………..68

Codificación…………………………………………………………………….. 69

Comparación de resultados…………………………………………………….70

Corrección de distorsiones……………………………………………. 70

Extracción de parénquima cerebral………………………………….. 73

Cálculo de autovalores y autovectores………………………………..76

Análisis estadístico…………………………………………………….. 79

Atributos de calidad……………………………………………………………..81

Eficiencia……………………………………………………………….. 82

Capítulo 7: Conclusiones……………………………………………………………..86 Trabajos futuros…………………………………………………………………87

Bibliografía…………………………………………………………………………….. 89

3

Page 4: Facultad de Ciencias Exactas - UNICEN

Capítulo 1: Introducción y motivación

Las técnicas de adquisición de imágenes médicas generan grandes volúmenes de

datos. Estos datos requieren de herramientas especializadas para poder ser almacenados,

transmitidos y, principalmente, analizados. A partir de su análisis se puede proveer gran

cantidad de información respecto de la salud de una persona, así como de riesgos o

posibles alternativas de tratar una enfermedad. Es de gran importancia el desarrollo de

técnicas informáticas que faciliten el análisis de los datos generados, de forma rápida y

eficiente, facilitando el trabajo del personal médico. Gracias a este tipo de herramientas se

puede realizar un análisis minucioso y profundo de gran cantidad de imágenes en poco

tiempo, destacando aquellos aspectos de importancia a nivel sanitario para un posterior

análisis médico. Además, gracias a su eficiencia, estas herramientas consiguen realizar

estudios generales, sobre grupos de individuos, logrando así encontrar interrelaciones entre

aspectos médicos, biológicos y, por ejemplo, geográficos. Este tipo de interrelaciones son

muy complejas, además de lentas, de reconocer sin la ayuda de alguna herramienta que

automatice el estudio de las imágenes.

En los últimos años, el uso de técnicas avanzadas de imagen médica han permitido

explorar con mayor detalle la anatomía y el funcionamiento del cerebro humano. Por

ejemplo, el uso de imagen de resonancia magnética (MRI) tanto de anatomía como de

función, permite estudiar las conectividad entre diferentes regiones del cerebro, tanto en

humanos como en animales. Adicionalmente, otros estudios como Angiografía

intervencionista intracraneal (Interventional Angiography), Tomografía Computarizada (CT)

y Tomografía Computacional de Perfusión (Perfusion CT) permiten obtener información muy

detallada de la composición de los tejidos y su función.

La imagen mediante resonancia magnética de difusión (DW­MRI) junto con la

tractografía han mostrado gran potencial para la investigación in­vivo de la arquitectura de la

materia blanca, especialmente debido a los avances en desarrollo de técnicas para el

modelado de datos. Muchas aplicaciones clínicas (desórdenes neurodegenerativos,

desórdenes psiquiátricos, planeamiento prequirúrgico, entre otros) emplean imágenes de

difusión en conjunto con la convencional resonancia magnética. [2]

Hoy en día DW­MRI es la única técnica no invasiva capaz de lograr una imágen de

la materia blanca del cerebro humano. Su éxito proviene de su capacidad de describir

acertadamente la geometría e integridad de la micro­estructura subyacente. DW­MRI logra

4

Page 5: Facultad de Ciencias Exactas - UNICEN

capturar la difusión promedio de las moléculas de agua, que sondean la estructura biológica

de los tejidos a escalas mucho menores que la resolución de la imágen. [3]

El uso de este tipo de imágenes es muy amplio, ya sea en la clínica o en la

investigación. A través de ellas podemos desde explorar la integridad tisular, hasta inferir las

zonas que se activan ante determinado proceso cognitivo, pasando por la posibilidad que

brindan para determinar cómo están conectadas anatómica/funcionalmente unas y otras

zonas del cerebro [4]. Se podría afirmar que la información que esta técnica nos ofrece es

tan rica y variada, que por ahora las limitaciones a su uso no son otras que las que imponga

nuestro ingenio en la definición de nuevas metodologías para el análisis e interpretación del

enorme caudal de datos que nos ofrece la MRI [4].

Más allá de estas imágenes, se presentan muchos desafíos al momento de

analizarlas: los datos “contenidos” en ellas son diversos, y requieren de un análisis profundo

para poder obtener información acertada de ellos.

Es por eso que es necesario el análisis, desarrollo y evaluación de distintas técnicas

que puedan ayudar a analizar e interpretar el enorme caudal de datos que nos ofrece la

MRI, lo que permitirá estudiar correlaciones entre la conectividad cerebral y procesos

cognitivos tanto en salud como en enfermedad.

Como se dijo anteriormente, son diversas las enfermedades neurológicas que

pueden obtener un beneficio en su tratamiento mediante el análisis de distintos tipos de

imágenes. Gracias a un buen análisis de imagen neurológica se pueden detectar

enfermedades, hacer un seguimiento durante el tratamiento de la enfermedad, se pueden

planear cirugías entre muchas otras aplicaciones.

En este trabajo se tomaron dos herramientas especializadas en el análisis de

imágenes neurológicas para realizar una comparación entre ellas. Para poder contrastar su

desempeño, se tomó un dataset adecuado con imágenes correspondientes a estudios

neurológicos realizados en el marco del proyecto de conectoma humano (the human

connectome project, http://www.humanconnectome.org/). Estas imágenes, fueron

procesadas por ambas herramientas, siguiendo un flujo de trabajo similar con cada una de

ellas. Con esto se logró comparar los resultados obtenidos en cada instancia del

procesamiento y, por consiguiente, se pudieron contrastar las herramientas según distintos

atributos.

Las herramientas elegidas son SPM (http://www.fil.ion.ucl.ac.uk/spm/) y FSL

(http://fsl.fmrib.ox.ac.uk/fsl), ambas son paquetes de software para el análisis de

5

Page 6: Facultad de Ciencias Exactas - UNICEN

neuroimágenes. Presentan una amplia variedad de módulos especializados en las distintas

modalidades de imágenes y son ampliamente utilizadas en el ambiente de imágenes

neurológicas.[13]

Para poder seguir una línea de trabajo clara en el desarrollo de este trabajo, se eligió

un trabajo de investigación y se replicaron algunos de sus pasos (“Contribución de las

imágenes de resonancia magnética por tensor de difusión al diagnóstico de displasias

corticales focales” realizado por Juan P. Princich, et. al.)[28]. De esta forma, los pasos

seguidos corresponden a los procesos realizados habitualmente en el ambiente de la

neuroimagen y, por consiguiente, las pruebas sobre las herramientas no son aisladas sino

que siguen un proceso claro y secuencial.

Este trabajo toma importancia no sólo por su contenido, sino que también busca

formar una base teórica para poder lograr una especialización en la temática tratada en

posteriores estudios de postgrado.

Conocimientos aplicados en el desarrollo de este trabajo

Durante el desarrollo de este trabajo, se han logrado aplicar los conocimientos

adquiridos a lo largo de la carrera. Diversas materias se vieron involucradas en este trabajo.

Tanto para comprender la adquisición de las imágenes de resonancia magnética y las

transformaciones aplicadas a las imágenes, como para introducir el uso de MATLAB, y

comprender la arquitectura y los procesos de las herramientas. Se han aplicado

conocimientos de:

Análisis matemático

Álgebra lineal

Programación

Física

Ciencias de la computación

Electricidad y magnetismo

Probabilidades y estadística

Teoría de la información

Diseño de sistemas de Software

Taller de imágenes médicas

6

Page 7: Facultad de Ciencias Exactas - UNICEN

Estructura del trabajo

A continuación se presenta un resumen de cómo está estructurado el trabajo.

En el capítulo 2 de este trabajo se presenta un marco teórico, con una revisión de

aquellos conceptos necesarios para el entendimiento de la temática.

En el capítulo 3 se presenta con más detalle el dataset elegido y el trabajo de

investigación que se desea replicar.

Luego, en los capítulos 4 y 5 se presentan los detalles del desarrollo del trabajo en

las dos herramientas probadas. Ambos capítulos presentan la misma estructura y en ellos

se detallan los pasos seguidos durante el trabajo, las características de cada herramienta y

los resultados obtenidos durante las pruebas realizadas.

En el capítulo 6 se presenta una comparativa de las herramientas. Se destacan

aspectos generales de ellas y, en particular, se comparan los resultados obtenidos luego de

cada paso del procesamiento.

Por último, en el capítulo 7 se exponen las conclusiones del trabajo realizado y

futuros trabajos relacionados.

7

Page 8: Facultad de Ciencias Exactas - UNICEN

Capítulo 2: Marco teórico El sistema nervioso central está comprendido de células neuronales conectadas

entre sí mediante axones, que funcionan como líneas de transmisión entre diferentes

regiones neuroanatómicas. El entendimiento de cómo el cerebro y la médula espinal

funcionan no es posible sin el conocimiento de cómo las diferentes regiones anatómicas

están conectadas entre sí. [22]

Comparado con la materia gris, la materia blanca ha sido dejada de lado en el

estudio del cerebro. La tendencia a dejarla de lado es debido, particularmente, a que el

mayor desarrollo de funciones cognitivas y emocionales está dado por parte de la corteza

cerebral. La materia blanca atrae menos consideración porque ha sido percibida por tener

un rol de soporte fisiológico y su anatomía fue siempre menos entendida. Se le ha dado

mucha importancia a la corteza cerebral por su fuerte relación con la inteligencia, la

memoria, el lenguaje, la función ejecutiva y la personalidad. A pesar de esto, la materia

blanca también amerita la atención de los neurocientíficos, no sólo porque sirve para

conectar las distintas partes de la corteza cerebral entre sí, sino también porque es blanco

de numerosas y diversas patologías.

La materia blanca forma parte de casi el 50% del encéfalo y eso es razón suficiente

para ser tenida en cuenta. El número de desórdenes cerebrales en los que la materia

blanca está parcial o exclusivamente involucrada pasan la centena y, sin excepción, todos

ellos tienen la capacidad de ejercer un impacto dañino en la función cognitiva o emocional.

[23]

Entre los aspectos más beneficiados con el estudio de la materia blanca se

encuentra el diagnóstico médico. La Imagen de resonancia magnética (MRI) se ha

convertido en el principal método para diagnosticar enfermedades tales como la esclerosis

múltiple y, con el constante avance en el estudio y desarrollo de técnicas de DTI, se puede

esperar mejoras en el diagnóstico de distintas neuropatologías. A partir de esto se puede

mejorar el tratamiento del paciente, si se conoce la etiología, localización, extensión e

impacto de las lesiones en la materia blanca. Los médicos clínicos estarán habilitados para

evaluar síntomas y señales en pacientes conociendo las lesiones específicas, pudiendo así

conocer relaciones entre el cerebro y el comportamiento humano. Además va a mejorar

nuestro conocimiento global del funcionamiento del cerebro, pudiendo conocer la conexión

entre la materia gris y la blanca. [23]

8

Page 9: Facultad de Ciencias Exactas - UNICEN

La imágen de resonancia magnética (MRI) apareció en 1980 e inmediatamente

mejoró la imágen clínica de la materia blanca. En contraste con la tomografía computada, la

resonancia magnética provee vistas detalladas de la materia blanca del cerebro y la médula

espinal, lo cual no sólo clarificó características de enfermedades conocidas (como la

esclerosis múltiple) sino que también habilitó el descubrimiento de nuevas (como la

enfermedad de desaparecimiento de materia blanca (VWM). [23]

En los 90´ el ritmo continuo de descubrimiento, llevó a la aparición de la MRI de

difusión (DW­MRI) [23]. Debido a que la DW­MRI usa una tecnología de imagen rápida, es

altamente resistente al movimiento del paciente, y el tiempo de formación de imágenes

varía desde unos pocos segundos a 2 minutos. Como consecuencia, la DW­MRI ha

asumido un papel esencial en la detección de infarto cerebral agudo y en la diferenciación

de infarto agudo de otros procesos de enfermedad. [18]

La DW­MRI proporciona información potencialmente única sobre la viabilidad del

tejido cerebral. Proporciona contraste visual que depende del movimiento molecular del

agua, el cual puede ser alterado sustancialmente por distintas enfermedades. La principal

aplicación de la DW­MRI ha estado en las imágenes cerebrales. [18]

Como se dijo anteriormente, la DW­MRI es un tipo de MRI basada en la medición del

movimiento de las moléculas de agua en un voxel de tejido. La difusión ocurre como el

resultado del constante movimiento de las moléculas de agua. El agua compone entre el 60

y el 80 por ciento de nuestro peso corporal y el calor asociado con nuestra temperatura

corporal energiza las moléculas de agua haciéndolas sacudirse azarosamente. Este

fenómeno es llamado movimiento browniano [17]. El incesante movimiento de las moléculas

de agua en un tejido es influenciado por una variedad de factores tales como restricciones

debidas a las membranas celulares, citoesqueleto o macromoléculas [22]. Empleando el

conocimiento de cómo las características microestructurales contribuyen al proceso

difusional general, es posible obtener información valiosa sobre la microestructura biológica

simplemente observando el movimiento de las moléculas de agua. [22]

9

Page 10: Facultad de Ciencias Exactas - UNICEN

Figura 1. Esquema con funcionamiento básico de la imagen de resonancia magnética

Para sensibilizar la adquisición de la resonancia magnética de manera que se

detecten los movimientos de las moléculas de agua se aplican gradientes intensos en el

campo de imagen. Cuando las moléculas de agua atraviesan dichos gradientes

experimentan cambios de fase que dependen de su dirección y velocidad. Dichos cambios

de fase se traducen en un aumento o disminución de la señal (ver figura 1) [15].

Para obtener una imagen ponderada en difusión se aplican pulsos de gradiente de

difusión en una secuencia de pulso de RM convencional. La intensidad de la imagen

depende de la difusividad efectiva de las moléculas marcadas en el volumen excitado [15].

En este tipo de imágenes, tanto la densidad de protones (PD) como los tiempos de

relajación T1 y T2 y el coeficiente de difusión (D) son ampliamente usados. La densidad de

protones representa la concentración de agua. T1 y T2 son los tiempos de relajación de la

señal después de la excitación y están relacionados con factores ambientales como

viscosidad o presencia de macromoléculas cercanas. El término de difusión D representa al

movimiento browniano de las moléculas de agua.

La ecuación 1 es una ecuación simplificada del aporte de los distintos factores a la

señal S captada por la resonancia magnética:

10

Page 11: Facultad de Ciencias Exactas - UNICEN

(1)D(1 )e e S = P − e −TR/T1 −TE/T2 −bD

Donde TR y TE representan el tiempo de excitación y el periodo de preparación

respectivamente, y b es el factor de difusión.

Si se obtienen dos imágenes con diferente b (b1 y b2), pero los demás parámetros

(TR y TE) se mantienen iguales, se puede deducir el valor de D a partir de los valores de

señal obtenidos (S1 y S2):

(2)− n ( )/(b2/b1)D = l S1S2

Donde la fórmula de b es la siguiente:

G δ (Δ /3)b = γ2 2 2 − δ

Siendo el cociente giromagnético, G es la fuerza del gradiente aplicado, la γ δ

duración del mismo y el tiempo entre dos pulsos [49].Δ

Figura 2. Diagrama esquemático que explica la relación entre el movimiento del agua y la aplicación de los gradientes. Cada círculo representa moléculas de agua en distintos lugares de un pixel. Los vectores en los círculos representan la fase de la señal. Si las moléculas se mueven durante la aplicación de los gradientes, el segundo gradiente no puede alinear perfectamente las fases de las moléculas, lo cual lleva a una pérdida de señal. En este caso, los movimientos verticales (paralelos al gradiente aplicado) no llevan a pérdida de señal.

Dado que las moléculas de agua tienden a difundirse más libremente a lo largo de

la dirección de las fibras neuronales, si se puede cuantificar la orientación de preferencia de

11

Page 12: Facultad de Ciencias Exactas - UNICEN

difusión, entonces esto se puede relacionar con la orientación axonal. Uno de los aspectos

más significativos en los estudios de difusión por resonancia magnética es que siempre se

detecta el movimiento molecular a lo largo de un eje predeterminado, que está fijado por la

orientación del gradiente de campo aplicado. Todas las máquinas de MRI están equipadas

con tres gradientes ortogonales llamados X, Y y Z. Combinando estos tres gradientes puede

calcularse cualquier eje arbitrario. [22]

Por otro lado, al variar el valor de la variable b, la intensidad de la señal captada por

el resonador cambia. La forma más intuitiva para cambiar su valor es agrandando la

separación entre dos pulsos de gradiente. Cuanto más grande es esta separación, más

tiempo tiene el agua para moverse libremente, lo cual lleva a más pérdida de señal.

Aplicando distintos gradientes, se puede entonces calcular un mapa de coeficientes

de difusión o mapa de coeficiente de difusión aparente (ADC) en el que la intensidad de

cada píxel es proporcional al grado de difusión en él [24].

En tejidos como la materia gris, donde la difusividad medida a nivel voxel es

independiente de la orientación del tejido (isotrópica), es común describir la características

de difusión con sólo un escalar (ADC). En cambio, en medios anisotrópicos, como la

materia blanca donde la difusividad medida es conocida por depender de la orientación del

tejido, un solo ADC no caracteriza adecuadamente la movilidad, ya que este varía según la

orientación del gradiente aplicado [22]. Para evitar la medición de difusión a lo largo de

miles de ejes (lo cual sería necesario para encontrar el eje donde la difusión es máxima)

surge un modelo en el que las mediciones respecto a distintos ejes son representadas por

un elipsoide 3D.

12

Page 13: Facultad de Ciencias Exactas - UNICEN

Figura 3. Comparación esquemática de valores de anisotropía fraccional según el movimiento del agua.

Si el agua está confinada en un sistema alineado homogéneamente podemos

asumir que el proceso de difusión dibuja una elipse en la que el eje mayor está alineado con

la orientación de las fibras. Las propiedades de este elipsoide: el largo del mayor, mediano y

menor eje (autovalores 1, 2 y 3) y sus orientaciones (autovectores v1, v2 y v3) pueden λ λ λ

ser definidos con 6 parámetros. Para convertir los resultados de las mediciones a estos 6

parámetros es utilizada una matriz simétrica de 3x3 llamada tensor [15].

Figura 4. Representación geométrica del tensor de difusión

Una vez que estos 6 parámetros son obtenidos para cada pixel, se pueden generar

distintas métricas. Existen múltiples formas para caracterizar la difusión anisotrópica, uno de

los parámetros más empleados en la práctica habitual es la anisotropía fraccional (FA).

La anisotropía fraccional es un valor escalar comprendido entre 0 y 1 que describe

el grado de anisotropía del proceso de difusión. El valor 0 indica que la difusión es isotrópica

(sin ninguna orientación preferible), un valor 1 significa que la difusión ocurre a lo largo de

13

Page 14: Facultad de Ciencias Exactas - UNICEN

un sólo eje. La anisotropía fraccional (FA, de su nombre en inglés) es calculada a partir de

los autovalores λ1, λ2, y λ3 del tensor de difusión.

Su fórmula es la siguiente: A F = √21

√λ1 +λ2 +λ3 2 2 2√(λ1−λ2) +(λ2−λ3) +(λ3−λ1) 2 2 2

Como puede notarse a partir de su fórmula, la anisotropía fraccional es una medida

de la anisotropía de la difusión, pero es un escalar independiente de la dirección, sólo

representa que tan fuertemente direccionada es la difusión en ese punto en particular.

El estudio sobre los valores de anisotropía fraccional en las distintas regiones de la

materia blanca ha sido tema de estudio en relación a diversas enfermedades neurológicas.

Estudios han demostrado que existe una correlación entre los valores de FA y la presencia

de esclerosis múltiple en pacientes; además estos valores presentan una correlación con la

discapacidad presente en los individuos, lo que sugiere que el monitoreo de la anisotropía

fraccional puede servir como un control más del avance de la enfermedad [25].

También hay estudios que han encontrado relación entre los valores de FA y los

desórdenes bipolares, sugiriendo una disminución de la anisotropía fraccional en la región

prefrontal como una evidencia temprana de trastorno bipolar en el paciente [26].

Existen también estudios que sugieren un crecimiento en los valores de anisotropía

fraccional en distintas regiones de la materia blanca, durante el aprendizaje de nuevas

habilidades [27].

La dMRI ha sido extendida al estudio de neuroanatomía y neuropatología y la

imagen de tensores de difusión (DTI) ha emergido como una importante nueva técnica para

la caracterización precisa de las estructuras cerebrales en el cerebro tanto sano como

enfermo.

Además de los estudios de FA existen diversas aplicaciones de la imagen de

difusión. Una de las más importantes y que presenta un futuro prometedor es el cálculo de

la tractografía. La tractografía es una técnica de modelado que representa una

reconstrucción de los tractos neuronales a partir de la información contenida en las

imágenes de tensor (DTI). Esta modalidad saca provecho de la direccionalidad de los

tensores de la DTI y, a partir de diversos algoritmos, reconstruye los tractos de materia

blanca del cerebro.

14

Page 15: Facultad de Ciencias Exactas - UNICEN

Figura 5. Visualización gráfica del funcionamiento del algoritmo básico de reconstrucción de

tractografía.

Es una técnica nueva, y todavía presenta grandes desafíos al momento de

reconstruir las fibras, especialmente en aquellas zonas en que se presentan cruces de

tractos. Es por esto que es motivo de investigación, y que constantemente surgen nuevos

avances en el campo. Las aplicaciones que conlleva la creación de la tractografía son muy

variadas: pueden servir para la planificación de cirugías neurológicas, para estudiar el

impacto de enfermedades neuronales y, sobre todo, para aprender sobre la conectividad en

el cerebro. Con la aparición de avances en esta área, se puede establecer qué partes

funcionales de la materia gris están conectados con cuáles, pudiendo entender de manera

más global el funcionamiento del cerebro.

Figura 6. Ejemplo de la visualización de una tractografía, coloreada para poder intuir

direccionalidad.

15

Page 16: Facultad de Ciencias Exactas - UNICEN

Tanto para poder reconstruir los tractos de manera fiel como para poder establecer

una relación entre la FA y las distintas patologías, es necesario poder automatizar el estudio

de las imágenes DW­MRI. El avance en este campo está fuertemente ligado a la tecnología

y es de suma importancia la aparición y desarrollo de distintos métodos, algoritmos y

herramientas que facilitan y automatizan el análisis de las imágenes, permitiendo así sacar

el máximo provecho a los datos contenidos en ellas.

Existen diversas herramientas que facilitan el estudio de este tipo de imágenes, las

cuales proveen facilidades para la comparación y el análisis de correlación entre distintos

factores. Estas herramientas presentan paquetes con facilidades para las distintas etapas

del procesamiento y análisis de imágenes médicas. Más específicamente, en el caso de las

DW­MRI, estas herramientas cuentan con funcionalidades especializadas en el

preprocesamiento, registración y segmentación de imágenes. Facilitan la reconstrucción de

los tensores de difusión y de los mapas de FA y cuentan además con herramientas

especializadas en el análisis estadístico de ellos, ya sea comparando valores de un mismo

paciente a través del tiempo, grupos de control con grupos de pacientes, o cualquier

agrupación sobre la cual se quiera realizar algún estudio.

Teniendo en cuenta esto, en este trabajo se tomaron dos herramientas

especializadas en el análisis de imágenes neurológicas para realizar una comparación entre

ellas. Se tomaron las mismas imágenes y se aplicó el mismo flujo de trabajo en ellas con

ambas herramientas, comparando paso a paso los resultados obtenidos. Además se realizó

una comparación general de las herramientas, teniendo en cuenta otros aspectos, tales

como los atributos de calidad. En particular, se realizó todo el procesamiento relacionado a

la comparación de los mapas de anisotropía fraccional de distintos pacientes siguiendo el

trabajo de investigación de otro grupo especializado en el tema [28]. A lo largo de este

preprocesamiento se tomaron distintas medidas y se fueron comparando los resultados

obtenidos con ambas herramientas para poder comparar su funcionamiento.

16

Page 17: Facultad de Ciencias Exactas - UNICEN

Capítulo 3: Análisis de datos de DTI

En este trabajo se hará una comparación entre dos herramientas utilizadas para el

análisis de imágenes neurológicas: FSL y SPM.

FSL es una biblioteca completa de herramientas de análisis para FMRI, MRI y DTI

creada por el grupo de análisis FMRIB en Oxford, UK. SPM es un kit de herramientas de

software académicas para el análisis de imágenes, desarrollado por el centro Wellcome

Trust de neuroimagen en UCL, Londres. En los siguientes capítulos se describirán de

manera más completa estas herramientas.

Estas herramientas fueron elegidas, ya que ambas son ampliamente usadas en el

ambiente de imágenes neurológicas [50] [51] [52]. Son de libre acceso y constan de un

conjunto de herramientas completo para el análisis de distintos tipos de imágenes de

resonancia magnética. Por otro lado, presentan un fuerte enfoque en lo que significa

comparación de imágenes agrupadas por distintas categorías, presentándose, ambas,

como una fuerte alternativa al momento de realizar investigaciones académicas.

Debido al incipiente crecimiento de investigaciones relacionadas con la imagen de

difusión (dMRI) y los hallazgos realizados relacionando distintos valores derivados de estas

imágenes (por ejemplo la anisotropía fraccional) es importante contar con herramientas que

faciliten estos estudios y sean capaces de inferir conclusiones válidas de manera eficiente.

Tanto FSL como SPM cuentan con módulos especializados en el análisis estadístico de

imágenes, permitiendo la comparación de grupos, comparación entre hemisferios

cerebrales o comparación de imágenes de un mismo individuo a través del tiempo. Gracias

a cualidades como estas es que ambas herramientas, a pesar de ser relativamente nuevas,

se encuentran fuertemente consolidadas en el ambiente de la neuroimagen.

A pesar de presentar cualidades similares, ambas herramientas presentan enfoques

distintos, cada una tiene sus fortalezas y sus limitaciones respecto a distintos criterios. Es

por eso que en este trabajo se decidió compararlas, para poder conocer sus alcances con

mayor profundidad y poder así utilizarlas de manera más fructífera en trabajos futuros

relacionados con el tema.

17

Page 18: Facultad de Ciencias Exactas - UNICEN

Materiales y metodología

Para poder contrastar ambas herramientas, sus cualidades, debilidades y distintos

usos, se tuvieron en cuenta distintos aspectos para compararlas, en primer lugar se

compararon ciertos aspectos generales de ellas tales como la plataforma sobre la que se

pueden ejecutar, formatos de imágenes aceptados, extensibilidad, etc.

Luego se decidió realizar un mismo trabajo en paralelo en ambas, contrastando los

resultados obtenidos con cada una de ellas. Por un lado se midió la eficiencia de ambas

herramientas a lo largo de todo el proceso; por otro se compararon los resultados obtenidos

a cada paso, teniendo en cuenta distintas medidas dependientes de los aspectos a

comparar.

Metodología

Para empezar, se eligió el trabajo “Contribución de las imágenes de resonancia

magnética por tensor de difusión al diagnóstico de displasias corticales focales” realizado

por Juan P. Princich et. al. [28]. En este trabajo se analizan las características de la

anisotropía fraccional en una serie de pacientes con displasia cortical focal (DCF), para

evaluar la contribución diagnóstica de la resonancia magnética de difusión

Se eligió como metodología de trabajo replicar parcialmente el análisis de datos

realizado por este estudio, el que servirá para lograr una introducción en el estudio científico

y sus metodologías, y poder así seguir una línea de investigación en trabajos futuros. Este

trabajo está enfocado en el análisis de la anisotropía fraccional, tema que presenta una

línea de investigación novedosa y prometedora. Además, en la sección “trabajos futuros” de

este paper en particular, se contaba con poder realizar el mismo análisis realizado, por

medio de estadísticas especializadas (TBSS o VBM) las cuales están disponibles en las

herramientas antes citadas y que sirven como un buen comienzo en el entendimiento de las

investigaciones relacionadas con imágenes de difusión.

En este trabajo de investigación se tomaron las imágenes neurológicas de 21

controles y 11 pacientes. El protocolo de obtención de las imágenes fue el siguiente: Se

escanearon todos los pacientes en un equipo RM de 1,5 T (Intera, Philips Medical Systems,

Best, Países Bajos) con bobina de cabeza de seis canales, factor SENSE de 2, en una

secuencia single shot diffusion­weighted tipo ecoplanar (TR/TE = 6.860/102 ms, matriz en

112 × 112, ancho de banda de 95 kHz, campo de visión 22 × 22 cm2), valor b de 800

s/mm2 aplicado secuencialmente en 32 direcciones de gradientes no colineales, entre 60­70

18

Page 19: Facultad de Ciencias Exactas - UNICEN

cortes axiales de 2 mm de espesor con una imagen en B0 sin aplicación de gradientes en

cada posición. Se obtuvieron tres adquisiciones sin gap, con un tiempo total promedio de

entre 13 y 16 minutos y una resolución final isotópica de 2 mm. También se incluyeron

secuencias estructurales T1 3D (spoiled gradient recovery volume TR/TE/TI = 9,2/4,2/450

ms, matriz 256 × 256, campo de visión de 256 × 256 mm2, espesor de 1 mm) con

resolución final isotópica de 1 mm.

Adicionalmente, todos los pacientes obtuvieron secuencias 2D FLAIR (TR/TE/TI =

10.000/147/2.200 ms, matriz 192 × 256, campo de visión de 24 × 24 cm2, y espesor de

corte entre 4 y 5 mm, sin gap) en planos axial y coronal.

Sobre las imágenes de difusión se realizó, resumidamente, la siguiente serie de

procesos:

Corrección de las distorsiones inducidas por corrientes eléctricas, utilizando

un algoritmo que determina la transformación afín óptima aplicada a cada

imagen de difusión.

Cálculo de los principales autovectores y autovalores a partir de las DTI,

generando mapas (imágenes volumétricas) de FA y difusividad media.

Corregistracion y modificación de las imágenes de FA según las

características comunes con las imágenes de T1 3D de alta resolución y con

las imágenes FLAIR.

Remoción de las estructuras extracraneales, y sobreimposición de los mapas

de FA de cada sujeto en un espacio común con las imágenes FLAIR y T1 3D

para visualizar en tres planos diferentes la relación con la DCF.

Filtrado de los umbrales de AF entre valores de 0,1 y 0,45 para eliminar la

organización más isotrópica de la corteza cerebral y facilitar la visualización

de la sustancia blanca.

Análisis visual de los mapas de AF, a cargo de dos neuro­radiólogos

experimentados.

Análisis estadístico: Los resultados se compararon apareados por edad,

sexo, tiempo de evolución y tipo de epilepsia, características imaginológicas

y de EEG, mediante las pruebas U de Mann­Whitney y análisis de chi al

cuadrado o ANOVA.

Materiales

Para poder reproducir parcialmente los pasos anteriores, en primer, lugar se buscó

un dataset adecuado. Como en este trabajo, el objetivo no es encontrar correlación entre la

19

Page 20: Facultad de Ciencias Exactas - UNICEN

DCF y los mapas de FA (como si lo es en el trabajo a reproducir) sino poder evaluar las

herramientas, sus usos y sus resultados, no fue necesario encontrar pacientes que

presentaron la enfermedad, ni tampoco fue necesario que el número de pacientes fuera

considerable. Teniendo en cuenta esto, se consiguieron las imágenes correspondientes a 4

pacientes. Los datos fueron adquiridos a través del equipo MGH­USC para el proyecto

“Human connectome project” y consisten a las imágenes de difusión de 35 adultos sanos.

Los datos fueron recogidos por un scanner Siemens 3T personalizado, el cual es un sistema

Skyra 3T modificado. Para la adquisición de datos fue utilizado un arreglo de bobinas

ceñidas al cerebro de 64 canales (64­channel, tight­fitting brain array coil).

Los pacientes corresponden a adultos sanos de entre 20 y 59 años. En la tabla

siguiente se muestran los géneros y las edades de los 4 pacientes seleccionados:

Paciente Género Rango de edad

P1 Masculino 30­34

P2 Femenino 25­29

P3 Masculino 35­39

P4 Femenino 25­29

Dentro del dataset, se cuenta tanto con imágenes estructurales como de difusión.

A continuación se muestra una tabla con los detalles de los protocolos de

adquisición de imagen de difusión.

Parámetro Valor

Secuencia Spin­echo EPI

TR/TE (ms) 8800/57

δ/Δ (ms) 12.9/21.8

FOV (mm) 210 x 210

Matriz 140 x 140

Cortes 96 cortes, 1.5mm de grosor, vóxeles isotrópicas de 1.5 mm de lado

iPAT 3

Factor multibanda 1

20

Page 21: Facultad de Ciencias Exactas - UNICEN

Espaciado de echo (ms) 0.63

BW 1984 Hz/Px

Phase Partial Forier 6/8

b­values 1000, 3000, 5000, 10,000 s/mm2

Tiempo de adquisición total 89 mins

Los escaneos de difusión fueron adquiridos en 5 corridas:

Nro de corrida

b­value (s/mm2)

Direcciones de difusión

Tiempo de adquisición(min:seg)

1 1,000 64 11:44

2 3,000 64 11:44

3 5,000 128 (set1) 21:51

4 10,000 128 (set1) 21:51

5 10,000 128 (set2) 21:51

Además, una imagen con b=0 fue obtenida cada 14 volúmenes de difusión, dejando

un total de 552 volúmenes.

Si bien la información es mucha, (6,8 Gb por paciente aproximadamente) se lo eligió

porque se presenta bastante completo y documentado por cada paciente, incorporando

también estudios anatómicos, que pueden, por ejemplo, ser útiles para el registro de los

resultados.

Para más detalles, la documentación completa de las imágenes se encuentran en la

siguiente página: http://humanconnectome.org/documentation/MGH­diffusion/

Análisis de datos

Una vez obtenidos los datos, y antes de reproducir el trabajo antes citado, se decidió

seleccionar una cantidad menor de volúmenes por paciente. Esto llevaría a facilitar el

procesamiento de las imágenes, ya que los 552 volúmenes por paciente originales

requerirían muchos recursos en su análisis. Se decidió tomar los primeros 28 volúmenes,

correspondientes a un valor de b=1000, a excepción del volumen 0 y el 14 que

corresponden a imágenes con un valor b=0, los cuales serán de utilidad para el

preprocesamiento.

21

Page 22: Facultad de Ciencias Exactas - UNICEN

Para poder seleccionarlos, primero se descompuso la imagen original en sus 552

volúmenes y luego combinar los primeros 28 en una nueva imagen. Para lograrlo se utilizó

la herramienta FSL, este proceso no se realizó en ambas herramientas ya que era

meramente práctico y no representaba un aspecto que se compararía entre ambas.

Además de modificar la imagen, se debieron modificar los archivos bval y bvec,

borrando aquellos valores que ya no corresponden, dejando sólo los primeros 28 valores.

Una vez que se lograron los datos deseados se pudo pasar a probar las distintas

herramientas.

Debido a que el trabajo que se desea replicar realiza las comparaciones de manera

principalmente visual, los pasos seguidos en esta tesis no son estrictamente iguales a los

del trabajo original sino que siguen su estructura principal e intentan lograr los mismos

resultados de manera automatizada.

El procedimiento ejecutado en cada herramienta se dividió en 4 pasos principales:

corrección de distorsiones, extracción de parénquima cerebral, cálculo de autovalores y

autovectores y análisis estadístico.

El primer paso (corrección de distorsiones) busca, justamente, corregir aquellos

artefactos comunes en las imágenes de resonancia magnética de difusión: el movimiento

del paciente y la presencia de corrientes de Foucalt. Los altos gradientes utilizados para

obtener las imágenes de difusión crean corrientes de Foucault en las partes conductoras del

imán, causando distorsiones geométricas en las imágenes de difusión dependientes,

principalmente, de la amplitud y dirección de los gradientes de difusión. Los efectos de

estas corrientes eléctricas dependen de la secuencia de pulsos, la calibración y el diseño

del scanner. Estos efectos, junto con los causados por los posibles movimientos de cabeza

del paciente durante la adquisición de las imágenes, pueden ser corregidos registrando las

imágenes de difusión con las imágenes que no presentan estas distorsiones. [21]

En el segundo paso se separa de las imágenes preprocesadas el parénquima

cerebral de los demás tejidos, para poder realizar los demás análisis sobre los tejidos

funcionales del cerebro. Esto generalmente se lleva a cabo por medio de la creación de una

máscara específica.

En el tercer paso se calculan los principales autovalores y autovectores de la imagen

de difusión (aquellos nombrados en el marco teórico) y además ciertas métricas

relacionadas como la difusividad media y la anisotropía fraccional.

Todos los pasos anteriores serían necesarios, también, para la creación de la

tractografía correspondiente a la imagen. En este caso, excede al alcance del trabajo, pero

es de importancia destacar que, como se dijo anteriormente, es un campo de investigación

22

Page 23: Facultad de Ciencias Exactas - UNICEN

en crecimiento y muy innovador en lo que se refiere al conocimiento de la conectividad del

sistema nervioso.

El último paso es el que más se distingue entre las dos herramientas y se

corresponde al análisis estadístico de la anisotropía fraccional de las imágenes. Ambas

herramientas presentan un enfoque distinto, como se verá en las secciones

correspondientes. Básicamente se agruparon los pacientes en dos grupos arbitrarios y, por

medio del análisis de los valores de anisotropía fraccional, se buscaron en qué zonas de la

materia blanca se diferencian entre ellos. Los resultados se muestran mediante imágenes

de las zonas diferentes entre grupos y, además, se contrasta lo obtenido con las dos

herramientas destacando sus diferencias.

23

Page 24: Facultad de Ciencias Exactas - UNICEN

Capítulo 4: FSL

Sobre la herramienta

FSL (FMRIB Software Library) es una librería completa de herramientas de análisis

de imágenes neurológicas de diverso tipo: MRI estructural, funcional y de difusión. Fue

escrita, desde 1998, principalmente por los miembros del grupo de análisis FMRIB de

Oxford.

Está disponible una versión pre­compilada para descargar para los sistemas

operativos más comunes, y también está disponible el código fuente para ser compilado por

el usuario. Los sistemas operativos sobre los que corre son basados en UNIX, para que

funcione sobre windows es necesario hacerlo a través de una máquina virtual.

Está disponible de manera gratuita para su uso académico y no­comercial. Sólo se

cobra su uso a aquellos usuarios que tengan provecho económico a partir de su uso.

Está desarrollada en base a C++/UNIX. Sus principales razones de diseño fueron la

velocidad, modularidad y portabilidad que esta combinación les aportaba.

Presenta una interfaz de usuario para casi todos sus módulos, simple de usar, y la

cual, simplemente, organiza la ejecución de líneas de comando individuales [29].

Los formatos de imagen aceptado por defecto es NIFTI­1, aunque además puede

leer otros formatos menos vigentes como los siguientes:

ANALYZE: Par .hdr .img (encabezado con información e imagen)

ANALYZE_GZ: formato analyze comprimido

NIFTI_PAIR: Nuevo formato NIFTI­1, usando un par de encabezado e

imagen por cada imagen 3D/4D.

NIFTI: formato NIFTI­1 en un sólo archivo .nii (que tiene la información de

encabezado al principio, seguido por los datos de imagen.

NIFTI_GZ y NIFTI_PAIR_GZ: NIFTI y NIFTI_PAIR comprimidos.

Debido al amplio abanico de herramientas libres que realizan la conversión del

formato .dcm a .nii (dcm2nii tool, mri_convert y MRIConvert, entre otros) esta herramienta

no consta de ningún módulo que realice esa conversión, ni tampoco acepta imágenes con

esa extensión.

Esta herramienta cuenta con un amplio número de módulos, que implementan

facilidades, especializados en el análisis y procesamiento de los distintos tipos de

resonancias magnéticas, módulos especializados en el análisis estadístico y otro grupo de

24

Page 25: Facultad de Ciencias Exactas - UNICEN

herramientas más generales, especializadas en la visualización, reducción de ruido,

visualización de atlas, entre otros.

A continuación se muestra el listado completo de módulos presentes en la

herramienta:

MRI funcional: FEAT, MELODIC, FABBER, BASIL, VERBENA

MRI estructural: BET, FAST, FIRST, FLIRT & FNIRT, FSLVBM, SIENA & SIENAX,

fsl_anat

MRI de difusión: FDT, TBSS, EDDY, TOPUP

GLM / estadísticas: GLM general advice, Randomise, Cluster, FDR, Dual

Regression, Mm, FLOBS

Otras: FSLView, Fslutils, Atlases, Atlasquery, SUSAN, FUGUE, MCFLIRT, Miscvis,

POSSUM, BayCEST

Flujo de trabajo

A continuación se presenta, en distintas secciones, el flujo de trabajo realizado con

la herramienta, detallando aspectos de los módulos utilizados y los resultados obtenidos

luego de aplicar cada uno de ellos.

Corrección de distorsiones

Los artefactos más comunes en las imágenes de difusión son debidos a las

corrientes de Foucault (o llamado también eddy current) y al movimiento de cabeza por

parte del paciente durante el tiempo de adquisición de la imagen.

La herramienta FSL presenta de dos herramientas especializadas en la corrección

de este tipo de artefactos dentro del módulo FDT: los sub­módulos eddy_correct y eddy

[30]. El primero (que fue el utilizado en este trabajo) puede ser utilizado a través de una

interfaz gráfica de usuario y por línea de comando, el último sólo por comando.

Cabe destacar, como se aclaró antes, que en FSL la mayoría de los módulos

presentan una interfaz gráfica de usuario. Estas GUI cumplen la función de mejorar la

usabilidad de la herramienta, dándole la facilidad al usuario de no tener que memorizar ni

lidiar con líneas de comando, las cuales pueden ser más tediosas en su uso. Pero estas

interfaces cumplen sólo esa función, no agregan funcionalidad extra y no existen facilidades

que estén presentes en alguna GUI pero no por línea de comando. En cambio, algunos de

los módulos (incluyendo algunos de los ejecutados para el desarrollo de este trabajo) sólo

25

Page 26: Facultad de Ciencias Exactas - UNICEN

pueden ser ejecutados por comando sin tener, todavía, una interfaz gráfica que haga más

ameno su uso.

Por otro lado, dejando de lado la usabilidad, el hecho de que la ejecución de los

módulos de esta herramienta estén ligados a líneas de comando UNIX, facilita el

procesamiento de imágenes en muchos puntos. La naturaleza de estos comandos (los

cuales permiten el procesamiento de forma de pipeline, facilitan la manipulación de archivos

y, entre otras cosas, aceptan el uso de gramáticas regulares para establecer nombres de

archivos) facilita la automatización de los procesamientos sobre imágenes. Por ejemplo, si

ya se conoce una serie de procesos óptimos a ejecutar sobre un grupo de imágenes, se

puede crear un comando que lo haga de forma automática, sin tener que hacerlo de forma

“manual” sobre cada una de las imágenes.

Volviendo a los comandos utilizados para la corrección de las distorsiones, como se

dijo anteriormente, FSL presenta la herramienta eddy_correct y eddy

Eddy_correct

El comando utilizado en este trabajo fue eddy_correct. Es más simple que el

comando eddy [30] (el cual se explicará brevemente en los siguientes párrafos) y presenta

tanto una interfaz gráfica de usuario (ver figura 7) como su alternativa vía comandos.

Figura 7: Interfaz gráfica de usuario del módulo de FSL, eddy_correct

No presenta muchos parámetros de entrada: sólo la imagen que se quiere corregir y

el volumen de referencia para las registraciones. Como volumen de referencia se utilizó el

volumen 0, que no corresponde a una imagen de difusión, sino que tiene valor b=0. Esto es

recomendable ya que cuanto menor es el valor de b, menores son las distorsiones

generadas durante la adquisición.

26

Page 27: Facultad de Ciencias Exactas - UNICEN

La línea de comando correspondiente es eddy_correct y tiene la siguientes

estructura:

eddy_correct <4dinput> <4doutput> <reference_no> [<interp>]

Como se mencionó antes, una alternativa es el siguiente comando:

eddy ­­monsoon

Argumentos obligatorios:

­­imain: Archivo con todas las imágenes de las cuales se estimarán

las distorsiones.

­­mask: Máscara del cerebro.

­­index: Archivo con los índices de todos los volúmenes de imain,

acqp y topup

­­acqp: Archivo con los parámetros de adquisición

­­bvecs : Archivo con los b­vectores de los volúmenes de imain

­­bvals: Archivo con los b­valores de los volúmenes de imain

­­out: nombre de la salida

Argumentos opcionales:

­­session: Archivo que contiene los índices de sesión para todos los

volúmenes en ­­main

­­topup: Nombre base para los archivos de salida de topup

­­flm: primer nivel de modelo EC (linear/ quadratic/ cubic)

­­fwhm: FWHM para el filtro condicional al estimar los parámetros

­­niter: Número de iteraciones (por defecto 5)

­­resamp: método de remuestreo final (jac / LSR)

­­repol: Detectar y reemplazar rebanadas atípicos

En este trabajo en particular, no se puede aplicar este comando. Este se realiza

complementariamente a otro preproceso llamado top­up, en el cual se estima el campo

magnético al que fue sometido el paciente. Con el dataset que se tiene, no se puede

realizar, pero está investigado que da mejores resultados la combinación de topup+eddy

que eddy_correct solamente.[31]

En cuanto a la salida se tiene un log con las correcciones realizadas y la imagen

modificada. Las diferencias entre la imagen sin corregir y la corregida son muy sutiles

27

Page 28: Facultad de Ciencias Exactas - UNICEN

visualmente. Se realizaron pruebas con imágenes con un mayor b (en la cual las

distorsiones resultan mayores) y las diferencias son más visibles. En las figura 8 y figura 9

se ven las diferencias que existen entre la imagen original y la imagen luego de aplicar el

proceso de corrección.

Figura 8. Sección de una imagen con parámetro de adquisición b=3000, sin aplicar eddy_correct

Figura 9. Misma sección que en figura 8, luego de aplicar eddy_correct

Figura 10. Ejemplo de la aplicación de eddy_corect: en la izquierda se ve una sección antes de aplicar las correcciones, a la derecha la imagen corregida

28

Page 29: Facultad de Ciencias Exactas - UNICEN

Por último también se hizo la prueba con imágenes que presentan alta distorsión

(b­value=5000) como así también alto ruido. Estas correcciones fueron realizadas a modo

de destacar un poco mejor las diferencias visuales entre la imagen cruda y la imagen

corregida (ver figuras 11 y 12).

Figura 11. Cortes de una imagen sin corrección de distorsiones.

Figura 12. Mismos cortes que en figura 11, con corrección de distorsiones por medio de FSL eddy_correct.

Como puede apreciarse, en ninguno de los casos los cambios son visualmente

notables. En el capítulo 6 se presenta una análisis numérico de las diferencias entre los

resultados de esta herramienta y SPM.

Extracción del parénquima cerebral

El siguiente paso en el preprocesamiento de las imágenes es la extracción del

parénquima cerebral para poder calcular los tensores en las zonas adecuadas.

Nuevamente, FSL tiene un módulo especializado en la extracción del cráneo y se llama BET

(Brain extraction tool).

Esta herramienta utiliza un modelo deformable que evoluciona para adaptarse a la

superficie del cerebro por la aplicación de un conjunto de fuerzas de modelado localmente

adaptables.[19]

29

Page 30: Facultad de Ciencias Exactas - UNICEN

Cuenta con una interfaz gráfica de usuario muy simple (Figura 13), sin gran cantidad

de opciones.

Figura 13. Interfaz gráfica de usuario del módulo de extracción del parénquima cerebral BET

Los siguientes son los detalles de la aplicación del algoritmo de extracción BET por

medio de línea de comando. Nuevamente, no presenta más opciones que la interfaz de

usuario.

bet <input> <output> [opciones]

Opciones principales:

­o Generar contorno de la superficie del cerebro superpuesta

con la imagen original

­m Generar máscara binaria

­s Generar una imagen aproximada del cráneo

­n No generar como salida la imagen del cerebro segmentado

­f <f> Umbral de intensidad fraccional (entre 0 y 1); por defecto =

0,5; valores más pequeños dan mayores estimaciones del contorno

del cerebro

30

Page 31: Facultad de Ciencias Exactas - UNICEN

­g <g> Gradiente vertical en el umbral de intensidad fraccional

(Entre ­1 y 1); predeterminado = 0; valores positivos dan mayor

contorno del cerebro en la parte inferior

­r <r> Radio de la cabeza (en mm); la esfera inicial se establece a

la mitad de ésta.

­c <x y z> Centro de gravedad (en mm) de la superficie de malla

inicial.

­t Aplicar umbralado al cerebro segmentado y a su máscara.

­e Genera la superficie cerebral como una malla en formato

.vtk

Variaciones del algoritmo BET (opciones mutuamente excluyentes): Por

defecto: BET2

­R Estimación robusta (itera BET varias veces)

­S Limpieza de ojos y nervio óptico (útil si luego se utiliza el

módulo SIENA)

­B Bias field & neck cleanup (útil si luego se utiliza el módulo

SIENA)

­Z Mejora BET si el campo de visión es pequeño en Z

­F Aplicar a datos 4D

­A Ejecuta BET2 y BETSURF para obtener las superficies del

cráneo.

­A2 <T2> Funciona como A, utiliza como entrada la imagen T2

correspondiente.

En primer lugar se aplicó el algoritmo, a las imágenes corregidas, de forma estándar,

manteniendo el parámetro Fractional intensity threshold en su valor original 0.5. Los

resultados obtenidos no fueron adecuados, la máscara resultante era de menor tamaño que

el cerebro, dejando partes importantes fuera. Además no se encontró completa, sino que

presentaba agujeros en su composición, lo que no debería ocurrir en una máscara de este

tipo. En la figura 14 se aprecia la máscara resultante con los valores por defecto,

corresgistrada sobre la imagen a la que se le quiere generar la máscara.

31

Page 32: Facultad de Ciencias Exactas - UNICEN

Figura 14. En amarillo se ve la máscara resultante luego aplicar BET estándar con el parámetro fractional intensity threshold con un valor de 0.5

Luego de observar que la máscara no era adecuada, se probaron distintos valores

de umbral para encontrar una más adecuada. En la figura 15 se encuentran las distintas

máscaras creadas de manera yuxtapuesta, las máscaras más pequeñas son aquellas con

valor de umbral más grande, y cabe aclarar que una máscara creada a partir de un umbral u

contiene a cualquier máscara creada a partir de un umbral p con p>=u.

Figura 15. Máscaras yuxtapuestas, para distintos valores de umbral, comprendidos entre 0.2 y 0.7

El valor que resultó más adecuado fue 0.25, y fue el utilizado para todos los

pacientes. Otra prueba realizada para la creación de máscaras fue elegir el algoritmo BET

robusto en lugar del estándar. El algoritmo robusto itera sobre el mismo algoritmo varias

veces. Los resultados obtenidos con el algoritmo robusto no son visualmente mejores que

los obtenidos con el algoritmo estándar.

Su aplicación es muy rápida, y el resultado obtenido es de buena calidad. No

necesita el ajuste de muchos parámetros, sólo del umbral, el cual no necesitó un reajuste

para los demás pacientes. Por otro lado, la generación de la máscara se realizó sólo sobre

uno de los volúmenes (con valor b=0) ya que, cuando se realizó la corrección de

32

Page 33: Facultad de Ciencias Exactas - UNICEN

distorsiones, todos los volúmenes de un mismo paciente fueron corregistrados al mismo

espacio.

Cálculo de autovalores y autovectores

Una vez obtenida la máscara se procede a calcular los principales autovalores y

autovectores, además del mapa de anisotropía fraccional correspondiente a la imagen de

difusión. Este último es de importancia porque es el que se analiza para encontrar una

correlación entre sus valores y la extensión de la zona de displasia cortical focal.

Para poder obtenerlos, FSL cuenta con un submódulo llamado DTIFIT [32] dentro

del módulo FDT. DTIFIT cuenta con una interfaz gráfica y puede, también, ser ejecutado

desde línea de comando. En la figura 16 se muestra la GUI correspondiente al módulo.

Figura 16. Interfaz gráfica de usuario del módulo de FSL DTIFIT

Por línea de comando tiene la siguiente forma:

dtifit ­­verbose

Argumentos obligatorios:

­k,­­data imagen DTI

­o,­­out Nombre base de la salida

­m, ­­mask Máscara binaria BET

33

Page 34: Facultad de Ciencias Exactas - UNICEN

­r,­­bvecs Archivo con b­vectors

­b,­­bvals Archivo con b­values

Argumentos opcionales:

­­cni Entrada confound regressors

­­sse Salida suma de errores cuadráticos

­w,­­wls Calcular los tensores con los cuadrados mínimos

ponderados

­­littlebit Sólo procesar una pequeña área del cerebro.

­­save_tensor Guardar los elementos del tensor

­z,­­zmin min z

­Z,­­zmax max z

­y,­­ymin min y

­Y,­­ymax max y

­x,­­xmin min x

­X,­­xmax max x

Como parámetros de entrada se recibe la imagen de difusión corregida, la máscara

obtenida con la herramienta BET los b­values y los b­vectors correspondientes. Además,

dentro de las opciones avanzadas se puede elegir entre el algoritmo estándar de regresión

linear y la regresión weighted least­squares. Se utilizó el algoritmo estándar (al igual que

con la otra herramienta) y la máscara obtenida anteriormente. En la interfaz gráfica de

usuario se pueden especificar los archivos manualmente o simplemente ponerlos todos en

una misma carpeta (con los prefijos adecuados) y correr el algoritmo desde ese directorio.

El algoritmo tiene como salida los siguientes archivos:

<nombreBase>_V1 ­ 1er autovector

<nombreBase>_V2 ­ 2do autovector

<nombreBase>_V3 ­ 3er autovector

<nombreBase>_L1 ­ 1er autovalor

<nombreBase>_L2 ­ 2do autovalor

<nombreBase>_L3 ­ 3er autovalor

<nombreBase>_MD ­ mapa de difusividad media

<nombreBase>_FA ­ mapa de anisotropía fraccional

<nombreBase>_MO ­ modo de la anisotropía

<nombreBase>_S0 ­ señal T2 cruda, sin difusión.

34

Page 35: Facultad de Ciencias Exactas - UNICEN

Para posteriores análisis estadísticos se utilizan los mapas de anisotropía fraccional

de cada paciente. En las figuras 17 y 18 se muestran el mapa de difusividad media y el de

anisotropía fraccional de un paciente, ambos obtenidos con la herramienta.

Figura 17. Mapa de difusividad media obtenida con la herramienta DTIFIT de FSL

Figura 18. Mapa de anisotropía fraccional obtenida por el módulo DTIFIT de la herramienta FSL

Todos estos archivos reflejan diferentes características del cerebro, y pueden ser

utilizados para el análisis posterior de los pacientes. En este caso, y en numerosos estudios

científicos realizados [33] [34] , los posteriores análisis son a partir del mapa de anisotropía

fraccional el que, como se explicó en secciones anteriores, refleja qué tan fuertemente

direccionada es la difusividad en el paciente.

Análisis estadístico

Preparación de los datos: TBSS

En último lugar se realiza el análisis estadístico sobre los mapas de anisotropía

fraccional. Es en este punto en lo que más difieren ambas herramientas, ya que su enfoque

35

Page 36: Facultad de Ciencias Exactas - UNICEN

es muy distinto. En primer lugar se explicarán los pasos realizados con esta herramienta, en

la siguiente sección se detallarán los procesos realizados con la herramienta SPM y en el

siguiente capítulo se contrastarán una con otra.

La herramienta correspondiente para el análisis de la materia blanca en FSL se

llama TBSS (tract­based spatial statistics) [35]. Nace como una alternativa muy fuerte para

la comparación de mapas de FA entre individuos. Inicialmente surge ante las limitaciones

que presentan los algoritmos de comparación enfocados en análisis a nivel voxel existentes

hasta ese momento. Estos algoritmos son dependientes del tipo de registración utilizado, y

no existe todavía un consenso en cuál es la manera de aplicarlos de manera que las

conclusiones derivadas de ellos sean válidas. Los enfoques basados en vóxeles serán

descritos con más detalle en el siguiente capítulo cuando se haga una revisión sobre la

herramienta SPM, la cual presenta módulos especializados en el análisis a nivel vóxel.

TBSS se presenta como un método que tiene como objetivo cubrir las falencias de

los algoritmos basados en comparación de vóxeles, mejorando la sensibilidad, objetividad e

interpretabilidad del análisis multi­sujeto de las imágenes de difusión. A grandes rasgos

realiza una registración no­linear seguida de proyecciones sobre una representación de

tractos invariantes entre sujetos (llamado “mean FA skeleton”).

Cuenta con 4 módulos principales, que se ejecutan en un orden preestablecido

sobre todos los datos a analizar. A continuación se presenta más en detalle cómo funciona

el algoritmo, describiéndolo paso por paso.

TBSS_1_preproc

TBSS_1_preproc es el primer paso dentro del procesamiento. Realiza varios pasos

de preprocesamiento simples, como escalar los volúmenes de las imágenes y erosionar

ligeramente los mapas de anisotropía fraccional. Es muy rápido, y como resultado la imagen

se ve erosionada.

Se ejecuta sobre todos los mapas simultáneamente (los cuales se encuentran

previamente en una misma carpeta), se reubican en un subdirectorio llamado origdata y

como salida se tienen las imágenes preprocesadas, y nuevas máscaras, los cuales se

encuentran ubicados sobre una nueva subcarpeta llamada FA. Además FSL crea un nuevo

directorio llamado slicedir con un archivo .html llamado index (figura 19), que permite

visualizar una vista estática de las distintas imágenes de entrada para chequear que no

haya problemas con el preprocesamiento.

36

Page 37: Facultad de Ciencias Exactas - UNICEN

Figura 19. Archivo index.html resultado de aplicar tbss_1_preproc

La forma de ejecutarlo es sólo por línea de comando, y no tiene más parámetros que

las imágenes de entrada. Se pueden usar gramáticas regulares, así que es conveniente

disponer de todos los mapas en un mismo directorio y ejecutar el comando sobre esa

carpeta de la siguiente manera:

tbss_1_preproc *.nii.gz

En la figura 20 se muestra el resultado sobre uno de los individuos. Visualmente se

puede apreciar una leve erosión sobre la imagen.

Figura 20. A la izquierda se muestra el mapa de FA original, a la derecha, el mismo corte del mapa luego de la aplicación de TBSS_1_preproc

37

Page 38: Facultad de Ciencias Exactas - UNICEN

TBSS_2_reg

El segundo paso de TBSS a realizar es TBSS_2_reg. Este módulo calcula la

registración no­linear a llevar a cabo, alineando todos los mapas de FA al espacio estándar

1x1x1 mm. La imagen objetivo usada en las registraciones puede ser un mapa estándar

predefinido, puede ser elegido manualmente, o puede ser elegido el sujeto más típico del

conjunto. La guía de uso de la herramienta recomienda el uso del espacio estándar

FMRIB58_FA como imagen objetivo.

En primer lugar se realiza una registración afín, para alcanzar un alineamiento inicial.

Luego se realiza una alineación no linear con grados de libertad (DoF) intermedios y es

basada en deformaciones de forma libre y B­Splines. FSL ha tomado esta postura, ya que

su objetivo es alinear suficientemente las imágenes pero manteniendo su estructura general

intacta. El objetivo de las deformaciones de forma libre es deformar una imagen moviendo

puntos de control de una malla subyacente. El campo de deformación aplicado es

encontrado para posiciones de la imagen entre los puntos de control de la malla usando

interpolación de tipo B­Spline. La deformación óptima es encontrada moviendo puntos de

control de manera que el costo de la registración sea mínima.

Como se dijo antes existen 3 formas posibles de aplicar esta instancia de tbss. A

continuación se muestra la forma de ejecutar este paso por línea de comando con sus

respectivas opciones:

tbss_2_reg [opción]

Opciones excluyentes:

­T: usar la imagen FMRIB58_FA_1mm como objetivo para las

registraciones no­lineares (recomendado).

­t <objetivo>: usar la imagen <objetivo> como objetivo para las

registraciones no­lineares.

­n: Encontrar el mejor objetivo entre todas las imágenes.

Nuevamente, al igual que el paso anterior, el comando se ejecuta desde la carpeta

que ahora contiene las subcarpetas: origdata y FA. Como entrada se tienen las imágenes

preprocesadas y como salida genera N archivos .nii (siendo N la cantidad de individuos

total) por cada sujeto ( archivos en total) que representan las modificaciones a realizar N2

para alinearse con cada uno de los demás sujetos. Además hay archivos .log, .mat, y .msf

por cada uno de estos archivos.

38

Page 39: Facultad de Ciencias Exactas - UNICEN

En este trabajo primero se probó con la opción recomendada (­T) y se calcularon las

modificaciones necesarias para alinear las imágenes con el estándar FMRIB58_FA_1mm.

Luego se ejecutó el paso 3 de TBSS (el cual aplica estas transformaciones). Los resultados

obtenidos no fueron favorables, resultando uno de los mapas extraño, muy alejado de la

apariencia normal de un mapa de FA, en la figura 21 se puede apreciar el sujeto extraño.

Figura 21. Resultado extraño sobre uno de los mapas de FA , luego de la aplicación de tbss_2_reg con la opción ­T.

Debido a esto, se decidió volver unos pasos atrás y aplicar el paso tbss_2_reg con la

opción ­n, la cual calcula las modificaciones necesarias para transformar cada sujeto en

todos los demás del conjunto para luego encontrar al más típico de ellos. Como era de

esperarse, esta opción es considerablemente más lenta que la anterior, incluso con 4

sujetos. En las especificaciones de la herramienta dicen tardar 10xN minutos si se utiliza la

opción ­T y 5xNxN si se utiliza la opción ­n siendo N la cantidad de sujetos.

Una vez realizado este paso, si bien llevó más tiempo, los resultados obtenidos

fueron más adecuados, y visiblemente de mejor calidad.

TBSS_3_postreg

En este paso se aplican las transformaciones no­lineales encontradas en el paso

anterior sobre todos los individuos y luego se aplica una transformación afín para llevarlas al

espacio MNI152 1x1x1mm. Luego se concatenan todas las imágenes generando una

imagen 4D llamada all_FA en un nuevo subdirectorio llamado stats en el que cada volumen

corresponde a un individuo.

Además se crea un nuevo archivo llamado mean_FA con el promedio de todas las

imágenes de FA. Para poder crearlo, la herramienta simplemente promedia las imágenes.

La imagen resultante se ve más suavizada y menos nítida (figura 22) como resultado de

esta operación.

39

Page 40: Facultad de Ciencias Exactas - UNICEN

Figura 22. A la izquierda se ve el mapa de uno de los pacientes. A la derecha el mismo

corte de la imagen mean_FA.

Luego, a partir de mean_FA, se genera el archivo mean_FA_skeleton. Este

esqueleto busca representar los tractos que son comunes a todos los sujetos y los

representa como una línea o superficie que recorre el centro del tracto original. Para poder

generar este esqueleto, la herramienta realiza una búsqueda y filtrado de los vóxeles con

mayor FA a lo largo de líneas transversales a cada tracto.

Para ejecutar este módulo se utiliza el siguiente comando:

tbss_3_postreg [opción]

Opciones excluyentes: ­S : Derivar mean_FA y mean__FA_skeleton del promedio de los

sujetos del estudio (recomendado) ­T : Utilizar FMRIB58_FA y su esqueleto en lugar de los derivados

del estudio. Las salidas generadas por este comando (descritas anteriormente) son las

siguientes:

mean_FA

all_FA

mean_FA_skeleton

En este trabajo se utilizó la opción recomendada ­S. Como en el paso anterior se

había elegido la opción ­n, en el momento de registrar las imágenes primero se debe

40

Page 41: Facultad de Ciencias Exactas - UNICEN

encontrar al sujeto “más típico” del conjunto. Para lograrlo, la herramienta registra cada

sujeto con los demás, resume cada campo de deformación por su desplazamiento medio y

elige el sujeto con menor distancia promedio a los demás sujetos.

Como se dijo anteriormente, una vez alineadas las imágenes, se concatenan

generando el archivo all_FA, se genera el archivo mean_FA con las imágenes promediadas

y se genera el esqueleto promedio.

En la figura 23 se encuentra el esqueleto mean_FA_skeleton, umbralado y dispuesto

sobre uno de los volúmenes de all_FA.

Figura 23. En verde se ve la imagen mean_FA_skeleton, con sus valores comprendidos entre 0.25 y 0.6, se encuentra superpuesto sobre la imagen all_FA

Luego de realizar este paso, y como chequeo de calidad, se comprobó que el

esqueleto esté bien alineado con los tractos principales de materia blanca de todos los

pacientes. Se ve algo tortuoso, en especial cuando no es recto, esto se debe a que el

algoritmo que genera el esqueleto, encuentra ciertas dificultades en determinar una línea

perpendicular a los tractos cuando estos se curvan.

TBSS_4_prestats

Este es último paso dentro del módulo tbss y lo que hace, en líneas generales, es

umbralar la imagen mean_FA_skeleton y encontrar el esqueleto en cada imagen individual.

En este momento se proyectan las imágenes de FA perteneciente a cada sujeto en

el esqueleto mean_FA_skeleton. El objetivo en este momento es considerar desajustes

residuales entre los sujetos después de los registros no lineales iniciales. En cada punto del

41

Page 42: Facultad de Ciencias Exactas - UNICEN

esqueleto, se busca para todas las imágenes del conjunto, el máximo valor de FA en el

camino perpendicular a cada tracto (mismo proceso realizado para crear el esqueleto

promedio) y se asigna ese valor de FA al voxel del esqueleto. Este proceso logra un

alineamiento entre el esqueleto y las imágenes de FA de cada sujeto sin necesidad de una

preregistración no­linear perfecta. Cualquier diferencia sistemática en la localización exacta

del lugar del tracto entre grupos de sujetos no sesgará la comparación de los valores de FA

entre los grupos.

Para ejecutar este paso se utiliza el siguiente comando:

tbss_4_prestats <threshold>

Siendo el threshold recomendado algún valor entre 0.2 y 0.3 en este caso se eligió

0.27.

Como salida genera los archivos:

all_fa_skeletonised

mean_fa_skeleton_mask

mean_fa_skeleton_mask_dst

El archivo mean_fa_skeleton_mask_dst corresponde a un mapa de distancias entre

los tractos del esqueleto y los demás vóxeles de la imagen, y es de utilidad para la

proyección de los distintos individuos al esqueleto principal.

En la figura 24 se muestra la proyección de uno de los pacientes al esqueleto. Para

cada uno de los volúmenes la estructura del esqueleto sigue siendo la misma, lo que varía

en todos ellos son los valores de FA correspondientes a cada vóxel de la imagen.

42

Page 43: Facultad de Ciencias Exactas - UNICEN

Figura 24. En la figura se muestra uno de los volúmenes correspondientes a all_fa_skeletonised

En este punto, ya están los datos listos para realizar comparaciones entre sujetos o

grupos. Cada imagen de FA correspondiente a los sujetos del estudio ha sido pre alineada a

un espacio común usando registración no lineal, un esqueleto común ha sido formado y

cada imagen individual ha sido totalmente alineada a éste. Los datos aptos para el análisis

estadístico están de la forma de una imagen 4D, siendo la 4ta dimensión el id del paciente.

Sólo resta comparar los esqueletos entre ellos a nivel voxel.

Comparación entre hemisferios en TBSS

FSL cuenta también, dentro del módulo tbss, con una herramienta para facilitar la

comparación entre hemisferios cerebrales de un paciente. En el trabajo de investigación que

se busca replicar parcialmente en este trabajo, se buscaba realizar comparaciones de los

mapas de FA, entre hemisferios, para poder así delimitar la zona afectada por la

enfermedad. Por eso, es de importancia destacar que en esta herramienta también se

cuenta con las facilidades para poder realizarlo.

El workflow para llevar a cabo una comparación inter­hemisférica es similar al

realizado para el análisis de grupos. Luego de realizar los 4 pasos correspondientes a

TBSS, se utiliza el script tbss_sym. Este script genera una imagen de FA promedio

(mean_FA) simétrica y, a partir de esta, se calcula el esqueleto derivado.

El proceso, resumido, es el siguiente: el esqueleto asimétrico precalculado en los

pasos anteriores es levemente dilatado. Luego la imagen de FA promedio (mean_FA) es

generada, invirtiendo sagitalmente la imagen promedio precalculada y calculando el

promedio entre ambas (original e invertida). A partir de esta imagen se genera un nuevo

esqueleto provisorio, el cual es enmascarado por el esqueleto dilatado original. Este paso

se lleva a cabo para evitar incluir en el estudio aquellas zonas cerebrales lejos de ser

simétricas en un primer momento. Por último, y para descartar las asimetrías restantes, el

esqueleto simétrico se invierte respecto al eje sagital y se enmascara con su versión

invertida.

En un paso siguiente, los mapas de FA de todos los individuos son proyectados en

este nuevo esqueleto simétrico, permitiendo así el análisis entre hemisferios. Por último, y

para facilitar el análisis posterior, se realiza una nueva imagen 4D llamada

all_FA_skeletonised_left_minus_right, la cual contiene en sus vóxeles el valor

correspondiente a la diferencia de intensidades entre hemisferios.

43

Page 44: Facultad de Ciencias Exactas - UNICEN

GLM y randomise

El próximo y último paso en el procesamiento y análisis de las imágenes, es sacar

conclusiones sobre sus características, comparándolas en dos grupos separados.

Para el cálculo de estadísticas se usan en conjunto dos herramientas de FSL: GLM y

randomise. La primera es utilizada para diseñar el análisis por medio de matrices y la

segunda realiza las comparaciones pertinentes.

GLM

Esta herramienta debe su nombre al modelo lineal generalizado (General linear

model) [36] y es una ayuda para el diseño y creación de las matrices correspondientes para

el posterior análisis estadístico. Su uso no es esencial, pues las matrices pueden ser

creadas manualmente sin problemas, pero sirve para evitar errores de diseño que podrían

ser difíciles de detectar y podrían llevar a resultados inesperados o no deseados.

Presenta una interfaz de usuario para su uso que da la posibilidad de elegir el tipo

de diseño a realizar, el número de entradas (individuos) en el estudio, permite agrupar estos

individuos en distintos grupos y realizar distintas comparaciones entre estos grupos.

Para este estudio, se realizó la comparación entre dos grupos de dos sujetos cada

uno: el primer grupo con los pacientes P1 y P2 y el segundo con los pacientes P3 y P4. Las

pruebas elegidas para llevar a cabo fueron únicamente la comparación entre grupos de los

valores de FA de los tractos de materia blanca. En otra palabras, encontrar en cuáles

píxeles del esqueleto los valores del grupo A eran considerablemente mayores que los del

grupo B y viceversa.

Figura 25. Resumen del diseño estadístico generado con GLM.

Como se puede apreciar en la figura 25, el diseño del análisis es muy simple. La

creación de grupos fue arbitraria y sólo se eligieron los contrastes de comparación de

44

Page 45: Facultad de Ciencias Exactas - UNICEN

valores de intensidad. Para este caso en particular no era de utilidad realizar otro tipo de

comparaciones. Para realizar otro tipo de estudios más completos, se pueden crear distintos

grupos entre los pacientes teniendo en cuenta distintos factores tales como la edad, el

género, la presencia de alguna habilidad, entre otros. En este caso se decidió un modelo

simple ya que el objetivo era conocer el método a aplicar y las herramientas y no realizar

una investigación exhaustiva sobre los pacientes del grupo.

Randomise

Una vez generado el diseño del análisis a realizar, se utilizó el módulo de FSL

randomise [36] para poder llevar a cabo las comparaciones. Randomise es una herramienta

de FSL para inferencia de permutación (permutation inference) para imágenes neurológicas.

A continuación se muestra el uso del script:

randomise ­i <input> ­o <output> ­d <design.mat> ­t <design.con> [options]

Argumentos obligatorios:

­i <input> Imagen 4D de entrada

­o <out_root> Nombre base de la salida

Presenta un alto número de argumentos opcionales, que no se detallan aquí, pero

que se encuentran documentados en el sitio de la herramienta. Para este estudio, el script

randomise se utilizó de la siguiente manera:

randomise ­i all_FA_skeletonised.nii ­o tbss ­m mean_FA_skeleton_mask ­d

design.mat ­t design.con ­c 1.5

Donde m es la máscara que indica qué vóxeles se van a comparar, d es la matriz de

diseño y t el archivo de contraste. Además se eligió la opción c (umbralado basado en

clúster) con un valor 1.5, el cual es recomendado para este estudio en particular, debido a la

cantidad de pacientes.

Como archivos de salida se tienen:

<BaseName>_tstat1.nii

<BaseName>_tstat2.nii

<BaseName>_clustere_corrp_tstat1.nii

<BaseName>_clustere_corrp_tstat2.nii

45

Page 46: Facultad de Ciencias Exactas - UNICEN

Los primeros dos archivos corresponden a las comparaciones crudas. Sus vóxeles

representan las diferencias entre ambos grupos: <BaseName>_tstat1.nii se corresponde al

primer contraste (vóxeles en los que los valores de FA del grupo 1 superan a los del grupo

2) y <BaseName>_tstat2.nii al segundo contraste (vóxeles en los que los valores de FA del

grupo 2 superan a los del grupo 1). Los últimos dos archivos son un filtrado sobre los

resultados crudos, representando sólo aquellos vóxeles que se encuentran en

agrupamientos de cierto tamaño.

En la figura se ven los resultados obtenidos mediante el uso del script randomise.

Figura 26. En azul se puede ver la imagen <BaseName>_tstat2.nii, representando las diferencias de FA entre ambos grupos. En rojo se ve la imagen <BaseName>_clustere_corrp_tstat2.nii, correspondiente a un valor de umbral de 1.5

Por último, cabe destacar que esta herramienta cuenta con facilidades para umbralar

el mapa estadístico obtenido, o para engrosar aquellas secciones en las que se presentan

diferencias, para lograr una visualización más clara.

46

Page 47: Facultad de Ciencias Exactas - UNICEN

Capítulo 5: SPM

Sobre la herramienta

El paquete de software SPM fue desarrollado por el Wellcome Trust Centre for

Neuroimaging (Londres) y ha sido diseñado para el análisis de secuencias de imágenes

neurológicas. Las secuencias pueden ser serie de imágenes de distintos grupos de

personas o del mismo individuo en distintos momentos.

La versión actual está diseñada para el análisis de imágenes del tipo fMRI, PET,

SPECT, EEG y MEG y está completamente disponible en la comunidad de neuroimagen,

promoviendo la colaboración y el análisis conjunto entre laboratorios. Su enfoque es basado

en vóxeles (voxelbased), y emplea la inferencia clásica, para hacer algún comentario sobre

respuestas específicas regionalmente a factores experimentales.

Es un conjunto de funciones y subrutinas de MATLAB (The MathWorks, Inc) con

algunas rutinas escritas en C y compiladas externamente. Funciona sobre las plataformas

en las que corre MATLAB (Unix, Windows, Mac OS y GNU/Linux), aunque,

alternativamente, existe una versión standalone de la herramienta que no requiere la

licencia de MATLAB pero viene con limitaciones.

No tiene costo asociado a la instalación pero es distribuido bajo los términos de una

licencia general pública GNU (GNU general public licence). Es altamente colaborativa,

presenta una amplia variedad de módulos fácilmente integrables, desarrollados por distintos

investigadores alrededor del mundo.

Presenta una interfaz gráfica de usuario o puede ejecutarse vía comando de matlab.

Entre sus interfaces gráficas cuenta con un Batch Editor que facilita la creación de los

distintos comandos posibles, indicando qué parámetros deben especificarse y de qué

manera. El batch editor permite también la ejecución secuencial de módulos, permitiendo la

vinculación de un script y el siguiente. Esto resulta muy práctico para el procesamiento de

imágenes, en el que generalmente se tiene una rutina secuencial en la que los parámetros

de salida de un paso funcionan como entrada del siguiente. También se encuentra

disponible el almacenamiento de los scripts diseñados, de manera que un módulo puede

ser reutilizado posteriormente para otros archivos de entrada.

El formato básico de imágenes que lee es NIFTI­1, todas las imágenes son escritas

en este formato, aunque se pueden importar otro tipo de imágenes (DICOM, PAR/REC,

MINC y ECAT7) por medio de herramientas integradas.

47

Page 48: Facultad de Ciencias Exactas - UNICEN

Como se dijo anteriormente, cuenta con una amplia variedad de extensiones de fácil

integración. En este trabajo, para el preprocesamiento de las imágenes se utilizará el

paquete de herramientas ACID (Artefact correction in diffusion images) el cual es un kit de

herramientas de software académico para el pre­procesamiento de dMRI que se integra

completamente con SPM8 y posterior. Su autor es Siawoosh Mohammadi (Department of

Systems Neuroscience University Medical Center Hamburg­Eppendorf) y presenta con

distintos módulos especializados (corrección de movimiento, creación de máscara, etc..) los

cuales se listan a continuación:

Preprocesamiento de imágenes DTI:

Make Brain Mask

ECMOCO (eddy current and motion correction)

POAS

HySCO

Tensor Fitting

Fit Diffusion Tensor

COVIPER

Spatial Normalization for FA­VBS

FA­VBS Normalisation

En la siguiente sección se detallan los pasos seguidos con esta herramienta.

Una vez realizado el preprocesamiento preliminar y el cálculo de los mapas de

anisotropía fraccional, los subsiguientes pasos de procesamiento y análisis estadístico

fueron realizados a partir de módulos de herramientas básicos presentes en SPM.

Flujo de trabajo

Corrección de distorsiones

Para poder realizar la corrección de las distorsiones se utilizó el módulo ECMOCO

[37], dentro del conjunto de herramientas ACID. Está basado en el módulo spm_coreg de

SPM y combina parámetros para la estimación del campo magnético aplicado

independientemente de la dirección de difusión.

Como imagen objetivo se tiene una imagen que no presenta las distorsiones

características de las imágenes de difusión. En este caso se tomó el volumen 0, que

corresponde a un valor b=0. Como se ve a continuación, el módulo realiza una registración

afín, con una configuración recomendada de 9 parámetros para lograr que todos los slices

48

Page 49: Facultad de Ciencias Exactas - UNICEN

de la imagen queden alineados globalmente y no presenten deformaciones

correspondientes a las distorsiones generadas por el campo magnético.

En la figura 27 se muestra la interfaz de ECMOCO.

Figura 27. Batch editor correspondiente al móodulo ECMOCO

Parámetros de entrada:

Target image: Volumen de referencia, como la función de optimización subyacente

es independiente de la modalidad, cualquier imagen sirve, independientemente de su

b­value. De todos modos, se recomienda usar una con bajo b­value, porque son las

que presentan menos distorsión correspondiente a Eddy current.

Source images: Todas las imágenes del DTI dataset que deben ser corregidas.

Registration parameters: Parámetros que se desean corregir, se puede elegir entre

12 parámetros afines. Se pueden elegir libremente, pero se recomiendan los

siguientes para corregir eddy current y movimiento de cabeza: [1 1 1 1 1 1 0 1 0 1 1

0];

Write option images: Opción para elegir si se quiere escribir las imágenes

registradas.

Write option figure: Opción para elegir si se quiere ver los parámetros de estimados

de corrección para cada imagen.

49

Page 50: Facultad de Ciencias Exactas - UNICEN

Como salida se tienen los volúmenes modificados, un archivo .mat con las

transformaciones aplicadas a cada volumen y dos gráficos que representan visualmente los

cambios aplicados en cada volúmen (figura 28 y 29).

Figura 28. Parámetros de corrección de Eddy current, por cada slice.

Figura 29. Parámetros de corrección de movimiento, por cada slice.

Nuevamente, las diferencias entre la imagen original y la corregida no son

visualmente apreciables en las imágenes del estudio (figura 30).

50

Page 51: Facultad de Ciencias Exactas - UNICEN

Figura 30. A la izquierda se ve la imagen original, a la derecha la imagen corregida.

Su aplicación es simple, presentando pocos parámetros y facilitando la aplicación

del módulo de SPM coreg. El análisis de los resultados, comparados con los obtenidos de la

otra herramienta, se realizará en el siguiente capítulo.

Extracción del parénquima cerebral

Al igual que con la herramienta FSL, el siguiente paso a llevar a cabo es el de la

creación de una máscara para poder extraer el parénquima cerebral y luego calcular los

principales autovalores y autovectores a partir de la imagen resultante.

Nuevamente, ACID presenta un módulo con este propósito: Make Brain Mask. En la

figura 31 se muestra la interfaz gráfica del mismo.

51

Page 52: Facultad de Ciencias Exactas - UNICEN

Figura 31. Interfaz gráfica de usuario del módulo ACID→ Make brain mask

Su interfaz es muy simple y requiere de pocos parámetros. Los parámetros de

entrada son los siguientes:

Mapas de probabilidad de materia gris y blanca

Imágenes a ser “enmascaradas”

Cobertura cerebral deseada

Núcleo de suavizado

En primer lugar, el parámetro Mapas de probabilidad de materia gris y blanca fue

asociado con los mapas de probabilidad de tejidos correspondientes a la materia gris,

blanca y líquido cefalorraquídeo provistos por la herramienta (presentes en una subcarpeta

del software). Esto no dió buenos resultados, pues los mapas no se encontraban alineados

con las imágenes de difusión, por lo que la máscara resultante no coincidía con las regiones

que se querían diferenciar. A causa de esto, se realizó una segmentación de la imagen, con

el módulo New Segment de SPM.

Sin entrar en detalles, el módulo new segment utiliza los mapas de probabilidad de

los tejidos nombrados anteriormente para segmentar las imágenes difusión. Esta función

segmenta, corrige desplazamientos y normaliza espacialmente, todo en el mismo modelo.

Tiene como datos de entrada las imágenes a segmentar (pueden ser distintos tipos de

52

Page 53: Facultad de Ciencias Exactas - UNICEN

imagen), los mapas de distribución de tejidos y algunos parámetros correspondientes a las

correcciones a realizar.

Como resultado se tienen los distintos segmentos alineados con la imagen original.

En la figura 32 se muestran los distintos segmentos obtenidos, correspondientes a la

materia gris, materia blanca y líquido cefalorraquídeo. Debido a que no son excluyentes, el

segmento de materia blanca está levemente montado sobre la materia gris, por encontrarse

en la capa superior.

Figura 32. Segmentos obtenidos con spm→ new segment

Una vez obtenidos los segmentos necesarios se creó la máscara con ellos. Se

dejaron los parámetros que tiene por defecto (brain coverage 0.8 y smooth kernel [3 3 3]).

Para crear una máscara a partir de los segmentos, el batch create brain mask utiliza la

función básica de SPM ImCalc que se utiliza para realizar cálculos entre imágenes

(promedios, sumas,etc...).

Debido a que la máscara resultante con los valores por defecto (ver figura 33) no cubría

bien toda la zona deseada y presentaba agujeros, se cambió el valor del parámetro brain

coverage, siendo 0.5 un valor más adecuado (ver figura 34).

53

Page 54: Facultad de Ciencias Exactas - UNICEN

Figura 33. Máscara resultante, luego de aplicar el algoritmo de ACID→ Make brain mask con los valores por defecto.

Figura 34.En azul, se ve la máscara resultante, luego de aplicar el algoritmo de ACID→Make brain mask con el parámetro brain coverage con un valor de 0.5. Para destacar las diferencias, se superpuso con la máscara realizada con los valores por defecto (en verde).

Una vez enmascarado el parénquima cerebral, el próximo paso corresponde al

cálculo de la imagen de tensor de difusión (DTI). Como se verá en la próxima sección, esto

también fue llevado a cabo con el módulo especializado en imágenes de difusión ACID.

Cálculo de autovalores y autovectores

Para el cálculo de los autovalores y autovectores, además del mapa de anisotropía

fraccional, se utilizó el módulo de ACID Fit diffusion tensors [38] [39]. Esta herramienta

cuenta con los métodos mínimos cuadrados ordinarios, mínimos cuadrados ponderados y

tensor­fitting robusto.

Cuenta con una interfaz gráfica y sus parámetros de entrada son los siguientes:

Imágenes de difusión: Imágenes de difusión preprocesadas.

Direcciones de difusión: Arreglo de 3xN con las direcciones de difusión

(b­vectors), deben respetar el mismo orden que las imágenes.

b­values: Vector de 1xN con los valores de difusión (b­values), deben

también respetar el orden de las imágenes.

54

Page 55: Facultad de Ciencias Exactas - UNICEN

Matriz de reorientación: Matriz de reorientación de los vectores de difusión.

Útil si los gradientes están definidos en un distinto sistema de coordenadas

que las imágenes.

Región de interés (opcional): Región sobre la cual se quiere calcular los

tensores.

Algoritmo para calcular los tensores: Se puede elegir entre tres distintos

algoritmos.

Fit defaults

Como salida presenta los siguientes archivos:

Difusividad axial

Difusividad radial

Difusividad media

Difusividad axial­radial

Anisotropía fraccional

Autovalores

Autovectores

Root­mean square of tensor­fit error

Promedio de imágenes de difusión

Estimación de imagen sin difusión

En la figura 35 se muestra un mapa de anisotropía generado por la herramienta.

Figura 35. Mapa de anisotropía fraccional generado por el módulo Fit Tensors.

Para este estudio en particular se utilizarán sólo los mapas de anisotropía fraccional

de cada paciente, generados por este módulo. Estos mapas serán los que se contrasten

mediante estadísticas para luego detectar diferencias entre los pacientes.

55

Page 56: Facultad de Ciencias Exactas - UNICEN

Análisis estadístico

Como se dijo anteriormente, la base de la herramienta SPM es el análisis estadístico

a nivel voxel. La mayoría de sus módulos están creados y adaptados para tal fin: se

presentan módulos para la registración y segmentación de imágenes bajo diversos criterios.

El modo general del análisis estadístico a nivel voxel se describe a continuación. En

este caso en particular y debido a la naturaleza de los datos, el algoritmo fue modifcado en

los puntos que se creyeron necesarios para lograr resultados más confiables.

Preparación de los datos

VBM (voxel­based morphometry)[40] surge en 1999 como un innovador estudio

morfológico, más generalizado que los estudios tradicionales basados en morfología, en los

cuales el área a analizar y comparar debía ser delimitada previamente, dificultando la

automatización del método y acotando la investigación a áreas predeterminadas. En el caso

de VBM el estudio es global y tiene en cuenta todo el parénquima cerebral. Puede ser

aplicado para distintos estudios de un mismo sujeto o para comparar distintos pacientes.

Su línea de trabajo es la siguiente:

Normalización espacial: Este paso implica transformar las imágenes de los

distintos pacientes al mismo espacio estereotáctico. Esto se logra registrando

cada imagen con un mismo template, minimizando así la diferencia entre la

imagen registrada y la plantilla. No se busca con esta transformación que

todas las imágenes se correspondan exactamente entre sí, sino corregir

diferencias en la forma global del cerebro.

Segmentación: Las imágenes normalizadas son luego segmentadas en

materia gris, materia blanca y líquido cefalorraquídeo.

Suavizado: Las imágenes segmentadas son luego suavizadas con un filtro

Gaussiano. Esto se realiza para minimizar las diferencias residuales entre

imágenes luego de la normalización.

Análisis estadístico: basado en el modelo general lineal (GLM). Es utilizado

para identificar las diferencias presentes entre los distintos individuos.

Como se puede ver, el método es muy general y puede utilizarse para comparar

distintos tipos de imágenes o diferentes regiones neurológicas. Para este caso en particular,

se especializó el enfoque para poder adaptarlo al estudio de mapas de anisotropía

fraccional. No hay un consenso sobre cuál es la mejor manera de aplicar el método, aunque

56

Page 57: Facultad de Ciencias Exactas - UNICEN

hay estudios al respecto [41] y, debido a que no existe un estándar confiable con el cual

comparar los resultados, es un área en la que se sigue investigando.

Para adaptar el método, se analizaron las metodologías utilizadas en estudios

similares [42] [43] y se buscó aquella que resultara más adecuada. Los pasos llevados a

cabo fueron los siguientes:

Los mapas de anisotropía fraccional fueron registrados a un mapa estándar.

Luego se creó un template a partir del promedio de los mapas alineados.

Los mapas originales fueron registrados con el template

Las imágenes resultantes fueron suavizadas

Se realizó una comparación de los mapas, distribuidos en dos grupos.

En las siguientes secciones se explica más detalladamente los pasos realizados con

la herramienta.

Corresgistracion

Como se dijo anteriormente, el objetivo en este paso del procesamiento es alinear

globalmente las imágenes. Para poder realizarlo, se utilizó la herramienta spm_coreg [44].

La cual, como todas las herramientas de SPM, cuenta con una interfaz gráfica básica que

facilita el armado de los scripts. En la figura 36 se muestra el batch editor con la instrucción

correspondiente.

57

Page 58: Facultad de Ciencias Exactas - UNICEN

Figura 36. Interfaz gráfica de usuario de spm_coreg

Para este paso se decidió elegir como imagen objetivo el paciente P1, que fue el

elegido como el más típico por la herramienta FSL. El proceso es rápido, los parámetros no

fueron retocados, sino dejado los por defecto. A las imágenes se le aplicaron ciertas

transformaciones lineales para alinearse con la imagen objetivo.

La herramienta spm_coreg implementa una registración basada en el trabajo de

Collington [53], el cual utiliza un modelo de cuerpo rígido (rigid­body model) basado en

vóxeles. Este modelo puede ser parametrizado con tres traslaciones y tres rotaciones

alrededor de los diferentes ejes.

El método de interpolación original descrito en el trabajo de Collington ha sido

modificado por SPM, suavizando levemente las imágenes de manera que converja de

manera más rápida.

La idea en este instancia no es alinear perfectamente todas las imágenes, sino

llevarlas a un mismo espacio para poder crear un template a partir de ellas. El cual luego

servirá como imagen objetivo para una registración no lineal entre las imágenes de los

pacientes.

Creación del template

58

Page 59: Facultad de Ciencias Exactas - UNICEN

Una vez alineadas las imágenes se calculó un template a partir de ellas. Esta

decisión fue tomada en base a que los contrastes presentes en los mapas de anisotropía

fraccional no son de la misma naturaleza que los presentes en otro tipo de imágenes

estándar. Por otro lado, si el estándar es derivado de las propias imágenes es probable que

las deformaciones necesarias para luego alinear las imágenes sean menores,

manteniéndose así más fieles a los originales.

Para la creación de templates, SPM cuenta con una herramienta llamada DARTEL

[45]. En la figura 37 se muestra su interfaz.

Figura 37. Interfaz gráfica de usuario de la herramienta DARTEL→ Create template

Dartel es un conjunto de herramientas para lograr una registración de imágenes

entre­sujetos más acertada. Para este paso en particular se utilizó DARTEL→ create

template. Este módulo estima las deformaciones no lineares que mejor alinean a todos los

sujetos. Esto es logrado alternando iterativamente entre la creación de un template y la

registración de las imágenes con este template.

El procedimiento inicia creando un template inicial, esto se logra promediando las

imágenes importadas, previamente corregistradas, y luego suavizando este promedio. Una

vez generado el template, se calculan las transformaciones necesarias para que cada sujeto

quede alineado con él. Luego se lleva a cabo una nueva ronda: se crea un nuevo template y

59

Page 60: Facultad de Ciencias Exactas - UNICEN

se calculan las transformaciones nuevamente. El resultado final es una serie de templates y

archivos .nii que corresponden a las transformaciones necesarias para registrar cada

individuo con el último template generado.

El proceso completo es muy extenso, y su duración depende de la cantidad de

iteraciones realizadas y de la cantidad de pacientes que se desean registrar. Para este caso

en particular, se dejaron los valores por defecto de la herramienta. En total son 6 iteraciones

en las que los valores de suavizado y de regularización van decreciendo, de manera que las

deformaciones necesarias para registrar las imágenes con el template inicialmente son

suaves y, a medida que avanzan las iteraciones, son más precisas. De esta manera,

durante el proceso de creación del template, se va obteniendo en cada etapa una plantilla

más similar a las imágenes originales y menos difuminada. En la figura 38 se ven algunos

de los templates generados:

Figura 38. Ejemplo de templates generados por la herramienta DARTEL­­>make template. A la izquierda se muestra el template generado en la primer iteración, en el centro el template generado en la cuarta iteración, y a la derecha el template final (sexta iteración).

Una vez generado el template final, se deben aplicar las transformaciones

calculadas, necesarias para que cada imagen se alinee con él.

Registración con el template

Para llevar a cabo este paso se utilizó el módulo DARTEL→ create warped [45].

Este módulo tiene como entrada las transformaciones a aplicar (calculadas en el paso

anterior para cada paciente) y las imágenes a las que se les debe aplicar la transformación.

En la figura 39 se ve su interfaz gráfica.

60

Page 61: Facultad de Ciencias Exactas - UNICEN

Figura 39. Interfaz gráfica de usuario del módulo DARTEL­­>create warped

El proceso es muy rápido y tiene como salida las imágenes corregidas (sin

reemplazar las anteriores). En la figura 40 se muestra la evolución de uno de los pacientes

a través del preprocesamiento. En primer lugar se tiene el mapa de anisotropía fraccional

crudo, luego el mismo mapa corregistrado con los demás pacientes y, por último, la imagen

alineada con el template generado.

Figura 40. A la izquierda se ve el mapa de anisotropía fraccional original de uno de los pacientes. La imagen central corresponde al mismo mapa, corregistrado con los demás mapas. En la imagen de la derecha se ve la imagen alineada con el template generado.

61

Page 62: Facultad de Ciencias Exactas - UNICEN

Creación de máscara

Lo único que dista a los datos de poder compararlos sería aplicarles alguna máscara

ya que los valores que se desean comparar son sólo aquellos correspondientes a la materia

blanca. Para poder crear la máscara, se utilizó nuevamente el módulo new segment de

SPM, sobre el template generado por DARTEL y se umbraló el segmento generado

resultando una máscara adecuada (valor de umbral 0.1). En la figura 41 se puede ver uno

de las imágenes con la máscara ya aplicada.

Figura 41: Mapa de anisotropía fraccional de un paciente, registrado con los demás y con máscara aplicada.

Por otro lado, se decidió aplicar un suavizado en la imagen, para poder minimizar los

efectos que pueden haber generado una mala registración entre imágenes.

Suavizado

Para poder realizar un suavizado de las imágenes se utilizó el módulo SPM→

Smooth [44]. Como entrada se deben especificar las imágenes que se desean suavizar y el

tamaño del núcleo de suavizado Gaussiano (Full­width at half maximun) que se desea

aplicar. Otra vez se optó por utilizar valores similares a los utilizados en otros estudios, y se

utilizó un valor de [4 4 4]. Se aplica rápidamente, y ahora los datos ya están listos para

poder ser comparados mediante un análisis estadístico adecuado.

Debido a que las imágenes suavizadas perdían gran parte de la definición que

tenían sus predecesoras (ver figura 42), el análisis estadístico se realizó dos veces: sobre

las imágenes sin suavizar y sobre las suavizadas.

62

Page 63: Facultad de Ciencias Exactas - UNICEN

Figura 42. A la izquierda se ve la imagen enmascarada, sin aplicar el suavizado. A la derecha se presenta la misma imagen, luego de aplicarle el filtro Gaussiano

Figura 43. Interfaz gráfica de usuario del módulo SPM­­>Smooth

Cálculo de estadísticas

63

Page 64: Facultad de Ciencias Exactas - UNICEN

Para lograr una coherencia entre los resultados obtenidos con esta herramienta y

con los logrado a partir de FSL, el diseño del modelo estadístico se mantienen igual para

ambas. Se agrupan los pacientes en dos grupos: un grupo con los pacientes P1 y P2 y otro

con los individuos P3 y P4. Los contrastes a realizar serán también iguales: se calculará en

qué zonas de los mapas los valores de anisotropía fraccional son significativamente

mayores para un grupo que para el otro y viceversa. Para generar el modelo estadístico a llevar a cabo, en primer lugar se utiliza la

herramienta specify­2nd level que se corresponde con el análisis de grupos (a diferencia de

specify­1st level que se utiliza para estudios de individuo). En la figura 44 se muestra la

interfaz correspondiente.

Figura 44. Interfaz gráfica de usuario de la herramienta specify 2nd­level

En el campo diseño se elige “Two­sample t­test”. Se deben especificar cómo se

desean separar los dos grupos y el directorio donde se desea guardar el diseño. Presenta

más parámetros que, para este caso en particular, se dejaron con sus valores por defecto.

Como salida se presenta un archivo llamado SPM.mat que resume la especificación del

diseño estadístico.

64

Page 65: Facultad de Ciencias Exactas - UNICEN

Figura 45. Imagen que resume el diseño del análisis estadístico

Una vez creados los grupos se utiliza la herramienta “Estimate” de SPM, la cual

tiene como entrada el archivo SPM.mat generado en el paso anterior.

Figura 46. Interfaz gráfica de usuario del módulo estimate

65

Page 66: Facultad de Ciencias Exactas - UNICEN

Por último, se deben especificar los contrastes a realizar y ejecutar el análisis. Para

esto se cuenta con la herramienta “Results” que, nuevamente, tiene como archivo de

entrada SPM.mat. Como salida presenta 5 archivos de tipo .nii:

beta_0001

beta_0002

mask

ResMS

RPV

En este caso, al igual que cuando se analizó la herramienta FSL, se decidieron

definir dos contrastes para poder analizar en qué vóxeles difieren significativamente ambos

grupos.

Figura 47. Interfaz gráfica de usuario para la creación de contrastes

Una vez generado todo el análisis, se pueden visualizar los resultados. Para poder

ver los resultados se debe elegir alguno de los contrastes y luego ciertos parámetros como:

Máscara.

p­value.

Extensión del resultado: referido en cantidad de vóxeles. Esto indica el

tamaño de los agrupamientos de vóxeles que representen gran diferencia.

Para el caso de la imagen sin suavizar, no se utilizó máscara. En cambio para la

imagen suavizada se utilizó la máscara creada en pasos anteriores. Esto fue para evitar que

en la comparación entre grupos aparecieran diferencias fuera de las zonas deseadas,

debidas a la aplicación del filtro.

66

Page 67: Facultad de Ciencias Exactas - UNICEN

En cuanto al p­value (valor de significancia) se fue variando sólo para ver los

resultados obtenidos. En la figura 48 se muestra un ejemplo del mapa estadístico generado

por la herramienta, para un valor de p=0.05

Figura 48. Resultados luego de aplicar el módulo Results. Valor p=0.05

Además, con esta herramienta, se permite a partir del mismo archivo (SPM.mat)

recalcular los resultados, variando distintos parámetros tales como el valor de p, la

aplicación de máscara o incluso el contraste. Los resultados pueden almacenarse como una

archivo .fig para luego poder visualizarse.

67

Page 68: Facultad de Ciencias Exactas - UNICEN

Capítulo 6: Comparación entre herramientas

Comparación de la arquitectura

En esta sección se compara la estructura arquitectónica general de ambas

herramientas, principalmente en lo que se refiere al procesamiento de las imágenes y, por

consiguiente, al flujo de trabajo realizado con ellas.

Ambas herramientas funcionan de manera similar: para lograr versatilidad separan

sus prestaciones en módulos bien delimitados, los cuales tienen una funcionalidad

específica, permitiendo que el usuario pueda elegir los pasos a seguir en su análisis.

En la mayoría de los casos, los módulos presentan como variables de entrada una o

más imágenes, las cuales se pueden modificar, usar de template o realizar cálculos sobre

ellas. Las variables de salida de ambas herramientas suelen ser también imágenes, sobre

las cuales se ha aplicado algún procesamiento deseado por el usuario. De esta forma, y

como pudo apreciarse en los capítulos anteriores, cuando se desea realizar un trabajo que

involucra el procesamiento de imágenes, éste es realizado en cierta cantidad de pasos

atómicos y desacoplados, vinculados por las imágenes de salida. Como se puede ver en la

figura, la salida de un paso en el procesamiento, es entrada del siguiente.

Figura 49. Se presenta un simple ejemplo del flujo de trabajo general de estas herramientas

De esta forma también se permite la paralelización de trabajos (siempre y cuando el

procesador y el sistema operativo lo permita) aumentando el throughput y, por consiguiente,

la productividad y/o eficiencia en el trabajo a realizar.

En casos especiales para facilitar largos procesamientos, la herramienta SPM, en

sus herramientas anexas, cuenta con módulos que consisten en la combinación de dos o

68

Page 69: Facultad de Ciencias Exactas - UNICEN

más módulos simples. De esta forma, se automatiza el proceso, minimizando la intervención

del usuario.

Codificación El desarrollo de este trabajo fue principalmente centrado en el análisis y

comparación de las herramientas nombradas anteriormente y de los resultados obtenidos

por ellas en el análisis de imágenes de difusión.

Durante el procesamiento realizado con ambas herramientas, se partió de los scripts

templatizados provistos por ellas, los cuales se instanciaron según las necesidades

correspondientes a cada paso.

En cuanto a la herramienta FSL, el flujo de trabajo era claro: presenta un conjunto de

herramientas específico para el preprocesamiento de imágenes de difusión que siguen un

orden preestablecido. También presenta, como se expuso en la sección FSL­­>Análisis

estadístico­­>TBSS, un módulo específico para la preparación de los mapas de anisotropía

fraccional para el posterior análisis estadístico. Es por eso que para utilizar esta herramienta

se necesitó estudiar y comprender los scripts, y luego aplicarlos con los parámetros

adecuados.

SPM presenta una interfaz que facilita la creación y guardado de scripts, que fue

utilizada en todos los pasos del procesamiento de imágenes. En cada uno de los pasos, los

parámetros fueron modificados para adaptarse al conjunto de imágenes de entrada en

proceso.

Luego de realizar el workflow en ambas herramientas, los resultados fueron

comparados. En todos los casos se realizó una comparación cualitativa (inspección visual),

en algunos casos, se realizó también una comparación y análisis cuantitativo evaluando

métricas de calidad. Para realizar el análisis cuantitativo, se desarrollaron rutinas que

permiten analizar de forma cuantitativa las diferencias entre las imágenes resultantes en

cada paso.

Estas rutinas de comparación se desarrollaron en la plataforma MATLAB,

especializada en el análisis de imágenes. Se eligió esta plataforma, debido a sus rutinas

especializadas en la manipulación de imágenes y su facilidad en hacer comparaciones a

nivel vóxel, ya que opera con las imágenes en forma de matrices n­dimensionales, con

optimización en las operaciones entre ellas.

Las rutinas implementadas fueron especializadas para cada comparación que se

realizó, y su objetivo principal fue extraer indicadores de similitud o distancia entre las

imágenes resultantes por ambas herramientas.

69

Page 70: Facultad de Ciencias Exactas - UNICEN

Comparación de resultados

Corrección de distorsiones

Como se dijo anteriormente los artefactos más comunes en las imágenes de difusión

están relacionados con las corrientes de Foucault y con el movimiento de cabeza del

paciente. La mayoría de las herramientas especializadas en las imágenes de difusión han

desarrollado módulos especializados en la corrección de estos artefactos.

FSL presenta su módulo: eddy_correct y SPM el suyo: ECMOCO. Ambos funcionan

de forma automática y presentan pocos parámetros. SPM presenta una salida más

completa, con archivo correspondientes a los cambios realizados y gráficos

correspondientes. Visualmente no se ven grandes cambios en los resultados de ambas

herramientas ni entre ellos y el original.

La ventaja de la herramienta FSL sobre SPM es la aparición de una mejora sobre el

algoritmo básico y es la aplicación del algoritmo eddy junto con el módulo top up (ambos

sólo por línea de comando). Si bien no se utilizó en este trabajo, ya que se buscaba

contrastar algoritmos similares en ambas herramientas, es bueno destacar que presenta

ciertos avances sobre el algoritmo clásico.[48]

Dado que visualmente no se destacan grandes diferencias entre los resultados, se

decidió realizar ciertas operaciones entre las imágenes para destacar sus diferencias. El

primer paso a seguir fue normalizar ambas imágenes, llevándolas a la escala [0,1], ya que

sus valores eran muy amplios y no respetaban la misma escala. Para lograr esto se realizó

la siguiente operación:

´M = M−min(M)max(M)−min(M)

Siendo M´ la imagen normalizada, M la imagen original, Min(M) la intensidad mínima

presente en la imagen y Max(M) la intensidad máxima.

Con esto se logró que todos los valores de la imagen quedaran comprendidos en la

escala [0,1] respetando las proporciones entre ellos.

Una vez logrado esto, se tienen las imágenes normalizadas. Lo que se hace a

continuación, es crear una nueva imagen de iguales dimensiones a las originales, en la que

la intensidad de cada voxel representa el valor absoluto de la diferencia entre los vóxeles

correspondientes a la misma posición de las imágenes a comparar.

En la figura 50 se muestra la imagen resultante de calcular la diferencia entre

vóxeles.

70

Page 71: Facultad de Ciencias Exactas - UNICEN

Figura 50. En la imagen se muestra la diferencia de intensidades entre las dos imágenes.

Además, para tener un valor numérico y no sólo visual, se realizó una sumatoria de

todas esas diferencias y se dividió ese valor por la cantidad de vóxeles de la imagen

teniendo así una media de la diferencia por voxel. Además se determinó la máxima y

mínima diferencia presente entre vóxeles.

En la siguiente tabla se presentan los resultados obtenidos. Cada columna

representa a un paciente distinto y las filas corresponden a cada indicador calculado.

Diferencias entre las imágenes corregidas

P1 P2 P3 P4

Diferencia por voxel

0.0110 0.0158 0.0100 0.0393

Máxima diferencia entre vóxeles

0.2946 0.4989 0.3545 0.4020

Mínima diferencia entre vóxeles

0 6.9132e­10 8.6183e­10 2.0775e­07

Como puede apreciarse en las estadísticas, el promedio de diferencia es muy bajo,

resultando en imágenes similares, pero los valores máximos de diferencia son elevados,

llegando a casi 0.5 en el paciente P2.

A modo de análisis se buscó la ubicación de aquellos vóxeles que presentan más

diferencia entre las dos imágenes preprocesadas, se descubrió que corresponden a

aquellos que forman parte del cráneo o de la materia gris (ver figura 51), principalmente en

los bordes, lo cual no es de importancia para este problema en particular ya que los análisis

subsiguientes están centrados en el análisis de la materia blanca.

71

Page 72: Facultad de Ciencias Exactas - UNICEN

Figura 51. Se muestra en azul los máximos valores de diferencia entre imágenes

Como última prueba se decidió aplicarles una máscara a las imágenes, para dejar

de lado aquellos vóxeles pertenecientes al fondo de la imagen y al cráneo. De esta forma se

busca evitar que las diferencias entre vóxeles que no contribuyen luego en el cálculo de

autovalores y autovectores alteren el valor estadístico. La máscara aplicada a las imágenes

(para este paso en particular) fue la misma para ambas.

Se realizaron los mismo cálculos que anteriormente, y además se tomó el error

promedio de los vóxeles distintos de cero: en otras palabras, no se dividió la suma del error

por la cantidad total de vóxeles, sino por aquellos pertenecientes a la máscara.

En la siguiente tabla se muestran los resultados, nuevamente las columnas

corresponden a los pacientes, y las filas a los indicadores calculados.

Diferencias entre las imágenes corregidas con máscara aplicada

P1 P2 P3 P4

Diferencia por voxel 0.0023 0.0021 0.0018 0.0086

Diferencia por voxel, sin tener en cuenta el fondo

0.0085 0.0088 0.0071 0.0377

Máxima diferencia entre vóxeles

0.2946

0.4989 0.3545

0.3771

Mínima diferencia entre vóxeles

0 0

0 0

72

Page 73: Facultad de Ciencias Exactas - UNICEN

Figura 52. Diferencia por vóxel entre imágenes preprocesadas con ambas herramientas. La línea naranja corresponde al análisis de las imágenes sin aplicarles máscara, la azul luego de aplicar una máscara y sin promediar los vóxeles correspondientes al fondo de la imagen.

Como se puede ver en la figura 52, al aplicar la máscara la diferencia por vóxel

decrece para todos los pacientes, resultando un valor aún más bajo, incluso cuando no se

tuvo en cuenta el fondo.

Luego de realizar estos análisis se puede concluir que ambas herramientas logran

un resultado bastante similar, presentando grandes diferencias en los bordes de las

imágenes, probablemente debido a una leve desalineación entre ellas. El uso de ambas

herramientas es simple y presenta pocos parámetros. La elección de una herramienta u otra

por parte del usuario para realizar estas correcciones, no dependerá principalmente de los

resultados esperados, sino de otros aspectos tales como la eficiencia o la plataforma

deseada. Como se verá en la sección de este capítulo, correspondiente al análisis de

eficiencia de ambas herramientas, FSL consigue realizar las correcciones en

aproximadamente la mitad del tiempo que SPM, lo cual puede ser un aspecto a tener en

cuenta al momento de elegir herramienta.

Extracción de parénquima cerebral

Como se expuso anteriormente, ambas herramientas presentan un módulo para la

creación y aplicación de una máscara, facilitando así la extracción del parénquima cerebral.

73

Page 74: Facultad de Ciencias Exactas - UNICEN

FSL presenta el módulo BET (brain extraction tool) el cual genera máscaras de

buena calidad y presenta ciertos parámetros que han sido retocados para lograr una

máscara deseable para este trabajo en particular (ver capítulo FSL).

SPM, dentro de su herramienta ACID presenta un módulo especializado para la

creación de máscaras con parámetros similares a el módulo BET. La diferencia está en su

aplicación, para lograr la creación de la máscara primero se tiene que segmentar la imagen

utilizando el módulo new segment de SPM (ver capítulo SPM). Este detalle hace que la

aplicación general sea menos sencilla, requiriendo de un paso extra.

En cuanto a sus resultados, como se ve en la figura 53, la máscara creada por SPM

excede a la creada por FSL sobre todo en la región inferoposterior, siendo una máscara un

poco mayor a lo deseada.

Figura 53. En la imagen se ven las máscaras creadas por ambas herramientas, superpuestas. La máscara verde corresponde a la creada con FSL, la azul a la creada por SPM.

Figura 54. En la imagen se ven las máscaras creadas por ambas herramientas, sobre el mismo corte. La máscara verde corresponde a la creada con FSL, la azul a la creada por SPM.

Nuevamente, para realizar una comparación numérica entre ambos resultados, se

tomaron ciertos indicadores para comprobar qué tanto se parecen ambas máscaras. Debido

a que no se tenía una delineación ideal marcada manualmente, no fue posible tomar

indicadores que representaran la precisión de estas máscaras, entonces se decidió

compararlas entre ellas. Para ello se utilizó el coeficiente de Sorensen­Dice [46][47].

74

Page 75: Facultad de Ciencias Exactas - UNICEN

Este coeficiente es un estadístico utilizado para comparar la similitud de dos

muestras, fue desarrollado independientemente por la botánicos Thorvald Sørensen y Lee

Raymond Dice . Su fórmula es la siguiente:

SQ = A + B| | | |

2 A||| ∩

B|||

donde A y B son el número de especies en las muestras A y B, respectivamente, y C

es el número de especies compartidas por las dos muestras; QS es el cociente de similitud

y varía de 0 a 1.

Si bien este indicador fue creado para la comparación de especies, es fácilmente

aplicable a cualquier conjunto, dando una medida de qué tan similares son dos conjuntos.

Para calcularlo primero se calculó la intersección de ambas máscaras

multiplicándolas entre ellas.

para todo voxel de las máscaras.ij M1 2)ij 1ij 2ij M = ( ∩

M = M *M

Se obtiene así, una nueva imagen con iguales dimensiones que las máscaras,

donde cada voxel de ella representa la multiplicación de los vóxeles de igual posición de

ambas máscaras.

Para sumar el número de elementos de cada máscara, simplemente se sumó el

valor de todos sus vóxeles. Luego, el indicador de Sorensen­Dice se calculó para cada

paciente dividiendo la intersección entre las máscaras por la suma de elementos de ellas.

Como complemento se calculó que tanto difieren cada máscara de la intersección entre

ellas, para ello se dividió la cantidad de vóxeles en los que difieren sobre la cantidad de

elementos de la intersección. A continuación se muestra la fórmula:

ifD =M1 2||| ∩

M|||

M1 − M1 2| |||| ∩

M|||

En la siguiente tabla se muestran los indicadores calculados para cada imagen.

P1 P2 P3 P4

Índice de Sorensen­Dice

0.9821 0.9815 0.9796 0.9362

Tamaño de intersección (|Intersección|)

498020 vóxeles

439860 vóxeles

464430 vóxeles

427080 vóxeles

75

Page 76: Facultad de Ciencias Exactas - UNICEN

Tamaño de máscara generada por FSL (|FSL|)

503514 vóxeles

443546 vóxeles

476655 vóxeles

427182 vóxeles

Tamaño de máscara generada por SPM (|SPM|)

510660 vóxeles

452750 vóxeles

471560 vóxeles

485220 vóxeles

|FSL||Intersección|

0.0110

0.0083 0.0263 0.0002

|SPM ||Intersección| 0.0253 0.0293 0.0154 0.1361

Como puede apreciarse en la tabla, ambas muestras son muy similares para todos

los pacientes, dando un valor por encima de 0.90 en todos los casos y muy cercano a 1 en

los pacientes P1, P2 y P3. Además (en general) FSL genera una máscara más acotada y,

por ende, más cercana a la intersección. Hay que destacar también que la similitud entre las

máscaras se debe también en parte a los ajustes realizados en los parámetros de entrada

de los algoritmos correspondientes a cada herramienta. Con estos ajustes se buscó que la

máscara resultante se asimile lo más posible a lo que se creía una máscara “ideal” para

este caso en particular.

Como conclusión puede decirse que ambas herramientas funcionan bien, generando

máscaras similares y adecuadas. Ambas necesitan de un ajuste de los parámetros de

entrada para lograr el objetivo, por lo menos para las imágenes de este experimento en

particular. El uso de SPM es más tortuoso ya que primero debe segmentarse la imagen y

luego recién crear la máscara. FSL lo hace automáticamente.

Cálculo de autovalores y autovectores

Para buscar diferencias en este punto se tuvieron en cuenta sólo los mapas de FA.

Se utilizó el mismo método que para la corrección de distorsiones, solo que las imágenes ya

estaban normalizadas y enmascaradas. Simplemente se tomó la media de la diferencia

pixel a pixel, sin tener en cuenta los valores 0. En la figura 55 se muestra, en primer lugar,

un mapa con las diferencias entre las imágenes a nivel vóxel.

76

Page 77: Facultad de Ciencias Exactas - UNICEN

Figura 55. Diferencias entre los mapas de anisotropía fraccional calculados por ambas herramientas

Luego, al igual que para comparar la corrección de distorsiones, se realizó un

análisis numérico. Para el análisis se utilizó matlab, por su facilidad para operar

aritméticamente con imágenes. En la siguiente tabla se muestran los resultados:

P1 P2 P3 P4

Máxima diferencia entre vóxeles

1 1 1 1

Mínima diferencia entre vóxeles

0 0 0 0

Diferencia por vóxel 0.0294 0.0283 0.0242 0.0240

Diferencia por vóxel, sin tener en cuenta el fondo

0.0958 0.1035 0.0867 0.0939

Por último, como se puede observar en la figura las mayores diferencias se deben a

que la máscara aplicada a ambas imágenes es diferente. Para evitar que se refleje en los

resultados las diferencias generadas en pasos anteriores del procesamiento, se decidió

aplicar la misma máscara a ambas imágenes para poder así realizar los cálculos. En la

siguiente tabla se muestran los resultados luego de aplicar la máscara.

P1 P2 P3 P4

Máxima diferencia entre vóxeles

1 1 1 1

Mínima diferencia entre vóxeles

0 0 0 0

Diferencia por vóxel 0.0136 0.0136 0.0137 0.0137

77

Page 78: Facultad de Ciencias Exactas - UNICEN

Diferencia por vóxel sin tener en cuenta el fondo

0.0508 0.0578 0.0541 0.0603

Como se puede apreciar comparando los valores obtenidos (ver figura 56), el valor

de diferencia promedio entre imágenes disminuyó considerablemente en todos los

pacientes cuando a ambas imágenes se les aplica la misma máscara. Aún así los valores

mayores de diferencia se localizan en los vóxeles periféricos.

Figura 56. Diferencias de intensidad entre vóxeles para uno de los pacientes del conjunto.

Figura 57. Gráfico que representa la diferencia promedio entre ambos mapas de anisotropía fraccional. La línea azul corresponde a la comparación entre los mapas resultantes de cada herramienta. La línea naranja a esos mismos mapas pero con igual máscara aplicada. En ambos indicadores, no se tuvo en cuenta el fondo para calcularlos.

78

Page 79: Facultad de Ciencias Exactas - UNICEN

Como puede observarse en los indicadores extraídos, nuevamente los resultados

obtenidos con ambas herramientas son similares. El uso de una otra no modificaría el

resultado final, por lo cual la elección de una de ellas dependerá de otros aspectos.

Análisis estadístico

La mayor diferencia que presentan ambas herramientas a lo largo del procesamiento

realizado en este trabajo es el enfoque que tienen al momento de buscar diferencias entre

individuos en sus mapas de FA.

SPM utiliza el enfoque basado en vóxeles, el cual es ampliamente utilizado para

comparación entre individuos o a través del tiempo. No es específico para la materia blanca

y requiere que los datos sufran transformaciones no­lineares para lograr que los mapas

resulten lo más alineados posible.

El mayor problema en este tipo de herramienta son las registraciones, es

comprobado que los resultados obtenidos por este tipo de análisis en FA, está fuertemente

ligado al tipo de registración utilizado. Hay acá un conflicto: por un lado se debe poder de

alguna forma asegurar que la comparación que se realiza corresponde a las mismas

regiones/vóxeles entre individuos, pero, por otro lado, si esto se logra mediante una

registración estricta, ciertas características de los pacientes se pierden.

El uso de suavizado en las imágenes como parte del proceso es también

controversial. Puede ayudar a mejorar desalineaciones residuales, pero puede cambiar la

naturaleza de la imagen si no se elige adecuadamente, no existen criterios de importancia

para poder elegirlo.

FSL surge como una mejora ante los algoritmos de VBS ya utilizados, pero tiene sus

limitaciones. FSL presenta un enfoque nuevo (2006) específico para materia blanca y, más

específicamente, para mapas de anisotropía fraccional. Las registraciones llevadas a cabo

por esta herramienta tienen en cuenta los tractos principales y los utiliza para poder registrar

los distintos individuos. Es más “confiable”, es más segura la correspondencia entre vóxeles

de distintos individuos, algo que no se logra completamente con SPM.

Por otro lado, hay zonas extensas de la materia blanca que son dejadas de lado en

este enfoque, dependiendo el estudio, ciertas diferencias pueden no ser halladas. La

formación del esqueleto reduce el tracto al ancho de un voxel. Esto podría empeorar aún

más con la mejora de la resolución de las resonancias, donde los vóxeles serán de un

tamaño menor y, por ende, mayor parte (grosor) de los tractos serán dejados de lado. Al

dejar de lado la direccionalidad y sólo utilizar los valores de anisotropía fraccional en el

79

Page 80: Facultad de Ciencias Exactas - UNICEN

armado del esqueleto, puede haber problema en la proyección, ya que en ciertos lugares

hay cruce de fibras y puede que los vóxeles no sean bien reconocidos.

Además, el ruido puede llegar a afectar la generación del esqueleto. También,

debido a que el esqueleto es creado a partir del promedio de los pacientes, la robustez del

mismo se ve comprometida por ellos. En otras palabras, si los pacientes presentan mucha

variabilidad estructural entre ellos, el esqueleto resultante puede no ser adecuado.

Este método funciona especialmente para la comparación entre tractos principales.

En los tractos secundarios es más problemático. Cuando el ancho del tracto es menor que

un voxel, es difícil determinar por qué existe una reducción en el valor de FA. Esto puede

ser debido a que el valor de intensidad del voxel se ve afectada por materia gris o a una

disminución real de la anisotropía fraccional.

También existe la posibilidad que se excluyan partes de la materia blanca de la

formación del esqueleto, debido a una alta reducción de FA debido a alguna patología. En

este caso, regiones de gran importancia en el estudio (ya que representan grandes

cambios) no serían tenidas en cuenta. Esto no es muy probable que ocurra, disminuyendo

esta probabilidad con el aumento de pacientes en el estudio. Pero, en caso de que el

análisis sea para un mismo paciente a través del tiempo, y que la disminución del valor de

anisotropía fraccional sea notoria, los resultados sí pueden verse afectados por esta

problemática.

Ambas herramientas y, especialmente FSL, presentan problemas si la enfermedad a

investigar tiene asociados cambios morfológicos. Sus comparaciones nos están centradas

en ello, sino en analizar los cambios de anisotropía fraccional.

Expuestas las virtudes y debilidades de cada una de ellas, se puede ver que el

enfoque presente en ellas para la preparación de datos para el análisis estadístico es muy

distinto. En este trabajo, se buscó realizar un flujo de trabajo con SPM lo más adecuado

posible al estudio que se desea realizar. Se tomaron trabajos relacionados, en los que se

realizan comparaciones entre mapas de anisotropía fraccional y se aplicaron pasos

similares, basados en el enfoque general de VBM.

La elección de una herramienta u otra para poder realizar comparaciones ya no

depende de factores como la eficiencia sino del método aplicado en sí. FSL, con su módulo

TBSS, presenta un enfoque claro, organizado y más preciso, en el que las diferencias

detectadas son confiables aunque acotadas. No se ve tan fuertemente afectada por la

registración como SPM, pero no es aplicable a cualquier estudio ya que no detecta cambios

en la totalidad de la materia blanca.

80

Page 81: Facultad de Ciencias Exactas - UNICEN

Por otro lado SPM, sí realiza un estudio “global” del cerebro. Incluso puede aplicarse

al estudio de materia gris (en este caso particular no tiene sentido, ya que la anisotropía

fraccional de la materia gris no es tan variable como en la materia blanca). Si bien puede

detectar diferencias en mayores zonas, la alineación de tractos entre pacientes no es tan

confiable como en TBSS y se encuentra altamente afectada por la registración llevada a

cabo en el preparado de los datos.

Si el estudio a realizar fuese la evolución de un paciente a lo largo de, por ejemplo,

una enfermedad, SPM puede resultar un método muy adecuado. Debido a que la estructura

global no varía a través del tiempo, las registraciones a realizar no afectarán fuertemente la

“anatomía” del paciente, logrando una alineación buena sin grandes transformaciones no

lineares en las imágenes originales. Así, detectar cambios en los valores de anisotropía

fraccional a través del tiempo se ve facilitado por el uso de esta herramienta.

Atributos de calidad

En esta sección se analizan otros aspectos para poder comparar ambas

herramientas, independientes de los métodos utilizados y relacionados con sus atributos de

calidad.

Ambas herramientas son gratuitas, aunque SPM, al estar desarrollada sobre

MATLAB, requiere de su instalación previa, la cual tiene un costo asociado. FSL es gratuita

para el uso académico y no requiere ninguna herramienta de base.

Ambas son de instalación muy simple. Y ambas funcionan sobre una amplia

variedad de plataformas. FSL no funciona sobre el sistema operativo Windows, sólo lo logra

por medio de una máquina virtual.

En cuanto a la extensibilidad, SPM es fácilmente extensible y dispone de muchos

complementos especializados en distintos procesamientos de neuroimagen desarrollados

por investigadores alrededor del mundo. Al igual que MATLAB, es colaborativo y presenta

facilidades para incorporar estas distintas herramientas. Tiene un batch editor, que funciona

como una interfaz común a los distintos módulos que posee. En este batch editor se facilita

el armado de scripts, mediante la elección de los parámetros necesarios para cada proceso.

Pueden cargarse distintos módulos y ejecutarse en conjunto, además tiene la posibilidad de

guardar los scripts para ejecutarlos en otro momento o modificarlos.

FSL presenta también la facilidad de ejecutar scripts, pero estos por medio de una

terminal. Por otro lado, muchos de sus módulos cuentan con una GUI, pero al ejecutar por

medio de la interfaz de usuario, los scripts no se guardan, solo se ejecutan. Si se quiere

automatizar un proceso, deben generarse manualmente los scripts.

81

Page 82: Facultad de Ciencias Exactas - UNICEN

Ambos presentan buena usabilidad. Aunque FSL es más intuitivo para el usuario, se

encuentra bien estructurado, con buena navegabilidad y sin demasiado anidamiento. SPM,

en cambio, es menos amigable para el usuario.

En cuanto a la visualización de imágenes, ambas presentan módulos para ello, pero

FSL presenta una interfaz más completa. Con la posibilidad de visualizar distintas imágenes

en un mismo espacio, a modo de capas. Presenta opciones de edición de las imágenes

(colores, modulación...)

En cuanto a la documentación o guías de uso, los módulos integrados de SPM

dependen de sus creadores, algunos módulos se presentan muy completos, otros no. Los

módulos base, en cambio, se encuentran descritos en el manual de la herramienta, donde

se especifica su modo de uso y ejemplos de su aplicación.

SPM permite la conversión de imágenes del formato DICOM al formato .NIFTI, FSL

no.

SPM presenta un amplio módulo de análisis estadístico, aunque mayormente

enfocado en las fMRI. Además, al estar integrado en MATLAB, se encuentra la posibilidad

de poder realizar subprocesos desde la terminal de matlab de manera totalmente integrada

con la herramienta y tomando provecho de sus facilidades para operar con imágenes.

Eficiencia Como última medida de comparación se decidió medir la eficiencia de cada

herramienta a lo largo de todo el procesamiento. Para esto se registraron los tiempos que

tardan en realizar cada tarea, para poder compararlos luego. Para poder contrastar los

datos de manera más fácil, los tiempos se registraron en una tabla y luego se realizó un

gráfico en base a ellos.

Tiempos correspondientes al preprocesamiento y el cálculo de autovalores y

autovectores para ambas herramientas (por paciente).

SPM FSL

Corrección de distorsiones 60 minutos 30 minutos

Extracción de parénquima cerebral 9 minutos 1 minuto

Cálculo de autovalores y autovectores 2 minutos 1 minuto

Tiempo total 71 minutos 32 minutos

82

Page 83: Facultad de Ciencias Exactas - UNICEN

Figura 58. El gráfico representa los tiempos que tarda cada herramienta en realizar el preprocesamiento sobre las imágenes.

En las siguientes tablas se encuentran los tiempos que registra cada herramienta en

los pasos correspondientes al preparado de las imágenes para análisis estadístico.

Tiempo de preparado de los mapas de FA por parte de la herramienta SPM

Paso del procesamiento Tiempo registrado

Corregistración entre pacientes 4 minutos

Creación del template 70 minutos

Registración no linear con el template 1 minuto

Suavizado 1 minuto

Total 76 minutos

Tiempo de preparado de los mapas de FA por parte de la herramienta FSL

Paso del procesamiento Tiempo registrado

TBSS_1_preproc 2 minutos

TBSS_2_reg 110 minutos

83

Page 84: Facultad de Ciencias Exactas - UNICEN

TBSS_3_postreg 5 minutos

TBSS_4_prestats 1 minuto

Total 118 minutos

Figura 59. El gráfico representa los tiempos que tarda cada herramienta en preparar los

mapas de anisotropía fraccional para el posterior análisis estadístico.

Cabe aclarar que la plataforma es distinta para ambas herramientas, FSL se

ejecutaba sobre una máquina virtual con ubuntu, con un límite de 4 GB de memoria RAM y

2 procesadores, esta máquina virtual se encontraba corriendo sobre una máquina con

sistema operativo windows 8. SPM, en cambio, se encontraba corriendo sobre el sistema

operativo nativo (windows 8), con 8 GB de memoria RAM y procesador i5­5200U con 2

núcleos.

Al no ejecutarse sobre la misma plataforma, la diferencia de eficiencia no es una

medida 100% confiable y se encuentra ligada al entorno de ejecución de las herramientas.

FSL, de esta forma, se encuentra desfavorecida, al no tener acceso pleno a las

prestaciones de la máquina.

A pesar de esto, en el caso del preprocesamiento previo al cálculo de autovalores y

autovectores, FSL superó considerablemente en tiempo a SPM, logrando procesar las

imágenes en un tiempo menor y obteniendo unos resultados similares a los alcanzados por

SPM. Esta diferencia, se encuentra fuertemente ampliada con el aumento de pacientes, ya

que el tiempo de preprocesamiento por paciente de SPM es del doble que el de FSL, lo cual

resulta más notorio cuando la muestra es mayor.

84

Page 85: Facultad de Ciencias Exactas - UNICEN

Por otro lado, en el caso del preparado de los mapas de FA para el análisis

estadístico, la herramienta SPM logró realizar todo el proceso en un tiempo mucho menor

que FSL (76 minutos SPM y 118 FSL), concentrándose la mayor diferencia en la creación

de un template personalizado y la registración de las imágenes con el mismo. Nuevamente

hay que hacer una consideración: en el caso de FSL, la elevada cantidad de tiempo

transcurrido en ejecutar el módulo TBSS_2_reg se debe, principalmente, a la opción elegida

para este estudio. Como se expuso en la sección correspondiente, se decidió registrar las

imágenes de todos los pacientes con el individuo más típico de dicho conjunto. Para poder

lograrlo, previamente se debieron realizar muchos cálculos para poder determinar cuál

paciente era el más típico, cálculos que no fueron realizados con la herramienta SPM. En el

caso de que la cantidad de pacientes se incremente, en estudios posteriores, se hará

menos factible poder ejecutar tbss_2_reg con la opción elegida en este caso, debido a que

su tiempo se encuentre en el orden de O( ) siendo N la cantidad de pacientes de la N2

muestra.

85

Page 86: Facultad de Ciencias Exactas - UNICEN

Capítulo 7: Conclusiones En este trabajo se ha introducido el análisis, procesamiento y cuantificación de

imágenes neurológicas, especialmente de las imágenes de difusión, las cuales

principalmente son utilizadas para analizar la estructura y la integridad de la materia blanca

del cerebro.

A lo largo de este trabajo se han aplicado diversos conocimientos adquiridos durante

el desarrollo de la carrera. Estos conocimientos pertenecen a distintas ramas relacionadas

con física, álgebra lineal, análisis estadístico, análisis matemático, programación, análisis de

diseño de Software, ciencias de la computación y teoría de la información. En conjunto

logran establecer un marco teórico­práctico adecuado para el desarrollo de este trabajo.

Para acercarse al tema, se decidió seguir un workflow habitual en la práctica,

replicando parcialmente los pasos de un trabajo de investigación en el tema. Para lograrlo,

se utilizaron dos herramientas muy utilizadas en el ambiente de neuroimagen: SPM y FSL.

Ambas prestan facilidades para el análisis específico de imágenes de difusión. Lo que se

buscó en este trabajo fue, a medida que se iba conociendo el Software estudiado, poder

comparar las herramientas tanto en su estructura general como en los resultados obtenidos

con ellas.

Los primeros pasos llevados a cabo fueron los correspondientes al

preprocesamiento de las imágenes: corrección de distorsiones propias de las imágenes de

difusión, creación de una máscara adecuada y cálculo de las imágenes de tensor (DTI)

derivadas de las imágenes de difusión, entre ellas los mapas de anisotropía fraccional de

cada paciente. Estos mapas fueron los analizados en pasos posteriores de la investigación.

Como se pudo comprobar en la investigación, los resultados obtenidos con ambas

herramientas en esta etapa de preprocesamiento son similares. El uso de una u otra no

debería influir en el resultado final del estudio realizado sobre las imágenes preprocesadas.

La mayor diferencia que presentan en esta instancia es el tiempo de procesamiento: FSL lo

logra en aproximadamente la mitad del tiempo que SPM, lo cual cobra mayor importancia

con el crecimiento del número de imágenes que se desea procesar o de los volúmenes

correspondientes a cada imagen.

Luego de preprocesar las imágenes individualmente y calcular los mapas de

anisotropía fraccional para cada una de ellas, se realizaron ciertos procesamientos para

alinearlas y poder realizar comparaciones entre ellas. Para poder realizar este

procesamiento, FSL cuenta con un enfoque especializado para este tipo de imágenes y,

gracias a esto, presenta un flujo de trabajo claro. Los resultados obtenidos del análisis

86

Page 87: Facultad de Ciencias Exactas - UNICEN

estadístico a partir de las imágenes de esta herramienta, son más confiables, ya que la

alineación entre las distintas imágenes del conjunto es mejor lograda gracias al enfoque de

TBSS (tract based spatial statistics). Por otro lado, los resultados son más limitados ya que

la comparación entre imágenes se realiza sobre regiones acotadas de ellas. Por lo cual, si

bien el análisis no suele generar falsos positivos, puede presentar gran cantidad de falsos

negativos. Es por esto que el uso de esta herramienta depende principalmente de qué

objetivo tiene el usuario a la hora de comparar las imágenes.

Por otro lado, SPM no tiene un flujo de trabajo bien definido en esta área, y los

resultados obtenidos por ella dependen en gran parte del tipo de procesamiento y

registración que se haga sobre las imágenes del conjunto. El análisis con esta herramienta

puede realizarse comparando las imágenes completas y no sólo algunas áreas de ellas,

como con FSL, aunque los resultados obtenidos dependen en gran parte de las

deformaciones aplicadas en cada imagen en el procesamiento.

En cuanto el uso de ellas, ambas son de fácil aprendizaje. Si se quieren realizar

cálculos intermedios sobre las imágenes, SPM presenta más facilidades para ello: al estar

integrada con MATLAB se pueden crear rutinas intermedias de manera muy simple, y

aplicarlas sobre la imágenes sin problemas de “integración” y contando con las facilidades

que aporta el lenguaje.

Ambas herramientas se presentan completas y la elección sobre alguna de ellas

dependerá básicamente del tipo de comparación que se quiera hacer entre las imágenes o

de la plataforma sobre la que el usuario suela utilizar. Si el estudio comparativo es entre

imágenes del mismo tipo y para un sujeto en particular (por ejemplo a través del tiempo) es

probable que los resultados obtenidos con SPM sean más fructíferos. Esto se debe a que,

posiblemente, la registración entre estas imágenes no deforme mucho a las originales y, las

diferencias entre ellas sean reales y no consecuencia de una mala alineación.

Trabajos futuros

La línea de trabajo de análisis de imágenes de difusión es prometedora,

principalmente por sus aplicaciones en el entendimiento del cerebro humano, su

funcionamiento y tratamiento en el caso de enfermedades. Gracias a los avances científicos

y tecnológicos, el área de neuroimagen es un campo en constante crecimiento.

Como trabajos futuros se propone una especialización más profunda en el área,

empezando por comprender en mayor detalle los pasos en el procesamiento de las

imágenes de difusión y buscando una manera óptima de aplicarlos.

87

Page 88: Facultad de Ciencias Exactas - UNICEN

Otro campo que ha demostrado gran potencial y el que, gracias a los avances en el

desarrollo de técnicas relacionadas, presenta una línea de investigación prometedora, es el

relacionado con la tractografía. Es importante lograr exprimir al máximo la información

contenida en las imágenes de difusión y poder entender más en profundidad la estructura y

conectividad del sistema nervioso central.

88

Page 89: Facultad de Ciencias Exactas - UNICEN

Bibliografía

1. Villa­Uriol,M.C., Larrabide,I., et al (2010). Toward integrated management of cerebral aneurysms. Phil. Trans. Series A, Mathematical, physical, and engineering sciences, 368(1921), 2961–82.

2. Prckovska, V., M. Andorra, E. Martinez­Heras, P. Villoslada, R. Duits, D. Fortin, P. Rodrigues, and . Descoteaux. "Contextual diffusion image post­processing aids clinical applications." In Visualization and Processing of Higher Order Descriptors for Multi­Valued Data,, Springer, 2015.

3. Descoteaux, M. and C. Poupon. "Diffusion­Weighted MRI." In Comprehensive Biomedical Physics, edited by D. Belvic and K. Belvic, 3 (6): 81­97. Elsevier, 2014. DOI

4. Iturria Medina, Yasser. “Caracterización de la conectividad anatómica cerebral a partir de las neuroimágenes de la difusión y la teoría de grafos”. Diss. Universidad de Ciencias Médicas de la Habana., 2013.

5. del Toro, Oscar Alfonso Jiménez, et al. "Epileptogenic lesion quantification in MRI using contralateral 3d texture comparisons." Medical Image Computing and Computer­Assisted Intervention–MICCAI 2013. Springer Berlin Heidelberg, 2013. 353­360.

6. Shorvon, S. D. "Epidemiology, classification, natural history, and genetics of epilepsy." The Lancet 336.8707 (1990): 93­96.

7. Melcon, M. O., et al. "Prevalence of epilepsy in an Argentine community. Neuroepidemiology 21 (2002): 209.

8. Sander, Josemir W. "The epidemiology of epilepsy revisited." Current opinion in neurology 16.2 (2003): 165­170.

9. Kochen, S., and M. O. Melcon. "Prognosis of epilepsy in a community‐based study: 8 years of follow‐up in an Argentine community." Acta neurologica scandinavica 112.6 (2005): 370­374.

10. Smith, Stephen M., et al. "Tract­based spatial statistics: voxelwise analysis of multi­subject diffusion data." Neuroimage 31.4 (2006): 1487­1505.

11. Ashburner, John, and Karl J. Friston. "Voxel­based morphometry—the methods." Neuroimage 11.6 (2000): 805­821.

12. M.W. Woolrich, S. Jbabdi, B. Patenaude, M. Chappell, S. Makni, T. Behrens, C. Beckmann, M. Jenkinson, S.M. Smith. Bayesian analysis of neuroimaging data in FSL. NeuroImage, 45:S173­86, 2009

89

Page 90: Facultad de Ciencias Exactas - UNICEN

13. S.M. Smith, M. Jenkinson, M.W. Woolrich, C.F. Beckmann, T.E.J. Behrens, H. Johansen­Berg, P.R. Bannister, M. De Luca, I. Drobnjak, D.E. Flitney, R. Niazy, J. Saunders, J. Vickers, Y. Zhang, N. De Stefano, J.M. Brady, and P.M. Matthews. Advances in functional and structural MR image analysis and implementation as FSL. NeuroImage, 23(S1):208­19, 2004

14. 3. M. Jenkinson, C.F. Beckmann, T.E. Behrens, M.W. Woolrich, S.M. Smith. FSL. NeuroImage, 62:782­90, 2012

15. Duque, A., Roa, E., & Castedo, J. (2008). Anatomía de la sustancia blanca mediante tractografía por tensor de difusión. Radiología, 50(2), 99­111.

16. Filley, C. M. (2011). Neurobiology of white matter disorders.

17. Moritani, T., Ekholm, S., & Westesson, P. L. A. (2009). Diffusion­weighted MR imaging of the brain. Springer Science & Business Media.

18. Schaefer, P. W., Grant, P. E., & Gonzalez, R. G. (2000). Diffusion­weighted MR imaging of the brain 1. Radiology, 217(2), 331­345.

19. S.M. Smith. Fast robust automated brain extraction. Human Brain Mapping, 17(3):143­155, November 2002.

20. [Smith 2006] S.M. Smith, M. Jenkinson, H. Johansen­Berg, D. Rueckert, T.E. Nichols, C.E. Mackay, K.E. Watkins, O. Ciccarelli, M.Z. Cader, P.M. Matthews, and T.E.J. Behrens. Tract­based spatial statistics: Voxelwise analysis of multi­subject diffusion data. NeuroImage, 31:1487­1505, 2006.

21. Mohammadi S, Moller HE, Kugel H, Muller DK, Deppe M (2010) Correcting eddy current and motion effects by affine whole­brain registrations: evaluation of three­dimensional distortions and comparison with slicewise correction. Magn Reson Med 64: 1047­1056; doi: 10.1002/mrm.22501

22. Basser, P. J., & Ozarslan, E. (2009). Introduction to diffusion MR. Diffusion MRI: From quantitative measurement to in­vivo neuroanatomy.

23. Filley, C. M. (2011). Neurobiology of white matter disorders.

24. Mori, S., & Zhang, J. (2006). Principles of diffusion tensor imaging and its applications to basic neuroscience research. Neuron, 51(5), 527­539.

25. Cercignani, M., Inglese, M., Pagani, E., Comi, G., & Filippi, M. (2001). Mean diffusivity and fractional anisotropy histograms of patients with multiple sclerosis. American Journal of Neuroradiology, 22(5), 952­958.

26. Adler, C. M., Adams, J., DelBello, M. P., Holland, S. K., Schmithorst, V., Levine, A., ... & Strakowski, S. M. (2006). Evidence of white matter pathology in bipolar disorder adolescents experiencing their first episode of mania: a diffusion tensor imaging study. American Journal of Psychiatry, 163(2), 322­324.

90

Page 91: Facultad de Ciencias Exactas - UNICEN

27. Scholz, J., Klein, M. C., Behrens, T. E., & Johansen­Berg, H. (2009). Training induces changes in white­matter architecture. Nature neuroscience, 12(11), 1370­1371.

28. Princich JP, Consalvo D, Kauffman M, Seifer G, Blenkmann A, Kochen S. Contribución de las imágenes de resonancia magnética por tensor de difusión al diagnóstico de displasias corticales focales. Rev Neurol 2012; 54: 453­60

29. Jenkinson, M., Beckmann, C. F., Behrens, T. E., Woolrich, M. W., & Smith, S. M. (2012). Fsl. Neuroimage, 62(2), 782­790.

30. Andersson, J. L., & Sotiropoulos, S. N. (2016). An integrated approach to correction for off­resonance effects and subject movement in diffusion MR imaging. NeuroImage, 125, 1063­1078.

31. Yamada, H., Abe, O., Shizukuishi, T., Kikuta, J., Shinozaki, T., Dezawa, K., ... & Imamura, Y. (2014). Efficacy of distortion correction on diffusion imaging: comparison of FSL eddy and eddy_correct using 30 and 60 directions diffusion encoding. PloS one, 9(11), e112411.

32. Behrens, T. E. J., Woolrich, M. W., Jenkinson, M., Johansen‐Berg, H., Nunes, R. G., Clare, S., ... & Smith, S. M. (2003). Characterization and propagation of uncertainty in diffusion‐weighted MR imaging. Magnetic resonance in medicine,50(5), 1077­1088.

33. Grieve, S. M., Williams, L. M., Paul, R. H., Clark, C. R., & Gordon, E. (2007). Cognitive aging, executive function, and fractional anisotropy: a diffusion tensor MR imaging study. American Journal of Neuroradiology, 28(2), 226­235.

34. Scholz, J., Klein, M. C., Behrens, T. E., & Johansen­Berg, H. (2009). Training induces changes in white­matter architecture. Nature neuroscience, 12(11), 1370­1371.

35. Smith, S. M., Jenkinson, M., Johansen­Berg, H., Rueckert, D., Nichols, T. E., Mackay, C. E., ... & Behrens, T. E. (2006). Tract­based spatial statistics: voxelwise analysis of multi­subject diffusion data. Neuroimage, 31(4), 1487­1505.

36. Winkler, A. M., Ridgway, G. R., Webster, M. A., Smith, S. M., & Nichols, T. E. (2014). Permutation inference for the general linear model. Neuroimage, 92, 381­397.

37. Mohammadi, S., Möller, H. E., Kugel, H., Müller, D. K., & Deppe, M. (2010). Correcting eddy current and motion effects by affine whole‐brain registrations: Evaluation of three‐dimensional distortions and comparison with slicewise correction. Magnetic Resonance in Medicine, 64(4), 1047­1056.

38. Mohammadi, S., Hutton, C., Nagy, Z., Josephs, O., & Weiskopf, N. (2013). Retrospective correction of physiological noise in DTI using an extended tensor model and peripheral measurements. Magnetic resonance in medicine, 70(2), 358­369.

91

Page 92: Facultad de Ciencias Exactas - UNICEN

39. Mohammadi, S., Freund, P., Feiweier, T., Curt, A., & Weiskopf, N. (2013). The impact of post­processing on spinal cord diffusion tensor imaging. Neuroimage,70, 377­385.

40. Ashburner, J., & Friston, K. J. (2000). Voxel­based morphometry—the methods. Neuroimage, 11(6), 805­821.

41. Mohammadi, S., Keller, S. S., Glauche, V., Kugel, H., Jansen, A., Hutton, C., ... & Deppe, M. (2012). The influence of spatial registration on detection of cerebral asymmetries using voxel­based statistics of fractional anisotropy images and TBSS. PLoS One, 7(6), e36851.

42. Takao, H., Abe, O., Yamasue, H., Aoki, S., Kasai, K., Sasaki, H., & Ohtomo, K. (2010). Aging effects on cerebral asymmetry: a voxel­based morphometry and diffusion tensor imaging study. Magnetic resonance imaging, 28(1), 65­69.

43. Afzali, M., & Soltanian­Zadeh, H. (2010, May). Comparison of voxel­based morphometry (VBM) and tractography of diffusion tensor MRI (DT­MRI) in temporal lobe epilepsy. In Electrical Engineering (ICEE), 2010 18th Iranian Conference on (pp. 18­23). IEEE.

44. Penny, W. D., Friston, K. J., Ashburner, J. T., Kiebel, S. J., & Nichols, T. E. (Eds.). (2011). Statistical parametric mapping: the analysis of functional brain images: the analysis of functional brain images. Academic press.

45. Ashburner, J. (2007). A fast diffeomorphic image registration algorithm.Neuroimage, 38(1), 95­113.

46. Sørensen, T. (1948). A method of establishing groups of equal amplitude in plant sociology based on similarity of species and its application to analyses of the vegetation on Danish commons. Biol. Skr., 5, 1­34.

47. Dice, L. R. (1945). Measures of the amount of ecologic association between species. Ecology, 26(3), 297­302.

48. Andersson, J. L., Skare, S., & Ashburner, J. (2003). How to correct susceptibility distortions in spin­echo echo­planar images: application to diffusion tensor imaging. Neuroimage, 20(2), 870­888.

49. Stejskal, E. O., & Tanner, J. E. (1965). Spin diffusion measurements: spin echoes in the presence of a time‐dependent field gradient. The journal of chemical physics, 42(1), 288­292.

50. Furutani, K., Harada, M., Minato, M., Morita, N., & Nishitani, H. (2005). Regional changes of fractional anisotropy with normal aging using statistical parametric mapping (SPM). The Journal of Medical Investigation, 52(3­4), 186­190.

51. Jones, D. K., Symms, M. R., Cercignani, M., & Howard, R. J. (2005). The effect of filter size on VBM analyses of DT­MRI data. Neuroimage, 26(2), 546­554.

92

Page 93: Facultad de Ciencias Exactas - UNICEN

52. Smith, S. M., Fox, P. T., Miller, K. L., Glahn, D. C., Fox, P. M., Mackay, C. E., ... & Beckmann, C. F. (2009). Correspondence of the brain's functional architecture during activation and rest. Proceedings of the National Academy of Sciences, 106(31), 13040­13045.

53. Collignon, A., Maes, F., Delaere, D., Vandermeulen, D., Suetens, P., & Marchal, G. (1995, June). Automated multi­modality image registration based on information theory. In Information processing in medical imaging (Vol. 3, No. 6, pp. 263­274).

93