IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

260
IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR DECONVOLUCIÓN TRAS COMPENSACIÓN PARCIAL TESIS DOCTORAL Justo Arines Piferrer Departamento de Física Aplicada, Área de Óptica Universidade de Santiago de Compostela

Transcript of IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Page 1: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

IMAGEN DE ALTA RESOLUCIÓN DEL

FONDO DE OJO POR DECONVOLUCIÓN

TRAS COMPENSACIÓN PARCIAL

TESIS DOCTORAL

Justo Arines Piferrer

Departamento de Física Aplicada, Área de Óptica

Universidade de Santiago de Compostela

Page 2: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

D Salvador X. Bará Viñas, profesor titular de universidade do Departamento de Física Aplicada (Área de Óptica) da Universidade de Santiago de Compostela, Fai constar Que a presente memoria, titulada "Imagen de alta resolución del fondo de ojo por deconvolución tras compensación parcial" recolle os resultados do traballo realizado por D. Justo Arines Piferrer baixo a súa dirección e supervisión, e constitúe a Tese de Doutoramento que presenta para a obtención do título de Doutor pola Universidade de Santiago de Compostela.

En Santiago de Compostela, a 17 de Abril de 2006

Asdo.: O director da Tese, Asdo.: O Doutorando,

D. Salvador X. Bará Viñas D. Justo Arines Piferrer

Page 3: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 4: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Una parte sustancial de los trabajos de investigación recogidos en esta memoria ha sido realizada en el marco de los proyectos de investigación DPI2002-04370-C02-01, "DESARROLLO DE COMPONENTES Y SISTEMAS PARA LA MEDIDA Y CORRECCIÓN DE ABERRACIONES ÓPTICAS EN EL OJO HUMANO" y FIS2005-05020-C03-02, “NUEVOS ESTUDIOS Y DESARROLLOS PARA LA MEDIDA Y COMPENSACIÓN DE ABERRACIONES OCULARES Y DE LA PRESBICIA” financiados por el Ministerio de Ciencia y Tecnología, el Ministerio de Educación y Ciencia y el FEDER.

Page 5: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 6: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

a Yolanda,

Page 7: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 8: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Dios proveerá a los hombres de buena voluntad

Page 9: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 10: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Declaración de originalidad

Resumen La detección precoz de patologías que afectan al polo posterior ocular es de gran relevancia para su temprano diagnóstico. En este ámbito hemos desarrollado una cámara de fondo de ojo que incorpora un sensor de frente de onda tipo Hartmann-Shack con el fin de emplear la técnica de deconvolución tras medida de frente de onda con compensación parcial para la obtención de imágenes de alta resolución espacial de la retina humana en vivo. Gran parte del trabajo desarrollado se centra en el estudio del Hartmann-Shack. Así hemos analizado la influencia del procesado por umbralización en la incertidumbre asociada a la determinación del centroide de los spots correspondientes a las microlentes del sensor. También hemos estudiado la influencia del umbral en la estimación del gradiente local de la fase, observando la perdida de linealidad en la relación entre el centroide del spot y el gradiente de la fase. Igualmente hemos estudiado la importancia del correcto modelado tanto de las medidas como del frente incidente a la hora de realizar la estimación de los coeficientes modales. También hemos estudiado la relación existente entre los coeficientes estimados respecto a dos sistema de coordenadas relacionados por una transformación lineal de coordenadas con el fin de desacoplar del proceso de estimación modal los movimientos oculares ocurridos durante el proceso de medida. Finalmente hemos analizado como se propagan los errores de modelado y de las medidas del gradiente a la estimación de la función de transferencia óptica. Desde un punto de vista del desarrollo del dispositivo hemos incluido el empleo de elementos ópticos que inducen aberraciones de alto orden en el proceso de calibrado del sensor de frente de ondas tipo Hartmann-Shack, comprobando la importancia de esta etapa en dicho calibrado. En cuanto al proceso de deconvolución se ha mostrado la posibilidad de emplear la técnica de deconvolución tras medida del frente de onda y compensación parcial para la obtención de imágenes de alta resolución del fondo ocular tanto mediante simulación como experimentalmente con ojos artificiales y ojos reales. Más aún se ha evaluado la posibilidad de emplear esta técnica en tiempo real debido al aumento de la relación señal ruido producida por el empleo de la lámina compensadora de fase.

Page 11: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 12: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Publicaciones relacionadas con esta tesis

Publicaciones relacionadas con esta tesis Artículos J Arines, S. Bará, “Significance of the recovery filter in deconvolution from

wavefront sensing:”, Opt. Eng, 39(10), 2789-2796, 2000. J.Ares, J. Arines, “Effective noise in thresholded intensity distribution: influence

on centroid statistics”, Opt. Lett, 26(23), 1831-1833, 2001. J.Arines, J. Ares, “Minimum variance centroid thresholding”, Opt. Lett, 27(7),

497-499, 2002. J.Arines, S.Bará, “Hybrid technique for high resolution imaging of the eye

fundus”, Opt. Exp., 11 (7), 761-766, 2003. J.Arines, J. Ares, “Significance of thresholding processing in centroid based

gradient wavefront sensors: effective modulation of the wavefront derivative”, Opt. Comm. 237, 257-266, 2004.

J. Ares, J. Arines, “Influence of thresholding on centroid statistics, a full analytical description”, Appl. Opt. 43(31), 5796-5805, 2004.

P. Rodríguez, Navarro R., J. Arines, S. Bará, “A new calibration set of phase plates for ocular aberrometers”, J.Ref.Surg, 22(3), 275-284, 2006

S. Bará, J. Arines, J. Ares, P. Prado, “Direct transformation of Zernike eye aberration coefficients between scaled, rotated and/or displaced pupils”, enviado a J.Opt.Soc.Am. A, Aceptado.

L. Diaz-Santana, J. Arines, P. Prado, S. Bará, “Translational and rotational pupil tracking using wavefront aberration data and image registration techniques”, Opt. Lett. Aceptado.

Patentes R. Navarro, P. Rodríguez, J. Arines, S. Bará, “Conjunto de láminas de fase para calibración de aberrómetros y realización de modelos ópticos y oculares”, P200401397, 09/06/2004. Otras publicaciones S. Bará, J. Arines, J. Ares, P. Prado, “Fotoescultura: tecnología microóptica para

la Optometría del siglo XXI”, Ver y Oir, Noviembre 2005.

Page 13: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 14: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Agradecimientos

Agradecimientos Para empezar tengo la obligación institucional y moral de comenzar los agradecimientos por mi feje, D. Salvador X. Bará Viñas ya que sin su firma personal este trabajo no podría elevarme al grado de Doctor. Pero también tengo que agradecerle los debates y correcciones que han servido para concluir este trabajo y desarrollar una patología obsesiva sobre la semántica del lenguaje. Otra mención al segundo de abordo D. Jorge Ares por todos los ratos que hemos pasado juntos (y han sido muuuuuuchos) que han servido para llegar hasta aquí. Reconocer también la comunicación con todos aquellos que han pasado por los despachos de arriba y de abajo en estos 8 años. Por acortar la lista (de la que quiero destacar a Maite por su amistad dentro y fuera del despacho) la resumiré en un JASP = Jóvenes Aunque Sobradamente Preparados. Felizmente casado tengo que agradecerle a Yolanda (en relación a mi dedicación al desarrollo tecnológico y científico de mi país) todos los esfuerzos y renuncias realizadas a lo largo de estos años. Igualmente siguiendo la línea empezada con la redacción de mi tesina, tengo que agradecer a todos los amigos que comenzaron preguntando ¿Cuándo presentas la tesina? y luego pasaron a preguntarme ¿Cuándo presentas la tesis? a lo que yo de nuevo respondía con cara circunspecta: PRONTO!!!! No puedo olvidarme de ningún modo de los miembros de mi primera unidad familiar. Así que muchas gracias. En cuanto a agradecimientos en el ámbito científico quiero hacer una mención especial de nuevo a mi feje, D. Salvador, por proporcionar dos elementos fundamentales en la realización de la parte experimental de esta tesis: la matriz de microlentes del sensor, y las láminas de fase necesarias para la realización de las experiencias relacionadas con la aplicación de la técnica de deconvolución tras compensación parcial.

Page 15: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Agradecimientos

Por otra parte quiero también agradecer a Paula su gran ayuda tanto en la obtención de las medidas temporales de la aberración ocular como en la obtención de las imágenes de fondo de ojo. También quisiera agradecer a las distintas entidades que han financiado de alguna manera la realización de este trabajo, la Universidade de Santiago de Compostela y el CIXTEC. Finalmente también agradecer a David Williams, investigador del Center for Visual Science de la Universidad de Rochester, el consentimiento necesario para el empleo de la imagen de conos obtenida en su laboratorio con óptica adaptativa en la realización de las simulaciones del proceso de deconvolución tras compensación parcial.

Page 16: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Índice

Índice Capítulo 1:Introducción 1 1.1 Factores que limitan la calidad de las imágenes y efecto sobre el estudio de la retina in vivo. 2 1.2 Técnicas de observación del polo posterior ocular 3 1.2.1 Oftalmoscopio de barrido láser 4 1.2.2 Tomografía de coherencia óptica 5 1.2.3 Imagen Polarimétrica 6 1.2.4 Óptica Adaptativa 6 1.2.5 Deconvolución de frente de onda 8 1.3 Objetivo y Sinopsis del Trabajo 10 Capítulo 2: Estructuras oculares de interés óptico 13 2.1 La lágrima 14 2.2 La córnea 15 2.3 Humor acuoso 15 2.4 El iris 15 2.5 El cristalino 15 2.6 Humor vítreo 16 2.7 La retina 16 2.8 La coroides 18 2.9 La esclerótica 18 2.10 Transmisión, Absorción, Reflexión, Polarización y Dispersión 18 2.11 Efecto Stiles-Crawford 21

Page 17: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Índice

Capítulo 3:Medida de aberraciones oculares 23 3.1 Representación de la aberración de onda 25 3.1.1 Polinomios de Zernike 25 3.2 Aberraciones oculares 27 3.2.1 Fuentes de aberraciones oculares 27

3.2.1.2 Estadística Poblacional y Temporal 28 3.2.1.2.1 Estadística Poblacional 28

3.2.1.2.2 Estadística Temporal 29 3.3 Medida de Aberraciones oculares 33 3.3.1 Evolución histórica 33 3.3.2 Sensores de Gradiente 35 3.3.2.1 Descripción Teórica 35 3.3.2.2 Estimadores lineales 46 3.3.2.3 Fuentes de Ruido en la estimación de la aberración 49 3.3.2.3.1 Errores en la determinación del gradiente 49 3.3.2.3.1.1 Errores sistemáticos 50 3.3.2.3.1.2 Errores aleatorios 51 3.3.2.3.1.2.1 Valor medio del centroide 54 3.3.2.3.1.2.2 Varianza del centroide 57 3.3.2.3.1.2.3 Validación de las expresiones 59 3.3.2.3.1.2.3.1 Validación mediante simulación 59 3.3.2.3.1.2.3.2 Validación experimental 63 3.3.2.3.1.2.4 Minimización de la varianza del centroide 67

3.3.2.3.2 Errores en la estimación de los coeficientes modales 68 3.3.2.4 Representación del frente en sistema Lab/Pupila Ojo 72

3.3.3 Influencia del error del sensor en la estimación de la OTF ocular 85 Capítulo 4:Aberraciones ópticas y calidad de imagen 93 4.1 Influencia de las aberraciones en la calidad de la imagen 94 4.2 Compensación óptica de aberraciones oculares 96 4.2.1 Láminas de fase 97 4.2.2 Espejos deformables 98 4.2.3 Pantallas de cristal líquido 98 4.3 Resolución, Relación Señal-Ruido y necesidad de compensación Parcial 99

Page 18: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Índice

Capítulo 5: Técnica de deconvolución 105 5.1 Deconvolución de imágenes 106 5.1.1 Obtención del filtro de restauración 107 5.1.1.1 Filtro de Wiener 109 5.1.1.2 Filtro Regresivo 111 5.1.1.3 Filtro vectorial de Wiener 112 5.2 Importancia de la elección del filtro de restauración 113 5.3 Deconvolución basada en medida del frente de onda con compensación parcial: DWFS-PC 117 5.3.1 Canal de imagen 118 5.3.2 Canal del sensor 118 5.3.3 Cómputo de la OTF 119 5.3.4 Filtro restaurador 121 Capítulo 6:Deconvolución de imágenes de fondo de ojo(I): análisis de viabilidad 123 6.1 Descripción del simulador 124 6.1.1 Algoritmo de la simulación 130 6.2 Parámetros de evaluación 132 6.3 Resultados de la Simulación 134 6.3.1 Primera simulación: Aberración estática 134 6.3.2 Segunda simulación: Aberración dinámica 139

Page 19: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Índice

Capítulo 7: Deconvolución de imágenes de fondo de ojo (II): resultados experimentales 153 7.1 Descripción del sistema 154 7.1.1 Canal de iluminación 156 7.1.1.1 Fuente 1 157 7.1.1.2 Fuente 2 158 7.1.2 Segmento intermedio 159 7.1.3 Canal de la imagen 160 7.1.4 Canal del sensor 161 7.1.4.1 Monitorización de la pupila 161 7.1.4.2 Parámetros del sensor 162 7.1.4.3 Criterios de selección 162 7.1.4.4 Procesado de imágenes del sensor 164

7.1.4.4.1 Cálculo de los coeficientes estimados 169 7.1.4.5 Seguimiento pupilar 171 7.2 Fabricación de láminas de fase 174 7.3 Calibración del Sensor 176 7.3.1 Calibración con onda esférica 177 7.3.2 Calibración con pantallas de fase 179 7.4 Resultados de la deconvolución en Ojo Artificial 181 7.4.1 Descripción de la experiencia 181 7.4.2 Resultados 183 7.5 Resultados de la Deconvolución en ojos reales 186 7.5.1 Descripción de la experiencia 187 7.5.2 Resultados de la compensación parcial 188 7.5.3 Resultados de la DWFS-PC 192 Capítulo 8: Conclusiones 203 Apéndice A 207 Apéndice B: Primeras páginas de los artículos relacionados con esta tesis 209 Declaración de Originalidad 129 Referencias 223

Page 20: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 21: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 22: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

CAPÍTULO 1 1

CAPÍTULO 1

INTRODUCCIÓN La existencia de técnicas de exploración del globo ocular que permitan la detección de estructuras anatómicas de origen patológico en sus estadios iniciales, es de gran importancia para realizar un diagnóstico temprano que garantice un mayor éxito del tratamiento que se decida aplicar. Es por ello que es necesario desarrollar técnicas de observación que proporcionen imágenes de alta resolución espacial. En la observación del polo posterior ocular el elemento que limita la resolución espacial de las imágenes que se obtienen con las técnicas de exploración tradicionales (oftalmoscopios directos e indirectos y cámaras de fondo de ojo) es la propia óptica del ojo del sujeto, y la dispersión (“scattering”) producido en los medios oculares. Las técnicas tradicionales tienen incorporados sistemas para la compensación de las aberraciones oculares de primer (prisma) y segundo orden, es decir desenfoque y astigmatismo, pero el ojo humano también presenta aberraciones de mayor orden. La obtención de imágenes de alta resolución espacial del fondo de ojo ocular pasa por la compensación de estas aberraciones de alto orden y la reducción del “scattering” intraocular. A continuación vamos a profundizar un poco más en estos factores.

Page 23: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

2 1.1 Factores que limitan la calidad de las imágenes ...

1.1 Factores que limitan la calidad de las imágenes y efecto sobre el estudio de la retina in vivo. La calidad de las imágenes del polo posterior ocular que se pueden obtener mediante los distintos instrumentos ópticos existentes está limitada principalmente por dos factores externos a dichos aparatos. Dichos factores son por un lado las aberraciones oculares y por el otro el scattering intraocular. Cuando hablamos de aberraciones oculares en este trabajo nos estamos refiriendo a las distorsiones del frente de onda (respecto a una onda de referencia) introducidas por el ojo del sujeto. Es bien conocido que dichas distorsiones del frente de onda conllevan la disminución de la función de transferencia óptica (OTF) [Goo68] provocando una reducción en la resolución espacial del sistema óptico y por consiguiente el emborronamiento de la imagen retiniana. La aberración ocular humana se puede dividir atendiendo a su comportamiento temporal en una componente estática y otra dinámica de menos magnitud. Mientras que si atendemos al grado del polinomio que la describe hablaremos de aberración de bajo o alto orden. Teniendo en cuenta esta clasificación podemos decir que la componente estática de bajo orden es de valor significativo para la calidad de vida del sujeto [Zhu04]. Su corrección es de gran importancia para la realización de tareas de la vida diaria, existiendo también ojos en los que la compensación de aberraciones de alto orden estáticas se hace igualmente indispensable. Por otra parte la componente dinámica es de menor magnitud, del orden de las 0.15 micras para pupilas de 4.7 mm de diámetro [Hof01], en valor rms (del inglés root-mean square ). La mayor contribución a esta fluctuación proviene de las microfluctuaciones de la acomodación, y de la dinámica lagrimal. Su valor es muy próximo al limite de aberración necesario para que el sistema sea considerado limitado por difracción según el criterio de Marechal [Zhu04, Bor92]. En este sentido esta componente carece de relevancia para la realización de tareas rutinarias por parte del ser humano, pero si que tiene su importancia en tareas de observación de estructuras oculares internas, siendo necesaria su corrección para la obtención de imágenes nítidas del fondo de ojo [Zhu04]. En capítulos sucesivos describiremos en más detalle las aberraciones oculares, tanto sus orígenes como su estadística temporal y poblacional, métodos de determinación, efectos sobre la OTF...

Page 24: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

1.2 Técnicas de observación del polo posterior ocular 3

El otro factor que limita la calidad de las imágenes de fondo de ojo ocular es el “scattering” que se produce en los distintos medios intraoculares. Los principales medios oculares responsables del “scattering” son el cristalino y la retina. En el caso de un sujeto joven en el que el cristalino no presenta opacidades el scattering inducido es despreciable quedando como principal fuente la retina. Como veremos más adelante ésta está constituida por un conjunto de capas especializadas formadas por distintos tipos de células. Es en estas capas donde la presencia de distintas estructuras ocasiona el “scattering” de luz [Els92, Hod94, Els00]. El “scattering” intraocular provoca el ensanchamiento de la PSF del ojo y una disminución del contraste debida a presencia de luz difusa dispersada por las distintas estructuras oculares responsables del scattering [Hod94]. Como hemos indicado tanto las aberraciones como el “scattering” ocular son responsables de la disminución de la calidad óptica del ojo. A continuación vamos a presentar una serie de técnicas desarrolladas para reducir el efecto de estos dos elementos sobre la observación del fondo ocular. 1.2 Técnicas de observación del polo posterior ocular La observación con baja resolución del fondo ocular es una tarea sencilla que sólo necesita de un sistema de iluminación que nos permita introducir luz en el ojo, y un sistema de observación que nos proporcione una imagen ampliada de la retina. Este es el principio de funcionamiento del oftalmoscopio. Según sea el sistema de observación tendremos dos variantes, el oftalmoscopio directo que emplea la propia óptica del ojo del sujeto como lupa, proporcionando imágenes aumentadas y no invertidas de la retina y el oftalmoscopio indirecto, que sitúa una lente de gran potencia dióptrica entre el ojo del sujeto y el del observador proporcionando una imagen de la retina invertida y con mayor aumento que en el caso anterior. El empleo de tanto el oftalmoscopio directo como indirecto presenta una serie de limitaciones: falta de confort durante el proceso de observación tanto para el observador como para el sujeto; campo de observación relativamente pequeño; aumentos bajos que limitan el tamaño mínimo de las estructuras del fondo ocular que se pueden observar; y sobre todo la imposibilidad de registrar las imágenes del fondo de ojo (hecho importante a la hora de comprobar la evolución de cualquier patología). Con el fin de superar estas limitaciones se desarrollaron las cámaras de fondo de ojo. Éstas consisten en un oftalmoscopio indirecto que presenta un sistema que permite cambiar el campo angular de observación, los aumentos de la

Page 25: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

4 1.2 Técnicas de observación del polo posterior ocular

imagen retiniana, corregir la ametropía del sujeto, y registrar las imágenes del fondo de ojo. Con posterioridad a las cámaras de fondo de ojo se desarrollaron: el Oftalmoscopio de barrido láser, la Tomografía de Coherencia Óptica, y la técnica de Imagen Polarimétrica (técnicas que presentaremos a continuación). Con estas técnicas se consiguió mejorar el contraste de las imágenes del fondo de ojo al reducir sobre todo la presencia de luz dispersada por las distintas estructuras oculares. También se consiguió la obtención de imágenes tridimensionales del fondo ocular. Sin embargo la resolución transversal de dichos sistemas era inferior a la que cabria esperar, como ya ocurría con las cámaras de fondo de ojo tradicionales debido a las aberraciones oculares. Con el fin de superar dicha limitación se introdujeron en el campo de la instrumentación oftálmica una serie de técnicas que permiten la corrección de dicha aberración como: la Óptica Adaptativa (AO), y la Deconvolución tras medida del frente de onda (DWFS). 1.2.1 Oftalmoscopio de barrido laser El oftalmoscopio de barrido láser (SLO) es un dispositivo que permite la obtención de imágenes del fondo de ojo mediante la proyección secuencial de un haz láser de baja potencia sobre distintas posiciones consecutivas de la retina [Dre89]. La luz reflejada correspondiente a cada una de las proyecciones es recogida mediante el sistema óptico de observación y registrada mediante un fotodiodo. Cada una de las proyecciones se corresponde con la información de intensidad de cada uno de los píxeles de la imagen resultante. Este procedimiento de observación presenta la ventaja de que aumenta el contraste de las imágenes respecto a las obtenidas mediante las cámaras de fondo de ojo convencionales. Posteriormente se comprobó la utilidad de situar justo delante del fotodetector (que se encuentra en un plano conjugado con la retina del sujeto) un agujero de radio reducido a modo de diafragma de campo. A este nuevo instrumento se le llamó oftalmoscopio de barrido láser confocal [Els92]. La ventaja fundamental de emplear este filtro es que se consigue aumentar el contraste de las imágenes y la resolución axial hasta aproximadamente las 300 μm, que es limite de resolución insuperable sin corregir las aberraciones ópticas de alto orden del ojo del sujeto. [Car05]. Este incremento de resolución se debe a que con el diafragma confocal conseguimos evitar que llegue al fotodetector tanto luz esparcida por las distintas capas de la retina que se encuentran próximas al plano de observación, como por

Page 26: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

1.2 Técnicas de observación del polo posterior ocular 5

la luz reflejada en las distintas interfaces oculares como la córnea o el cristalino [Del89, Els92, Els00]. 1.2.2 Tomografía de coherencia óptica La tomografía de coherencia óptica (OCT) es una técnica de imagen que proporciona imágenes bi o tri-dimensionales creadas a partir de la combinación de trazas longitudinales unidimensionales [You87 Hua91, Fuj98, Fer02]. En OCT la estructura interna de la muestra es analizada mediante la proyección de un haz de luz sobre la muestra y midiendo el tiempo de retardo de la luz reflejada en las distintas estructuras internas que el haz de luz se encuentra en su camino. La parte central de un OCT es un interferómetro de baja coherencia óptica, normalmente en configuración tipo Michelson [Fer02]. En esta disposición la muestra que se quiere analizar es colocada en uno de los brazos del interferómetro, mientras que en el otro brazo (el brazo de referencia) se coloca un espejo móvil. La luz reflejada por la muestra y por el espejo móvil situado en el brazo de referencia son combinadas en el detector, que mide la intensidad producida por la interferencia de ambos haces. El análisis en profundidad de la muestra se realiza desplazando el espejo situado en el brazo de referencia de forma que la interferencia constructiva solo ocurre cuando la diferencia de camino óptico entre los dos brazos es menor que la longitud de coherencia óptica de la fuente de luz empleada en el OCT. La OCT presenta como principales ventajas: su gran poder de penetración [Rog01]; resolución longitudinal típica en el rango de las 3-10 micras [Ko04]; y posibilidad de operar en tiempo real [Dre99]. Debido a estas ventajas se ha hecho gran hincapié en su uso en aplicaciones medicas cuyo fin es el análisis de tejidos [Fuj86, Fuj98, Pod00], y como no el ojo [Hee95, Cha99, Zha05]. La resolución transversal del OCT viene determinada por la apertura numérica del sistema mientras que la resolución longitudinal viene determinada por la longitud de coherencia óptica. Así se ha conseguido pasar de resoluciones longitudinales típicas del orden de las 10 micras (conseguidas con el empleo de diodos superluminiscentes (SLD)) a resoluciones de 1-2 micras con el empleo de diodos orgánicos o láseres de Ti:Al2O3 [Ko04, Her04].

Page 27: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6 1.2 Técnicas de observación del polo posterior ocular

El empleo de la OCT en la observación de estructuras oculares se ha demostrado como una técnica de gran importancia en el diagnóstico de patologías como la retinopatía diabética, edema macular, neovascularización subretiniana y patologías del nervio óptico [Rog01]. 1.2.3 Imagen polarimétrica Es bien conocido que el ojo humano presenta ciertas propiedades respecto a su interacción con la luz polarizada. La caracterización de estas propiedades se realiza mediante el análisis de Müller [Bue02, Bue03]. Del aprovechamiento del efecto que produce el ojo sobre el estado de polarización de la luz incidente surge la técnica de Imagen Polarimétrica. La luz que incide sobre la retina sufre una fuerte reflexión en la primera capa retiniana mientras que la luz que penetra en las siguientes capas sufre esparcimiento múltiple. Durante el proceso de esparcimiento la luz que se refleja hacia atrás sufre una despolarización, mientras que la luz fuertemente reflejada en la primera capa mantiene el grado de polarización inicial. Aprovechando este comportamiento podemos mejorar las imágenes retinianas al aumentar su contraste sin más que restar la imagen obtenida con luz despolarizada de la obtenida con luz polarizada [Bur03, Kni02]. En las páginas anteriores hemos descrito brevemente distintas técnicas que se han ido desarrollando con el fin de obtener imágenes retinianas de mayor resolución espacial (tanto longitudinal como transversal). Sin embargo dicho aumento en la resolución no se debe a una mejora de la respuesta de impulso de la óptica del sistema (PSF) sino a una reducción de la contribución de la luz esparcida o directamente reflejada por la retina. En los siguientes párrafos presentaremos una serie de técnicas de imagen que si fueron desarrolladas para mejorar la respuesta de impulso del sistema óptico de observación. Cabe decir que estas técnicas han sido incorporadas con éxito a los dispositivos de observación presentados anteriormente, aumentando significativamente su resolución [Her04, Roo00]. 1.2.4 Óptica Adaptativa Los sistemas de Óptica Adaptativa (OA) son sistemas que tratan de compensar la distorsión del frente de onda induciendo retardos/ganancias en el camino óptico de las distintas partes del frente con el fin de que a la salida del sistema se tenga el frente de onda deseado [Tys91, Bec93]. La idea de compensar la distorsión de la

Page 28: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

1.2 Técnicas de observación del polo posterior ocular 7

fase usando servo sistemas surgió de la mente de H.W. Babcock, el cual en 1953 publicó el articulo titulado “The possibility of compensating astronomical seeing” [Bab53] donde presenta dicha idea. Inicialmente esta tecnología fue pensada para su utilización en el campo militar y posteriormente en astronomía, con el fin de compensar los efectos de la turbulencia atmosférica sobre las imágenes obtenidas mediante telescopios terrestres. En 1989 Dreher et.al. implementaron el primer sistema de Óptica Adaptativa con fines oftalmológicos, al desarrollar el primer oftalmoscopio de barrido láser con Óptica Adaptativa [Dre89]. El sistema adaptativo implementado solo permitía la corrección dinámica de la componente de desenfoque y astigmatismo. En 1961 Smirnov propuso la corrección de las aberraciones de alto orden con el fin de mejorar el sistema óptico humano [Smi61], pero no fue hasta 1997 cuando Liang et.al mediante un sistema de OA realizaron la primera compensación de las aberraciones de alto orden del ojo humano [Lia97]. Este retraso se debió fundamentalmente a la falta de una tecnología que permitiera compensar suficientemente bien las aberraciones oculares. Cabe mencionar que el dispositivo basado en un espejo deformable empleado por Liang et. al. a pesar de ser un sistema de OA se empleo para realizar compensaciones estáticas de la aberración. Este tipo de compensación también fue realizada empleando láminas de fase por R. Navarro et. al. en el 2000 [Nav00]. No fue hasta 2001 cuando una serie de grupos realizaron las primeras medidas y correcciones dinámicas de la aberración ocular [Fer01, Hof01, Lar01]. Un sistema de OA presenta dos elementos imprescindibles, el sensor de frente de onda y el elemento óptico dinámico que induce cambios en la diferencia de camino óptico entre las distintas partes del frente. En la OA oftálmica la batalla en cuanto a los sensores de frente de onda la gano el sensor tipo Hartmann-Shack [Car05], que describiremos mas adelante en el capítulo 3. En cuanto al elemento dinámico el más utilizado actualmente es el espejo deformable [Car05]. El espejo deformable consiste en una membrana reflectante flexible que se controla mediante una serie de actuadores situados en su parte posterior, deformando el espejo de la forma deseada. El sistema de OA primero determina, mediante el sensor de frente de onda, el retardo entre las distintas partes del frente y dicha información es empleada para deformar el espejo con el fin de compensar dicho retardo. Este proceso se realiza de

Page 29: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

8 1.2 Técnicas de observación del polo posterior ocular

forma dinámica prácticamente en tiempo real. Gracias al empleo de la OA se consigue reducir la aberración del frente de onda hasta las 0.1-0.15 micras rms lo que permite obtener imágenes de mayor resolución espacial y mejor relación señal ruido [Fer01, Hof01, Lar01, Hof01B, Gla04]. Estos dos factores hacen de la OA una técnica muy apetecible para su uso como parte de instrumentos oftálmicos que ya son de por si de alta resolución como el SLO y la OCT [Roo02, Her04, Car05], con lo que se consigue mejorar aún más el poder de resolución de dichos instrumentos. Pero la técnica de la OA presenta una serie de desventajas, siendo las principales de ellas: el limitado rango de compensación de aberraciones debido al pequeño rango dinámico del elemento corrector ( apenas 8-6 micras [Roo00], [Gla04]); difícil implementación y mantenimiento; elevado coste del montaje; no es portátil, necesitando grandes espacios para su montaje [Roo00, Car05]. 1.2.5 Deconvolución de frente de onda Igual que la OA la Deconvolución de Frente onda (DFWS del inglés “Deconvolution from Wavefront Sensing”) es una técnica cuyo fin es corregir los efectos que el frente de onda aberrado existente sobre la pupila de salida del sistema óptico induce sobre las imágenes producidas por el sistema. Dicha corrección se realiza posteriormente a la detección de la imagen a partir de la información proporcionada por un sensor de frente de onda. El desarrollo de esta técnica data de 1990 [Pri90], donde se aplicó a la corrección de imágenes degradadas por la turbulencia atmosférica. Este primer trabajo se realizó en el laboratorio, aunque en ese mismo año dicha técnica fue empleada con éxito en la restauración de imágenes astronómicas [Gon90]. Así pues igual que la OA es una técnica originaria de la astronomía. Se desarrolló ya en su origen como una alternativa a la OA barata y de fácil implementación. Sin embargo así como en el campo de la astronomía la obtención de imágenes de alta resolución no tiene por que llevarse a cabo en tiempo real, en el campo de la oftalmología si que es una cuestión a tener en cuenta. En este sentido la incapacidad inicial de obtener imágenes de alta resolución en tiempo real supone una de las grandes desventajas respecto a la OA. Otra desventaja es la baja relación señal ruido (SNR) de las imágenes del fondo de ojo ocular, lo que limita en exceso la aberración óptica ocular que se puede corregir con esta técnica [Ari03].

Page 30: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

1.2 Técnicas de observación del polo posterior ocular 9

En el campo de la óptica oftálmica se ha tratado relativamente poco la aplicación de la técnica de DWFS. El primer intento para obtener imágenes de alta resolución del fondo de ojo se llevó a cabo en el año 2000 por dos grupos de investigación distintos [Ari00, Igl00]. En el trabajo de Arines-Bará se mostró mediante simulación la posibilidad de obtener imágenes de alta resolución mediante DFWS tras compensación parcial de la aberración con un elemento óptico de fase. A dicha técnica le llamaron DWFS-PC. Por otra parte y casi simultáneamente el grupo de Iglesias-Artal muestra igualmente la utilidad de la DWFS mediante simulación. Sin embargo en su intento de implementar la técnica experimentalmente con ojos reales no consiguieron obtener mejora significativa de las imágenes del fondo ocular [Igl00]. En el 2002 Catlin-Dainty [Cat02] consiguieron obtener las primeras imágenes de los conos de la retina mediante DWFS. Además apuntaron la imposibilidad de obtener imágenes de alta resolución en tiempo real mediante DWFS debido a que la baja SNR les obligó a promediar un mínimo de 20 imágenes para poder obtener resultados positivos. Un año después en nuestro grupo comprobamos mediante simulación la posibilidad de obtener imágenes de alta resolución en tiempo real mediante una técnica de DWFS-PC [Ari03]. En dicho trabajo se muestra que la posibilidad de emplear la DFWS-PC en tiempo real se debe al gran incremento de la SNR de la imagen y del sensor al corregir la mayor parte de la aberración óptica del sujeto con un elemento compensador de fase estático. Relacionada con la DWFS existen otras técnicas de restauración de imagen que no necesitan información del frente de onda. Entre ellas destacamos la Deconvolución Ciega (BD, en ingles “Blind Deconvolution”) por ser la más usada en el campo de la oftalmología [Aye88, Chi04, Yan04]. Esta técnica obtiene información de la aberración y de la imagen sin degradar a partir de la imagen degradada y de una serie de ligaduras como: linealidad e invariabilidad del sistema, y positividad de la imagen y de la PSF entre otras. Con la aplicación de esta técnica se ha conseguido por ejemplo reducir el error en la clasificación de los conos de retinas humanas [Chi04], y mejorar imágenes de fondo de ojo [Yan04]. En ambos casos la BD se empleo sobre imágenes de fondo de ojo obtenidas mediante OA.

Page 31: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

10 1.3 Objetivo y Sinopsis del trabajo

1.3 Objetivo y Sinopsis del Trabajo El objetivo principal de este trabajo es el desarrollo de una nueva técnica de alta resolución espacial para la observación del polo posterior ocular. Dicha técnica consiste en una modificación de la tradicional cámara de fondo de ojo que incluye la utilización de un elemento óptico estático personalizado en el canal de observación que compensa gran parte de la aberración ocular del sujeto, y un sensor de frente de onda que determina la aberración de onda residual, con el propósito de realizar una compensación posterior de la imagen de fondo de ojo mediante la técnica de deconvolución tras medida del frente de onda con compensación parcial (DWFS-PC). La técnica desarrollada proporciona imágenes del polo posterior ocular de mayor resolución espacial, lo que nos permitirá detectar estructuras anatómicas más pequeñas que no podrían ser observadas mediante las técnicas de exploración tradicionales. La tesis se estructura de la siguiente forma: El capitulo dos constituye una descripción de las estructuras oculares de interés óptico. Dicha descripción se realizo sobre todo atendiendo a sus propiedades ópticas: índice de refracción, absorción, dispersión... El capitulo tres se centra en las aberraciones oculares y su medida. Empezaremos este capitulo presentando el concepto de aberración de onda y la forma que emplearemos para describirla. Seguidamente analizaremos su origen y sus propiedades estadísticas tanto poblacionales como temporales. Posteriormente realizaremos una breve descripción histórica de los distintos instrumentos empleados para analizar la aberración ocular. A continuación realizaremos un análisis pormenorizado del sensor de frente de onda tipo Hartmann-Shack. Empezaremos con su descripción teórica, en la que incluiremos el preprocesado por umbralización. Después describiremos el proceso de estimación lineal de los coeficientes modales de la expansión de la aberración en serie de polinomios de Zernike. Seguidamente analizaremos las distintas fuentes de error que afectan al sensor: errores en la medida del gradiente local de la fase, y errores de estimación. Posteriormente presentaremos la importancia de la elección del sistema de referencia a la hora de analizar la aberración ocular. Finalmente mostraremos el efecto sobre la función de transferencia óptica estimada de los errores presentes en el proceso de estimación de los coeficientes modales.

Page 32: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

1.3 Objetivo y Sinopsis del trabajo 11

En el capitulo cuatro analizaremos la relación entre las aberraciones oculares y la calidad de la imagen. Describiremos las distintas técnicas ópticas existentes para compensar la aberración ocular: espejos deformables, pantallas de cristal líquido, laminas de fase. Finalmente mostraremos la importancia de la compensación óptica de la aberración ocular en relación con el aumento de la frecuencia de corte efectiva del sistema. En el capitulo cinco nos centraremos en la técnica de deconvolución. Empezaremos realizando una descripción general de dicha técnica. Seguidamente analizaremos los principales filtros de restauración empleados. Finalmente describiremos en detalle la técnica de DWFS-PC. El capitulo seis muestra el análisis de viabilidad de la técnica que desarrollamos. Primero describiremos la simulación que realizamos para comprobar su viabilidad. Posteriormente presentamos los resultados de dicha simulación. En el capitulo siete describiremos el sistema implementado y los resultados obtenidos con él. Empezaremos realizando una profunda descripción del montaje, haciendo especial hincapié en el sensor de frente de onda. Analizaremos la calibración del sensor. Presentaremos el proceso de fabricación del elemento compensador de fase empleado. Mostraremos los resultados experimentales obtenidos con nuestro sistema. Y finalmente realizaremos el análisis y valoración de los resultados, presentando las limitaciones del sistema actual y las mejoras que se puedan aplicar. El capitulo ocho tratará las conclusiones del trabajo. En el apéndice presentaremos todos aquellos desarrollos matemáticos y comentarios que no son fundamentales para el seguimiento del discurso pero que son interesantes en el cómputo global del trabajo.

Page 33: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 34: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

CAPITULO 2 13

CAPÍTULO 2

ESTRUCTURAS OCULARES DE INTERÉS ÓPTICO

En este capitulo vamos a realizar una breve descripción de la anatomía del ojo, centrándonos fundamentalmente en aquellas características que mayor relevancia presentan desde el punto de vista de su interacción con la luz. Empezaremos describiendo la lágrima, posteriormente la cornea y así sucesivamente hasta llegar a la retina. Las principales referencias de carácter general que empleamos en este capítulo referentes a cuestiones de la histología del globo ocular son las siguientes: [Ros97, You00, Mor00, Roo02B].

Page 35: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

2.1 La lágrima 14

2.1 La lágrima La película lagrimal constituye el primer elemento óptico del sistema visual humano. Su integridad es fundamental para garantizar la salud de la cornea y conjuntiva, y asegurar una buena calidad óptica de la córnea. Su índice de refracción medio es de 1.337 y su espesor medio es aproximadamente de 3-1.5 μm [Wan03, Kin03]. Consta de tres capas diferenciadas: la capa lipídica de 50 nm de espesor es producida por las glándulas de Meibomio. Su función más importante es retrasar la evaporación de la película lagrimal además de proporcionar una superficie de gran calidad óptica: La capa acuosa supone el 95% del espesor total de la película y está segregada por las glándulas lagrimales principal y accesoria. Se encarga de la humectación y de las funciones de mantenimiento-defensa de la córnea. Finalmente la capa mucínica permite su estabilidad sobre el epitelio córneo-conjuntivo y tiene un espesor de entre 20-50 nm.

Fig. 2.1 — Elementos que conforman la anatomía del ojo [URL 1]

Page 36: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

2.2 La córnea 15

2.2 La córnea La córnea es un tejido altamente transparente. Tiene un espesor de 0.5-0.6 mm en el centro y de 1 mm en la periferia. Su índice de refracción es de 1.376 y el radio de curvatura medio de la cara anterior es de 7.7 mm, mientras que el de la cara posterior es de 6.8 mm, lo que proporciona una potencia óptica de 43 Dioptrías (D). La córnea se compone de tres capas: el epitelio corneal de 50-56 micras de espesor y compuesto a su vez por 5-7 capas de tejido escamoso: el estroma corneal de 0.5-0.54 mm de espesor, compuesto por fibras de colágeno ordenadas en unas 200-250 láminas paralelas a la superficie corneal. Dentro de cada capa las fibras se orientan en la misma dirección, mientras que se presentan oblicuas respecto a las capas adyacentes, presentando una tendencia a la orientación vertical y horizontal. El diámetro de las fibras de colágeno (30-38 nm) y su ordenación contribuyen notablemente a la transparencia de la córnea y a su carácter birrefringente (ver apartado 2.10). Por último el endotelio, constituye una monocapa de células hexagonales que hacen de barrera de separación entre el humor acuoso y el estroma contribuyendo al correcto grado de hidratación estromal. 2.3 Humor acuoso El humor acuoso es una sustancia líquida, de índice de refracción n=1.3374, contenida en la cámara anterior, constituido fundamentalmente por agua salada. Su principal función desde un punto de vista óptico es la de servir, junto a la córnea, de filtro al infrarrojo B y C (1400-106 nm). 2.4 El iris El iris es una capa de tejido muscular altamente pigmentada que es capaz de cambiar su tamaño desde 1.6 a 8 mm aproximadamente. Sus funciones principales son: limitar la cantidad de luz que alcanza la retina, y limitar la contribución de los rayos periféricos que presentan mayor aberración óptica. 2.5 El cristalino El cristalino es una lente biconvexa de entre 20-30 D de potencia óptica, transparente y elástica. Está anclado por detrás del iris y delante del cuerpo vítreo, gracias a un sistema de fibras que se denomina Zónula de Zinn, y que a su vez esta enganchada en el cuerpo ciliar. Mediante el músculo ciliar se controla la tensión que se ejerce sobre la zónula y por tanto la curvatura de las caras de

Page 37: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

16 2.5 El cristalino

cristalino. Al cambio de potencia del cristalino se le llama acomodación y es el mecanismo que permite al ser humano enfocar a distintos planos. El cristalino está constituido por una serie de capas de células que le confieren la propiedad de ser un medio de gradiente de índice. Aún no se conoce con suficiente precisión su distribución pero se estima que en el centro su valor es de 1.415 mientras que en la periferia es de 1.37. 2.6 Humor vítreo El humor vítreo es un líquido viscoso transparente, de índice de refracción n=1.3360, que rellena el cuerpo vítreo. 2.7 La retina La retina constituye el elemento detector de radiación, es la encargada de transducir la señal luminosa en señal eléctrica que pueda interpretar nuestro cerebro. Se compone de dos capas básicas: la capa neural, que es una capa interna que contiene los fotorreceptores: y el epitelio pigmentario de la retina, que es una capa externa que descansa sobre la capa coriocapilar de la coroides. La capa neural de la retina esta constituida por diez capas celulares en orden anteroposterior: capa limitante interna, capa de fibras nerviosas o de Henle, capa de células ganglionares, capa plexiforme interna, capa nuclear interna, capa plexiforme externa, capa limitante externa, capa de conos y bastones, epitelio pigmentario.

Figura 2.2: Capas de la retina con las células más importantes que se encuentran en esas ca

[URL 2]

Page 38: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

2. La retina 17

Desde un punto de vista óptico, la luz incidente que alcanza la retina sufre una fuerte reflexión en la capa limitante interna. La luz reflejada mantiene el grado de polarización de la luz incidente. La luz que se trasmite atraviesa las siguientes capas hasta llegar a la capa de conos y bastones, donde parte de la luz es absorbida por estas células fotosensibles, mientras que otra parte se sigue propagando hasta llegar al epitelio pigmentario. En esta capa se produce una fuerte absorción de la luz debido a la presencia de melanina. Gracias a esta absorción se evita luz reflejada en las capas posteriores a la de conos y bastones. A pesar de la fuerte absorción cierta cantidad de luz se transmite hasta llegar a la coroides. Es importante resaltar que la luz que llega a los fotorreceptores primero debe atravesar todas las capas mas internas de la capa neural de la retina. La capa de los conos y bastones es fundamental para el proceso visual ya que como dijimos es donde se realiza la transducción de la señal luminosa en señal eléctrica. La retina contiene en torno a 120 millones de bastones y 7 millones de conos dispuestos en forma de empalizada. La distribución espacial de los fotorreceptores no es uniforme. Así, la fóvea se encuentra únicamente constituida por conos con una densidad de 150000/mm2 en su parte central, disminuyendo la densidad a medida que nos alejamos. De esta forma la fóvea es la zona de la retina donde hay mayor muestreo espacial de la imagen formada por el sistema óptico ocular.

Figura 2.3: Densidad de conos en la retina en función de la excentricidad. [Roo02B]

Page 39: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

18 2.7 La retina

Diferencias funcionales entre los conos y los bastones son: su tamaño siendo mas grandes los bastones, de forma que los conos permiten realizar la visión en detalle; su respuesta temporal siendo los bastones más rápidos que los conos, de forma que son los primeros los que se usan para detectar el movimiento; su respuesta luminosa, siendo los bastones mas sensibles (encargados de la visión nocturna) y los conos encargados de la visión en color, existiendo tres tipos diferenciados de conos atendiendo a su respuesta espectral conos S (azul), M (verde), L (rojo). 2.8 La coroides La coroides es una capa de color pardo oscuro que mide 0.25 mm en la parte posterior y 0.1mm en la anterior. Se localiza entre la esclerótica y la retina. Consta de dos capas: la capa coriocapilar (interna y vascular); la membrana de Bruch (delgada amorfa e hialina). En la porción interna de la coroides predominan los vasos grandes y melanocitos grandes y muy pigmentados que posibilitan la absorción de los rayos de luz que volverían reflejados y dispersados hacia la retina. 2.9 La esclerótica La esclerótica esta formada por haces de colágeno aplanados que transcurren en varias direcciones paralelos a la superficie. Los haces de colágeno y fibrillas que los componen tiene diámetros y disposiciones irregulares. 2.10 Transmisión, Absorción, Reflexión, Polarización y Dispersión La óptica del ojo humano interactúa con la luz que entra en el ojo de forma que ésta sufre procesos de transmisión, reflexión, esparcimiento y absorción. En la figura 2.3(a) mostramos el espectro de transmisión de los distintos medios oculares. Como se puede observar actúan como filtros pasabanda que en su conjunto consiguen atenuar fuertemente (mediante procesos de absorción) todas las longitudes de onda excepto las pertenecientes al espectro visible. Por otra parte en la figura 2.3 (b) mostramos el espectro de absorción de los distintos pigmentos retinianos: Pigmentos maculares MP, P410-P435, Hemoglobina (HbO2), Melanina. Estos pigmentos son los encargados de: absorber la luz esparcida a través de las distintas capas de la retina y coroides, con el fin de aumentar el contraste de las imágenes detectadas por los fotorreceptores; de absorber gran parte del espectro inferior a 400nm previniendo la aparición de daños por exposición al ultravioleta; y reducir el efecto de la aberración cromática

Page 40: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

2.10 Transmisión, absorción, reflexión, polarización y dispersión 19

producida por luz perteneciente a ese rango de longitudes de onda. Del mismo modo la distribución espacial de estos pigmentos es determinante para las características del espectro de reflexión ocular [Del89]. Por otra parte la capa limitante interna y la capa de fibras nerviosas dificultan (debido a su estructura y propiedades ópticas) la correcta validación del verdadero espectro de reflexión del fondo ocular [Els92]. En la figura 2.4 presentamos una serie de espectros de reflexión en distintas posiciones de la retina correspondientes a 5 personas distintas donde se muestra el efecto mencionado. La figura 2.4 muestra como la reflectancia del fondo ocular aumenta con la longitud de onda hasta llegar al infrarrojo cercano. También se observa la variación existente entre sujetos y la dependencia con la zona retiniana. Al igual que el espectro de absorción, el de reflexión se ve fuertemente afectado por la cantidad de melanina presente en la coroides. Con luz roja y con bajos niveles de pigmentación la mayor parte de la luz reflejada se debe a la coroides altamente vascularizada, que provoca la manifestación de las bandas de absorción de la hemoglobina. A medida que el grado de pigmentación aumenta, el espectro de absorción de la melanina domina al de la hemoglobina. Con luz verde o azul, la contribución de las reflexiones en la coroides es pequeña comparada con las reflexiones originadas en las capas de la retina. El espectro de reflexión muestra igualmente la influencia del pigmento macular en el rango del azul.

Figura 2.3 : (a) Espectro de transmisión de los distintos medios oculares. [Roo02B] .(b): Espectro de absorción de los distintos pigmentos retinianos [Roo02B]

(a) (b)

Page 41: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

20 2.10 Transmisión, Absorción, Reflexión, Polarización y Dispersión

Por último trataremos la interacción de los medios ópticos oculares con la luz polarizada. Hasta hoy en día se desconoce la utilización por parte del sistema visual humano del estado de polarización de la luz incidente. Pero si se sabe que el ojo (y muy en particular la córnea) modifican el estado de polarización de la luz. Se ha comprobado que la córnea modifica el estado de polarización de la luz. De los modelos existentes el más sofisticado presenta la córnea como un sistema biáxico [Roo02B]. Esta naturaleza biaxial de la córnea se debe a la orientación de las distintas láminas de fibras de colágeno que conforman el estroma corneal. El cristalino presenta igualmente cierto grado de polarización aunque sustancialmente menor que el corneal [Bue03]. En cuanto a la retina, presenta una interacción con la luz polarizada un poco más compleja que la córnea o el cristalino. La complejidad se debe a su estructura en capas diferenciadas. Así por una parte la capa limitante interna se comporta como una superficie reflectante manteniendo el grado de polarización incidente. El epitelio pigmentario retiniano (EPR) y la membrana de Bruch (MB) presentan cierto grado de brirrefringencia induciendo un retardo aleatorio entre las componentes del campo eléctrico. Más aún estas capas presentan características diferenciadas respecto a la luz dispersada hacia atrás. Mientras el EPR mantiene el estado de polarización incidente la MB provoca la despolarización de la luz. La capa que contiene las fibras de Henle también presenta birrefringencia, al igual que la capa de fibras nerviosas. Finalmente aunque no forme parte de la retina mencionamos aquí la esclera, la cual presenta también cierto grado de birrefringencia [Mor98, Pir04].

Figura 2.4: Espectro de Reflexión para 5 sujetos en tres posiciones distintas de la retina: (N) nasal, (P) Perifovea, (F) Fovea. Obtenida de la referencia [Del89]

Page 42: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

2.11 Efecto Styles-Crawford 21

Este comportamiento de la retina frente a la luz polarizada puede ser aprovechado como ya indicamos en el capítulo anterior, para mejorar la calidad de las imágenes obtenidas del fondo ocular y facilitar la identificación de distintas estructuras retinianas de interés oftalmológico. Esta es la base de la técnica de imagen polarimétrica. Relacionado con el proceso de despolarización se encuentra la dispersión. Ya hablamos de ella en el primer capítulo pero no está de más realizar un breve recordatorio en este apartado en el que tratamos la interacción de la luz con los medios oculares. La dispersión de luz ocurre siempre que la luz encuentra discontinuidades en el índice de refracción. Ésta depende del tamaño relativo de la estructura respecto a la longitud de onda de la radiación incidente. Para el proceso visual la dispersión de luz en el sentido de propagación es la más importante ya que reduce el contraste de las imágenes registradas por los fotorreceptores. Sin embargo para la observación del fondo ocular afectan por igual tanto la dispersión en el sentido de propagación de la luz como la que se produce en sentido contrario. Las principales fuentes de dispersión en el ojo humano en cuanto a la luz retrodispersada son: posibles opacidades en la cornea o cristalino, cuerpos opacos en el humor vitreo, [Hem92], retina (vasos, membrana Bruch [Els00, Pir04]), coroides (vasos sanguíneos, melanocitos, pigmentos oculares...), y esclera [Del89, Els92, Roo02B]. 2.11 Efecto Stiles-Crawford El efecto Stiles-Crawford se describió por primera vez en 1933. Inicialmente se enunció de la siguiente forma: “El efecto Stiles-Crawford (SC) se refiere a la observación experimental relacionada con la mayor eficiencia a la hora de producir una respuesta visual, de la luz que entra cerca del centro de la pupila que la luz que entra por las zonas periféricas” [App93]. El origen de dicho efecto es consecuencia directa de la estructura anatómica de los fotorreceptores, que provoca que se comporten como guías ópticas, de forma que la eficiencia en el guiado de la luz hacia la zona interior del fotorreceptor donde se encuentra el pigmento fotosensible depende del ángulo de incidencia de la luz [Roo02B]. Pero el SC también se manifiesta en la luz reflejada, produciendo una distribución de irradiancia no uniforme sobre la pupila ocular [Mar96]. De forma que a pesar de

Page 43: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

22 2.11 Efecto Styles-Crawford

tener un origen retiniano el efecto resulta equivalente a una pupila apodizante de transmisión inhomogénea cuyo máximo se sitúa próximo al centro pupilar y su amplitud decrece al alejarse hacia el borde. Del efecto SC podemos extraer información de dos magnitudes: la orientación media de los fotorreceptores iluminados, magnitud que se valora a partir de la posición del máximo de la función de SC; y la direccionalidad, u orientación relativa entre los fotorreceptores iluminados, que se estima a partir del ancho de la función de SC [App93, Mar96]. Al ser un efecto de origen retiniano es evidente que va a presentar gran variabilidad entre sujetos, zonas de la retina analizadas, y propiedades estructurales del ojo. De entre los distintos modelos matemáticos empleados para describir el efecto SC nosotros escogemos como ejemplo el propuesto por Applegate et.al [App93,].

2

maxmax10 ρζ ζ − −= r r 2.1

donde ζ representa la irradiancia en una posición de la pupila dada, |r-rmax|

determina la distancia entre el punto de observación y la posición en la que se produce la irradiancia máxima, y ρ es un parámetro denominado factor de forma.

En la figura 2.5 mostramos el aspecto de la función de SC presentada.

Desde un punto de vista perceptivo el efecto SC es interesante ya que al reducir el peso de los rayos que inciden en la retina, procedentes de zonas periféricas de la pupila, se aumenta la profundidad de foco del ojo y se reduce el efecto de las aberraciones sobre la imagen que se forma sobre la retina [Roo02B].

Figura 2.5 : Efecto Stiles-Crawfored ideal representado como el logaritmo de la sensibilidad relativa en función de la posición de entrada en una pupila de 8 mm de diámetro [App93].

Page 44: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

CAPÍTULO 3 23

CAPÍTULO 3

MEDIDA DE ABERRACIONES OCULARES

En este capitulo trataremos la medida de las aberraciones ópticas oculares. Empezaremos presentando el concepto de aberración de onda así como una serie de formas de representarla, incidiendo especialmente en la representación en base a polinomios de Zernike. Posteriormente nos centraremos en el origen y características tanto poblacionales como espacio-temporales de la aberración ocular. Seguidamente realizaremos un repaso histórico de la evolución sufrida por los métodos de medida de aberraciones oculares. A continuación describiremos en detalle los fundamentos de los sensores de gradiente, haciendo especial hincapié en el sensor Hartmann-Shack. Analizaremos el principio físico fundamental de su funcionamiento, en el que incluiremos el procesado por umbralización normalmente empleado en el procesado de la imagen proporcionada por el sensor. Estudiaremos las distintas fuentes de error que afectan al sensor: errores sistemáticos, errores en la determinación del centroide (donde volveremos a incluir el procesado por umbralización) y los errores relativos a la construcción del estimador. Posteriormente analizaremos la influencia de la elección del sistema de referencia sobre la estimación de la aberración ocular. Finalmente evaluaremos el efecto que tiene sobre la estimación de la MTF ocular el error cometido en la obtención de los coeficientes estimados.

Page 45: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

24 CAPÍTULO 3

Se comprobará la relevancia significativa que el procesado por umbralización presenta tanto en la estimación del gradiente local de la fase existente sobre la pupila del sensor, como sobre la estadística del centroide en presencia de ruido aleatorio aditivo gaussiano. Veremos que incluso en ausencia de ruido, el procesado por umbralización puede provocar el desplazamiento del centroide estimado, respecto al valor que se obtendría sin umbralización, siempre que la fase incidente presentase cierto grado de aberración de tipo comática. Mostraremos como el efecto provocado por la función de umbralización empleada en el plano de detección del sensor es equivalente a una modificación de la dirección media de propagación de los rayos que atraviesan la pupila del sistema. También veremos que como consecuencia del procesado por umbralización la relación entre el gradiente de la fase y el centroide de la distribución de irradiancia correspondiente deja de ser lineal. En cuanto a los errores aleatorios que afectan a la determinación del centroide nos centraremos en la presencia de ruido aditivo gaussiano en el plano del detector. Veremos que en presencia de umbralización el ruido gaussiano que afecta a las distribuciones focales proporcionadas por el sensor cambia sus propiedades estadísticas dependiendo de tres factores: nivel de ruido, nivel de irradiancia y valor de umbral en el píxel. Como consecuencia de este cambio en las propiedades estadísticas del ruido se comprobará que por una parte el valor medio del centroide puede ser desplazado respecto al valor esperado, y por otro lado la varianza va a presentar un comportamiento no monotónico, pudiendo así establecer un valor de umbral que minimice la varianza del centroide, lo que permitirá la reducción del ruido del sensor en aquellas situaciones en las que el valor medio del centroide coincida con el que obtendríamos en ausencia de ruido y procesado por umbralización. Compararemos así la incertidumbre en la determinación del centroide obtenida a partir del nivel de umbral que la minimiza y tres métodos de umbralización más, comprobando que el menor valor de la varianza lo proporciona el método por nosotros propuesto. Siguiendo con el análisis de las fuentes de error veremos la importancia del correcto modelado del problema a la hora de construir la matriz de reconstrucción de mínimos cuadrados. Aquí incluimos la importancia de tanto modelar bien las medidas que proporciona el sensor, como de conocer las propiedades del espectro modal de la aberración analizada.

Page 46: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.1 Representación de la aberración de onda 25

Mostraremos igualmente la equivalencia entre estimar la aberración ocular respecto a un sistema de coordenadas solidario a la pupila del ojo y cualquier otro mediante el empleo de una matriz de cambio de base aplicada sobre los coeficientes estimados. Dicha equivalencia será únicamente verificada para transformaciones de coordenadas lineales conformes. Finalmente describiremos como se construye la matriz de transformación que permite relacionar los coeficientes estimados respecto a los sistemas de coordenadas señalados anteriormente. Por último mostraremos el efecto que tiene equivocarse en la estimación de los coeficientes modales sobre la MTF ocular. Veremos, a la luz de las simulaciones realizadas, que el efecto de modelar mal las medidas del sensor es reducido. Igualmente comprobaremos que al considerar que el frente tiene menos modos de los que realmente tiene, la MTF ocular se subestima mientras que el ruido en las medidas produce su sobreestimación. 3.1 Representación de la aberración de onda La aberración de onda se define como la diferencia de camino óptico entre el frente de ondas aberrado y un frente de ondas ideal de referencia, existente en el plano de la pupila. En el caso del ojo humano, y siguiendo las recomendaciones del estándar VSIA-OSA [Thi00] tomaremos como plano de observación el plano de la pupila de salida del ojo (visto desde el sensor). Nos centraremos en este trabajo en las aberraciones monocromáticas. Existen varias posibilidades para describir la aberración de onda correspondiente a un sistema óptico. Una de ellas consiste en expresar la aberración de onda en función de las aberraciones Seidel [Wel86, Mal92, Bor92], pero la opción más extendida, empleada para tal fin, es la base de polinomios de Zernike [Mal92, Bor92]. 3.1.1 Polinomios de Zernike Los polinomios de Zernike constituyen la base de polinomios más usada para representar la aberración de onda de un sistema óptico. Presentan una serie de propiedades matemáticas que los hacen especialmente interesantes [Bor92, Mal92, Wya92]: (1) Son ortogonales dentro del circulo de radio unidad; (2) Constituyen una base completa, esto quiere decir que cualquier frente obtenido por una función cuadrado integrable puede ser descrito mediante una combinación lineal de dichos polinomios; (3) Se pueden expresar como producto de dos funciones independientes

Page 47: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

26 3.1 Representación de la aberración de onda

donde una lleva información radial y la otra información angular: (4) Son invariantes en su forma a rotaciones del eje de coordenadas respecto a su origen; (5) Exceptuando el primer término cada polinomio de Zernike tiene como valor medio cero; (6) La varianza de la aberración de onda es igual a la suma de las varianzas de cada uno de los polinomios de Zernike que la componen; (7) Son fácilmente generables tanto en coordenadas polares como cartesianas: (8) Permiten la obtención de un polinomio de amplitud variable mediante la suma de dos polinomios iguales pero rotados, de forma que la amplitud del polinomio resultante está relacionada directamente con el ángulo de rotación [Aco05]. La definición de los polinomios de Zernike en coordenadas polares según el Standard VSIA-OSA [Thi00] es la siguiente:

( ) cos( ) para m 0( , )

( ) sin( ) para m<0

m mn nm

n m mn n

N R mZ

N R m

ρ θρ θ

ρ θ

⎧ ≥⎪= ⎨−⎪⎩

(3.1)

donde la componente radial mnR viene dada por:

( )

22

0

( 1) ( )!( )

! ! !2 2

n ms

m n sn

s

n sR

n m n ms s s

ρ ρ

=

− −=

⎡ + ⎤ ⎡ − ⎤− −⎢ ⎥ ⎢ ⎥

⎣ ⎦ ⎣ ⎦

∑ (3.2)

y el factor de normalización mnN :

0

2( 1)1

mn

m

nNδ+

=+

0 01 si m=0, y 0 si m 0m mδ δ= = ≠ (3.3)

A pesar de que esta definición es cómoda para trabajar y analizar las propiedades de los polinomios de Zernike, la representación en coordenadas cartesianas se esta imponiendo en el campo de la aberrometría ocular, principalmente porque los sensores de frente de onda proporcionan medidas del gradiente según los ejes cartesianos, de forma que expresar los polinomios de Zernike en cartesianas facilita la interpretación directa de las medidas y la implementación computacional del algoritmo de computo de coeficientes modales. Pero así como la representación de los polinomios de Zernike en coordenadas polares solo hay una, en cartesianas hay varias atendiendo sobre todo a como se definan los ejes de coordenadas y el ángulo de la notación polar. Según el Standard VSIA-OSA la definición de los ejes cartesianos es la siguiente cos ; sinx yρ θ ρ θ= =

Page 48: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.2 Aberraciones oculares 27

[Thi00]. Según esta definición de los ejes el generador de polinomios de Zernike en coordenadas cartesianas es:

2( ) 2( )

0 0 0

( )!( 1)

!( )!( )!

q m jmm m i j i k p n i j k pn n

i j k

n jZ N y x

j m j n m j

−+ + + − + + −

= = =

−= −

− − −∑∑∑ (3.4)

Esta expresión es una modificación de la presentada por Malacara [Mal92] en la que intercambiamos x por y para adaptarla al Standard VSIA-OSA. La obtención de los valores de los distintos índices presentes en la expresión (3.4) se encuentra descrita en el APENDICE A. 3.2 Aberraciones oculares Hasta el momento hemos presentado de forma muy general las aberraciones. En esta sección desarrollaremos en más detalle su descripción. Así hablaremos del origen de las aberraciones oculares, de la estadística temporal de la aberración en individuos e incidencia poblacional y de la evolución de las distintas técnicas de medida empleadas en su caracterización. 3.2.1 Fuentes de aberraciones oculares Como avanzamos en el primer capítulo, la aberración ocular se puede dividir en dos componentes [Hof01, Che04]. Por una parte encontramos una componente de evolución temporal lenta, comúnmente denominada estática (principal responsable de la aberración ocular) y por otro lado una componente de evolución temporal más rápida, conocida como componente dinámica. Las principales fuentes de estas aberraciones incluyen la lágrima, la córnea y el cristalino. Además de las aberraciones de primer y segundo orden el ojo humano también presenta lo que denominamos aberraciones de alto orden provocadas por posibles irregularidades en sus superficies refractoras y a posibles descentramientos o inclinaciones relativas entre los distintos elementos ópticos oculares [Lia94, Nav97, Lia97, Roo02B, Thi02]. De estas aberraciones de alto orden la principal causante es la córnea. Pero ésta y el cristalino no solo inducen aberraciones sino que en cierta medida se compensan entre sí. Estudios simultáneos de la topografía corneal y de la aberración ocular sugieren que el cristalino no sólo permite enfocar distintos planos sino que además compensa parte de la aberración óptica inducida por la córnea [Art01, Kel04].

Page 49: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

28 3.2 Aberraciones oculares

Por otra parte la componente dinámica presenta una magnitud sustancialmente inferior a la estática. Su fluctuación temporal se produce en intervalo de tiempos mucho menores que el segundo, por lo que sus fuentes deben mostrar cambios temporales de la misma escala de tiempos. Hasta el momento no se ha completado la identificación de todos los mecanismos involucrados, aunque algunos ya han sido identificados [Hof01, Zhu04, Dub04]: la lágrima, posibles desplazamientos longitudinales de la retina debido a la presión vascular, movimientos oculares, y desplazamientos axiales y microfluctuaciones del cristalino inducidos tanto por la presión vascular como por la presión intraocular. Así pues hemos presentado en este apartado los principales responsables de la aberración ocular. A continuación seguiremos el estudio de estas aberraciones aunque desde un punto de vista estadístico. Primero presentaremos un análisis poblacional que nos indicará la incidencia de las distintas aberraciones. Posteriormente nos centraremos en la estadística temporal de la aberración ocular. 3.2.2 Estadística Poblacional y Temporal Al hablar de estadística de las aberraciones oculares podemos realizar dos tipos de estudios. Por una parte nos puede interesar analizar cuál es la dinámica temporal de las aberraciones oculares, estudio que es importante por ejemplo para analizar la utilidad de compensar con elementos ópticos estáticos las aberraciones de alto orden. Pero por otro lado puede ser interesante conocer la incidencia de las distintas aberraciones, con el fin de optimizar el diseño de aberrómetros o determinar cuales son los valores normales e inferir a partir de ahí la presencia o no de patologías. 3.2.2.1 Estadística Poblacional Como dijimos en apartados anteriores el conocimiento de la incidencia de las distintas aberraciones es de gran importancia, para el diseño de aberrómetros y caracterización de patologías oculares entre otras aplicaciones. Con este fin se han realizado numerosos estudios en distintas partes del mundo que han proporcionado resultados muy similares [Por01, Thi02, Cas02, How02]. En el trabajo de Thibos [Thi02] se muestra mediante histogramas la distribución de valores de las distintas componentes de Zernike de las aberraciones oculares correspondientes a una población de 200 ojos. Estos resultados concuerdan con los obtenidos por otros estudios realizados igualmente sobre un gran número de ojos

Page 50: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.2 Aberraciones oculares 29

[Cas02, Por01]. Según estos resultados la aberración ocular sigue una distribución de probabilidad gaussiana de valor medio igual a cero en la mayoría de las componentes de la aberración. Únicamente el desenfoque 0

2Z , el astigmatismo a

favor de regla 22Z , y la aberración esférica 0

4Z presentan un valor medio

significativamente distintos de cero [Thi02, Cas02, Por01]. Es importante resaltar que el valor medio de la mayoría de las componentes es nulo en término medio, pero la probabilidad de que exista un sujeto sin aberraciones ópticas de bajo y alto orden es despreciable. Por otra parte el trabajo de Thibos mencionado anteriormente [Thi02] muestra también el valor medio de las distintas componentes de la aberración ocular, pudiéndose observar su decrecimiento a medida que avanzamos en el orden modal. En otros estudios poblacionales realizados por Castejon y Porter se llega a resultados equivalentes a los obtenidos por Thibos en cuanto al valor medio de las

distintas componentes de la aberración, y a la prevalencia de 04Z sobre las otras

aberraciones de cuarto orden. En estos estudios también se destaca: la correlación existente entre la aberración esférica de cuarto orden y las aberraciones de segundo orden: la correlación entre las componentes de segundo y tercer orden de los dos

ojos del sujeto: y la prevalencia del astigmatismo 22Z a favor de regla [Thi02,

Cas02, Por01]. Todos los estudios muestran la relevancia de las aberraciones de 2o orden (responsables del 90% de la aberración en pupilas de 5mm) y 3er orden (8% del total de la aberración) [Cas02]. También concluyen que el aumento del tamaño pupilar esta correlacionado con un aumento significativo de la aberración y en particular con el de las componentes de orden alto.

3.2.2.2 Estadística Temporal La dinámica de las aberraciones oculares como se dijo anteriormente aún no esta totalmente caracterizada. Por el momento no se conocen totalmente los mecanismos que provocan dicha fluctuación pero sí se conocen una serie de características [Kot86, Gra00, Hof01, Dia03, Nir03, Zhu04]:

• La fluctuación temporal de las aberraciones es similar entre sujetos. • El espectro de potencias temporal de la aberración decae según un

exponente -4/3 de la frecuencia, decayendo todas las componentes modales de la misma forma.

Page 51: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

30 3.2 Aberraciones oculares

• Se han observado fluctuaciones de la aberración de hasta 70 Hz. • La fluctuación está correlacionada con el ritmo cardiaco y respiratorio a

través del cristalino presentando dos frecuencias de oscilación características a 2 Hz y 0.5 Hz respectivamente.

• Las aberraciones de alto y bajo orden cambian con la acomodación. De las fuentes que originan la fluctuación y que han sido identificadas hasta el momento las de mayor relevancia son cambios en el cristalino y en la lágrima. Como dijimos anteriormente tanto el ritmo cardíaco como respiratorio están altamente relacionados con las microfluctuaciones de la aberración, siendo ambos responsables de la existencia de dos picos en el espectro temporal de la fluctuación de la aberración, situados en 0.5 Hz (ritmo respiratorio) y 2 Hz (ritmo cardiaco) [Kot86]. Esta relación se debe a que el pulso sanguíneo actúa sobre el cristalino, probablemente contrayendo/relajando el músculo ciliar por la presión de la sangre a su paso, o desplazando el cristalino con los cambios en la presión intraocular [Kot86, Gra00, Zhu04]. Igualmente se comprobó que cambios en el ritmo respiratorio inducen modificaciones en la frecuencia de la fluctuación de la aberración según recoge el trabajo de Zhu et.al. [Zhu04]. Otro elemento importante en la estadística temporal de la aberración ocular, que está relacionado con el cristalino, es el proceso de fijación. Durante la medida de aberraciones oculares el sujeto debe fijar a un punto o un objeto, de forma que se espera que mantenga constante su estado refractivo (y por tanto su acomodación). Pero es sabido que el ojo sufre microfluctuaciones de la acomodación no sólo involuntarias como las inducidas por el ritmo cardiaco y respiratorio sino también pseudocontroladas, relacionadas con el proceso de fijación, proceso en el que se trata de obtener y mantener la mejor calidad de imagen. Este proceso depende entre otros factores de la ametropía del sujeto, del tipo de test de fijación y de su luminancia [Sta03, Cha78, Gra00]. Así que la capacidad de fijación será otro factor a tener en cuenta en el análisis temporal. Por otra parte se encuentra la lágrima. Ésta se comporta como un sistema dinámico en el que el proceso de extensión de la lágrima sobre la superficie corneal y conjuntival, y el consiguiente comienzo de su evaporación provocan cambios significativos en su superficie anterior. Se ha comprobado que este proceso dinámico presenta un mínimo en la generación de aberraciones, que se produce en término medio 6 segundos después del parpadeo [Mon04]. En cuanto a su estadística temporal se ha comprobado que por lo menos es capaz de presentar fluctuaciones de hasta 25Hz, pudiendo alcanzar mayores frecuencias [Kas02].

Page 52: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.2 Aberraciones oculares 31

Respecto a la magnitud de las fluctuaciones inducidas por la dinámica lagrimal existe cierta disparidad entre los resultados presentados en distintos estudios. Por ejemplo en el trabajo de Dubra [Dub04] se indica que la lágrima es responsable de una fluctuación de la aberración de 0.06 μm rms en pupilas de 3 mm de diámetro. Sin embargo en el trabajo de Montes-Micó [Mon04, Mon04B] se indica que la fluctuación puede llegar a ser de hasta 1 μm rms en pupilas de 7 mm de diámetro. La variabilidad en los resultados obtenidos en los estudios de la fluctuación de la aberración ocular debida a la dinámica lagrimal pone de manifiesto la relevancia de una serie de factores que hay que tener en cuenta a la hora de su comparación: duración de las series de medidas; el tiempo entre el último parpadeo y el comienzo de la serie de medidas; y tiempo de ruptura lagrimal de los sujetos entre otros factores. Hasta ahora sólo hemos presentado posibles fuentes que originen las consabidas fluctuaciones temporales de la aberración ocular. ¿Pero cuál es la magnitud de la fluctuación? ¿Es interesante la corrección estática de aberraciones de alto orden? ¿Se puede emplear óptica adaptativa en relación con el ojo humano? Estas preguntas las responderemos a continuación. De los estudios relacionados con la dinámica de las aberraciones oculares destacamos los realizados por H. Hofer [Hof01, Hof01B]. En estos estudios Hofer analiza pormenorizadamente la amplitud de la fluctuación tanto de la aberración total como de cada uno de sus componentes, el espectro de potencias de la fluctuación, y la posibilidad de emplear óptica adaptativa y corrección estática para obtener imágenes de buena calidad del fondo de ojo. Los resultados que presenta para un sujeto con diámetro pupilar de 4.7 mm muestran que la amplitud de la fluctuación del rms de la aberración es de 0.2-0.3 μm, siendo la componente principal de dicha fluctuación las microfluctuaciones de la acomodación. Viendo la diferencia entre la contribución del desenfoque (directamente relacionado con la acomodación) y la fluctuación total se observa que el residuo es de aproximadamente 0.1 μm. Hofer también presenta el hecho de que un sistema adaptativo trabajando a 1-2 Hz sería capaz de proporcionar imágenes limitadas por difracción, de forma que muestra el reducido impacto que las aberraciones que fluctúan a mayor frecuencia tienen sobre la PSF ocular. En esta línea apunta la utilidad de corregir aberraciones de alto orden con componentes estáticos.

Page 53: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

32 3.2 Aberraciones oculares

Creemos interesante comentar el hecho de que un sistema adaptativo trabajando a 2 Hz proporcione imágenes limitadas por difracción, ya que es indicativo del papel relevante que las microfluctuaciones del cristalino provocadas por el ritmo cardiaco (cuya frecuencia característica es de 0.5-2 Hz) tienen en la estadística de las fluctuaciones de la aberración.

En la fig. 3.1 mostramos la evolución temporal de las aberraciones del ojo derecho del sujeto JAP para dos series de medidas distintas. Se observa con gran claridad la oscilación rítmica de la aberración descrita en la literatura [Kot86, Gra00, Zhu04]. Con el fin de comprobar si los picos presentes en la aberración coinciden con el ritmo cardíaco del sujeto calculamos su frecuencia cardíaca, para ello contamos su número de pulsaciones durante un minuto. El sujeto presentó una frecuencia de latido de 0.7 Hz lo que corresponde con tres latidos cada 5 segundos. Comparando esta estimación con la figura 3.1 (a),(b) observamos (sobre todo en el caso (b)) que el número de picos presentes cada cinco segundos es el mismo, lo que muestra el gran peso que tienen las microfluctuaciones del cristalino (provocadas por el pulso cardíaco) sobre la fluctuación de la aberración y en particular sobre la componenete de desenfoque. Superpuesto al efecto de la microfluctuación del desenfoque se puede observar la presencia de cierta deriva acomodativa en el rms de la figura 3.1a en contraposición al caso presentado en fig.3.1b. El control de este proceso de deriva va a ser indispensable a la hora de realizar análisis temporales de la fluctuación de la aberración para poder llegar a conclusiones correctas.

rms total

desenfoque

rms total

desenfoque

(b) (a)

rms (

µm)

rms (

µm)

t (sec)t (sec)

Figura 3.1: (a)-(b) Evolución temporal del rms total (sólida) y del rms de la fluctuación del desenfoque (línea discontinua) correspondiente a dos series aberrométricas distintas. Los datos aberrométricos fueron obtenidos con un diámetro pupilar 6.4 mm.

Page 54: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 33

3.3 Medida de aberraciones oculares En este apartado presentaremos los sensores de frente de onda empleados en el campo de la aberrometría. Empezaremos haciendo un repaso histórico de su evolución y posteriormente nos centraremos en los sensores de gradiente tipo HS. 3.3.1 Evolución histórica El primer método conocido para determinar el estado refractivo del ojo humano data de 1619 y fue desarrollado por Scheiner [Web92]. Este sistema consistía en un par de orificios situados delante del ojo del sujeto, iluminados por un haz de luz colimado. En el caso de que el sujeto presentara alguna ametropía éste percibiría dos manchas, mientras que en el caso de que fuera emétrope percibiría una sola. De esta forma la ametropía se determinaba en función de la potencia de la lente necesaria para que el sujeto observara una única imagen. En 1801 Young empleo este mismo procedimiento para sus estudios sobre el ojo humano, pero sustituyo los orificios por un par de rendijas. En 1876 Badal desarrollo su optómetro. Éste consistía en un test y una lente situada delante del ojo a una distancia, respecto a éste, igual a su focal. El test se movía, respecto a la lente, hasta que el sujeto lo viera nítido. Del desplazamiento del test respecto a la lente se obtenía la ametropía del sujeto. En 1894 Tscherning propuso el empleo de la deformación de un patrón regular por la óptica del sujeto como método para la determinación de sus aberraciones oculares [How76]. Este método consistía en iluminar la cornea con una rejilla y posteriormente determinar su aberración ocular a partir del dibujo deformado de la misma pintada por el sujeto. No fue hasta 1953 (Ivanoff) y 1961 (Smirnov) [Smi61] cuando se determinó la presencia de aberraciones de alto orden en el ojo humano. Ambos usaron métodos semejantes al de Scheiner aunque diferentes en la forma de proporcionar los estímulos visuales. Ambos casos el gradiente local de la fase se determinó a partir del desplazamiento transversal ejercido por el sujeto sobre el test para su correcto alineamiento con el estímulo de control. En 1976 Howland y Howland propusieron su aberroscopio, que no era más que una ligerísima modificación del método de Tscherning [How76]. La modificación consistía en sustituir la lente negativa empleada por Tscherning por un par de

Page 55: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

34 3.3 Medida de aberraciones oculares

cilindros cruzados colocados a 45o, con la rejilla entre ellos. Con esta configuración consiguieron una sombra más nítida de la rejilla mejorando así la precisión del aparato. Además fueron capaces de relacionar las deformaciones de los dibujos realizados por los sujetos con los términos de la expansión en serie de Taylor de la aberración ocular. En 1984 Walsh et.al. desarrollaron el primer aberroscopio objetivo. Incorporaron una cámara de fondo de ojo al aberrómetro de Howland con el fin de registrar la imagen de la rejilla que se forma sobre la retina del sujeto. De esta forma evitaban el proceso subjetivo de dibujar la imagen percibida. El paso a la objetividad supuso un gran avance. La desventaja fundamental de este aparato es la degradación que sufre la imagen de la rejilla al atravesar de nuevo la óptica ocular, limitándose así tanto el muestreo espacial de la aberración como la magnitud de la aberración analizada, pues mayor aberración va acompañada de mayor degradación de la imagen y menor precisión en la estimación de la aberración. Este problema se solventó con el segundo método objetivo, el sensor Hartmann-Shack (HS) [Lia94]. Fue Liang en 1994 el que propuso la importación al campo de la oftalmología de este sensor de frente de onda desarrollado para aplicaciones relacionadas con la astronomía. Este sensor proporciona medidas del gradiente local de la fase en distintas posiciones de la pupila. En 1992 Webb presento el refractómetro espacialmente resuelto (SRR) que es una modificación del método de Scheiner, en el que lo que se varía es el ángulo de incidencia de uno de los rayos [Web92]. En 1995 se desarrollo el método objetivo denominado Trazado de Rayos por Láser (LRT) [Nav97]. Este método es una modificación del método de Scheiner. Consiste en la introducción sucesiva de pinceles de luz por distintas posiciones de la pupila y el registro de la imagen que forman en la retina del sujeto. De la desviación respecto al rayo principal de la imagen que se forma en la retina del pincel de luz que pasa por una posición determinada de la pupila, se obtiene una medida de la aberración transversal de rayo, y a partir de ésta el gradiente local de la aberración en esa posición pupilar. A partir de los datos del gradiente de la fase obtenidos para una serie de posiciones de la pupila se puede caracterizar la fase mediante distintas técnicas de entre las que destacamos la estimación lineal basada en polinomios de Zernike, por ser el método mas extendido en la actualidad.

Page 56: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 35

Los sistemas descritos determinan la aberración ocular a partir de la medida del gradiente de la fase sobre una serie de posiciones en la pupila. Casi todos emplean para ello la medida de la desviación de los rayos en el camino de entrada a partir de imágenes de distribuciones de luz en el plano de la retina. Únicamente el HS mide el gradiente de la fase (en el plano de la pupila de salida del ojo) que presenta la luz retroreflejada en la retina y que por consiguiente sale del ojo. 3.3.2 Sensores de Gradiente En este apartado vamos a presentar los sensores de gradiente basados en el cálculo del centroide. En esta categoría se encuentran entre otros los sensores tipo Hartmann-Shack (HS) y Trazado de Rayos con Láser (LRT). Conceptualmente ambos tipos de sensores son semejantes. Nos centraremos en el sensor Hartmann-Shack por ser el que emplearemos en nuestro trabajo pero la descripción teórica y el análisis de errores son válidos, con las modificaciones oportunas, para el LRT. Empezaremos realizando una descripción teórica de la relación entre el centroide de la distribución de irradiancia en el plano imagen del sensor de gradiente con la derivada local de la fase en el plano de la pupila del sensor. Seguidamente presentaremos el método de estimación lineal que nos permite obtener la estimación de la fase a partir de medidas de sus derivadas locales. Posteriormente presentaremos un análisis de las fuentes de error que afectan al proceso de estimación de la fase. Este análisis lo dividiremos en dos unidades: errores derivados de la presencia de ruido en las medidas; y errores inducidos en el proceso de estimación. También analizaremos el problema de estimación de la aberración ocular desde el punto de vista de la elección del sistema de referencia empleado para realizar la estimación. Finalmente mostraremos la influencia de los distintos errores en la estimación de la función de transferencia óptica (OTF). 3.3.2.1 Descripción Teórica El sensor de frente de onda Hartmann-Shack es un sensor realmente sencillo. Consiste en un conjunto de aberturas en las que se puede introducir o no algún elemento de fase. Un conjunto de orificios proporciona la misma información de la derivada local del frente que un conjunto de microlentes. Aún así típicamente el elemento de análisis del frente es una matriz de microlentes. Esta elección se debe

Page 57: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

36 3.3 Medida de aberraciones oculares

principalmente a que proporciona una mejor relación señal ruido en el plano de observación del sensor. El marco en el que vamos a realizar el estudio teórico es el siguiente: vamos a considerar que el HS está constituido por un conjunto de microlentes independientes tanto en el plano de la pupila como en el plano imagen, que se van a comportar como sistemas lineales e invariantes espacialmente en la amplitud compleja del campo. Esto nos va a permitir estudiar la relación entre la fase existente sobre una microlente y el centroide de la distribución de irradiancia en su plano imagen, y luego extrapolar el comportamiento a todas las microlentes. Cabe mencionar que existen análisis teóricos recientes que presentan el HS desde un punto de vista interferométrico [Prim03] considerando que la matriz de microlentes es una red de difracción de forma que en el plano imagen del sensor tenemos un conjunto de ordenes difractados que interfieren entre si. Como dijimos, vamos a analizar la relación entre la fase existente sobre una microlente ( , )x yφ y el centroide de la distribución de irradiancia en el plano de

detección. La definición general del centroide XC según la dirección u de la distribución de irradiancia I(u,v) viene dada por :

Figura 3.2: (a) Matriz de microlente; (b) Imagen aberrométrica

(a) (b)

Figura 3.3: Relación entre el plano de la pupila y el plano imagen.

Page 58: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 37

( , )

( , )uv

C

uv

uI u v dudvX

I u v dudv= ∫∫∫∫

(3.5)

Hoy en día es muy frecuente el uso de técnicas de preprocesado de imagen para reducir la incertidumbre en el proceso de cálculo del centroide. De entre ellas destacamos el procesado por umbralización, por una parte porque será el procesado que aplicaremos a las imágenes que proporcionará nuestro sensor, y por otra parte porque siendo un procesado muy empleado en el campo de los sensores de frente de onda su efecto sobre la estimación del centroide de los spots presentes en las imágenes proporcionadas por dichos sensores apenas ha sido analizado. El procesado por umbralización es una operación no lineal con la que se seleccionan aquellas posiciones de la imagen cuyo nivel de irradiancia correspondiente supera un valor determinado, siendo el resto de las posiciones descartadas. De esta forma el procesado por umbralización nos va a permitir seleccionar aquellos píxeles donde la irradiancia presenta una relación señal ruido significativa, eliminando del proceso de cálculo de centroide aquellos valores de irradiancia poco significativos. El procesado por umbralización se emplea principalmente en aquellas situaciones en las que las imágenes de las que se va a computar el centroide presentan una fuerte componente de irradiancia de fondo, o en las que se pretende identificar los objetos presentes en una imagen. En cuanto a su relación con el cálculo de centroides de distribuciones de irradiancia (restringidas a una región finita) situadas sobre una componente de irradiancia de fondo, el empleo del procesado por umbralización es fundamental ya que dicho cálculo se ve muy afectado por la componente continua de fondo. Como dijimos en el párrafo anterior el procesado por umbralización es frecuentemente empleado en el proceso de análisis de las imágenes proporcionadas por los sensores de frente de onda (llamadas imágenes aberrométricas). En particular en el caso del HS o el LRT su aplicación es fundamental, cumpliendo las dos funciones anteriormente descritas: eliminación de la contribución del fondo de irradiancia en el cómputo del centroide, y en la identificación de los spots presentes en la imagen. Es chocante comprobar la poca literatura existente en relación con los efectos del procesado por umbralización sobre el cálculo del centroide. Esto nos hace pensar que este procesado es considerado como un proceso inocuo que nos permite eliminar fondo y detectar objetos sin alterar la estimación del centroide de las imágenes umbralizadas. Siguiendo esta línea argumental

Page 59: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

38 3.3 Medida de aberraciones oculares

podríamos escoger cualquier nivel de umbral ya que siempre obtendríamos el mismo valor del centroide, pero intuitivamente esto no puede ser así. Más aún si intuitivamente el valor del centroide depende del nivel de umbral, ¿Qué efectos tendrá el procesado por umbralización sobre la estimación del centroide y por lo tanto sobre la estimación del gradiente de la fase existente sobre la pupila del sistema formador de imagen?, ¿Introducirá algún sesgo en la estimación? ¿Cuál será el nivel óptimo de umbralización que minimice la varianza del centroide? A continuación responderemos a la primera de las preguntas, mientras que las restantes serán contestadas en sucesivos apartados. El procesado por Umbralización se puede expresar fácilmente mediante una función de Heaviside H(u,v):

1 ( , )( , )

0 ( , )I u v T

H u vI u v T

≥⎧= ⎨ <⎩

(3.6)

donde T es el umbral escogido. Incluir el procesado por umbralización en el cálculo del centroide se reduce a aplicar el operador umbralización (H(u,v)) sobre la irradiancia en el plano imagen. De esta forma la ecuación (3.5) se puede rescribir:

( , ) ( , )

( , ) ( , )uv

C

uv

u I u v H u v dudvX

I u v H u v dudv=∫

∫ (3.7)

Como dijimos vamos a considerar que el sistema óptico bajo estudio es lineal, invariante y además consideraremos que la fuente es espacialmente incoherente. Bajo estas condiciones la distribución de irradiancia en el plano imagen se puede describir a través de la integral de convolución [Goo00]:

22( , ) ( , ) ( , )gI u v K u v O d dξ η ξ η ξ η∞

= − −∫∫ (3.8)

donde K(u,v) es la transformada de Fourier de la función pupila P(x,y) ( { })y,x(iexp)y,x(C)y,x(P φ= ), y Og(u,v) es la distribución de irradiancia de la imagen

geométrica del objeto. Por comodidad vamos a empezar estudiando el numerador de (3.7). Introduciendo (3.8) en el numerador de (3.7) obtenemos:

2 2

2 2

I( , ) ( , ) ( , ) ( , ) ( , )

( , ) ( , ) ( , )

guv uv

guv

u u v H u v dudv O K u v d d u H u v dudv

O u H u v K u v dudv d d

ξη

ξη

ξ η ξ η ξ η

ξ η ξ η ξ η

⎛ ⎞= − − =⎜ ⎟⎜ ⎟

⎝ ⎠⎛ ⎞

= − −⎜ ⎟⎝ ⎠

∫ ∫ ∫

∫ ∫

(3.9)

Page 60: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 39

Reemplazamos *( , )K u vξ η− − y ( , )K u vξ η− − por sus transformadas de Fourier e

intercambiamos el orden de integración obteniendo:

2

' '

2

2( , ) ( , ) ( , )exp (( ) ( ) )

2 ( ', ') exp (( ) ' ( ) ') ' '

2( , ) ( , ) ( ', ') exp (( ')

guv xy

x y

g

O u H u v P x y i u x v y dxdyd

P x y i u x v y dx dy dudvd dd

O P x y P x y i x xd

ξη

πξ η ξ ηλ

π ξ η ξ ηλ

πξ η ξλ

⎧ ⎫− + −⎨ ⎬⎩ ⎭

⎧ ⎫− − + − =⎨ ⎬⎩ ⎭

= − −

∫ ∫ ∫

' '

( ') )

2 ( , ) exp (( ') ( ') ) ' '

xy x y

uv

y y

u H u v i x x u y y v dudvdx dy dxdyd dd

ξη

η

π ξ ηλ

⎧ ⎫+ −⎨ ⎬⎩ ⎭

⎧ ⎫− + −⎨ ⎬⎩ ⎭

∫ ∫ ∫

(3.10)

donde λ es la longitud de onda de la radiación incidente y d es la distancia entre la pupila y el plano imagen. Aprovechándose de la propiedad de derivación de la transformada de Fourier (ver [Goo68]), obtenemos finalmente:

2

' '

I( , ) ( , ) ( , ) ( , )2

2 ( ', ') exp ( ( ') ( ')) ( ', ') ' '

guv xy

xx y

du u v H u v dudv i O P x y

P x y i x x y y H x x y y dx dy dxdyd dd

ξη

λ ξ ηπ

π ξ η ξ ηλ

∗= −

⎧ ⎫− − + − ∇ − −⎨ ⎬⎩ ⎭

∫ ∫ ∫

(3.11)

donde ),(~ yxH es la transformada de Fourier de H(u,v).

Siguiendo un procedimiento similar con el denominador de (3.7) obtenemos:

2

' '

I( , ) ( , ) ( , ) ( , )

2 ( ', ') ( ', ') exp ( ( ') ( ')) ' '

guv xy

x y

u v H u v dudv O P x y

P x y H x x y y i x x y y dx dy dxdyd dd

ξη

ξ η

π ξ η ξ ηλ

∗=

⎧ ⎫− − − − + −⎨ ⎬⎩ ⎭

∫ ∫ ∫

(3.12)

Así llegamos a la expresión que buscamos, que nos proporciona el centroide de la distribución de irradiancia en el plano imagen en función de la pupila, la transformada de Fourier de la función de umbralización y de la imagen geométrica del objeto:

2

' '

2

' '

2( , ) ( , ) ( ', ') exp ( ( ') ( ')) ( ', ') ' '

22 ( , ) ( , ) ( ', ') ( ', ') exp ( ( ') ( ')) ' '

g xxy x y

C

gxy x y

O P x y P x y i x x y y H x x y y dx dy dxdyd dddX Real i

O P x y P x y H x x y y i x x y y dx dy dxdyd dd

ξη

ξη

πξ η ξ η ξ ηλλ

ππ ξ η ξ η ξλ

⎧ ⎫− − + − ∇ − −⎨ ⎬⎩ ⎭

= −⎧ ⎫− − − − + −⎨ ⎬⎩ ⎭

∫ ∫ ∫

∫ ∫ ∫ η

⎧ ⎫⎪ ⎪⎪ ⎪⎨ ⎬⎪ ⎪⎪ ⎪⎩ ⎭

(3.13)

Page 61: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

40 3.3 Medida de aberraciones oculares

En el caso particular de que el objeto observado a través de la pupila fuera

puntual, ( )2,gO δ ξ η= , y teniendo en cuenta que la convolución de la derivada de

un función con otra sin derivar es igual a la derivada de la convolución de las dos funciones (∇a*b=∇(a*b)), la ecuación anterior se puede rescribir de la siguiente forma:

( )

( )

( , ) ( , ) * ( , )

2 ( , ) ( , ) * ( , )

xxy

C

xy

P x y P x y H x y dxdydX Real i

P x y P x y H x y dxdyλπ

⎧ ⎫∇⎪ ⎪⎪ ⎪= −⎨ ⎬⎪ ⎪⎪ ⎪⎩ ⎭

∫ (3.14)

donde * indica convolución. A partir de esta expresión es muy fácil llegar a la ecuación comúnmente aceptada para relacionar el centroide con la derivada de la fase existente en la pupila. Considerando: 1) la definición de la función pupila; 2) que no umbralizamos la distribución de irradiancia (equivalente a H(u,v)=1 ∀ u,v y por tanto ),(),(~ yxyxH δ= ); 3) que el plano imagen coincide con el plano focal, f;

4) y que el centroide es una magnitud real llegamos a:

2

2

( , ) ( , )

2 ( , )

xxy

C

xy

C x y x y dxdyfX

C x y dxdy

φλπ

=∫

∫ (3.15)

Si a mayores imponemos que la amplitud de la función pupila es constante obtenemos la expresión comúnmente empleada [Pri90]:

( , )2C x

S xy

fX x y dxdyA

λ φπ

= ∇∫ (3.16)

Esta expresión relaciona directamente el centroide con el promedio del gradiente de la fase existente sobre la pupila. Dicho de otra forma, nos indica que el centroide proporciona información sobre la dirección de propagación media de los rayos que atraviesan la pupila. Comparando la expresión (3.15) con la (3.16) observamos que el centroide depende no solo del gradiente de la fase sino que también depende de la distribución de irradiancia existente sobre la pupila [Bar03, Ari04]. Más aún la expresión (3.14) nos va a permitir realizar otra interpretación adicional. Si rescribimos el numerador de (3.14) haciendo uso de algunas de las propiedades de la convolución nos encontramos con:

Page 62: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 41

( ) ( )

( )

( , ) ( , )* ( , ) ( , ) ( , )* ( , )

( , ) ( , )* ( , ) ( , ) ( , )

x xxy xy

x xxy xy

P x y P x y H x y dxdy P x y P x y H x y dxdy

H x y P x y P x y dxdy Q H x y OTF x y dxdy

∗ ∗

∇ = ∇ =

= ∇ = ∇

∫ ∫

∫ ∫ (3.17)

donde OTF es la función de transferencia óptica y Q su factor de normalización [Goo00]. Si consideramos de nuevo que la amplitud de la función pupila es constante C(x,y)=c, la expresión (3.17) se puede rescribir como:

( )

{ }( ) { }2

( , ) ( , )* ( , )

( , ) ( , )*exp ( , ) exp ( , )

xxy

xxy

P x y P x y H x y dxdy

i c x y H x y i x y i x y dxdyφ φ φ

∗ ∇ =

⎡ ⎤∇ −⎣ ⎦

∫ (3.18)

Comparando esta expresión con el numerador de (3.15) nos encontramos con que el término entre corchetes modifica la contribución de las distintas partes del frente al centroide final. De nuevo si, H(u,v)=1 ∀ u,v, y por tanto, ),(),(~ yxyxH δ= ,

nos encontramos con que recuperamos el numerador de la expresión (3.16). En el mismo sentido la expresión (3.17) nos permite relacionar el centroide con el

promedio del gradiente de la OTF ponderado por ( , )H x y :

( , ) ( , )

2 ( , ) ( , )

xxy

C

xy

H x y OTF x y dxdydX Real i

H x y OTF x y dxdyλπ

⎧ ⎫∇⎪ ⎪⎪ ⎪= −⎨ ⎬⎪ ⎪⎪ ⎪⎩ ⎭

∫ (3.19)

De nuevo, en el caso de que no haya umbralización ( ),(),(~ yxyxH δ= ) encontramos

que (3.19) se rescribe como:

(0,0)2 (0,0)

xC

OTFdX Real iOTF

λπ∇⎧ ⎫

= −⎨ ⎬⎩ ⎭

(3.20)

Finalmente calculando la derivada según x de la OTF y evaluándola en el origen obtenemos:

(0, 0)2C x OTF

dX λπ

= ∇ Φ (3.21)

donde ∇xφOTF(0,0) es la derivada de la fase de la OTF según x en el origen. Atendiendo a la ecuación (3.21), matemáticamente solo necesitamos conocer la derivada de la fase de la OTF en el origen para conocer la dirección media de propagación del campo incidente como ya fue expuesto por Alexander y Fillard [Ale91, Fil92]. Este resultado remarca dos cuestiones: (1) no es necesario cumplir el

Page 63: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

42 3.3 Medida de aberraciones oculares

teorema del muestreo de Whittaker-Shannon para obtener una estimación correcta del centroide de la distribución de irradiancia [Ale91, Fil92]; (2) la precisión en la estimación del centroide es muy sensible al fondo de la distribución de irradiancia, debido a la contribución de éste a la frecuencia cero del espectro. Teniendo en cuenta el análisis que hemos presentado vemos que desde un punto de vista teórico la umbralización puede inducir un desplazamiento sistemático del centroide estimado respecto al que obtendríamos sin umbralizar, lo que provocaría una estimación inadecuada del promedio de la derivada de la fase. Así pues tendremos un conflicto, hay que umbralizar para eliminar el ruido de fondo pero hay que tener cuidado con no alterar la estimación del promedio del gradiente de la fase. Con el fin de comprobar el posible desplazamiento del centroide estimado en relación con el nivel de umbral empleado realizamos una serie de simulaciones. Así simulamos un sistema óptico consistente en una lente de número F igual a 100, iluminada mediante una onda plana de longitud de onda 0.633 μm. Simulamos una pupila circular de amplitud uniforme con un diámetro de 4 mm, equivalente a 193 píxeles sobre una matriz de 1024x1024. La distribución de irradiancia en el plano imagen correspondiente al campo en la pupila del sistema se obtuvo mediante el algoritmo de la transformada de Fourier rápida. Impusimos que el tamaño del píxel en el plano imagen tuviera un tamaño de 6 μm. Implementamos distintas fases sobre la pupila del sistema con el fin de valorar el efecto que el procesado por umbralización tiene sobre el cálculo del centroide. Para este análisis consideramos que el objeto observado fuera puntual. Simulamos cuatro fases sobre la pupila del sistema, cada una de ellas correspondientes a un modo de Zernike distinto: φT=a2Z1

1; φD=a4Z20; φA=a5Z2

2; φC=a8Z31, correspondientes

a tilt, desenfoque, astigmatismo y coma de tercer orden respectivamente. Los valores de los coeficientes fueron: a2=2 rad, a4=1 rad, a5=0.5 rad and a8=1 rad. Para hacernos una idea del significado de dichos coeficientes, en el caso del tilt el valor empleado corresponde con el que presentaría el frente procedente de un objeto situado 0.012o fuera de eje, mientras que el nivel de desenfoque es equivalente a un desplazamiento axial de 6.7 mm respecto al plano focal de la lente simulada. Para facilitar el análisis de los resultados representaremos el gradiente de la fase en radianes αx=(2π/λ)Xc/f ⋅R. Una vez generada la distribución de irradiancia correspondiente al plano imagen del sistema óptico simulado obtuvimos la función H(u,v) para cada uno de los

Page 64: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 43

umbrales analizados mediante la evaluación de la expresión (3.6). Posteriormente computamos las expresiones (3.7) y (3.14) para obtener el valor del centroide a partir de información del plano imagen y el plano de la pupila. Esto lo hicimos con el fin de comprobar la validez de la simulación. La diferencia obtenida entre ambos métodos fue de 10-11 rad, lo que muestra su validez. En la figura 3.4 mostramos la evolución del gradiente de la fase (en radianes), para las fases φT, φD, φA en función del nivel de umbral empleado para umbralizar el plano imagen. Como se puede observar el posible desplazamiento del centroide respecto al caso no umbralizado es despreciable. La razón de este comportamiento es que la distribución de irradiancia inducida por estas fases es simétrica respecto al centroide en ausencia de umbral, de forma que H(u,v) y su transformada de Fourier también lo son. La pequeña diferencia de carácter oscilatorio entre el centroide obtenido en ausencia de umbralización y el obtenido para los distintos niveles de umbral se debe a la discretización espacial del plano imagen que provoca la ruptura de la simetría en ciertos valores de umbral. Por otra parte en la figura 3.5 mostramos los resultados obtenidos con la fase comática φC. En este caso simulamos tres fases comáticas de distinta magnitud a8= [1, 0.7, 0.3] rad. Podemos observar en dicha figura; primero la dependencia del desplazamiento del centroide con el nivel de umbral y segundo que esta dependencia es mayor a medida que aumenta la magnitud del coma. Igualmente se observa una dependencia inicial con el umbral muy fuerte que prácticamente desaparece a partir de un cierto umbral tras el cual el centroide deja de desplazarse. La razón de esta dependencia se encuentra en que en un spot comático

Figura 3.4: Evolución del gradiente de la fase (en radianes), para las fases φT, φD, φA en función del nivel de umbral.

0 50 100 150 200 250 300-2

-1

0

1

2

3

4

5

α x(r

ad)

T (nivel de gris)

Δ

×

a2=2 rad

a4=1 rad

a5=0.5 rad

Page 65: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

44 3.3 Medida de aberraciones oculares

la energía no está simétricamente distribuida en torno a su centroide, de forma que al ir aumentando el nivel de umbral eliminamos más píxeles de un lado que del otro, hasta que los píxeles que superan el umbral presentan una forma prácticamente simétrica momento en el cual la dependencia con el umbral se atenúa considerablemente. Así pues nos encontramos que en presencia de procesado por umbralización, por una parte únicamente las aberraciones de carácter comático van a posibilitar el desplazamiento del centroide respecto al valor correcto. Por otra parte observamos (en la figure 3.5) que dicho desplazamiento depende de la magnitud de la componente comática, siendo menor para niveles de umbral bajos. Sin embargo como mostraremos a continuación dicha dependencia es no lineal de forma que aunque la presencia de coma es condición necesaria para que se sesge el cómputo del centroide de la distribución de irradiancia umbralizada, la magnitud de dicho sesgo no sólo dependerá de las aberraciones de tipo comático sino que también del resto de las aberraciones presentes. De la observación de las expresiones desarrolladas, y en particular de (3.14) y (3.18) también se desprende la perdida de linealidad en la relación entre el centroide de la distribución de irradiancia en el plano imagen y el gradiente de la fase presente en la pupila del sistema. Dicha linealidad nos indica que el centroide, o gradiente, correspondiente a la distribución de irradiancia en el plano imagen inducida por la fase sobre la pupila del sistema es igual a la suma de los centroides, o gradientes, inducidos por cada una de las componentes modales de dicha fase. Este hecho se deduce fácilmente de (3.16). Sin embargo al observar (3.14)

Figura 3.5: Evolución del gradiente de la fase (en radianes), para las fases φC en función del nivel de umbral.

a7=1 without Thresholding

a7=0.7 without Thresholding

a7=0.3 without Thresholding

0 50 100 150 200 250 300-3

-2

-1

0

1

2

3

4

a7= 0.3 rada7= 0.7 rada7= 1 rad

a8=1 sin umbralizar

a8=0.7 sin umbralizar

a8=0.3 sin umbralizar

α x(r

ad)

T (nivel de gris)

Δ a8=0.3 rad × a8=0.7 rad ○ a8=1 rad

Page 66: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 45

comprobamos que la pérdida de linealidad se debe a que la forma de la función de umbralización depende de la imagen producida por el sistema. Para comprobar esta perdida de linealidad empleamos el simulador descrito anteriormente, con la particularidad de que en este caso simulamos una fase suma (φTotal=φT+φD+φA+φC) de coeficientes a2=2 rad, a4=1 rad, a5=0.5 rad and a8=1 rad. En la figura 3.6 mostramos el gradiente estimado de la fase total φTotal en función del umbral y la suma de los gradientes relativos a cada una de las componentes de la fase evaluados para los mismos umbrales. En el caso de que la relación entre el gradiente de la fase y el centroide fuera lineal ambas curvas deberían ser iguales. Como se puede observar no es así, aumentando la discrepancia a medida que aumenta el nivel de umbral hasta que se estabiliza la diferencia hecho que ocurre ya para umbrales muy altos. Hemos visto en este apartado la relación entre el gradiente de la fase y el centroide de la distribución de irradiancia asociada, en presencia de procesado por umbralización. Gracias a este estudio hemos comprobado que el proceso de umbralización puede provocar el desplazamiento del centroide estimado respecto al que se obtendría en ausencia de umbralización siempre que la fase incidente presente cierto grado de aberración comática. También hemos comprobado que el empleo de procesado por umbralización provoca la pérdida de linealidad en la relación entre el centroide y el gradiente de la fase. A continuación analizaremos el proceso de estimación de los coeficientes modales, correspondientes a la expansión de la fase como combinación lineal de polinomios de Zernike, a partir de los

Figura 3.6: Evolución del gradiente de la fase (en radianes), para las fases φS, φTotal en función del nivel de umbral.

0 50 100 150 200 250 3001

2

3

4

5

6

7

8

α x(r

ad)

T (nivel de gris)

Sin umbralización

× ∑αi

○ αTotal

Page 67: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

46 3.3 Medida de aberraciones oculares

centroides de las distribuciones de irradiancia correspondientes a la matriz de microlentes que incorporan los sensores tipo Hartmann-Shack. 3.3.2.2 Estimadores lineales Una vez ya sabemos como relacionar las medidas obtenidas (centroides de las imágenes de las microlentes en el caso de HS) con la magnitud deseada (derivadas promedio de la fase sobre cada microlente) tenemos que desarrollar la herramienta matemática que nos permita estimar la aberración de onda existente en toda la pupila del sensor a partir de los gradientes locales. De todas las posibilidades existentes nosotros escogimos la estimación lineal sin ligaduras. Dentro de esta categoría podemos encontrar dos posibilidades la estimación zonal y la modal. Por una parte la estimación zonal de la aberración de onda se basa en la utilización de un modelo de diferencias de fase para las medidas de las pendientes de la aberración de onda [Fri77]. Este método consiste en estimar los valores de la fase en una serie de puntos a partir de las medidas del gradiente obtenidas en otros puntos. Posteriormente si se requiere, se utilizan estos datos para el ajuste o interpolación de funciones que proporcionen valores de la fase en todos los puntos de la pupila. Por otra parte la reconstrucción modal, que será la que emplearemos en este trabajo y la que expondremos a continuación, se basa en la estimación de la aberración de onda mediante la estimación de los coeficientes modales del desarrollo de la aberración en una base de polinomios ortogonales [Cub79]. A diferencia de los capítulos y apartados anteriores vamos a considerar que φ(x,y) indica longitud de camino óptico (LCO). Así vamos a suponer que la longitud de camino óptico sobre la pupila del sensor se puede expresar como una suma infinita de funciones ortogonales. En nuestro caso la base que escogemos la forman los polinomios de Zernike, pero cualquier otra base sería igualmente valida. De esta forma expresamos la LCO como

1

( , ) ( , )i ii

x y a Z x yφ∞

=

=∑ (3.22)

donde ai es el i-esimo coeficiente modal en unidades naturales de longitud; x, y son las coordenadas normalizadas al radio pupilar . Las medidas de las que disponemos son los centroides de la distribución de irradiancia en el plano imagen de las microlentes de nuestro sensor. Vimos en el

Page 68: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 47

apartado anterior que el centroide está relacionado con el promedio del gradiente de la fase sobre cada microlente (ver ec. 3.14). En este apartado en el que trabajamos con LCO su gradiente promedio, mα

x, sobre la s-esima microlente respecto a la coordenada normalizada α, vendrá dado por:

( , ) ( , )

( , )s

s

ss s

s

I x y x y dxdyXcm RfI x y dxdyα α

φα

νΩ

Ω

∂∂

= + =∫

∫ (3.23)

donde s

s

si s N si s N

xy

αα= ≤⎧

⎨ = >⎩, NS es el número de subpupilas, Is representa la distribución

de irradiancia sobre la s-esima subpupila, ΩS representa la superficie de integración y νS

α representa el ruido en las medidas. Vamos ahora a describir el proceso de estimación modal que queremos implementar. Éste consiste en estimar los coeficientes de la expansión modal de la aberración de forma que ésta se describa mediante la siguiente expresión:

1

ˆ ˆ( , ) ( , )i

M

M ii

x y a Z x yφ=

=∑ (3.24)

donde ˆiMa es el i-ésimo coeficiente estimado perteneciente al vector columna de

coeficientes ˆMa de dimensiones Mx1. El criterio que emplearemos para obtener el

vector de coeficientes modales será la minimización del error cuadrático entre las medidas experimentales y las medidas que se deducirían a partir de los coeficientes estimados según la expresión (3.26), que llamaremos “medidas estimadas”.

( )22

1

ˆsN

s s

s

m mα α=

ϒ = −∑ (3.25)

donde ˆ smα es la medida estimada según la dirección α en la microlente s , que

tiene la siguiente expresión:

1

ˆ( , ) ( , )ˆ

( , )

i

s

s

M

s M iis

s

I x y a Z x y dxdym

I x y dxdyα

α =Ω

Ω

∂∂

=∑∫

∫ (3.26)

donde M es el número de modos estimados. Denotamos por ( , )s

s sI I x y dxdyΩ

= ∫ la

potencia total capturada por cada microlente. Introduciendo (3.26) en (3.25)

Page 69: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

48 3.3 Medida de aberraciones oculares

obtenemos la expresión que pretendemos minimizar respecto a los coeficientes modales estimados.

2

2

1 1

1 ˆ( , ) ( , )s

i

s

N Ms

s M is is

m I x y a Z x y dxdyIα α= =Ω

⎛ ⎞∂ϒ = −⎜ ⎟⎜ ⎟∂⎝ ⎠∑ ∑∫ (3.27)

Vamos a minimizar ahora (3.27) respecto al coeficiente modal ˆiMa . Para ello

calculamos la derivada de (3.27) respecto ˆjMa :

2

1 1

1ˆ2 ( , ) ( , )ˆ

1 ( , ) ( , )

s

i

j s

s

N Ms

M s is iM s

s js

m a I x y Z x y dxdya I

I x y Z x y dxdyI

α α

α

= = Ω

Ω

⎡ ⎤⎛ ⎞∂ϒ ∂⎢ ⎥= − ⋅⎜ ⎟⎜ ⎟∂ ∂⎢ ⎥⎝ ⎠⎣ ⎦

∂⋅

∑ ∑ ∫

(3.28)

Igualando a cero obtenemos:

2

1

2

1 1

1 ( , ) ( , )

1 1ˆ ( , ) ( , ) ( ', ') ( ', ') ' ''

s

s

s

i

s s

Ns

s i js s

N M

M s i s is i s s

m I x y Z x y dxdyI

a I x y Z x y dxdy I x y Z x y dx dyI I

α α

α α

== Ω

= = Ω Ω

⎛ ⎞∂=⎜ ⎟⎜ ⎟∂⎝ ⎠

⎛ ⎞∂ ∂= ⎜ ⎟⎜ ⎟∂ ∂⎝ ⎠

∑ ∫

∑∑ ∫ ∫

(3.29)

Para una mejor comprensión expresaremos (3.29) en forma matricial:

ˆA A AT TM M M M=m a (3.30)

donde m es el vector columna de medidas del gradiente local y AM es una matriz de dimensiones 2Ns x M cuyos elementos corresponden con el promedio del gradiente del i-ésimo Zernike sobre la s-esima subpupila:

1A ( , ) ( , )s

si s is

I x y Z x y dxdyI αΩ

∂=

∂∫ (3.31)

1 1 1

2

2 2

1 1 1 2 11 1 1

2 12

2 1 22 2

1 1 1( , ) ( , ) ( , ) ( , ) . . ( , ) ( , )

1 ( , ) ( , ) . . . .

. . . . .

. . . . .1 1( , ) ( , ) . . . ( , ) ( , )

s s

s sN Ns

M

M

N N MN N

I x y Z x y dxdy I x y Z x y dxdy I x y Z x y dxdyI I I

I x y Z x y dxdyI

A

I x y Z x y dxdy I x y Z x y dxdyI I

α α α

α

α α

Ω Ω Ω

Ω

Ω Ω

∂ ∂ ∂∂ ∂ ∂

∂∂

=

∂ ∂∂ ∂

∫ ∫ ∫

∫22s N M×

⎛ ⎞⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠

(3.32)

Page 70: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 49

Es importante tener en cuenta el orden de las medidas. Las filas comprendidas entre (1,Ns) corresponden a las derivadas según x mientras que las del intervalo (Ns+1,2Ns) corresponden a las derivadas según y.

Finalmente, si la matriz A ATM M no es singular despejamos ˆMa de (3.31)

obteniendo:

( )-1ˆ A A AT T

M M M M=a m (3.33)

A partir de (3.33) definimos la matriz de reconstrucción de los coeficientes modales.

( )-1A A AT T

M M MΓ = (3.34)

de forma que obtendremos los M coeficientes modales sin mas que multiplicar la matriz de reconstrucción por el vector de medidas:

ˆM = Γa m . (3.35)

Una vez que ya hemos descrito la base teórica del sensor HS, hemos relacionado el gradiente de la fase sobre cada microlente con el centroide del spot producido, y hemos presentado el método de estimación modal que emplearemos para la estimación de la aberración, vamos a proceder a la presentación de las distintas fuentes de error involucradas en el proceso de estimación de la aberración. 3.3.2.3 Fuentes de error en la estimación de la aberración En el proceso de estimación de la aberración están involucrados dos procesos, la obtención de las medidas y la construcción del estimador. Así pues la aberración estimada estará influenciada por los errores introducidos en ambos procesos. A continuación analizaremos sus causas. Empezaremos estudiando aquellos que afectan a la determinación del gradiente para posteriormente analizar los errores comúnmente introducidos tanto en el modelado del frente como en el de las medidas proporcionadas del sensor. 3.3.2.3.1 Errores en la determinación del gradiente Vamos a distinguir dos tipos de errores que afectan a la determinación del gradiente local de la fase: errores sistemáticos y errores aleatorios.

Page 71: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

50 3.3 Medida de aberraciones oculares

3.3.2.3.1.1 Errores sistemáticos Los errores sistemáticos presentes en los sensores de gradiente están relacionados con la determinación de los siguientes parámetros: (a) distancia entre el plano de detección y la matriz de microlentes, (b) estimación del tamaño de píxel en el plano de observación, (c) determinación de las coordenadas normalizadas de las microlentes con respecto a la pupila de radio unidad. Estas magnitudes están relacionadas linealmente con el gradiente de la fase de forma que el efecto de los errores en su determinación se pueden minimizar mediante un simple proceso de calibrado (dicho proceso lo presentaremos en el capitulo 7). También se consideran como errores sistemáticos los desalineamientos entre los elementos que componen el sensor: matriz de microlentes, lente relé (en caso de que exista), dispositivo de registro (comúnmente una cámara CCD). También consideraremos como desalineamientos las rotaciones de la matriz de microlentes o de la lente relé respecto a la CCD en torno a cualquiera de los ejes. En este sentido, Pfund [Pfu98] realizó un estudio analítico y experimental del efecto de este tipo de errores en la estimación del gradiente. En dicho estudio llegó a la conclusión de que los errores en la determinación del gradiente inducidos por rotaciones de los ejes de la matriz de microlentes respecto a los de la CCD en torno a los ejes X-Y menores de 0.42o y de 1.5e-3o respecto a z son despreciables. También presentó una serie de métodos sencillos que permiten la detección de rotaciones mayores que las mencionadas. (ver [Pfu98]). Finalmente podríamos incluir dentro de este apartado el error sistemático por umbralización. Como vimos en apartados anteriores el empleo de procesado por umbralización puede inducir un bias en la determinación del centroide de la distribución de irradiancia registrada en el plano imagen del sensor. Este sesgo depende del nivel de umbral y de la aberración existente en el plano de la pupila. Como el resto de los errores sistemáticos éste se podría corregir mediante el proceso de calibración. Sin embargo la validez de esta corrección estaría sujeta al empleo del mismo nivel de umbral en todas las imágenes aberrométricas, y a la existencia de un frente similar sobre cada subpupila. Ambas condiciones son alcanzables con facilidad. Quizás la segunda de ellas suponga un reto mayor pero también se superaría empleando microlentes de diámetro reducido, de forma que el frente que entrara por ellas fuera prácticamente plano.

Page 72: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 51

3.3.2.3.1.2 Errores aleatorios Los errores aleatorios que afectan a la determinación del gradiente están directamente relacionados con la incertidumbre en el cálculo del centroide. El ruido aleatorio cometido en la determinación del centroide depende principalmente del dispositivo de registro (de la imagen de los spots producidos por las microlentes) y de la fuente de iluminación empleada. Así hablaremos de ruido de lectura, que depende del sistema de registro, y de ruido fotonico y de moteado speckle relacionado con la fuente de iluminación. En la literatura podemos encontrar un gran número de trabajos en los que se abordan las distintas fuentes de error que afectan a la determinación del centroide de distribuciones de irradiancia y por tanto a la estimación del gradiente de la fase relacionada. De las distintas fuentes de ruido analizadas destacamos las siguientes: respecto a las propiedades de la fuente: ruido fotónico y ruido de speckle [Bar91, Bar91B, Dor94, Wel95, Lan99, Lar01,]; respecto a las propiedades del detector: ruido de lectura, y pixelización, [Tyl82, Mor89 Ale91, Fil92, Cao94,, Cla95, Are01, Ari02, Ass02, Are04, Tho04]. En el análisis que realizaremos no tendremos en cuenta el ruido relacionado con la fuente ya que en nuestro trabajo es despreciable, al trabajar con un número elevado de fotones, y con una fuente cuya coherencia es suficientemente pequeña como para que con los tiempos de integración con los que trabajamos no se aprecie la presencia de speckle. Como dijimos en el apartado 3.3.1 el sistema de registro empleado en la actualidad en los sensores de frente de onda son las cámaras tipo CCD/CMOS. Estos dispositivos básicamente consisten en un conjunto discreto de celdas de material fotosensible que producen y acumulan electrones en función del número de fotones que reciben. Posteriormente la carga almacenada es transportada, ordenada, amplificada y cuantizada en niveles para permitir la visualización de la imagen o su manejo mediante sistemas informáticos. La señal que obtenemos finalmente se encuentra corrompida por una serie de fuentes de ruido que alteran el valor real. De entre ellas las principales son las siguientes: ruido electrónico, corriente oscura, ruido 1/f, y “jitter” [Hol96]. Todas estas fuentes de error de distinto origen y propiedades estadísticas, acaban produciendo una fluctuación aleatoria del nivel de irradiancia en cada píxel de la imagen. A esta fluctuación aleatoria (compendio de todas las fuentes de ruido) se le llama ruido de lectura.

Page 73: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

52 3.3 Medida de aberraciones oculares

El ruido de lectura se comporta como una variable aleatoria que sigue una distribución de probabilidad gaussiana de media cero y cierta desviación típica. De esta forma la imagen discreta que proporciona nuestro sistema de registro va a consistir en una componente determinista que corresponde con la imagen en ausencia de ruido, más una componente aditiva aleatoria gaussiana sobre cada píxel que corresponde con el ruido de lectura. La descripción que hemos realizado del funcionamiento de las cámaras CCD/CMOS es muy simplista, pero creemos que dado que no es fundamental para el discurso de este trabajo el conocimiento exhaustivo de estos dispositivos no procede realizar una descripción más profunda. De todas formas más detalles sobre este tipo de dispositivos se puede encontrar en la siguiente referencia [Hol96]. El ruido de lectura será para nosotros la principal fuente de error en el proceso. En el caso discreto (típico de las cámaras CCD/CMOS) el centroide de la distribución de irradiancia viene dado por la siguiente expresión:

'

'

i ii

Ci

i

x IX

I=∑∑

(3.36)

donde xi son las coordenadas espaciales discretas e I’i representa la distribución discreta de irradiancia afectada por ruido. De entre todos los trabajos relacionados con las distintas fuentes de ruido que afectan al cálculo del centroide citados anteriormente queremos destacar el trabajo realizado por G. Cao [Cao94]. En particular Cao realiza un estudio sobre la influencia de la discretización y el ruido de lectura sobre el centroide en relación con los sensores HS, llegando a una expresión muy interesante que permite estimar la varianza del centroide en función de la varianza del ruido de lectura y el número de píxeles empleados en el calculo [Cao94].

2 3

22 12Xc

T

L LI

ησσ⎛ ⎞−

= ⎜ ⎟< > ⎝ ⎠ 3.37

donde <IT> es el valor medio de la irradiancia total en la región donde se calcula el centroides. En la obtención de esta expresión se asumió decorrelación entre la componente de ruido de píxeles distintos, valor medio nulo del centroide calculado en una ventana de lado L, y ruido de lectura gaussiano de media nula y varianza

2ησ igual para todos los píxeles. Esta expresión nos indica que la incertidumbre en

Page 74: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 53

la estimación del centroide no depende de como sea la distribución de irradiancia sino de su valor medio. Pero esta expresión no siempre corresponde con la realidad del cálculo de centroides. De hecho el cálculo del centroide mediante (3.36) presenta ciertas desventajas. Por ejemplo en el caso de que exista una fuerte componente de fondo (que es el caso más común) la precisión que se puede alcanzar con el centroide está limitada [Wes90]. Una técnica muy empleada para eliminar esta problema es el ya mencionado preprocesado por umbralización. Es importante resaltar que desde el momento en que se emplea preprocesado por umbralización, antes de calcular el centroide, se está limitando la validez de las expresiones de la varianza del centroide consideradas en la mayoría de la literatura relacionada. La invalidez de dichas expresiones se debe a la alteración de las propiedades estadísticas de la componente de ruido de la irradiancia en aquellos píxeles que superan el umbral. Como se apunto en el trabajo de Ares-Arines [Are01], cuando la distribución de irradiancia esta afectada por ruido gaussiano de media cero (igual para todos los píxeles), el procesado por umbralización induce un cambio en las propiedades estadísticas del ruido existente en cada píxel, de forma que la varianza y el valor medio del ruido, después de umbralizar, dependen de la diferencia entre el valor nominal de la irradiancia (en ausencia de ruido) en dicho píxel, y el nivel del umbral, y de las propiedades estadísticas del ruido antes de umbralizar. De esta forma el valor medio del ruido ya no tiene porque ser nulo, y la varianza del ruido además de cambiar su magnitud será distinta para cada píxel según el nivel de irradiancia que presente. El efecto sobre el centroide de este cambio en la estadística del ruido también fue presentado en dicho trabajo [Are01]. En el comienzo de la descripción teórica de los sensores de gradientes (apartado 3.3.2.1) se motivó la importancia del procesado por umbralización en relación con el cálculo del centroide, y la necesidad de tener un modelo analítico de la varianza de una distribución de irradiancia umbralizada. A partir de este momento vamos a proceder a desarrollar el modelo que nos permita estimar el valor medio del centroide y su varianza en presencia de ruido de lectura y procesado por umbralización. En presencia del procesado por umbralización tendremos que aplicar el operador de umbralización H sobre la distribución de irradiancia, de forma que el centroide vendrá dado por:

Page 75: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

54 3.3 Medida de aberraciones oculares

'

'

i i ii

Ci i T

i

x H IZX

H I I= =∑∑

(3.38)

donde Z y IT son variables auxiliares que nos facilitarán el desarrollo matemático, y en particular IT es la irradiancia total, es decir la suma de las irradiancias de todos aquellos píxeles que superan el umbral. Consideraremos que el ruido es aditivo gaussiano, consideración comúnmente aceptada para describir el ruido de lectura que afecta a las cámaras CCD. Supondremos además que dicho ruido presenta media cero, cierta desviación típica, y que no existe correlación entre los valores que toma en los distintos píxeles. Bajo estas circunstancias tendremos:

i i iI' = I +η (3.39)

2

0i j i ij

i

ηη η δ

η

=

= (3.40)

donde ηi es la componente de ruido del i-esimo píxel, i,j son el i-esimo y j-esimo píxel, y denota promedio temporal o sobre distintas muestras.

Anteriormente definimos la función de Heaviside para el caso en el que no existía ningún tipo de ruido en la imagen. Ahora vamos a ampliar su definición incluyendo en ella el ruido.

10

ii

i

T IH

T Iηη

→ ≥ −⎧= ⎨ → < −⎩

(3.41)

De esta definición y las propiedades estadísticas del ruido se deduce que:

2

i

i j

i j

H si i = jH H =

H H si i j

⎧⎪⎨

≠⎪⎩

(3.42)

3.3.2.3.1.2.1 Valor medio del centroide Vamos ahora a obtener la expresión que nos proporciona el valor medio del centroide en presencia de ruido de lectura y procesado por umbralización. Si asumimos que Z e IT son variables aleatorias, el valor medio del centroide Xc se puede expresar como [Ben71]:

Page 76: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 55

⎟⎟⎠

⎞⎜⎜⎝

⎛+=

TTC I

ZI

ZX 1,cov1 (3.43)

donde Z e IT son las variables anteriormente descritas; y empleamos la definición general de la covarianza de dos magnitudes aleatorias A y B: ( )cov ,A B AB A B= − (3.44)

De la expresión (3.43) desconocemos el valor o la expresión matemática del término de covarianza. Lo que si sabemos es que por definición la covarianza está acotada ( )

TIZTIZ /1|/1,cov| σσ≤ , donde Zσ y 1/ TIσ corresponden con la desviación

típica de Z y de 1/IT, de forma que aunque no sepamos el valor exacto del valor medio del centroide podemos establecer el intervalo de valores en el que se encuentra:

TIZ

TC I

ZX /11 σσ±= (3.45)

Llegados a este punto vamos a aproximar <1/IT> y TI/1σ mediante una serie de

Taylor hasta términos proporcionales a TI2σ . Un procedimiento análogo se

muestra en la referencia [Pap91]. Cabe mencionar que esta aproximación es razonable en la mayoría de las situaciones prácticas. Así obtenemos:

2

3

1/ 2

1 1 T

T

T

I

T T T

II

T

I I I

I

σ

σσ

≈ +

(3.46)

Introduciendo estas expresiones en (3.45) llegamos a una expresión más interesante del valor medio del centroide.

23

2

T

IZ

T

I

TC

II

ZIZ

X TTσσσ

±+≈ (3.47)

donde:

i i i i i i

i i

i i i i ii i

Z H I x H x

I H I H

η

η

= +

= +

∑ ∑

∑ ∑ (3.48)

( ) ( )

( )

2 2 2 2 2 2 2

22 1

Z i i i i i i i i ii i

i i i i ii

x I H H x H H

x I H H

σ η η

η

= < > − < > + < > − < > +

+ < > − < >

∑ ∑

∑ (3.49)

Page 77: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

56 3.3 Medida de aberraciones oculares

( ) ( )

( )

2 2 2 2 2

2 1

TI i i i i i i ii i

i i i ii

I H H H H

I H H

σ η η

η

= < > − < > + < > − < > +

+ < > − < >

∑ ∑

∑ (3.50)

y donde:

21 1exp 1

2 22 22iT I

T IiH d erf

ηπσ σση ηη

−= − = −

⎧ ⎫ ⎛ ⎞⎛ ⎞⎪ ⎪ ⎜ ⎟⎜ ⎟⎨ ⎬ ⎜ ⎟⎜ ⎟⎪ ⎪ ⎝ ⎠⎝ ⎠⎩ ⎭∫ (3.51)

-

221 1exp exp2 22 22 2T Ii

T IiH di iηη η η σηπσ πσ ση η η

⎛ ⎞⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠

=

⎧ ⎫⎧ ⎫ −⎪ ⎪⎪ ⎪ ⎪ ⎪− = ⋅ −⎨ ⎬ ⎨ ⎬⎪ ⎪ ⎪ ⎪⎩ ⎭ ⎪ ⎪⎩ ⎭

∫ (3.52)

( )

22 2 2

2

22

2

1 exp22

11 exp 12 22 2

i iT Ii

i ii

H d

T I T IT I erf

ηη

η ηη η

ηη η ησπσ

σ σσπ σ

⎛ ⎞⎜ ⎟⎜ ⎟⎝ ⎠

⎧ ⎫⎪ ⎪= − =⎨ ⎬⎪ ⎪⎩ ⎭

⎛ ⎞⎧ ⎫ ⎛ ⎞− −⎪ ⎪ ⎜ ⎟= − ⋅ − + − ⎜ ⎟⎨ ⎬ ⎜ ⎟⎜ ⎟⎪ ⎪ ⎝ ⎠⎩ ⎭ ⎝ ⎠

∫ (3.53)

Teniendo en cuenta que normalmente (<IT>) >>TIσ , el intervalo que se define

en (3.47) es suficientemente estrecho como para escribir [Are04]:

i i i i i ii i

Ci i i i

i i

H I x H xX

H I H

η

η

< > + < >≈

< > + < >

∑ ∑∑ ∑

(3.54)

De esta forma obtenemos la expresión que proporciona la estimación del valor medio del centroide. Vamos a describir ahora las magnitudes involucradas en la expresión. Observando la definición de >< iH se deduce que este término no es más que la probabilidad

que tiene el i-esimo píxel de superar el umbral. Como no podía ser de otra forma esta probabilidad depende de la varianza del ruido y de la diferencia entre el nivel de irradiancia en ausencia de ruido y el nivel de umbralización. En cuanto a su importancia en relación al valor medio del centroide esta magnitud pondera la contribución de los distintos píxeles de forma que aquellos con menor relación señal ruido cuentan menos [Are04]. Por otra parte >< iiHη es el valor medio del ruido en presencia de umbralización.

Como se puede deducir de su definición en presencia de umbralización el valor medio del ruido en cada píxel depende de nuevo de la diferencia entre el nivel de

Page 78: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 57

irradiancia en ausencia de ruido y el nivel de umbralización, siendo normalmente distinto de cero. Este factor puede inducir un “offset” en la determinación del centroide en aquellos casos en los que el centroide de la componente de ruido (o de la imagen libre de ruido) sea distinto de cero. 3.3.2.3.1.2.2 Varianza del centroide Procedemos ahora a la obtención de la expresión de la varianza del centroide en presencia de ruido de lectura y procesado por umbralización. Empezamos definiendo la varianza del centroide:

22

222⎟⎟⎠

⎞⎜⎜⎝

⎛−⎟⎟

⎞⎜⎜⎝

⎛=−=

TTXc I

ZIZXcXcσ (3.55)

Empleando de nuevo la definición de la covarianza de dos magnitudes rescribimos (3.55) de la siguiente forma:

222 2 2

2 2

2

1 1 1cov ,

1 1 1cov , 2 cov ,

CXT T T

T

Z Z ZI I I

Z Z ZI I I

σ⎛ ⎞

= + − −⎜ ⎟⎝ ⎠

⎛ ⎞ ⎛ ⎞− −⎜ ⎟ ⎜ ⎟⎝ ⎠⎝ ⎠

(3.56)

Al igual que en el caso anterior en el que tratamos de determinar el valor medio del centroide, nos encontramos con que desconocemos la expresión analítica de los términos de covarianza, así pues trataremos de determinar una cota superior al valor de la varianza. Con este fin, prescindimos del término negativo −cov(z,1/IT)2. También despreciamos el término cov(z2,1/IT

2) por ser mucho menor que el resto de los términos de (3.56). Descartando estos términos y empleando la siguiente desigualdad ( )

TIZTIZ /1|/1,cov| σσ≤ llegamos a la expresión que nos proporciona una

cota superior de la covarianza.

TTT

T

IZT

IT

ZIZ

IZTTT

Xc

IZZ

I

IZ

IZ

IZ

/12/1

22

22/1

2

/1

22

222

121

1211

σσσσσσ

σσσ

+++=

+−≤ (3.57)

Con el fin de simplificar la expresión y así obtener otra más manejable sustituimos (3.46) en (3.57), obteniendo:

Page 79: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

58 3.3 Medida de aberraciones oculares

22 2 2 212 2 2

4 3 4

21

2 2 3

Z I I IT T T ZXc Z II I ITT T T

IZ TZ ITII ITT T

σ σ σ σσ σ

σσ σ

≤ + + + +

+ +

⎛ ⎞⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠

⎛ ⎞⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠

(3.58)

Situándonos de nuevo en el caso práctico en el que (<IT>) >> TIσ conseguimos

simplificar más aún la expresión de la cota superior de la varianza, ya que todos los términos de (3.58) desaparecen exceptuando σZ

2/<IT>2 [Are04].

( ) ( )( )

( )( )

2 2 2 2 2 222

2 2

2

2

2 1

i i i i i i i i iZXc

T i i i i

i i i i i

i i i i

x I H H x H H

I H I H

x I H H

H I H

η ησση

η

η

< > − < > + < > − < >≤ ≤ +

< > + < >

< > − < >+

< > + < >

∑ ∑∑ ∑

∑∑ ∑

(3.59)

Cabe mencionar que esta expresión sería la que obtendríamos si hubiéramos considerado IT=< IT >=cte para cada nivel de umbral en (3.55). Con esta suposición estaríamos diciendo que la irradiancia total de todos los píxeles que superan el umbral (IT) es siempre la misma para todas las realizaciones de ruido. Vamos a comprobar que sucede con (3.59) si no empleamos procesado por umbralización. Esta situación supone considerar T = −∞ . Si además imponemos que la distribución de irradiancia que queremos umbralizar se encuentra centrada en el interior de una ventana cuadrada de lado L obtenemos:

⎟⎟⎠

⎞⎜⎜⎝

⎛ −==

∑=

12

3

2

2

20

22

2 LLII

x

ii

L

ii

X C

ηη σσ

σ (3.60)

Como se puede observar recuperamos la expresión (3.37) presentada por Cao [Cao94], la cual proporciona en realidad una cota superior de la varianza del centroide tanto umbralizado como sin umbralizar. En los siguientes subapartados vamos a llevar a cabo la validación de las expresiones obtenidas en este apartado.

Page 80: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 59

3.3.2.3.1.2.3 Validación de las expresiones Una vez obtuvimos las expresiones de la cota superior de la varianza y del valor medio del centroide decidimos comprobar tanto mediante simulación como de forma experimental su validez. 3.3.2.3.1.2.3.1 Validación mediante simulación La simulación que realizamos consistió en la obtención del centroide de una distribución de irradiancia determinista a la que se le añadió ruido gaussiano de media cero y desviación típica de distintas magnitudes (ση = [20, 10, 3, 0.34, 10-6] niveles de gris). La distribución de irradiancia determinista se obtuvo a partir del promedio de 1500 imágenes obtenidas experimentalmente mediante el montaje presentado en la fig. 3.7. Los resultados obtenidos con ση =0.34 niveles de gris los presentaremos en la sección donde mostramos la comprobación experimental por corresponder este nivel de ruido con el presente en las imágenes empleadas en dicha comprobación.

En esta simulación empleamos N=3000 muestras distintas. Una vez tuvimos generadas las muestras procedimos al cálculo del centroide de la distribución de irradiancia afectada por ruido para distintos niveles de umbralización. Posteriormente calculamos el valor medio del centroide para cada nivel de umbral y su varianza según las siguientes expresiones:

( )1

1

ˆN

C C pp

X N X−

=

< >= ∑ ; ( )( )22 1

1

ˆˆ ( 1)C

N

X C Cpp

N X Xσ −

=

= − − < >∑ (3.61)

También calculamos el intervalo de confianza del 95% en la estimación del valor medio y la varianza debido al empleo de un numero finito de muestras, N, en el promedio [Ben71].

Fig. 3.7 Dispositivo experimental.

Page 81: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

60 3.3 Medida de aberraciones oculares

( ) ( )1;0.025 1;0.0251 1

1 1

ˆ ˆ,C C

N NX N X N

C Cp pp p

t tN X N X

N N

σ σ− −− −

= =

⎡ ⎤− +⎢ ⎥

⎢ ⎥⎣ ⎦∑ ∑ (3.62a)

( ) ( )⎥⎥⎦

⎢⎢⎣

⎡ −−

−−2

975.0;1

2

2025.0;1

2 ˆ1,

ˆ1

N

X

N

X CCNNχ

σχ

σ

(3.62b)

donde tN-1;0.025 es el 100x0.025 porcentaje de la distribución de probabilidad tipo T-Student de N-1 grados de libertad y χ2

N-1;0.025 y χ2N-1;0.975 representan el 100×0.025 y

el 100×0.975 porcentaje de la distribución de probabilidad Chi-cuadrado con N-1 grados de libertad [Ben71]. Para obtener el valor medio estimado del centroide y la cota superior de la varianza sustituimos la distribución de irradiancia determinista y el valor de la varianza del ruido en las expresiones (3.54) y (3.59), evaluando ambas para los distintos niveles de umbral analizados. En la figura 3.8 mostramos los resultados de la simulación y la predicción teórica realizada a partir de las expresiones desarrolladas tanto para el valor medio del centroide como para su varianza. Presentamos en la fig.3.8 (a),(c),(e),(g) el análisis del valor medio del centroide para distintos niveles de ruido. En línea discontinua presentamos el valor medio del centroide en ausencia de ruido según (3.38). En círculos representamos el valor medio del centroide empleando (3.38) sobre las imágenes simuladas con ruido. En línea continua mostramos el valor medio del centroide esperable al considerar IT=cte, expresión (3.54). En sombreado gris oscuro mostramos el intervalo de valores del valor medio del centroide estimado a partir de (3.47). La zona sombreada en gris claro muestra el intervalo de confianza del 95% del valor medio del centroide obtenido a partir de los datos simulados mediante (3.62a). Siguiendo el mismo esquema en la figura 3.8 (b),(d),(f),(h) mostramos los resultados obtenidos en el análisis de la varianza del centroide. En este caso la línea discontinua muestra la predicción de la varianza obtenida a partir de la expresión (3.37) [Cao94]. En círculos la varianza del centroide obtenida según (3.37) a partir de los datos simulados con ruido. En línea continua la varianza estimada a partir de la expresión (3.59). La zona entre la predicción teórica obtenida mediante (3.59) y la cota superior obtenida mediante (3.58) la representamos en gris oscuro. La zona sombreada en gris claro muestra el intervalo

Page 82: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 61

de confianza del 95% del valor medio del centroide obtenido a partir de los datos simulados obtenida mediante (3.62b). En todas las gráficas se puede observar el acuerdo existente entre los resultados obtenidos a partir de las imágenes simuladas y las predicciones teóricas del valor medio y varianza del centroide realizadas a partir de las expresiones desarrolladas. Aún así existen ciertas discrepancias para niveles de umbral alto en los que el centroide calculado supera el umbral de confianza. Esta falta de acuerdo se debe a la progresiva perdida de exactitud de la aproximación realizada sobre el valor de <1/IT> y

TI/1σ . Dicha aproximación se realizó hasta segundo orden. Sin embargo

decidimos no incluir más términos en el desarrollo debido a que el incremento en la precisión de la predicción no era significativo en relación al gran aumento en la complejidad de las expresiones resultantes.

Page 83: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

62 3.3 Medida de aberraciones oculares

Fig. 3.8: Evolución del valor medio y varianza del centroide con el nivel de umbral para distintos niveles de ruido en la imagen.

(a)

(c)

(b)

(d)

(e) (f)

(g) (h)

ση = 20 ση = 20

ση = 10 ση = 10

ση = 3 ση = 3

ση = 10-6ση = 10-6

Umbral

<Xc>

[pix

el]

σ2 Xc [

pixe

l2 ]

<Xc>

[pix

el]

σ2 Xc [

pixe

l2 ]

<Xc>

[pix

el]

σ2 Xc [

pixe

l2 ]

<Xc>

[pix

el]

σ2 Xc [

pixe

l2 ]

Umbral

Umbral (niveles de gris) Umbral (niveles de gris)

Umbral (niveles de gris) Umbral (niveles de gris)

Umbral (niveles de gris) Umbral (niveles de gris)

Page 84: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 63

En el análisis del valor medio del centroide podemos observar: (1) el carácter oscilatorio del centroide medio debido a la discretización espacial y a la cuantización de los niveles de irradiancia, que como se observa en las figuras se ve amortiguado por la presencia del ruido; (2) el desplazamiento del centroide producido por el acoplamiento entre la distribución de irradiancia y el procesado por umbralización cuando la distribución de irradiancia analizada no es estrictamente simétrica. Adicionalmente en presencia de ruido dicha interacción provoca que el valor medio del ruido de cada píxel de la imagen dependa de la diferencia entre el valor de la irradiancia en el píxel y el nivel del umbral, y las propiedades estadísticas del ruido sin umbralizar (3.52). De esta forma, como se observa en el segundo término del numerador de (3.54), el valor medio del centroide se puede ver sesgado por el centroide de la componente de ruido umbralizada. Se observa a la vista de la figura 3.8, que el error en la estimación del centroide se reduce a medida que aumentamos el nivel de umbral hasta que se hace estable. Dicho desplazamiento crece fuertemente al principio disminuyendo su ritmo a medida que el nivel de umbral se hace mayor. En cuanto al análisis de la validez de las expresiones obtenidas para la varianza del centroide observamos: (1) la expresión 3.58 nos proporciona en efecto una cota superior del valor de la varianza: (2) La expresión clásica de la varianza del centroide sobreestima dicha magnitud, prediciendo un aumento de la misma a medida que aumenta el nivel de umbral: (3) la varianza del centroide presenta un comportamiento no monótono en función del nivel de umbral empleado, llegando a presentar incluso mínimos locales, hecho que abre la posibilidad de encontrar un nivel de umbral que minimice la varianza del centroide. 3.3.2.3.1.2.3.2 Validación experimental Una vez hemos realizado la validación de las expresiones mediante simulación numérica vamos repetirla con datos experimentales. Para la comprobación experimental empleamos 1500 imágenes obtenidas mediante el dispositivo experimental presentado en la figura 3.9. El montaje consiste en un led superluminiscente (Toshiba TRLH 190P) iluminando un agujero de 300 μm de diámetro situado justo delante de una cámara CCD (Pulnix TM-6AS) con la que registramos la distribución de irradiancia. La señal de la cámara fue digitalizada a 8 bits mediante una tarjeta digitalizadora (Data Translation DT-3155). Para reducir el efecto del ruido de “jitter” de la cámara cada imagen almacenada es resultado del promedio de 30 imágenes.

Page 85: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

64 3.3 Medida de aberraciones oculares

Las imágenes adquiridas presentaron una fuerte componente de fondo debido a: corriente oscura, desajuste en el nivel de cero entre la cámara y la tarjeta digitalizadota, luces parásitas... Así pues antes de realizar el análisis decidimos eliminar dicho fondo. Para ello empleamos el criterio de segmentación bimodal propuesto por Kittley & Illingworth [Har92]. Seguidamente procedimos a la estimación de la desviación típica de la componente de ruido de las imágenes, ση, y a la estimación de la distribución de irradiancia libre de ruido (Ii). La obtención de ση se realizó calculando la desviación típica de los niveles de irradiancia de una imagen con la cámara tapada. El valor obtenido fue ση=0.34 niveles de gris. La estimación de la distribución de irradiancia determinista (I) se realizó promediando las 1500 imágenes después de haber eliminado la componente de fondo. Una vez tuvimos preparado el conjunto de imágenes y estimamos las magnitudes que necesitamos para poder emplear las expresiones desarrolladas, procedimos tanto a la obtención del valor medio y varianza del centroide de forma equivalente a la llevada a cabo en el apartado anterior. Al describir la comprobación mediante datos simulados comentamos que los resultados obtenidos para el caso de ση =0.34 niveles de gris los mostraríamos en este momento por presentar un nivel de ruido igual al de las imágenes experimentales.

En la figura 3.10 presentamos los resultados de la comparación. Las figuras (a) y (b) representan en función del umbral el valor medio del centroide y su varianza respectivamente. En cruces representamos los resultados experimentales mientras que en círculos mostramos los obtenidos a partir de las imágenes simuladas con ση =0.34 niveles de gris. En línea discontinua presentamos en (a) el valor medio esperado del centroide en ausencia de ruido, mientras que (b) representa la varianza obtenida a partir de la expresión (3.37). En línea continua mostramos en (a) el valor medio del centroide esperable al considerar IT=cte, expresión (3.54) y en (b) la varianza estimada a partir de la expresión (3.59). En sombreado gris oscuro mostramos en (a) el intervalo de valores del valor medio del centroide estimado a partir de (3.47) y en (b) la zona entre la predicción teórica obtenida mediante (3.59) y la cota superior obtenida mediante (3.58). Mientras que las barras de error muestran el intervalo de confianza del 95% del valor medio del centroide obtenido a partir de los datos experimentales.

Page 86: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 65

0 20 40 60 80 100 120 140 1600

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

1.8

2

0 20 40 60 80 100 120 140 1600

1000

2000

3000

4000

5000

6000

7000

8000

9000

10000

<N

> [p

ixel

] <

X c>

[pix

el]

σ2 Xc [p

ixel

2 ] (a)

(b)

(c)

ση=0.34

ση=0.34

ση=0.34

(σIT /<

IT >)×100

Umbral (niveles de gris)

Umbral (niveles de gris)

Umbral (niveles de gris)

Fig. 3.10: Evolución del valor medio y varianza del centroide con el nivel de umbral, correspondiente a la valoración experimental.

Page 87: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

66 3.3 Medida de aberraciones oculares

La zona sombreada en gris claro muestra el intervalo de confianza del 95% del valor medio del centroide y de su varianza obtenido a partir de los datos simulados, en ambos casos dicho intervalo es tan estrecho que se encuentra oculto por la línea continua que presenta el valor medio del centroide obtenido mediante (3.54) y la varianza obtenida mediante (3.59). Finalmente con el fin de comprobar el rango de validez de la aproximación de IT constante para distintos niveles de umbral mostramos en la figura 3.12(c), sólo para los datos experimentales, el valor medio del número de píxeles que superan el umbral (en línea continua oscura con cruces) mientras que en línea clara presentamos 100 ( / )

TI TIσ⋅ < > magnitud que nos permite evaluar la fluctuación

relativa de la irradiancia total que supera el umbral. Observamos que a medida que aumentamos el nivel de umbral disminuye el número de píxeles que superan el umbral y se reduce la validez de la hipótesis de que IT sea constante para todas las realizaciones de ruido De nuevo nos encontramos con un comportamiento similar al presentado en el apartado anterior correspondiente a la evaluación mediante datos simulados. Observamos el acuerdo existente entre la predicción teórica y los resultados experimentales. Sin embargo existen ciertas discrepancias que no se pueden atribuir al limitado número de muestras con el que se trabajó, sino que se deben a que el modelo empleado para describir la imagen discreta no representa la realidad con suficiente fiabilidad. Al igual que en los resultados obtenidos con la simulación, la predicción se comporta peor a niveles de umbral elevados, en los que la hipótesis de irradiancia total constante pierde validez. Así, hemos apoyado mediante simulación y con datos obtenidos experimentalmente la validez de las expresiones que nos permitirán comprender mejor la influencia de la umbralización en el proceso de cómputo del centroide. Hemos visto como este proceso afecta tanto a la estimación de su valor medio como al de su varianza. Igualmente vimos como las hipótesis empleadas para obtener las expresiones presentadas van perdiendo validez a medida que aumenta el umbral. Finalmente queremos resaltar el hecho de que las expresiones desarrolladas muestran un comportamiento no monótono de la varianza, lo que abre la posibilidad de desarrollar estrategias de umbralización basadas en la minimización de dicha magnitud. A continuación vamos a analizar esta cuestión.

Page 88: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 67

3.3.2.3.1.2.4 Minimización de la varianza del centroide Como vimos en los apartados anteriores, la interacción del procesado por umbralización con el ruido presente en las imágenes permite la selección de un umbral que minimice la varianza del centroide. De esta forma podemos proponer un método de umbralización basado en la selección del nivel de umbralización que nos proporciona el menor valor de la varianza del centroide del objeto seleccionado, y al cual llamaremos MVCT (Minimum Variance Centroid Thresholding). También vimos que el hecho de umbralizar puede inducir un bias en la estimación del centroide. Por lo que no sólo es importante reducir la varianza del centroide sino que además hay que observar cuanto se desplaza el centroide respecto a la posición que obtendríamos en ausencia de ruido y procesado por umbralización. Sin embargo en el análisis que realizaremos a continuación consideraremos que el valor medio del centroide en presencia de procesado por umbralización no presenta sesgo alguno. Y esta condición por ejemplo la presentan aquellos focos de un sensor Hartmann-Shack en los que la fase incidente no presente ninguna aberración de tipo comático como comprobamos en el apartado 3.3.2.1. Para valorar la utilidad del criterio que proponemos, implementamos y aplicamos distintas técnicas de detección de objetos basadas en el procesado por umbralización, que emplean distintas estrategias para la selección del umbral. Estos métodos los empleamos sobre las 1500 imágenes experimentales usadas en el apartado de la validación experimental. Los métodos de umbralización usados fueron los siguientes: Kittley & Illingworth, Prewitt, Roberts, y MVCT [Gon96, Ari01]. Brevemente, el método de Kittley & Illingworth realiza un análisis del histograma de la imagen y escoge el nivel de umbral que separa la parte del histograma perteneciente al objeto de interés de la parte perteneciente al fondo. Los métodos de Prewitt y Roberts son métodos basados en el gradiente local de la imagen. Finalmente el MVCT propuesto por nosotros se basa en el empleo de la expresión (3.59), la cual nos permite representar la varianza del centroide frente al umbral y a partir de dicha representación determinar el umbral que proporciona la mínima varianza. Los resultados obtenidos los mostramos en la siguiente figura. De la figura 3.11 se desprende la superioridad del método de umbralización propuesto por nosotros si lo que queremos es minimizar la varianza del centroide .

Page 89: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

68 3.3 Medida de aberraciones oculares

Desde el punto de vista de los sensores de frente de onda, o sistemas de posicionamiento, el análisis que hemos presentado hasta el momento, relacionado con la posibilidad de sesgar la estimación del valor medio del centroide al emplear el procesado por umbralización, y la posibilidad de encontrar un nivel de umbral que minimice la varianza del centroide, es algo muy importante, pues muchos de estos sistemas emplean el centroide como magnitud básica para la extracción de distancias, desplazamientos, y estimación de aberraciones ópticas. Así pues creemos que el estudio realizado puede ser de gran utilidad a la hora de aumentar la exactitud y precisión de dichos aparatos. 3.3.2.3.2 Errores en la estimación de los coeficientes modales En el apartado anterior analizamos como el ruido de lectura presente en la cámara de registro de las imágenes aberrométricas afecta a la precisión y exactitud de la estimación del centroide de los spots en relación directa con el nivel de umbral empleado para su detección. En este apartado vamos a analizar en un principio como este error se propaga a la estimación de los coeficientes modales de la expansión de la fase en una serie de polinomios de Zernike. Posteriormente estudiaremos los errores relacionados en el correcto modelado del proceso físico que estudiamos. En este sentido estudiaremos los errores introducidos en el estimador debidos al incorrecto modelado de tanto las medidas como del frente incidente. El error cometido en la estimación del promedio del gradiente local de la aberración se propaga a los coeficientes estimados mediante la matriz de reconstrucción. La varianza del ruido en la estimación de los coeficientes debida al

0

0.5

1

1.5

2

2.5x 10-3

σ X2 (

pixe

l2)

Kitt

ley-

Illin

gwor

th

Rob

erts

Prew

itt

MV

CT

2.1

0.701

0.210.62

Fig. 3.11 Varianza del centroide obtenida tras la utilización de distintos métodos de umbralización

Page 90: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 69

ruido en las medidas es fácil de calcular y viene dada por la siguiente expresión [Sol98]:

2

2 2 2

1

s

ms

N

i iss

σ σ=

= Γ∑ (3.63)

donde recordamos que Γ es la matriz de reconstrucción y 2smσ es la varianza de las

medidas del gradiente, 2iσ es la varianza del i-ésimo coeficiente modal.

Pero aún en ausencia de ruido en las medidas proporcionadas por el sensor, la estimación de la aberración esta sujeta a otras fuentes de error relacionadas con la forma de construir el estimador. Para el caso particular del estimador de mínimos cuadrados LSQ, los errores de estimación están vinculados principalmente al incorrecto modelado de tanto las medidas como del frente que se pretende caracterizar. Una forma sencilla de valorar el efecto de los errores de estimación es mediante el empleo de la “matriz de acoplamiento”. Esta matriz vincula los coeficientes reales con los coeficientes estimados, mostrando el posible acoplamiento entre modos inducido por el proceso de estimación. Vamos a describir ahora la obtención de dicha matriz. Empezaremos recordando que en ausencia de ruido las medidas que proporciona el sensor se describen en su forma más general como:

s

1 s

si s N1 ( , ) ( , ) donde si s N

s

ss i i

is

xm I x y a Z x y dxdy

yIα

ααα

= ≤⎧∂= ⎨ = >∂ ⎩

∑∫ (3.64)

donde Is(x,y) incluye el efecto de que la irradiancia sobre cada subpupila no sea

uniforme e sI representa la integral de superficie de la irradiancia existente en la

pupila de la s-esima microlente. Esta expresión se puede poner en forma matricial de la siguiente forma.

A=m a (3.65)

donde a es el vector columna de coeficientes modales de dimensión ∞ x 1 y A es una matriz de dimensión 2Ns x ∞ cuyos elementos son de la forma:

1A ( , ) ( , )s

si s is

I x y Z x y dxdyI αΩ

∂=

∂∫ (3.66)

Como hemos visto en el apartado 3.3.2.2 los coeficientes estimados por mínimos cuadrados se obtienen a partir de las medidas mediante la siguiente expresión:

( )-1ˆ C C CT T

M M M M=a m (3.67)

Page 91: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

70 3.3 Medida de aberraciones oculares

donde CM es una matriz de dimensiones 2Ns x M, y cada elemento de la matriz depende del modelo de medidas considerado, siendo en el caso de modelización correcta iguales a los elementos de A Incluyendo (3.65) en (3.67) obtenemos: ( )-1

ˆ C C C AT TM M M M=a a . De esta expresión se

define la matriz de acoplamiento como [Her81, Bar03]:

( )-1C C C AT T

M M MΜ = (3.68)

de forma que los coeficientes estimados ( ˆMa ) están relacionados linealmente con los

coeficientes reales (a ) mediante la matriz de acoplamiento, ˆM = Μa a . En el caso de

que la matriz de acoplamiento sea la identidad el error de estimación será nulo y por lo tanto los coeficientes estimados corresponderán exactamente con los coeficientes reales, claro está, en ausencia de ruido en la determinación del gradiente. Claramente la condición necesaria para que la matriz sea diagonal es A=C. Queremos hacer hincapié en que A determina cual debe ser C y no viceversa, este hecho hace alusión a que la naturaleza del proceso físico que estamos analizando establece de forma unívoca cuales son los elementos de A, mientras que C es una matriz creada por nosotros con el fin de obtener unos coeficientes estimados. Así, para que nuestros resultados sean los mejores posibles, tenemos que intentar que la matriz C sea lo mas parecida posible a la matriz A. Una diferencia que va a ser insalvable para permitir la invertibilidad de la matriz C es que sus dimensiones van a ser inferiores o iguales a las de A. En el caso que nos compete en este trabajo, que es la estimación de aberraciones oculares, la matriz A tiene de dimensiones 2N sx ∞ ya que el frente aberrado consta de infinitos modos, por lo que C va a tener una dimensión igual y otra mucho menor que las de A. Teniendo en cuenta las dimensiones de C, la matriz de acoplamiento tendrá de dimensiones M x ∞. Esto nos indica que un frente que presenta infinitos modos será descrito con M modos. De forma que los modos resultantes surgen del acoplamiento de los infinitos modos presentes en el frente. Esta limitación en nuestra capacidad para describir el frente correctamente se denomina error de modelado del frente [Her81, Bar03, Dia05, Sol05]. La otra diferencia que se puede introducir entre las matrices A y C es que sus elementos sean distintos. Y en este punto es donde introducimos el concepto de error de modelado de las medidas [Bar03]. Como dijimos en el párrafo anterior la matriz A viene impuesta por el proceso físico que estamos analizando. En nuestro caso teniendo en cuenta cual es la descripción matemática de las medidas que

Page 92: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 71

proporciona el sensor en ausencia de procesado por umbralización (3.64), sabemos como tiene que ser cada uno de los elementos de C:

1C ( , ) ( , )s

si s is

I x y Z x y dxdyI αΩ

∂=

∂∫ (3.69)

Si para construir la matriz C hubiésemos escogido otro modelo de medidas distinto, la matriz Μ ya no podría ser la identidad, incluso aunque el proceso físico que quisiéramos describir estuviera correctamente descrito con M modos [Her81, Bar03, Dia05, Sol05]. También podemos incluir dentro del error de modelado de las medidas la posibilidad de equivocarse en la determinación de las posiciones de las microlentes de forma que (3.69) se evalúe en unas coordenadas erróneas. En el campo de la aberrometría ocular podemos decir que existen distintos modelos para describir las medidas proporcionadas por los sensores HS o LRT. El más empleado es el que supone que las medidas proporcionadas por el sensor coinciden con el gradiente de la fase en el centro de cada una de las subpupilas. Simplemente por el hecho de emplear este modelo de medida estaríamos introduciendo un error en la estimación de los coeficientes modales fácilmente subsanable [Her81, Bar03, Dia05, Sol05]. Por otra parte incluir el efecto de no uniformidad de la irradiancia sobre cada subpupila, es un poco más laborioso dado que cada ojo humano presenta un patrón de irradiancia distinto sobre su pupila de forma que tendríamos que determinar primero la función que describe dicha distribución de irradiancia, y posteriormente incluir esa información en el proceso de construcción de la matriz A. La importancia de incluir los efectos de no uniformidad de la irradiancia sobre la región de medida fue analizado en detalle por Bará [Bar03]. En dicho estudio muestra como se pueden inducir errores de entre un 3%-10% en los coeficientes por no tener en cuenta variaciones de irradiancia en el plano de la pupila, del orden de las producidas por el efecto Stiles-Crawford. Con el fin de mostrar el aspecto de la matriz de acoplamiento cuando se comete error de modelado, representamos en la siguiente figura dicha matriz para distintas situaciones: (a) el número de modos del frente estimado y real es igual, y las medidas están bien modeladas; (b) el número de modos es distinto y las medidas están bien modeladas; (c) y el número de modos es distinto y modelamos mal las medidas, suponiendo que coinciden con el gradiente en el centro de cada una de las subpupilas. En esta comparación consideramos que el frente real presenta los primeros 80 modos de Zernikes, el frente reconstruido constara de 80 en (a) y de

Page 93: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

72 3.3 Medida de aberraciones oculares

35 modos en (b) y (c), la pupila con la que trabajamos fue de 6.4 mm de diámetro, y la matriz de microlentes constó de 89 microlentes de 564 μm de diámetro, dispuestas en una malla cuadrada. En (a) se observa como en ausencia de error de modelado del frente y de las medidas, la matriz de acoplamiento es la matriz identidad y por lo tanto los coeficientes estimados coincidirán exactamente con los coeficientes reales (siempre que las medidas no presenten ruido). En cualquiera de los otros casos analizados en las figuras (b) y (c) la matriz ya no es la identidad. En el caso de la figura (b) la primera caja (de 35x35 elementos) es diagonal por lo que cada modo tiene una contribución correcta del modo real, más un acoplamiento producido por los modos N>35. Sin embargo en la figura (c) el acoplamiento de modos se produce para cualquier valor de N. Comparando (b) con (c) se observa que el hecho de modelar mal las medidas provoca que la matriz de acoplamiento no presente ningún bloque diagonal de forma que aunque el frente presentara 35 modos seguiríamos acoplando modos y por lo tanto estimando mal el frente. Creemos que a lo largo de este apartado se ha conseguido mostrar la importancia del correcto modelado de las medidas a la hora de construir la matriz de reconstrucción de los coeficientes modales. 3.3.2.5 Representación del frente en sistema Lab / Pupila Ojo Como ya dijimos al comienzo de este capítulo tanto el uso de HS como el proceso de estimación de la fase a partir de medidas de gradiente son procedimientos que la aberrometría ocular heredó del campo de la astronomía. Esta incorporación de técnicas se debe a que en ambos campos se intenta describir una perturbación aleatoria de la fase para poder observar a través de ella. Pero existe una

Fig. 3.12: Matrices de acoplamiento: a) Sin errores de modelado; b) error de modelado del frente; c) error de modelado de medidas y del frente.

(a) (b) (c)

Page 94: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 73

consideración fundamental que diferencia ambos campos. En el caso de la astronomía lo que interesa es conocer el estado de la atmósfera situada sobre la pupila del telescopio en cada momento y sus características estadísticas espacio-temporales. Este planteamiento tiene como fin último caracterizar la distorsión atmosférica que va a degradar las imágenes que se van a obtener con el telescopio, para poder así desarrollar estrategias que permitan corregir dicha distorsión. Sin embargo en el campo de la aberrometría ocular se pueden distinguir dos planteamientos. Por un lado se está trabajando en la caracterización de la aberración con el fin de desarrollar estrategias que permitan obtener imágenes retinianas de alta resolución espacial, y en este sentido lo más útil es referir la aberración ocular a un sistema de referencia concéntrico con el eje del sistema de observación y consecuentemente ligado a la matriz de microlentes. Este planteamiento es idéntico al empleado en el campo de la astronomía. Pero por otro lado se esta trabajando en la caracterización y compensación de las aberraciones oculares (incidencia, estadística temporal, influencia en la visión, patrones de ablación,...). En este tipo de estudios es importante referir la aberración a la pupila del ojo. Por lo tanto hay que desacoplar de las medidas proporcionadas por el sensor los movimientos oculares que se producen durante el proceso de medida de la aberración ocular. Estos movimientos oculares se deben sobre todo a movimientos microsacádicos, fijación inadecuada, o recolocación del sujeto entre medidas. El ojo se mueve pero la aberración ocular no se mueve respecto al ojo de forma que para evitar el efecto del movimiento ocular debemos ser capaces de estimar la aberración respecto a un sistema de coordenadas solidario con la pupila del sujeto. Para llevar esto a cabo existen dos opciones: Opción 1: Esta opción consiste en estimar la aberración, y por tanto los coeficientes modales de la expansión, respecto al sistema de coordenadas propio del sensor, solidario con la matriz de microlentes y posteriormente emplear una matriz de cambio de base, como se indica en el estándar ANSI04 y en los trabajos de Guirao y Bará [ANSI04, Gui01, Bará06], que permita obtener los coeficientes modales de la expansión de la aberración respecto al sistema de coordenadas ligado al ojo. Veremos que la posibilidad de emplear una matriz de cambio de base para obtener los coeficientes modales de la expansión de la aberración en un sistema de

Page 95: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

74 3.3 Medida de aberraciones oculares

coordenadas a partir de los coeficientes de la expansión correspondientes a otro sistema de coordenadas se demuestra fácilmente siempre que trabajemos con todos los modos y coeficientes reales del frente. Pero nada nos garantiza a priori que dicha relación matricial sea válida para los vectores de coeficientes estimados respecto a distintos sistemas de coordenadas. Y en realidad es esta relación la que sería interesante demostrar puesto que los coeficientes reales de un frente son desconocidos, de forma que siempre trabajamos con coeficientes estimados obtenidos con mayor o menor acierto. Por ello finalizaremos esta sección mostrando que el empleo de la matriz de cambio de base que nos permite corregir los coeficientes modales con el fin de expresar la fase respecto a la pupila ocular, también se puede llevar a cabo con coeficientes estimados. Opción 2: La segunda opción se basa en situar el sistema de referencia sobre la pupila del sujeto, de forma que si ésta se mueve, el sistema de referencia se mueva con ella. En consecuencia lo que cambia entre una posición del ojo y otra es la posición de la matriz de microlentes respecto a la pupila del ojo, y por tanto la posición de las microlentes. Este hecho implica que para obtener los coeficientes modales respecto al sistema de referencia centrado en la pupila sólo hay que recalcular para cada posición de la pupila la matriz de reconstrucción y emplearla en la estimación de los coeficientes. De esta forma se evita tener que transformar linealmente los coeficientes obtenidos, como sucedía con la opción anterior. Aparentemente las opciones barajadas son tan dispares conceptualmente que no es obvio que los resultados obtenidos con cada una de ellas coincidan entre sí. Sin embargo comprobaremos que si la transformación de coordenadas es lineal conforme ambas opciones proporcionan los mismos coeficientes estimados. Empezaremos estableciendo la notación. Posteriormente desarrollaremos una serie de igualdades que nos serán de gran utilidad. Finalmente mostraremos la igualdad de ambas opciones.

Page 96: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 75

La notación que vamos a seguir en este apartado es la siguiente. P: región circular en la que se define la función de aberración ocular, correspondiente a la pupila del ojo. Por tanto esta región se moverá solidaria con la pupila y su centro define el centro del sistema coordenado Π. El radio de esta región es RP. El vector de posición de un punto q en este sistema de coordenadas vendrá dado por r y la posición normalizada de dicho punto será: ( )P= /R = x, yr r .

L: región circular solidaria con la matriz de microlentes y co el sistema de coordenadas cuyo centro coincide con el eje óptico del sistema. Este es el sistema de coordenadas normalmente utilizado por la mayoría de los sensores para la estimación de los coeficientes modales del frente de onda. El radio de esta pupila será RL. Su centro define el del sistema coordenado Π’. El vector de posición de un punto q en este sistema de coordenadas vendrá dado por 'r y la posición normalizada de dicho punto será: ( )' ' L= /R = x', y'r r . La relación entre las

coordenadas del punto q expresadas en ambos sistemas de coordenadas es. ' M[ ][ ]ϕ= −r r d , donde M[φ] es la matriz de rotación, φ es el ángulo que forma X’

con X, medido desde X en sentido antihorario, y d es el desplazamiento

)(ˆ),( rr φφ : son las funciones que describen la aberración y la aberración estimada

respecto al sistema de coordenadas Π respectivamente.

Fig. 3.15: Sistemas de coordenadas.

Page 97: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

76 3.3 Medida de aberraciones oculares

( ) ( ) ( )

( ) ( ) ( )

1

1

ˆ ˆˆ

i ii

M

i ii

a Z

a Z

φ

φ

=

=

= =

= =

r r Z r a

r r Z r a

(3.70)

donde ˆ,a a son los vectores columna de coeficientes y coeficientes estimados de la

expansión modal respecto al sistema Π, de dimensiones ∞x1 y Mx1 respectivamente, y Z(r) es un vector fila de dimensiones 1 x ∞.

)('ˆ),(' r'r' φφ : son las funciones que describen la aberración y la aberración estimada

respecto al sistema de coordenadas Π’ respectivamente.

( ) ( ) ( )

( ) ( ) ( )

1

1

' '

ˆ ˆ' '

i ii

M

i ii

a Z

a Z

φ

φ

=

=

= =

= =

r' r' Z r' a'

r' r' Z r' a'

(3.71)

donde ˆ,a' a' son los vectores columna de coeficientes y coeficientes estimados de la

expansión modal respecto al sistema Π’, de dimensiones ∞x1 y Mx1 respectivamente, y Z(r’) es un vector fila de dimensiones 1 x ∞. T: aplicación lineal que describe la transformación que relaciona las coordenadas normalizadas correspondientes a los sistemas Π y Π’, de forma que r’= T (r)=Tr, donde T es la matriz jacobiana de la transformación:

' '

T' '

x xx yy yx y

∂ ∂⎛ ⎞⎜ ⎟∂ ∂⎜ ⎟=∂ ∂⎜ ⎟

⎜ ⎟∂ ∂⎝ ⎠

(3.72)

de forma que:

'

T'

T

x xy y

⎛ ⎞ ⎛ ⎞=⎜ ⎟ ⎜ ⎟

⎝ ⎠ ⎝ ⎠r' = r

; '

T'

T

dx dxdy dy⎛ ⎞ ⎛ ⎞

=⎜ ⎟ ⎜ ⎟⎝ ⎠ ⎝ ⎠

dr' = dr

; '

'

D

D

x x

y y

∂ ∂⎛ ⎞ ⎛ ⎞=⎜ ⎟ ⎜ ⎟∂ ∂⎝ ⎠ ⎝ ⎠

∇ ∇r' = r

(3.73)

donde:

' 'D

' '

x yx xx yy y

∂ ∂⎛ ⎞⎜ ⎟∂ ∂⎜ ⎟=∂ ∂⎜ ⎟

⎜ ⎟∂ ∂⎝ ⎠

(3.74)

Page 98: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 77

A: es una matriz asociada al sistema de coordenadas Π, de dimensiones 2Nsx∞ cuyos elementos son de la forma:

2

2

( ) ( )A

( )s

s

s i

sis

I Z d

I d

αΩ

Ω

∂∂

=∫

r r r

r r donde s

s

s N s N

x siy si

αα= ≤⎧

⎨ = >⎩ (3.75)

y donde IS(r) es la irradiancia en el plano de la s-esima subpupila (IS(r)= IS+N(r)). Definimos también AM como el primer bloque de A de dimensiones 2NsxM. A’: es una matriz asociada al sistema de coordenadas Π’ de dimensiones 2Nsx∞ cuyos elementos son de la forma:

2

'

2

'

'( ) ( )'

A''( )

s

s

s i

sis

I Z d

I d

αΩ

Ω

∂∂

=∫

r' r' r'

r' r'donde s

s

' ' s N' ' s N

x si y si

αα

= ≤⎧⎨ = >⎩

(3.76)

y donde IS’(r’) es la irradiancia en el plano de la s-esima subpupila, (I’S(r’)= I’S+N(r’)), y por definición (I’S(r’(r))= IS(r)). Definimos igualmente A’M como el primer bloque de A’ de dimensiones 2NsxM. m, m’: son los vectores columna de medidas respecto a los sistemas coordenados Π y Π’ de dimensiones 2Nsx1. Cada elemento de estos vectores se describe mediante 3.77:

2

2

2

'

2

'

( ) ( )

( )

'( ) ( )'

''( )

s

s

s

s

s i

s ss

s i

s ss

I dm

I d

I dm

I d

φα

ν

φα

ν

Ω

Ω

Ω

Ω

∂∂

+

∂∂

+

r r r=

r r

r' r' r'' =

r' r'

(3.77)

donde incluimos las componentes de ruido en cada subpupila sν y 'sν . En forma

matricial los vectores de medidas se expresan como A ν= +m a y A' '' ' ν= +m a ,

El hecho de que los sistemas Π y Π’ estén vinculados por una transformación de coordenadas nos permite expresar una serie de magnitudes respecto a uno de los sistemas de coordenadas en función de las mismas magnitudes expresadas respecto

Page 99: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

78 3.3 Medida de aberraciones oculares

al otro sistema. Vamos a presentar a continuación la serie de relaciones que utilizaremos más adelante. 1) Relación entre los coeficientes modales de la expansión de la aberración expresados en los sistema de coordenadas Π y Π’.

S=a a' (3.78)

donde a,a' son los vectores columna de coeficientes de la expansión modal de la

aberración real en los sistemas de coordenadas Π y Π’, y S es una matriz de cambio de base.

Obtención de la relación: Partimos de que la aberración debe ser igual independientemente del sistema

de coordenadas en el que se exprese:

( ) ( ) ( ) ( )1 1

' 'i i i ji j

a Z a Zφ φ∞ ∞

= =

= ⇒ =∑ ∑r r' r r' (3.78.1)

Para obtener la relación entre los coeficientes modales de la expansión de la

aberración respecto a los sistemas Π y Π’ vamos a proyectar la aberración

expresada en ambos sistemas coordenados sobre el elemento Zk(r) de la base

expresada en el sistema Π. Así:

( ) ( ) ( ) ( )

( ) ( ) ( ) ( )

2 2

2 2

1 1

'

'

k k

i i k j j ki j

Z d Z d

a Z Z d a Z Z d

φ φΩ Ω

∞ ∞

Ω Ω= =

⇒ =

∫ ∫

∑ ∑∫ ∫

r r r = r' r r

r r r r' r r

(3.78.2)

Teniendo en cuenta el carácter ortonormal de los polinomios de Zernike

llegamos a la relación entre los coeficientes:

( ) ( ) 2

1 1

'i ik k j j ki j

a a a Z Z dπ δ π∞ ∞

Ω= =

= =∑ ∑ ∫ r' r r (3.78.3)

Definimos:

( ) ( ) 21kj k jS Z Z d

π Ω= ∫ r r' r (3.78.4)

de esta forma la expresión anterior se puede rescribir como:

1

'k kj jj

a S a S∞

=

= ⇒ =∑ a a' (3.78.5)

Page 100: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 79

Así pues los coeficientes modales respecto al sistema Π se obtienen a partir de

los obtenidos respecto a Π’ sin más que emplear una matriz de cambio de

base cuyos elementos vienen determinados por la expresión (3.78.4).

2) Relación entre Z(r) y Z(r’)

( ) ( )S=Z r' Z r (3.79)

donde Z(r) y Z(r’) son vectores fila de dimensiones 1 x ∞, cuyos elementos son los polinomios de Zernike evaluados todos ellos en las coordenadas del punto q expresadas respecto a los sistemas de coordenadas Π y Π’ respectivamente. A modo de ejemplo: Z(r)=( Z1(r), Z2(r), Z3(r),...) .

Obtención de la relación. Partimos de nuevo de la igualdad:

( ) ( ) ( ) ( )1 1

' 'i i j ji j

a Z a Zφ φ∞ ∞

= =

= ⇒ =∑ ∑r r' r r' (3.79.1)

Si ahora empleamos la relación entre los coeficientes modales según la

expresión (3.78.5)

( ) ( ) ( )1 1 1 1 1

' 'i i j ij i j ij ii i j j i

a Z a S Z a S Z∞ ∞ ∞ ∞ ∞

= = = = =

= =∑ ∑∑ ∑ ∑r r r (3.79.2)

Comparando el últimos término de la ecuación anterior con 3.79.1 obtenemos:

( ) ( ) ( ) ( )

1Sj i ij

iZ Z S

=

= ⇒ =∑r' r Z r' Z r (3.79.3)

3) Relación entre las medidas proporcionadas por el sensor correspondientes a la s-esima microlente respecto a los sistemas Π y Π’.

'

D D's x s x

s y s y

m mm m⎛ ⎞ ⎛ ⎞

= ⇒ =⎜ ⎟ ⎜ ⎟⎝ ⎠ ⎝ ⎠

s sm ' m (3.80)

Obtención de la relación: La medida que proporciona cada microlente del sensor HS según el eje X

viene dada por:

Page 101: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

80 3.3 Medida de aberraciones oculares

2

2

( ) ( )

( )s

s

s

csx P s

s

I dxxm R

f I d

φνΩ

Ω

∂∂Δ

= = +∫

r r r

r r

(3.80.1)

donde cxΔ es el desplazamiento del centroide según el eje X.

Análogamente para la medida respecto al sistema Π’ tenemos que:

2

'

2

'

'( ) ( )''' '

'( )s

s

s

cs x L s

s

I dxxm R

f I d

φνΩ

Ω

∂∂Δ

= = +∫

r' r' r'

r' r'

(3.80.2)

Vamos ahora a relacionar ms con m’s teniendo en cuenta que I’(r’)=I(r).

Considerando que los elementos de superficie expresados en los sistemas Π y

Π’ se relacionan por d2r’=|T|d2r llegamos a que los denominadores de (3.80.1)

y (3.80.2) se relacionan mediante la expresión:

2 2

'

'( ) ( ) Ts s

s sI d I dΩ Ω

=∫ ∫r' r' r r (3.80.3)

Si además empleamos las relaciones expuestas en (3.73) llegamos a la

siguiente igualdad:

( )( )

2

'

2

'

211 12

11 122

'

'( ') ( )'

''( ')

( ) ( ) T

( ) T

s

s

s

ss

s

s

s

sx xs

xs

xy

ys

I dx

m 'I d

I D D d

D DI d

φ

ν

φν

ν

Ω

Ω

∂∂

∂∂Ω

Ω

∂∂

= + =

⎛ ⎞⎜ ⎟⎜ ⎟ ⎛ ⎞⎝ ⎠= + ⎜ ⎟⎜ ⎟

⎝ ⎠

r r' r'

r r'

r r r

r r

(3.80.4)

Dado que la transformación de coordenadas es lineal los elementos de D y |T|

no dependen de las variables de integración de forma que podemos sacarlos

fuera de la integral. Así podemos relacionar finalmente el vector de medidas

según X e Y correspondiente a la subpupila s-esima en el sistema Π’ con el

vector medidas de la subpupila s-ésima en sistema de coordenadas Π: D=s sm ' m (3.80.5)

4) Relación entre las matrices A y A’ A' = JAS (3.81)

donde J es una matriz tridiagonal cuyos elementos no nulos corresponden con los de D y sus dimensiones son 2NS x 2NS (ver ecuación 3.81.5) .

Page 102: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 81

Obtención de la relación: Empezamos recordando las expresiones (3.75) y (3.76) correspondientes al

elemento s,i de las matrices A y A’. Empezamos empleando la relación entre

Z(r) y Z(r’) dada por la expresión (3.79).

2 2

1' '

2 2

' '

( ) ( ) ( ) ( )'

A'( ) ( )

s s

s s

s i s k kik

sis s

I ' ' Z ' d ' I ' ' Z S d ''

I ' ' d ' I ' ' d '

α α

=Ω Ω

Ω Ω

∂ ∂∂ ∂

= =∑∫ ∫

∫ ∫

r r r r r r

r r r r

(3.81.1)

Haciendo uso de las expresiones (3.73) y (3.80.3) y Cambiando las variables

de integración r ’ y derivación α’ por r , α obtenemos finalmente:

( )

( )

211 12

1

2

221 22

1

2

( ) ( ) T

( ) T

A'

( ) ( ) T

( ) T

s

s

s

s

xs k ki

kys

s

six

s k kiky

ss

I D D Z S d si s N

I d

I D D Z S d si s N

I d

∂ ∞∂

∂=∂Ω

Ω

∂ ∞∂

∂=∂Ω

Ω

⎧ ⎛ ⎞⎪ ⎜ ⎟⎜ ⎟⎪ ⎝ ⎠ ≤⎪⎪⎪= ⎨

⎛ ⎞⎪⎜ ⎟⎪ ⎜ ⎟⎝ ⎠⎪ >

⎪⎪⎩

∑∫

∑∫

r r r

r r

r r r

r r

(3.81.2a)

Como indicamos anteriormente si la transformación de coordenadas es lineal

podemos sacar de la integral los elementos de D y |T|, de forma que la

expresión anterior se puede escribir como:

( )[ ][ ]

( )[ ][ ]

,11 12

( ),

,21 22

( ),

A'

s

s

s is

s N i

si

s is

s N i

ASD D si s N

AS

ASD D si s > N

AS

+

+

⎧ ⎛ ⎞⎪ ⎜ ⎟ ≤

⎜ ⎟⎪⎪ ⎝ ⎠= ⎨⎛ ⎞⎪⎜ ⎟⎪ ⎜ ⎟⎪ ⎝ ⎠⎩

(3.81.2b)

Podemos establecer la relación matricial entre A y A’ como: A' = JAS (3.81.3)

donde J es una matriz de dimensiones 2Ns x 2Ns cuyos elementos son todos

iguales a cero exceptuando:

11,

22

, 12

, 21

s

s

sl l

s

l N l s

l N l s

D si l NJ

D si l NJ D si l N

J D si l N+

≤⎧= ⎨ >⎩

= ≤

= >

(3.81.4)

Así el aspecto de la matriz J es el siguiente:

Page 103: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

82 3.3 Medida de aberraciones oculares

11 12

11 12

21 22

21 22 2 2

0 0 0 00 0 0 00 0 0 0

0 0 0 00 0 0 00 0 0 0

s sN x N

D D

D DJ

D D

D D

⎛ ⎞⎜ ⎟⎜ ⎟⎜ ⎟

= ⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎟⎝ ⎠

(3.81.5)

En el subapartado 3 de esta sección relacionamos las medidas respecto a un sistema de coordenadas con las medidas obtenidas en el otro sistema para la s-ésima subpupila. Haciendo uso ahora de la matriz J los vectores de medidas se pueden relacionar de la siguiente forma.

1 1

2 2

2 2

''

J J

's sN N

m mm m

m m

⎛ ⎞ ⎛ ⎞⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟= =⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟⎝ ⎠ ⎝ ⎠

m' m o equivalentemente (3.81.6)

Idénticamente obtenemos la relación entre el vector columna del ruido expresado en ambos sistemas de coordenadas.

1 1

2 2

2 2

''

J J

's sN N

ν νν ν

ν ν

⎛ ⎞ ⎛ ⎞⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟= =⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟⎝ ⎠ ⎝ ⎠

' o equivalentementeν ν (3.81.7)

Llegados a este punto ya estamos en disposición de poder afrontar el objetivo que nos marcamos al principio de este apartado, comprobar que las opciones 1 y 2 son equivalentes a la hora de obtener los coeficientes estimados respecto al sistema de coordenadas solidario con la pupila del ojo.

Coeficientes estimados según la Opción 2: ˆ(2)Ma

En este caso partimos de la descripción correcta del frente respecto al sistema Π, φ(r), dada por la expresión (3.70a). Las medidas vendrán dadas por el vector columna m. La matriz de reconstrucción será en este caso:

( ) 1A A AT T

M M M

−Γ = 3.82

Page 104: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 83

y los M primeros coeficientes modales estimados según esta opción vendrán dados por:

( ) ( )1ˆ A A A A(2) T T

M M M M ν−

= Γ +a m = a 3.83

donde AM y ˆ(2)Ma tienen de dimensiones 2Ns x M, Mx1 respectivamente.

Coeficientes estimados según la Opción 1: ˆ(1)Ma

Según esta opción queremos obtener la estimación del frente respecto al sistema Π’. La matriz de reconstrucción viene dada ahora por:

( ) 1' A' A' A'T T

M M M

−Γ = (3.84)

siendo 2Ns x M las dimensiones de A’M. Empleando (3.35), (3.84), (3.77) y (3.81.6) podremos estimar los coeficientes modales respecto a Π’:

( ) ( ) ( )1

ˆ ' ' ' JA ' A' A' A' JA 'T TM M M Mν ν

−= Γ = Γ + = +a' m a a (3.85)

donde A’M y ˆ Ma' tienen de dimensiones 2Ns x M, Mx1 respectivamente, m’ representa

el vector columna en el que se engloban todas las medidas proporcionadas por todas las microlentes correctamente ordenadas (las m’x al principio y a continuación las m’y) y 'ν representa el vector columna de ruido.

Una vez obtenidos los ˆ Ma' , la opción 1 calcula los coeficientes estimados respecto

al sistema Π, que denotaremos por ( ˆ(1)Ma ), utilizando la matriz SM formada por los

primeros MxM elementos de la matriz de cambio de base S de la siguiente forma:

ˆ ˆS(1)M M M=a a' (3.86)

Tras todos estos pasos podemos concluir que la relación entre los coeficientes reales (expresados respecto al sistema Π) y los coeficientes estimados (también respecto al sistema Π) viene dada por:

( ) ( )1(1)ˆ S A' A' A' JA '

M

T TM M M M ν

−⎡ ⎤= +⎢ ⎥⎣ ⎦a a (3.87)

Podemos continuar el desarrollo teniendo en cuenta que la relación (3.81),

deducida para infinitos modos, es también valida para un número finito M de ellos,

siempre y cuando en M se incluyan bloques completos de modos hasta el máximo

orden radial (nmax) de interés. Por “bloque completo” entendemos el conjunto de

todos los modos (n,m) correspondientes a cada orden radial (n) (ec. 3.1). Esto es

Page 105: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

84 3.3 Medida de aberraciones oculares

así porque para obtener el j-esimo elemento de la base de Zernike Zj(r) de mayor

orden radial que el correspondiente a Zj(r’). Así en 3.81 podemos restringir S a SM

y A a AM, obteniendo la matriz A’M, de dimensiones 2NSxM, igual al primer bloque

completo de la matriz A’. De esta forma podemos escribir la relación 3.81 para un

número finito de modos: A’M= JAM SM. Haciendo uso de esta relación obtenemos:

( ) ( ) ( ) ( )

( )

11(1)

1

ˆ S A' A' A' (JA ') S JA S JA S JA S (JA J )

S S A J JA S S A J J(A )

M

T TT TM M M M M M M M M M M

T T T T T TM M M M M M M

−−

⎡ ⎤= + = + =⎣ ⎦

⎡ ⎤= +⎣ ⎦

a a v a v

a v

(3.88)

Teniendo en cuenta que la transformación de coordenadas es lineal conforme sabemos que 2J J IT β= donde β=RL/ RP es un factor constante igual al factor de

escala existente entre los sistemas Π y Π’, lo que nos permite seguir operando de forma que:

1

12 2

1

ˆ S S A J JA S S A J J(A )

S S A A S S A (A )

S S A A S S A (A )

(1) T T T T T TM M M M M M M M

T T T TM M M M M M M

T T T TM M M M M M M

β β

⎡ ⎤= + =⎣ ⎦

⎡ ⎤= + =⎣ ⎦

⎡ ⎤= +⎣ ⎦

a a v

a v

a v

(3.89)

Tenemos en cuenta ahora las propiedades de la inversión del producto de matrices

1 1 1(DE) E D− − −= ; 1 1 1 1(DEF) F E D− − − −= (3.90)

obtenemos finalmente:

( ) ( )( )

1 11

1

ˆ S S A A S S A (A )

A A A (A )

(1) T T T TM M M M M M M M

T TM M M

− −−

= + =

= +

a a v

a v

(3.91)

Comparando (3.83) con (3.95) observamos que ambas expresiones son iguales con lo que demostramos la equivalencia de las dos opciones barajadas para la estimación de los coeficientes modales. Esto significa que en la práctica estimar respecto a un sistema de coordenadas solidario con la pupila es equivalente a estimar los coeficientes modales respecto a otro sistema de coordenadas (como por ejemplo uno concéntrico con el eje óptico del sistema) y luego corregirlos mediante la matriz de cambio de base SM. Para finalizar este apartado vamos a mostrar el aspecto de la matriz de transformación SM, para distintas transformaciones lineales conformes: traslación, rotación, y cambio de escala o radio pupilar.

Page 106: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 85

3.3.3 Influencia del error del sensor en la estimación de la OTF ocular En este apartado vamos a mostrar el efecto que tiene el error cometido en la estimación de los coeficientes modales sobre la estimación de la función de transferencia óptica del sistema. Empezamos recordando la definición de la OTF [Goo00]:

*

2

( , ) ( , )( , )

( , )

x yx y

P x y P x df y df dxdyOTF f f

P x y dxdy

λ λ∞

−∞∞

−∞

− −= ∫

∫ (3.92)

donde P(x,y) es la function pupila, λ es la longitud de onda y d es la distancia del plano de la pupila al plano imagen.

A la hora de obtener la OTF estimada (OTF∧

) primero tenemos que determinar la

función pupila estimada:

1

ˆ ˆ( , ) ( , ) exp ( , )M

j jj

P x y C x y i a Z x y=

⎧ ⎫= ⎨ ⎬

⎩ ⎭∑ (3.93)

donde los coeficientes estimados ˆ ja tienen dimensiones de radianes.

En la definición de la función pupila estimada hemos incluido el hecho de que la fase estimada la obtenemos a partir de los coeficientes modales estimados y de los

polinomios de Zernike. Así la OTF∧

se obtiene sin más que sustituir ˆ ( , )P x y por

( , )P x y en la definición de la OTF.

Fig. 3.14: Matrices de transformación SM correspondientes a: (a) traslación de 100 μm a lo largo del eje x; (b) rotación de π/4; (c) Cambio de escala en un factor de 0.9.

(a) (b) (c)

Page 107: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

86 3.3 Medida de aberraciones oculares

Realizaremos un análisis aproximado mediante una serie de simulaciones. En el capitulo 6 vamos a describir en detalle el simulador que empleamos en todas las simulaciones hechas en esta tesis, en relación con la aberración ocular, por ello ahora vamos a realizar una descripción muy sencilla en la que nos centraremos en los parámetros más relevantes en relación con los resultados que presentaremos en esta sección . Así, simulamos un ojo de 6.4 mm de diámetro pupilar (64 píxeles de diámetro) sobre una matriz de 128x128 píxeles. Construimos tres aberraciones distintas (A,B,C) con los primeros 80 polinomios de Zernike, de las cuales los 35 primeros coeficientes modales de cada una de ellas se corresponden con datos oculares obtenidos en nuestro laboratorio de tres ojos distintos. Cada una de las aberraciones (sin incluir los términos de tilt) presenta un valor rms: A=2.07 μm, B=2.50 μm, C=0.95 μm. Los coeficientes modales de los términos 35-80 se obtuvieron con un generador de números aleatorios con distribución de probabilidad gaussiana de media cero y desviación típica decreciente con el cuadrado del orden del polinomio. El sensor que simulamos constó de 89 microlentes en distribución cuadrada. La influencia del error en la estimación del centroide la valoramos para una serie de niveles de ruido de desviación típica [0.0015, 0.015, 0.03, 0.12] mrad y valor medio cero. Por otra parte la influencia del error de modelado del frente la valoramos realizando la estimación con la matriz de reconstrucción correspondiente a considerar que el frente presenta 35 modos. También valoramos el efecto de modelar mal las medidas del sensor. Esto lo llevamos a cabo simulando las medidas correctamente a partir del promedio del gradiente de la aberración correspondiente a cada microlente, mientras que a la hora de obtener la matriz de reconstrucción empleamos en un caso el modelo correcto de medidas y en otro la matriz de reconstrucción considerando que las medidas se corresponden con el gradiente de la aberración en el centro de cada microlente. Para valorar la magnitud de los errores inducidos en el proceso de estimación de la OTF vamos por un lado a comparar el valor medio del módulo de la función de

transferencia óptica estimada (<MTF∧

>) con el de la real (<MTF>), lo que nos dará información del sesgo o bias que tendremos en la estimación de la MTF

media, y por otro lado computaremos la relación señal ruido de la MTF∧

estimada lo que nos informará sobre la precisión alcanzable en la estimación de la MTF.

Page 108: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 87

ˆ 22

ˆ

ˆ ˆMTF

MTFSNR

MTF MTF=

− (3.94)

Primero vamos a analizar la influencia sobre la estimación de la MTF del error cometido en el modelado de tanto las medidas como del frente. En la figura 3.15

mostramos la MTF∧

para tres ojos distintos, en los siguientes casos: sin cometer errores de modelado ni en el frente ni en las medidas, caso para el que obtenemos la MTF real (línea continua); cometiendo error de modelado del frente pero no en las medidas (círculos); cometiendo error de modelado de las medidas pero no en el frente (puntos); cometiendo errores de modelado en el frente y en las medidas (cuadrados). Observamos en las figuras correspondientes a las tres fases estudiadas, que para los datos particulares empleados en estos ejemplos, el error inducido en la estimación

de la MTF∧

por un modelado incorrecto del frente es muy superior al inducido por un mal modelado de las medidas. Igualmente se observa que en estos ejemplos los errores de modelado provocan la subestimación de la MTF aberrada a bajas frecuencias e incluso en las altas para el sujeto JAP. En segundo lugar vamos a estudiar el caso en el que modelemos mal el frente y haya ruido en las medidas. En las figuras 3.16 y 3.17 mostramos para las tres aberraciones analizadas los resultados de dicho análisis. En la figura 3.16 analizamos los casos de ruido en el sensor de 0.0015 y 0.015 mrad de desviación típica, mientras que en la figura 3.17 los casos de ruido en el sensor de 0.03 y 0.12 mrad de desviación típica. En cada una de las gráficas de ambas figuras

mostramos la MTF∧

obtenida de las siguientes formas: con error de modelado del frente y ruido en las medidas de 0.0015 mrad en fig3.16 y 0.03 mrad en fig.3.17 (triángulos): sin error de modelado del frente y ruido en las medidas de 0.0015 mrad en fig3.16 y 0.03 mrad en fig.3.17 (círculos): con error de modelado del frente y ruido en las medidas de 0.015 mrad en fig3.16 y 0.12 mrad en fig.3.17 (cuadrados): sin error de modelado del frente y ruido en las medidas de 0.015 mrad en fig3.16 y 0.12 mrad en fig.3.17 (puntos): sin ningún tipo de error (línea continua en negro) En estas figuras (fig 3.16 y fig 3.17) observamos como hecho más significativo que la mejor estimación de la MTF no corresponde con el caso en el que modelamos bien el frente, todo lo contrario, subestimar el número de modos que conforman la aberración analizada proporciona una mejor estimación de la MTF aberrada,

Page 109: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

88 3.3 Medida de aberraciones oculares

respecto a la obtenida para un mismo nivel de ruido en las medidas sin haber cometido error de modelado alguno.

Por otra parte si nos fijamos en la MTF∧

sin cometer error de modelado vemos que

al aumentar el ruido en las medidas del sensor aumenta la MTF∧

, provocando generalmente una sobrestimación de la MTF real. Un comportamiento similar se

observa si comparamos entre sí las MTF∧

s obtenidas modelando erróneamente el frente. Pero en este caso al modelar mal el frente nos encontramos que la subestimación de la MTF inducida por el submodelado del frente se compensa en parte con la sobreestimación inducida por el ruido en las medidas del sensor,

provocando que la MTF∧

estimada en este caso sea más próxima a la real que la obtenida en ausencia de error de modelado. Como se observa en las figuras 3.16 y 3.17 únicamente el caso en el que el ruido de medida es de 0.0015 mrad, la estimación de la MTF sin cometer error de modelado es mejor que la estimación que obtendríamos si hubiéramos cometido dicho error. Esto nos indica que aún en el caso en el que la aberración ocular presentara 80 polinomios de Zernike significativos, el hecho de que exista ruido en las medidas del orden de 0.015 mrad o superior, provoca en los ejemplos aquí presentados que la estimación de la aberración y por tanto de la MTF aberrada vaya a ser mejor en el caso de que sólo estimemos 35 polinomios que si hubiésemos estimado los 80 polinomios que presenta la aberración ocular. Para este análisis se simuló un sensor con 89 microlentes equiespaciadas en una distribución cuadrada como la mostrada en la figura 3.2(a). Vamos ahora a analizar la relación de la señal ruido de la MTF estimada (

ˆMTFSNR ). En la figura 3.18 presentamos la ˆMTFSNR correspondiente a las tres

aberraciones oculares estudiadas. Los casos analizados en los que se modeló bien el frente los representaremos con línea discontinua, mientras que representamos con línea continua los obtenidos con un mal modelado. Los resultados obtenidos para los distintos niveles de ruido los representamos de la siguiente forma: Puntos 0.0015 mrad; Cuadrados 0.015 mrad; círculo 0.03 mrad; triángulo 0.12 mrad. Las gráficas correspondientes a las tres aberraciones oculares presentan un comportamiento similar. Las distintas ˆMTFSNR obtenidas decrecen inicialmente

hasta que se estabilizan a partir de cierta frecuencia. Por otra parte el valor de la

ˆMTFSNR en el origen depende directamente del rms de la aberración ocular, aunque

Page 110: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 89

el nivel de ˆMTF

SNR en el que se estabiliza es prácticamente el mismo

independientemente de la magnitud de la aberración ocular. En el sentido de lo apuntado en relación con la estimación de la MTF la mayor

ˆMTFSNR se corresponde con el caso de menor ruido en el sensor (como cabía

esperar) pero no corresponde con el caso de modelado correcto del frente, sino todo

lo contrario, como ocurrió con la estimación de la MTF∧

. Esto nos indica, a la luz de los ejemplos realizados, que si hay ruido en las medidas que proporciona el

sensor, en nuestros ejemplos la varianza de la MTF∧

estimada es menor si estimamos 35 modos que si estimamos los 80 que presenta el frente analizado, siendo este comportamiento independiente de la magnitud de la aberración estudiada. En conclusión es interesante caracterizar el error que se comete en el sensor antes de plantear el algoritmo de estimación que se va a emplear para la obtención de los coeficientes estimados del frente aberrado, de forma que una vez sabido el error cometido en las medidas se puede plantear el número de modos que conviene estimar con el fin de minimizar el error en la OTF estimada.

Page 111: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

90 3.3 Medida de aberraciones oculares

Fig 3.15: MTF para distintos tipos de errores. Línea continua: sin errores de modelado ni en el frente ni en las medidas; Círculos: con error de modelado del frente pero no en las medidas (círculos); Puntos: con error de modelado de las medidas pero no en el frente; Cuadrados: con errores de modelado en el frente y en las medidas. f es la frecuencia espacial normalizada a la frecuencia de corte del sistema limitado por difracción

(a):JAP-OD

(b):JAP-OS

(c):SBV-OD

f

f

f

Page 112: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

3.3 Medida de aberraciones oculares 91

Fig 3.16: MTF para distintos ruidos [0.0015, 0.015] mrad en el canal del sensor, y errores de modelado del frente. Triángulos: con error de modelado del frente y ruido en las medidas de 0.0015 mrad; Círculos: sin error de modelado del frente y ruido en las medidas de 0.0015 mrad; Cuadrados: con error de modelado del frente y ruido en las medidas de 0.015 mrad; Puntos: sin error de modelado del frente y ruido en las medidas de 0.015 mrad; línea continua en negro: sin ningún tipo de error. f es la frecuencia espacial normalizada a la frecuencia de corte del sistema limitado por difracción.

f

f

f

(a):JAP-OD

(b):JAP-OS

(c):SBV-OD

Page 113: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

92 3.3 Medida de aberraciones oculares

Fig 3.18: SNR para distintos ruidos [0.0015, 0.15, 0.03, 0.12] mrad en el canal del sensor, y error de modelado del frente. Línea discontinua: modelado correcto del frente; línea continua: modelado incorrecto del frente. Los resultados obtenidos para los distintos niveles de ruido los representamos de la siguiente forma: puntos 0.0015 mrad; cuadrados 0.015 mrad; círculo 0.03 mrad; triángulo 0.12 mrad. f es la frecuencia espacial normalizada a la frecuencia de corte del sistema limitado por difracción

(a): JAP-OD

(b): JAP-OS

(c): SBV-OD

f

f

f

SNR

SNR

SNR

Page 114: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

CAPÍTULO 4 93

CAPÍTULO 4

ABERRACIONES ÓPTICAS Y CALIDAD DE IMAGEN

En este capítulo vamos a analizar el efecto que las aberraciones ópticas tienen sobre la calidad de imagen de las cámaras de fondo de ojo. Dicho análisis lo realizaremos atendiendo a la respuesta en frecuencias del sistema, caracterizada por su función de transferencia óptica (OTF). Posteriormente relacionaremos la OTF del sistema con la posibilidad de observar ciertas estructuras. Seguidamente presentaremos una serie de dispositivos ópticos que se emplean en la actualidad para incrementar la OTF del sistema óptico: espejos deformables, pantallas de cristal líquido y láminas de fase. Presentaremos sus ventajas e inconvenientes. Finalmente expondremos la necesidad de compensar ópticamente la aberración presente en el sistema con el fin de aumentar la frecuencia de corte y por tanto la resolución del sistema óptico de observación.

Page 115: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

94 4.1. Influencia de las aberraciones en la calidad de la imagen

4.1. Influencia de las aberraciones en la calidad de la imagen En el capitulo tres ya recordamos que la OTF no es más que la autocorrelación de la función pupila.

*

2

( , ) ( , )( , )

( , )

x yx y

P x y P x df y df dxdyOTF f f

P x y dxdy

λ λ∞

−∞∞

−∞

− −= ∫

∫ (4.1)

siendo { }( , ) ( , ) exp ( , )P x y C x y i x yφ= la función pupila del sistema y ( , )x yφ su

aberración. En el caso de que el sistema este libre de aberraciones se habla de un sistema limitado por difracción cuya función de transferencia denotaremos como OTFD. Antes de continuar vamos a recordar la definición de la frecuencia de corte de un sistema óptico: fc es aquella frecuencia espacial a partir de la cual el modulo de la OTF del sistema es igual a cero [Goo68]. Así la fc de un sistema incoherente limitado por difracción viene determinada por la siguiente relación:

cDfdλ

= , donde

D es el diámetro de la pupila, λ es la longitud de onda de la radiación, y d es la distancia del plano de observación a la pupila de salida del sistema. La frecuencia de corte establece la frecuencia espacial máxima que va a estar presente en el espectro de la imagen. Frecuencias del objeto superiores a esta van a ser eliminadas por el sistema óptico. Es fácil comprobar que según la desigualdad de Schwartz, MTF ≤ MTFD [Goo68]. Así pues, las aberraciones nunca aumentarán la MTF. Hasta ahora solo hemos relacionado las aberraciones ópticas del sistema con su OTF, pero ¿ cual es su relación con la imagen?. Dicha relación se obtiene sin más que hacer la transformada de Fourier de la ecuación 3.8 presentada en el capitulo anterior:

),(),(),( yxgyxyx ffOffOTFffI = (4.2)

donde ),(),,( yxgyx ffOffI son respectivamente los espectros espaciales de la

imagen degradada y de la imagen geométrica respectivamente. Teniendo en cuenta las propiedades de la OTF y la ecuación 4.2 se comprende que en general la OTF provocará la disminución del contraste de las componentes del espectro espacial de la imagen observada a través del sistema. Más aún las

Page 116: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

4.1. Influencia de las aberraciones en la calidad de la imagen 95

aberraciones pueden provocar que la OTF tenga valores negativos en ciertas frecuencias provocando inversión de contraste. Pero incluso sin la necesidad de llegar al extremo de invertir el contraste la OTF en general contribuirá a la fase del espectro espacial de la imagen, modificando el modo en que deberían sumarse las distintas componentes espectrales de la imagen geométrica. En el caso del sistema visual humano la presencia de aberraciones tiene especial relevancia. Por una parte porque reducen la agudeza visual y la sensibilidad al contraste del sujeto [Wil00, Yoo02]. Por otra parte porque dificultan la inspección desde el exterior de estructuras anatómicas situadas en el polo posterior ocular [Lia97, Ari03]. Vamos a centrarnos ahora en esta segunda parte. En la figura 4.2 mostramos la MTF correspondiente a tres aberraciones distintas y la MTFD (curva punteada). El eje horizontal representa frecuencias normalizadas a la frecuencia de corte limitada por difracción de un ojo cuya pupila es de 6.4 mm de diámetro, focal 16.6 mm y longitud de onda de 633 nm. También mostramos la frecuencia característica normalizada de distintas estructuras oculares de interés, y de un ojo cuya pupila sea de 3 mm de diámetro. Primero observamos que la frecuencia de corte es la misma para las tres MTFs calculadas (con datos aberrométricos oculares reales). Segundo, la MTF correspondiente a los casos con aberración es inferior a la MTFD. Tercero la imposibilidad de observar conos foveales con un sistema de observación (en el que incluimos la óptica ocular) cuya pupila de salida presente un diámetro de 3mm. Más aún estructuras menores de 5 micras no serían detectables, pues la información espectral que contienen sería eliminada por el sistema óptico. De hecho atendiendo a la frecuencia de corte podemos decir que el tamaño pupilar mínimo para que se puedan observar conos (con luz de longitud de onda 633 nm) en vivo es de 4.3 mm.

Figura 4.1. Ejemplo visual de la degradación ocasionada por la aberración ocular de la imagen del mosaico de conos foveal. (a) Imagen del mosaico en ausencia de aberraciones, (b) imagen obtenida con una aberración ocular de 0.33 μm rms.

(a) (b)

Page 117: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

96 4.1. Influencia de las aberraciones en la calidad de la imagen

Por otra parte si trabajando con diámetros pupilares mayores, las estructuras de interés no puedan ser observadas, la causa hay que buscarla entre otras, en las aberraciones oculares. Es importante resaltar que la información sobre la estructura espacial de los conos está presente en el espectro de la imagen aunque oculta bajo los efectos degradadores de la aberración, y el ruido introducido en la imagen en el proceso de adquisición. Este hecho permite pensar en estrategias que compensen la aberración ocular de forma que se revele la información sobre las estructuras que se deseen observar. En el capítulo anterior ya presentamos una serie de medidas que permiten la compensación de la degradación. A continuación analizaremos más en detalle dichas estrategias. 4.2 Compensación óptica de aberraciones oculares Es bien sabido que las aberraciones oculares de primer y segundo orden son fácilmente compensables mediante el empleo de elementos ópticos sencillos, como por ejemplo lentes oftálmicas. Pero la corrección de aberraciones de alto orden presenta mayor dificultad, demandando el diseño de dispositivos más sofisticados. En los siguientes apartados vamos a describir estos elementos ópticos.

Figura 4.2: MTF correspondiente a tres aberraciones oculares distintas y MTF limitada por difracción. Las líneas rectas verticales presentan la frecuencia característica normalizada correspondiente al mosaico de conos, drusas, venas y capilares, y la frecuencia de corte limitada por difracción de una pupila de 3 mm de diámetro. Todas las frecuencias características están normalizadas a la frecuencia de corte de una pupila de 6.4 mm de diámetro, focal 16.6 mm y longitud de onda 633 nm.

f

venas (150µm)

drusas (25µm)

capilares (20µm)

fc pupila de D=3mm

conos (2.5 µm)

MTF limitada por difracción

MTFs oculares

Page 118: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

4.2 Compensación óptica de aberraciones oculares 97

4.2.1 Laminas de fase Las láminas de fase son elementos estáticos diseñados para la introducción de aberraciones de alto y/o bajo orden [Nav00]. En la actualidad su uso en el campo de la óptica oftálmica se extiende a la compensación y generación de aberraciones oculares, y el calibrado de aberrómetros [Nav00,Bur02,Rod05]. Este tipo de elementos funcionan introduciendo diferencias de camino óptico (DCO) mediante diferencias locales de grosor [Nav00]. La DCO entre las distintas partes del frente viene dada por la expresión:

( 1)DCO n z= − Δ (4.3)

donde n es el índice de refracción y zΔ es la diferencia de grosor a lo largo de la dirección de propagación del campo. Mediante la introducción controlada de diferencias en el camino óptico del haz incidente se consigue compensar la aberración de forma que a la salida del elemento, la fase del campo saliente sea lo más plana posible. El empleo de estos elementos se ha demostrado útil en la compensación de aberraciones oculares [Nav00], y para la mejora de la resolución de SLO en la observación del fondo ocular [Bur02]. Igualmente el estudio de Arines-Bará [Ari03] mostró mediante simulación que el empleo de estos elementos en conjunción con la técnica de DFWS-PC mejora los resultados proporcionados por la DFWS. En el capitulo 7 describiremos más en detalle estos elementos pues formarán parte del dispositivo experimental que emplearemos en la obtención de imágenes de alta resolución de la retina.

Figura 4.3: Interferograma de una pantalla de fase compensadora de aberraciones oculares

Page 119: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

98 4.2 Compensación óptica de aberraciones oculares

4.2.2 Espejos deformables Estos elementos se caracterizan por su capacidad de deformar la superficie espejada, lo que permite adaptar su forma a la aberración que queremos corregir, cualidad fundamental para poder realizar compensaciones dinámicas. El principio de funcionamiento es muy sencillo. La superficie del espejo se deforma para introducir ganancias/retardos en el camino óptico de las distintas partes del frente de forma que tras reflejarse el haz en la superficie espejada la onda emergente presente una fase lo más plana posible, si lo que queremos es corregir el frente incidente. Dentro de este tipo de dispositivos destacan dos tecnologías, los espejos segmentados y los de membrana. Por una parte los espejos segmentados presentan su superficie compuesta por varios espejos que pueden realizar movimientos independientes. Su principal ventaja es esa independencia de movimientos en cada segmento. Entre las desventajas se encuentran los efectos de difracción producidos por la geometría de cada espejo, y la pérdida de luz entre el espaciado existente entre ellos. Por otro lado los espejos de membrana se caracterizan porque la superficie deformable es continua. La principal desventaja de éstos es su complejo control debido precisamente a la continuidad de la superficie. Estos espejos no están afectados por los problemas de perdida de luz que se daban en los espejos segmentados. La principal ventaja de los espejos deformables es su capacidad de cambiar de forma para adaptarse a la aberración que se quiere compensar. En cuanto a sus desventajas, la principal es el limitado rango de deformación, entre 16 y 6 μm en la superficie [Dal05], lo que limita la magnitud de la aberración que se puede compensar. Otras desventajas son: su alto coste, dificultad de implementación y fragilidad. 4.2.3 Pantallas de cristal líquido Estos dispositivos al igual que las pantallas de fase o los espejos deformables introducen diferencias de camino óptico entre las distintas partes del frente. La ganancia/retardo en la diferencia de camino óptico a diferencia de los elementos presentados anteriormente, se induce por diferencias en el índice de refracción entre las distintas partes del dispositivo.

Page 120: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

4.3 Resolución, Relación Señal-Ruido y necesidad de compensación parcial 99

En general una LCD consiste en una capa delgada de moléculas de cristal liquido situada entre dos láminas transparentes donde se sitúan una serie de electrodos de forma que el dispositivo queda subdividido en un conjunto de elementos base denominados píxeles. Cada uno de estos píxeles contienen moléculas de cristal liquido orientadas paralelamente entre sí, provocando un comportamiento birrefringente. Las moléculas de cristal líquido responden a la aplicación de un campo eléctrico en los electrodos correspondientes a cada píxel rotando su orientación. De esta forma cuando a través de cada píxel pasa luz polarizada, ésta se encuentra con un índice de refracción que depende del nivel de voltaje aplicado. Mediante el control selectivo del índice de refracción de cada píxel se consigue introducir diferencias de fase entre las distintas partes del frente. Al igual que los espejos deformables la principal desventaja de estos elementos es el limitado rango de compensación que proporcionan. El retardo máximo que pueden inducir es de 2π-3π rad [Thi97, Var98, Mar01, Prie04]. Como ventajas presentan que son elementos, compactos, baratos, de bajo consumo, y alta resolución espacial [Shi02]. En la óptica oftálmica el empleo de estos elementos ha sido reducido Thi97, Var98, Prie04]. En estos trabajos se presenta el empleo de moduladores espaciales de luz de cristal líquido (LC-SLM) como una alternativa a los espejos deformables en OA, para compensación de aberraciones oculares. La principal diferencia entre estos trabajos desde un punto de vista técnico es el empleo de distintas implementaciones del LC-SLM. 4.3 Resolución, Relación Señal-Ruido y necesidad de compensación parcial En este apartado mostraremos la necesidad de incluir la relación señal ruido media de la imagen registrada en el análisis conducente a la determinación de la frecuencia de corte del sistema de observación (en el que incluimos el medio de registro de la imagen). Para este análisis emplearemos el modelo discreto de formación de imágenes que será descrito con más detalle en el siguiente capítulo (ver apartado 5.1.1).

i ho n= + (4.5)

donde i,h y o representan la imagen, la psf y el objeto respectivamente. Mientras que n es la componente de ruido aditivo gaussiano de media cero y varianza σi

2.

Page 121: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

100 4.3 Resolución, Relación Señal-Ruido y Necesidad de Compensación Parcial

Denotamos por is la imagen en ausencia de ruido. Debido a las características de del ruido n tenemos que <i>= is=ho. Realizando la transformada de Fourier de esta igualdad obtenemos:

<I(p,q)>= Is(p,q)=O(p,q)OTF(p,q) (4.6)

donde I(p,q), Is(p,q), O(p,q) y OTF(p,q) son el espectro de la imagen, de la imagen sin ruido, del objeto y la función de transferencia óptica respectivamente. Definimos la relación señal ruido de la imagen (SNRi) y la del espectro (SNRS) de la siguiente forma:

,

2 2

( , )ML

m li

i i

i m li

SNRMLσ σ

= =∑

2

( , )

( , )S

I p qSNR

N p q= (4.7)

donde m,l y p,q son coordenadas píxel en el plano imagen y plano de Fourier respectivamente, ML es el número total de píxeles, N(p,q) es el espectro del ruido,

<> indica promedio a distintas realizaciones del ruido, y indica promedio a todos los píxeles de la imagen. Para el caso considerado, de ruido aditivo gaussiano de media cero tenemos [Rog97]:

<|N(p,q)|2>=MLσi2 (4.8)

Vamos ahora a relacionar la SNRi con la SNRS. Para ello empezamos introduciendo las ecuaciones (4.6) y (4.8) en la definición de la SNRS (4.7) obteniendo:

2 22

( , )( , ) ( , ) ( , )

( , )

s

S

i i

I p qI p q O p q OTF p qSNR

ML MLN p q σ σ= = = (4.9)

Multiplicamos y dividimos por el módulo del espectro del objeto en el origen |O(0,0)| y llegamos a:

2

( , ) ( , ) (0,0)(0,0)S

i

O p q MTF p qSNR OO MLσ

= (4.10)

donde hemos tenido en cuenta que |OTF(p,q)|=MTF(p,q). Partiendo de la ec. (4.6) y dado que OTF(0,0)=1 encontramos que:

Is(0,0)=O(0,0) (4.11)

Page 122: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

4.3 Resolución, Relación Señal-Ruido y Necesidad de Compensación Parcial 101

Por otra parte, de acuerdo con la definición de la transformada de Fourier discreta, tenemos:

,

1(0,0) ( , )ML

s s

m l

I i m lML

= ∑ (4.12)

Sustituyendo (4.11) en 4(.12) y el resultado en (4.10), y teniendo en cuenta que is es real y que además is(m,l)=<i(m,l)> obtenemos:

,

( , )( , )

( , )(0,0)

ML

m lS

i

i m lO p q

SNR MTF p qO MLσ

< >

=∑

(4.13)

de forma que si introducimos en (4.12) la definición de la SNRi presentada en (4.7) obtenemos la relación que buscamos:

( , )( , )

(0,0)S i

O p qSNR MTF p q SNR

O= (4.14)

Como se puede observar podremos expresar la SNRS como el producto de dos magnitudes una que depende sólo del objeto y otra que depende del sistema de observación y detección:

( , )(0,0)S obs det

O p qSNR SNR

O −= (4.15)

donde:

( , )obs det iSNR MTF p q SNR− = ⋅ (4.16)

Así podremos emplear SNRobs-det para cuantificar de forma práctica el límite de resolución espacial alcanzable por nuestro sistema de observación [Ide92]. Así impondremos un nivel mínimo a la SNRobs-det a partir del cual consideraremos que no podemos extraer información útil de las frecuencias espaciales de la imagen. De esta forma podremos definir el límite de resolución espacial del sistema como la mayor frecuencia espacial para la que el sistema presenta una SNRobs-det mayor que un umbral establecido. En nuestro caso estableceremos como nivel de umbral SNRobs-det≥1. Empleando 4.16 y esta desigualdad obtenemos el siguiente criterio:

11 ( , )obs deti

SNR MTF p qSNR− ≥ ⇒ ≥ (4.9)

Según esta expresión la frecuencia de corte efectiva del sistema será aquella a la que la MTF del sistema corta la inversa de la relación señal ruido de la imagen. Así pues la mayor frecuencia espacial que puede ser detectada por nuestro sistema

Page 123: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

102 4.3 Resolución, Relación Señal-Ruido y Necesidad de Compensación Parcial

de observación viene determinada por el binomio SNRi vs MTF. La conclusión inmediata es la búsqueda de procedimientos que nos permitan aumentar la SNRi o la MTF del sistema óptico, de forma que éste proporcione mayor información de alta frecuencia. Dado cierto nivel de ruido en el proceso de registro de la imagen, una posibilidad que permite el aumento de la frecuencia de corte del sistema es aumentar la SNRi mediante el promedio de distintas imágenes ya que la relación señal ruido de la imagen aumenta con la raíz cuadrada del número de muestras promediadas (SNR<i>=K1/2 SNRi). En el caso de que el aumento de la SNRi no sea factible aún nos queda otra alternativa, el empleo de técnicas ópticas de compensación de aberraciones (como las descritas en el apartado anterior) que nos permitan obtener una mayor MTF. Teniendo en cuenta estas dos alternativas encontramos que para la obtención de imágenes de alta resolución en tiempo real se hace imprescindible la compensación óptica de las aberraciones del sistema ya que el promediado de imágenes reduce considerablemente la respuesta temporal del sistema. A continuación vamos a mostrar como las dos alternativas presentadas en los párrafos anteriores permiten el aumento de la frecuencia de corte efectiva del sistema. En la figura 4.6 representamos las MTFs correspondientes a dos ojos aberrados con compensación parcial de la aberración (línea con cuadrados) y sin compensación parcial (línea sin marcas). En línea continua mostramos los resultados relativos al ojo SB y en línea discontinua los correspondientes a SM. Los niveles de ruido correspondientes a distintos valores de la relación señal ruido en el canal imagen (SNRi) correspondientes a promediar distintas imágenes los presentamos en línea discontinua y los relativos a no promediar imágenes en línea continua. En vertical representamos la frecuencia característica del mosaico de conos perifoveales normalizada a la frecuencia de corte de difracción de nuestro sistema (diámetro pupilar 6.4 mm, focal 16.6 mm y longitud de onda 633 nm). Por una parte observamos en la figura como el promedio de imágenes (en esta simulación promediamos 30 imágenes) permite un aumento significativo de la frecuencia de corte del sistema. Por ejemplo, en el caso de SM sin compensación parcial de la aberración pasamos, gracias al promediado de imágenes, de una frecuencia de corte efectiva normalizada de aproximadamente 0.15 para el caso de SNRi=25 a una frecuencia de corte de 0.9 (SNR<i>=136). Vemos que el simple

Page 124: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

4.3 Resolución, Relación Señal-Ruido y Necesidad de Compensación Parcial 103

hecho de promediar 30 imágenes va a hacer posible la identificación del mosaico de conos, mientras que sin el promediado de imágenes el nivel de ruido presente en la imagen es tal que enmascara la información en frecuencias correspondiente a esta estructura retiniana. Por otra parte se observa un incremento en la frecuencia de corte efectiva del sistema al realizar la compensación parcial de la aberración, dependiendo éste del grado de corrección alcanzado. Como ejemplo de la eficacia de la compensación parcial a la hora de aumentar la frecuencia de corte efectiva del sistema, observamos en la figura 4.6 como en el caso de SB pasamos de una frecuencia de corte efectiva de aproximadamente 0.20 a una frecuencia de corte efectiva de 0.7 para una SNRi=25. El empleo del elemento compensador de aberración va a permitir la observación del mosaico de conos utilizando una única imagen al aumentar la frecuencia de corte efectiva del sistema por encima de la frecuencia característica de dicha estructura. En resumen hemos mostrado como la resolución y por tanto la frecuencia de corte efectiva del sistema, viene determinada por la relación entre la relación señal ruido

0 0.2 0.4 0.6 0.810-3

10-2

10-1

100

3330 ==kISNR

6630 ==kISNR

13630 ==kISNR

27530 ==kISNR

61 ==kISNR

121 ==kISNR

501 ==kISNR

251 ==kISNR

f Fig 4.6: MTFs correspondientes a dos ojos aberrados con compensación parcial de la aberración (línea con cuadrados, y círculos) y sin compensación parcial (línea sin marcas). En línea continua mostramos los resultados relativos al ojo SB y en línea discontinua los correspondientes a SM. La línea vertical muestra la frecuencia característica de conos no perifoveales de 5 μm de tamaño

Page 125: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

104 4.3 Resolución, Relación Señal-Ruido y Necesidad de Compensación Parcial

en la imagen y la MTF del sistema óptico. Hemos comprobado la idoneidad del promediado de imágenes y compensación parcial de la aberración por medios ópticos para la mejora de la resolución espacial del sistema. En el capítulo 6 mostraremos como la compensación parcial de la aberración ocular abre la posibilidad de emplear la técnica de deconvolución tras medida del frente de onda para la obtención de imágenes de alta resolución del fondo de ojo empleando una única imagen, eliminando la necesidad de adquirir o promediar un número elevado de ellas.

Page 126: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

CAPÍTULO 5 105

CAPÍTULO 5

TÉCNICA DE DECONVOLUCIÓN

En este capítulo vamos a describir en que consiste la técnica de deconvolución en el marco de la restauración de imágenes. Presentaremos la obtención de distintos filtros de restauración en función del criterio de optimización elegido. Posteriormente mostraremos la importancia de la elección del filtro de restauración. Finalmente particularizaremos la descripción centrándonos en la técnica propuesta en este trabajo, la deconvolución tras medida de frente de onda post corrección parcial (DWFS-PC en inglés “Deconvolution from wavefront sensing with partial compensation”).

Page 127: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

106 5.1 Deconvolución de imágenes

5.1 Deconvolución de imágenes Consideramos como restauración de imagen todo proceso cuyo fin sea reconstruir o recuperar una imagen degradada a partir de la información disponible sobre el proceso de degradación, de forma que la imagen restaurada cumpla un criterio preestablecido [Gon96]. Es importante resaltar dos palabras de la frase anterior: “información” y “criterio”. Necesitamos información sobre el proceso de degradación, obtenida por ejemplo a partir de medidas realizadas sobre la función de degradación, o el establecimiento de un modelo que nos permita describir dicha función. Y por otra parte, tenemos que imponer un criterio de restauración del cual va a depender la imagen restaurada. En el caso de la técnica de deconvolución trataremos, como su nombre indica, de deshacer los efectos degradadores que provoca la convolución de la imagen geométrica con la PSF del sistema formador de imagen. De esta afirmación se deduce que esta técnica se aplica en el marco de los sistemas lineales invariantes al desplazamiento, marco en el que nos moveremos. Dentro de las técnicas que emplean deconvolución, según la información que manejen para realizar la restauración, hablaremos de: deconvolución, deconvolución basada en medidas del frente de onda (DWFS del inglés Deconvolution from wavefront sensing); y deconvolución ciega (BD del inglés “Blind Deconvolution”) entre otras técnicas. La técnica de deconvolución emplea modelos fiables sobre el proceso de degradación, para realizar la restauración de la imagen. Fenómenos típicamente modelados son entre otros: la degradación por movimiento, por desenfoque y por turbulencia atmosférica en exposiciones de larga duración. [Mei86, Bie99]. La deconvolución basada en medidas del frente de onda (DWFS) usa la información sobre la aberración existente en el sistema en el instante en el que se produce la adquisición de la imagen, proporcionada por un sensor de frente de onda. Esta técnica se desarrollo y aplicó inicialmente en el campo de la astronomía de ahí que casi todos los trabajos que involucran esta técnica de restauración tengan que ver con imágenes observadas a través de turbulencia atmosférica [Fon85, Prim90, Gon90, Rog96, Con96, For98, Con98]. En el campo de la óptica oftálmica también se ha empleado recientemente con resultados dispares [Igl00, Cat02, Ari03]. Esta técnica, complementada con la compensación óptica parcial de

Page 128: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

5.1 Deconvolución de imágenes 107

las aberraciones oculares, es la que emplearemos en este trabajo y por ello la describiremos más en detalle en el apartado 5.3. Finalmente la Deconvolución Ciega, BD, consiste en estimar tanto la PSF del sistema como la imagen geométrica no degradada a partir de la imagen degradada y ciertas ligaduras que se imponen tanto a la imagen como a la función de degradación. Entre las ligaduras más empleadas destacamos la positividad de la imagen y de la PSF, y la restricción del objeto a una región determinada de la imagen. Esta técnica se implementa de forma iterativa imponiendo ligaduras tanto en el plano imagen como en el plano transformado, con lo que presentará los problemas típicos de los métodos iterativos: estancamiento en mínimos locales y problemas de convergencia [Aye88, Fie86, Fie86, Sch93]. En cuanto al criterio de minimización que se escoja obtendremos distintos filtros de restauración. Así hablaremos de filtros de restauración de: mínimos cuadrados, mínima varianza, mínimos cuadrados con ligaduras..., y dentro de cada una de estas categorías tendremos distintos filtros según cual sea la magnitud que se pretenda minimizar [Lie67, Mei86, Dem89, Bie90, Bil94, Gon96, Ari00b,]. A continuación vamos a presentar el proceso de obtención de una serie de filtros de restauración empleados en el marco de la técnica de DWFS. Primero presentaremos el modelo de formación de imagen que emplearemos y posteriormente iremos obteniendo cada uno de los filtros correspondientes a los distintos criterios de minimización escogidos. 5.1.1 Obtención del filtro de restauración Como mencionamos en los párrafos anteriores la técnica de deconvolución se aplica en el marco de los sistemas lineales invariantes al desplazamiento. Dentro de este marco el proceso de formación de imagen viene descrito por:

22( , ) ( , ) ( , )gi x y K x y o d dξ η ξ η ξ η∞

= − −∫∫ (5.1)

donde ( , ), ( , ), ( , )gi x y K x y o ξ η son la imagen, la respuesta de impulso del sistema y

la imagen geométrica del objeto. La restauración de imágenes es un proceso que se realiza a nivel computacional, esto indica que las imágenes que se van a manipular no van a ser continuas, sino que van a estar discretizadas en una serie de píxeles. Debido a esto se hace necesario desarrollar un modelo discreto del proceso de formación de imagen.

Page 129: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

108 5.1 Deconvolución de imágenes

Nosotros escogemos para este trabajo el modelo tradicional, aunque existen muchos otros [Mei86].

nhoi += (5.2)

donde i,o,h, y n son matrices extendidas que representan la imagen, la imagen geométrica u objeto, la PSF del sistema, y la componente de ruido, respectivamente. La dimensión de estas matrices es MNx1 exceptuando h que es de dimensiones MNxMN. Considerando que originalmente el tamaño de o es AxB y el de h CxD, y la extensión de las matrices se realiza añadiendo ceros hasta que alcanzan el tamaño MxN y MNxMN respectivamente, M y N vienen definidos por la relación M≥A+B-1 y N≥C+D-1. En este trabajo consideraremos M=N. Haciendo la transformada de Fourier de la expresión (5.2) obtenemos la expresión del modelo de formación de imagen discreto en el plano de Fourier, donde el producto en el plano de Fourier es elemento a elemento (producto tipo Hadamard):

NHOI += (5.3)

donde I,O,N, y H son las transformadas de Fourier de la imagen, el objeto, el ruido, y la función de transferencia del sistema, siendo todas estas variables de dimensiones MxN. El paso de la expresión 5.2 a la 5.3 se sustenta en que cuando el proceso de formación de imagen es lineal e isoplanático la matriz h es Toeplitz por bloques [Bie90] (que a su vez son matrices Toeplitz), aunque para operar se considera que es una matriz circulante por bloques circulantes [Bie90]. Y los autovectores de este tipo de matrices corresponden con el núcleo de la transformada de Fourier bidimensional discreta de forma que si expandimos la igualdad 5.2 en función de los autovectores de h pasamos del plano imagen con productos matriciales al plano transformado donde los productos matriciales son elemento a elemento (producto tipo Hadamard). Más detalles sobre el paso de 5.2 a 5.3 se pueden encontrar en [Gon96, Bie90]. El proceso de obtención del filtro restaurador lo haremos basándonos en procesos típicos de la estimación lineal [Lie67]. Así trataremos de obtener una estimación de la imagen geométrica o tal que minimice un criterio predefinido. Nos centraremos

en la estimación por mínimos cuadrados sin ligaduras. El caso más sencillo consiste en estimar o tal que cumpla el siguiente criterio:

Page 130: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

5.1 Deconvolución de imágenes 109

{ }22 ˆmin -n i ho= (5.4)

donde representa la norma del vector ( nnn T=2 ). La solución de la expresión

(5.4) es el conocido Filtro Inverso [Gon96]:

iho 1ˆ −= (5.5)

que en el plano de Fourier se expresa como:

HIO =ˆ (5.6)

donde O , I, y H representan el espectro de la imagen estimada, el espectro de la

imagen degradada y la OTF del sistema. Si introducimos (5.3) en (5.6) obtenemos:

ˆ NO OH

= + (5.7)

A pesar de su sencillez, el filtro inverso no es adecuado para realizar la restauración de imágenes en presencia de ruido que afecte a la imagen degradada. En particular, como se puede argumentar a tenor de la expresión (5.7), aquellas zonas del espectro de la imagen estimada donde H presente valores próximos o inferiores a la correspondiente componente del espectro del ruido van a encontrarse enmascaradas por la amplificación de la componente espectral del ruido, provocando la aparición de artefactos en la imagen estimada. Así que se necesita buscar otros filtros que sean menos sensibles al ruido. A continuación vamos a presentar una serie de filtros obtenidos a partir de distintos criterios de minimización diseñados para tolerar mejor el ruido y que son normalmente empleados en restauración de imágenes degradadas por turbulencias atmosféricas, y en la restauración de imágenes del fondo de ojo degradadas por la aberración óptica ocular. 5.1.1.1 Filtro de Wiener Empezamos con el filtro de Wiener (FW), quizá el más conocido de todos los filtros de restauración [Gon96]. Este filtro busca minimizar la diferencia cuadrática media entre la imagen geométrica estimada y la imagen geométrica real, para cada imagen registrada.

{ }2ˆmin o o− (5.8)

Page 131: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

110 5.1 1.1 Filtro de Wiener

donde lio =ˆ , l es la PSF de restauración y indica promedio a distintas

realizaciones del ruido. En virtud del teorema de Parseval podemos rescribir la condición anterior (5.8) en el plano de Fourier obteniendo:

{ }2ˆmin O O− (5.9)

donde LIO =ˆ (5.10)

siendo L el filtro de restauración. Sustituyendo en (5.9) las expresiones (5.10) y (5.3), derivando la expresión resultante respecto a L, e igualando a cero obtenemos la expresión del filtro de restauración que minimiza (5.9) [Gon96].

o

nS

SH

HL+

=∗

2

(5.11)

donde * representa el complejo conjugado, Sn=<|N|2> y So=|O|2 representan el espectro de potencias del ruido y de la imagen geométrica respectivamente. Para obtener la imagen restaurada o , en principio sólo tenemos que sustituir (5.11) en

(5.10) y hacer la transformada de Fourier inversa. Como pretendíamos con el criterio de minimización empleado, este filtro de restauración es menos susceptible al ruido que el filtro inverso presentado anteriormente. La presencia en el denominador del cociente entre los espectros de potencias del ruido y de la imagen geométrica, aumenta el valor del denominador con lo que la amplificación de la componente de ruido va a ser menor que en el caso del filtro inverso. Una práctica habitual en relación con el filtro de Wiener es sustituir el cociente entre los espectros de potencias por un factor constante que se determina normalmente por ensayo-error y que se denomina parámetro de regularización. La razón de esta sustitución es que normalmente se desconoce el espectro de potencia del objeto. Hasta ahora hemos analizado el caso en el que queramos restaurar una única imagen. ¿Pero que pasa si disponemos de más de una imagen degradada? En el caso de que entre una imagen y otra sólo cambie su componente de ruido el procedimiento normal es promediar las imágenes antes de restaurarlas con el fin de trabajar con una única imagen aunque de mayor relación señal ruido que las imágenes individuales. Otra opción sería restaurar cada una de las imágenes individuales y posteriormente promediarlas para obtener una única imagen restaurada.

Page 132: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

5.1.1.2 Filtro Regresivo 111

Pero en el caso de que entre una muestra y otra no solo cambie el ruido de la imagen sino que también cambie la función de degradación, el procedimiento a seguir es distinto. Ejemplos claros en los que la función de degradación cambia entre muestras son, la obtención de imágenes a través de la atmósfera y la toma de imágenes del fondo de ojo obtenidas a través de la aberración óptica ocular. 5.1.1.2 Filtro Regresivo Supongamos que tenemos una serie de pares de imágenes degradadas y medidas del frente de onda (o estimaciones de la función de degradación). En este caso una posible opción es minimizar:

2

1

ˆminK

j jj

I I=

⎧ ⎫⎪ ⎪−⎨ ⎬⎪ ⎪⎩ ⎭∑ (5.12)

donde OHI jjˆˆ = (5.13)

siendo Hj la j-esima OTF y O el espectro del objeto estimado que queremos

calcular, j indica j-ésima muestra, K es el número de muestras, jI y ˆjI son los

espectros de la j-ésima imagen adquirida e imagen estimada a partir O

respectivamente.

Para encontrar el valor de O que minimiza (5.12) tenemos que resolver:

0ˆˆ

2

1=⎟

⎟⎠

⎞⎜⎜⎝

⎛−∑

=

K

jjj OHI

Odd (5.14)

cuya solución es [War91]:

=

=

= K

jj

K

jjj

H

IHO

1

2

1ˆ (5.15)

De esta forma obtenemos una única estimación de la imagen geométrica a partir de la información recogida en todas las muestras analizadas. La expresión (5.15) presenta una limitación a la hora de ser implementada. Ésta consiste en las posibles divisiones por cero que se puedan producir. Sin embargo este problema se subsanar fácilmente añadiéndole un término constante al denominador, cuyo valor se determina por ensayo-error en la mayoría de las veces.

Page 133: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

112 5.1 1.3 Filtro Vectorial de Wiener

Este procedimiento para obtener la imagen restaurada es el que se empleo por ejemplo en el trabajo de Primot et.al. [Prim90] en el campo de la astronomía, y en los trabajos de Catlin e Iglesias [Igl00, Cat02] en relación con la obtención de imágenes de alta resolución del mosaico de conos de la retina. 5.1.1.3 Filtro vectorial de Wiener Finalmente la última opción estudiada consiste en minimizar el error cuadrático medio, extendido a todas las muestras, entre el objeto estimado y el objeto geométrico [Shi92]. Este criterio se expresa como:

{ }2ˆmin O O− (5.16)

donde

1

1ˆK

j jj

O L IK

=

= ∑ (5.17)

Una vez más, sustituimos (5.17) en (5.16) y minimizamos la expresión resultante respecto a Lj obteniendo los siguientes filtros de restauración para j=1...K.

2

1

1j

j K

nj

oj

HL

SH SK

=

=

+∑ (5.18)

De esta forma el espectro de la imagen estimada se obtiene como [Shi92]:

1

2

1

ˆ

K

j jj

j K

nj

oj

H I

OSH K S

=

=

=

+

∑ (5.19)

Este filtro es muy parecido al filtro Regresivo. La única diferencia esta en el término presente en el denominador que introduce información sobre el espectro de potencias del ruido y de la imagen geométrica. Este filtro también ha sido propuesto y empleado en el ámbito de la restauración de imágenes obtenidas a través de turbulencias atmosféricas [Gon90, Shi92, For98, Ari00b], y la restauración de imágenes del fondo de ojo, [Ari03]. El análisis que presentamos lo realizamos considerando que la función de transferencia del sistema , H, era conocida. Sin embargo en la práctica habitual esto no es así sino que a la hora de realizar la restauración de la imagen se emplea

Page 134: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

5.2 Importancia de la elección del filtro de restauración 113

la función de transferencia modelada o estimada (en el caso que se disponga de un sensor de frente de onda que permita su estimación). Los tres filtros de restauración presentados en este apartado presentan una característica común, todos sobreestiman o atenúan ciertas componentes del espectro de la imagen restaurada, induciendo errores en la estimación de la imagen. Esta restauración inadecuada de ciertas frecuencias espaciales se debe a que ni la OTF estimada a partir de las medidas del sensor de frente de onda representa fielmente la realidad, (como se mostró el capitulo 3), ni tampoco el espectro de potencias del objeto empleado en la construcción del filtro. Más concretamente el hecho de reconstruir el frente de onda con un número finito de polinomios de Zernike a partir de medidas afectadas por ruido provoca que la aberración de onda existente en el sistema y la estimada por el sensor presenten distintas propiedades estadísticas [Rog94B]. Una forma de eliminar este sesgo en el campo de la astronomía consiste en emplear una estrella próxima al campo estelar observado, de forma que se encuentre dentro del ángulo isoplanático del sistema, con el fin de obtener directamente la PSF instantánea del sistema y a partir de ella obtener una estimación de la OTF. De esta forma las propiedades de correlación de la fase real y la estimada serían aproximadamente iguales, y el sesgo en la restauración sería razonablemente eliminado [Rog94B]. Este proceso presenta ciertas limitaciones en su aplicación a la restauración de imágenes degradadas por la óptica ocular, debido a la dificultad de generar “estrellas de referencia” en el fondo ocular por la degradación sufrida por el haz incidente al entrar en el ojo en dirección a la retina.. A pesar de esta limitación el empleo de la técnica de DWFS permite la restauración de las imágenes de fondo de ojo aumentado la calidad visual de las mismas, como se verá en los siguientes capítulos. 5.2 Importancia de la elección del filtro de restauración Hemos comprobado la gran variedad de opciones existentes a la hora de escoger un filtro de restauración. Hemos mostrado que cada uno de los filtros es óptimo en un cierto sentido. Vamos ahora a mostrar la importancia que tiene la elección de un determinado filtro de restauración respecto a la calidad de la imagen restaurada. Para ello, como ejemplo, vamos a emplear una serie de resultados que obtuvimos al analizar este problema en relación con la restauración de imágenes degradadas por turbulencias atmosféricas mediante la técnica de DWFS. Vamos a comparar la

Page 135: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

114 5.2 Importancia de la elección del filtro de restauración

calidad de la imagen restaurada por cada uno de los tres filtros presentados en el apartado anterior. Para ello empleamos un simulador de sistemas astronómicos de deconvolución tras medida del frente de onda. Así simulamos un telescopio de 2 m de diámetro y 84 m de focal operando con una longitud de onda λ=0.5 micras. El sensor implementado es un Hartmann-Shack con 37 subpupilas en disposición hexagonal. Trabajaremos con dos tipos de imagen: una imagen de una estrella doble con una relación de brillo entre componentes de 2:1 y una separación angular de 0.28 arcsec: y una imagen de un objeto extenso que consiste en un sector de la nebulosa de Orión, M42 reescalada para ocupar 2.17x2.17 arcsec. Ambas imágenes ocupan 128x128 píxeles. Más detalles sobre la simulación se pueden encontrar en la referencia [Ari00b]. Con el fin de poder cuantificar la mejora introducida por los filtros analizados empleamos el siguiente factor de calidad, que nos indica la ganancia, en dB, del proceso de restauración. Ésta ganancia nos indica cuanto más se parece al objeto real el objeto estimado que la imagen degradada:

2

210 logˆ

o iG

o o

⎡ ⎤−= ⎢ ⎥

−⎢ ⎥⎣ ⎦

(5.20)

La comparación entre los distintos filtros la realizamos para dos niveles de flujo fotónico en el canal del sensor HS: flujo fotónico infinito (sin ruido fotónico); y flujo fotónico de 75 fotones por microlente y muestra. Escogimos 75 fotones porque flujos próximos a 100 fotones y mayores, hacen que el efecto del ruido fotónico sobre las medidas del sensor sea despreciable. En el canal imagen siempre consideramos el mismo flujo fotónico, igual a 1869 fotones por imagen. También analizamos la influencia de la severidad de la turbulencia atmosférica. Para ello generamos conjuntos de frentes con distintos parámetros de Fried (magnitud que especifica el diámetro de la región del frente en la que este presenta cierto grado de coherencia mutua [Rog96]). Los valores del parámetro de Fried que empleamos fueron r0=[0.4,0.2,0.1] m. Visualmente la ganancia obtenida con la restauración se aprecia notablemente. En las figuras 5.1 y 5.2 mostramos las imágenes originales, degradadas y restauradas por los tres métodos en las siguientes condiciones: flujo fotónico en el sensor 75 fotones; y r0=0.1 m para la fig. 5.1 y r0=0.2 m para fig. 5.2. Se puede observar que los filtros regresivo y vectorial de Wiener proporcionan un resultado similar entre sí, muy superior al obtenido con el filtro de Wiener tradicional.

Page 136: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

5.2 Importancia de la elección del filtro de restauración 115

Como pretendíamos mostrar, es importante la elección del filtro que se utilice para restaurar las imágenes, pues de él va a depender la restauración o no de estructuras de alta frecuencia presentes en la imagen, que sean relevantes para la aplicación en la que se enmarca el proceso de restauración. En los ejemplos que presentamos la elección del filtro va a permitir o no, discernir la presencia de dos estrellas y cuantificar su separación en la fig. 5.1, y por otra parte, determinar el número de estrellas existentes en el campo estelar analizado en la fig. 5.2.

Figura 5.1: Restauración de la imagen de una estrella binaria (cocientes de brillo 2:1, separación 0.28 arcsec) mediante el filtro de Wiener, el filtro Regresivo, y el filtro Vectorial de Wiener.

Original Degradada larga

exposición

Filtro Wiener Filtro Regresivo Filtro Vectorial

de Wiener

Page 137: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

116 5.2 Importancia de la elección del filtro de restauración

Figura 5.2: Restauración de un objeto extenso (2.17 arcsec): a) Imagen limita por difracción; b) Imagen degradada de larga exposición; c) Imagen restaurada mediante el filtro de Wiener d) Imagen restaurada con el filtro vectorial de Wiener, e) Imagen restaurada con Filtro Regresivo.

d) e)

a)

b)

c)

Page 138: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

5.3 Deconvolución basada en DWFS-PC 117

5.3 Deconvolución basada en medida del frente de onda con compensación parcial: DWFS-PC En el principio de este capítulo ya avanzamos en que consisten las técnicas basadas en la deconvolución de imagen. En este apartado vamos a describir en más detalle la técnica en la que basaremos el proceso de restauración de las imágenes que obtengamos del fondo de ojo. Como su nombre indica la técnica de DWFS-PC se fundamenta en restaurar la imagen obtenida a partir de la información que se obtiene de la función de degradación mediante un sensor de frente de onda que determina la aberración óptica del sistema en el momento de adquirir la imagen, tras corregir parcialmente la aberración ocular mediante un elemento óptico compensador de fase. Es fácil comprender entonces que para implementar esta técnica se necesita emplear un instrumento óptico que por lo menos presente dos canales diferentes: el canal imagen, y el canal del sensor. En la figura 5.3 mostramos un diagrama de bloques en el que se muestran los pasos involucrados en la implementación de la técnica de DFWS-PC. El primer paso consiste en introducir el elemento compensador de aberraciones. Seguidamente se adquieren y almacenan simultáneamente las imágenes correspondientes al canal imagen y al canal del sensor. A continuación se estima el frente de onda existente sobre la pupila de salida del canal imagen a partir de las medidas del sensor, y se calcula la OTF. Posteriormente se introduce la OTF en el filtro de restauración escogido, y finalmente se aplica el filtro de restauración sobre el espectro de la imagen degradada. Vamos ahora a describir las particularidades relativas a cada uno de los bloques. Los conceptos presentados en los capítulos y apartados anteriores han servido para fundamentar las distintas elecciones que hemos realizado y que han derivado en el procedimiento global que presentamos a continuación.

Fig. 5.3: Diagrama de bloques de un sistema DWFS-PC.

OJO LÁMINACOMPENSADORA

SENSORHARTMANN-SHACK

IMAGENFONDO DE OJO RESTAURACIÓN

Page 139: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

118 5.3 Deconvolución basada en DWFS-PC

5.3.1 Canal de imagen De la imagen que obtendremos de la retina seleccionaremos una región mediante la siguiente hipergaussiana:

14

2 2

2 2

( ) ( )( , ) exp o o

x y

x x y ymascara x y

σ σ

⎧ ⎫⎛ ⎞− + −⎪ ⎪⎜ ⎟= −⎨ ⎬⎜ ⎟+⎪ ⎪⎝ ⎠⎩ ⎭

(5.21)

donde xo y yo son las coordenadas del centro de la hipergaussiana y σx2 y σy

2 corresponden con el ancho de la hipergaussiana en las direcciones X e Y. El fin de emplear una máscara de este tipo es poder seleccionar una región de la imagen pero con una transición relativamente suave entre la zona de interés y el resto de la matriz de soporte. De esta forma la transformada de Fourier de la máscara va a ser prácticamente una delta de Dirac de forma que su convolución con el espectro del objeto prácticamente no va a alterar este último. Antes de repartir la señal luminosa procedente del ojo entre el canal imagen y el del sensor, introduciremos, en un plano conjugado con la pupila del ojo, una lámina de fase que compensa parcialmente la aberración ocular. El empleo de este elemento permite aumentar la OTF con lo que el proceso de deconvolución mejorará sus resultados. Los detalles sobre el diseño y fabricación de este elemento serán presentados en el capitulo 7. 5.3.2 Canal del sensor En cuanto al sensor trabajaremos con un sensor Hartmann-Shack construido por nosotros. Las particularidades de su implementación se describirán en el capitulo 7. En este apartado queremos resaltar los procedimientos generales relacionados con el procesado de los datos del sensor :

• La matriz de reconstrucción de coeficientes modales la construiremos modelando las medidas como el promedio del gradiente de la fase existente sobre cada microlente del sensor. Supondremos que la distribución de irradiancia del frente sobre cada microlente es constante, descartando posibles no uniformidades, o el hecho de que las microlentes del borde se encuentren parcialmente iluminadas.

• Describiremos la fase como combinación lineal de polinomios de Zernike. • Estimaremos los primeros 35 polinomios de Zernike (excluido el “piston”).

Page 140: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

5.3 Deconvolución basada en DWFS-PC 119

• Para la fabricación de la lámina compensadora de fase realizaremos la estimación de los coeficientes respecto a un sistema de coordenadas solidario con la pupila del ojo, lo que implica determinar la posición de la pupila en cada instante de medida.

• Cuando la estimación de la aberración sea para restaurar la imagen, la estimación de los coeficientes modales se realizará respecto al sistema de referencia marcado por el eje óptico del instrumento.

• La estimación de los coeficientes modales será una estimación lineal basada en mínimos cuadrados sin ligaduras.

5.3.3 Cómputo de la OTF Como indicamos en el capitulo 3, la OTF no es más que la autocorrelación de la función pupila normalizada a su valor máximo. [Goo68].

*

2

( , ) ( , )( , )

( , )

x yx y

P x y P x df y df dxdyOTF f f

P x y dxdy

λ λ∞

−∞∞

−∞

− −= ∫

∫ (5.22)

donde la función pupila viene determinada por:

1

( , ) ( , ) exp ( , )N

j jj

P x y C x y i a Z x y=

⎧ ⎫= ⎨ ⎬

⎩ ⎭∑ (5.23)

La ˆOTF se obtiene sin más que sustituir los coeficientes reales ia por los

estimados ˆia en las expresiones anteriores.

Ahora vamos a pensar en el plano discreto. En este plano el recinto sobre el que se extiende la función pupila de salida se representa como un círculo de unos sobre una malla de ceros. ¿Pero, cuántos píxeles de radio tiene que ocupar este recinto respecto al tamaño de la malla? ¿Qué relación existe entre el tamaño de píxel en el plano de la pupila con el tamaño en el plano imagen, sabiendo que el plano imagen es obtenido a partir de la Transformada de Fourier Discreta (DFT) de la matriz que representa la pupila?, ¿Como relacionamos la representación discreta con las magnitudes continuas? Vamos a responder ahora a todas estas preguntas. La relación entre las magnitudes discretas y continuas se obtiene fácilmente mediante la comparación de los núcleos de las correspondientes transformadas de Fourier.

Page 141: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

120 5.3 Deconvolución basada en DWFS-PC

( ) ( )

( ) ( )

1

0

11

exp 2

exp 2o

N

n

oo o

kng k g n iNx xg x g x i dx

f

π

πλ

=

Π

⎧ ⎫= −⎨ ⎬⎩ ⎭⎧ ⎫

= −⎨ ⎬⎩ ⎭

(5.24))

donde n y xo son coordenadas discreta y continua en el plano de la pupila, k y x1 son las coordenadas discreta y continua en el plano imagen, N es el número de píxeles de la función extendida y Πo hace referencia al dominio de definición de la función pupila, λ y f son la longitud de onda asociada al campo incidente y la distancia entre la pupila de salida y el plano imagen respectivamente. Comparando los núcleos de las integrales discreta y continua llegamos a:

fxx

Nkn o

λ1= (5.25)

A partir de esta expresión vamos a poder proporcionar dimensiones de longitud a los píxeles de los planos pupila e imagen. Denotaremos por m1 el tamaño del píxel en el plano imagen. De esta forma expresamos las coordenadas del plano de la CCD como un producto entre el índice del píxel por la unidad de longitud del píxel, x1=km1. Seguimos el mismo razonamiento para el plano de la pupila y obtenemos xo=nmo. Sustituyendo x1 y xo en la expresión anterior obtenemos la relación existente entre el tamaño del píxel en el plano de la pupila con su tamaño en el plano imagen.

1Nm

fmoλ

= (5.26)

A partir de las relaciones anteriores es fácil determinar el diámetro de la pupila de salida en píxeles:

1D

o

DNmDnm fλ

= = (5.27)

Llegados a este punto tenemos todas las expresiones necesarias para poder realizar la correcta descripción del sistema óptico en el plano discreto. Sin embargo un pequeño esfuerzo más nos va a proporcionar una expresión sencilla que nos va a permitir conocer como debemos muestrear la pupila para obtener un correcto muestreo del plano imagen (más de un píxel entre el máximo central y el primer mínimo de la figura de Airy). Esta relación se deduce fácilmente a partir de la expresión anterior y la del límite de resolución óptico entendido como la inversa de la frecuencia de corte [Goo68],

Page 142: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

5.3 Deconvolución basada en DWFS-PC 121

1

f qmDλρ = = (5.28)

donde q es el límite de resolución en unidades píxel. De la comparación de ambas expresiones se obtiene:

D

Nnq

= (5.29)

De esta forma comprobamos que indicando el número de muestras q que queremos tener en el máximo central de la figura de Airy, obtenemos directamente el diámetro, en píxeles, que debe tener la pupila en relación a la dimensión de la matriz sobre la que está definida (en caso de que nD no sea entero, se redondea al entero inmediatamente inferior. Para garantizar el correcto muestreo en el plano imagen, q debe ser mayor que 1 (como se indica en el teorema de Shannon), así nD debe ser igual o menor que la mitad de la dimensión de la matriz de soporte, con lo que se evita el conocido “aliasing”, o superposición de las réplicas de las componentes espectrales. 5.3.4 Filtro restaurador El filtro que emplearemos en el proceso de restauración va a ser el filtro vectorial de Wiener (FVW) en el caso de que empleemos varias imágenes, en caso contrario emplearemos el filtro de Wiener (FW). En ambos casos el cociente entre los espectros de potencia del ruido y del objeto será sustituido por un valor constante que determinaremos por ensayo-error. Adicionalmente multiplicaremos el resultado de la restauración del espectro por la OTF correspondiente al sistema limitado por difracción.

1

2

1

ˆ

K

j jj

j D Kn

joj

H IO OTF

SH S

=

=

=+

∑ (5.30)

Multiplicamos el espectro restaurado por la OTFD por dos razones. La primera de ellas es que lo que buscamos es que la imagen restaurada se parezca lo máximo posible a la imagen que obtendríamos con un sistema sin aberraciones, por tanto limitado por difracción. La segunda es porque con su uso conseguimos reducir el efecto de la amplificación inadecuada de frecuencias altas del espectro del objeto estimado, debida a la presencia de ruido en la imagen, evitando a la vex la aparición de “ringing” en la imagen restaurada debido a la transición suave entre la zona nula y no nula de la OTFD.

Page 143: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 144: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

CAPÍTULO 6 123

CAPÍTULO 6

DECONVOLUCIÓN DE

IMÁGENES DE FONDO DE OJO:

ANÁLISIS DE VIABILIDAD

En este capítulo analizaremos la viabilidad de la técnica de deconvolución tras medida de frente de onda con compensación parcial basándonos en la evaluación numérica de algunos ejemplos. En el primer apartado realizaremos la descripción del simulador. Posteriormente presentaremos el algoritmo de cálculo. Finalmente analizaremos los resultados obtenidos, para acabar con las conclusiones. Mostraremos como en los casos estudiados la técnica de deconvolución tras medida de frente de onda con compensación parcial permite la obtención de imágenes de alta resolución del fondo de ojo. Veremos la mejora inducida en el proceso de deconvolución al incluir el elemento óptico compensador de fase. Igualmente comprobaremos la posibilidad que ofrece esta técnica para obtener imágenes de alta resolución espacial en base a una sola muestra.

Page 145: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

124 6.2. Parámetros de evaluación

6.1 Descripción del simulador El simulador empleado consta de siete grandes bloques recogidos en la figura 6.1: 1) Objeto; 2) Ojo; 3) Lámina compensadora; 4) Sensor de frente de ondas; 5) Generación de imágenes degradadas; 6) Reconstrucción del frente; 7) Restauración de la imagen. Junto a los bloques que conforman el simulador hemos incluido en la fig. 6.1 las operaciones más relevantes involucradas en cada uno de ellos. Exceptuando las operaciones relacionadas con la estimación de los coeficientes modales, las matrices sobre las que construimos las distintas variables destacadas en el diagrama de flujo son matrices cuadradas de 256x256 píxeles. En la simulación tuvimos en cuenta el hecho de emplear dos fuentes luminosas distintas, emitiendo en longitudes de onda diferentes, una para la obtención de la imagen de fondo de ojo (0.550 μm), y otra para la medida de la aberración ocular (0.633 μm). A continuación vamos a proceder a la descripción detallada de cada uno de los grandes bloques destacados en la figura 6.1.

Page 146: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.2. Parámetros de evaluación 125

Fig. 6.1: Diagrama de bloques de la simulación

( )FFT

)(xP

∑=

=N

iii xZax

1

)()(ψ

1( ) ( )

NLAMINA

l i ii

x a Z xψ=

= ∑

( ){ }( ){ }

( ) exp ( ) ( )

( ) exp ( ) ( )l

l

P x i x x

P x i x x

ψ ψ

ψ ψ

+ ⊗

⊗ − +

Rm

∑=

=N

iii xZax

1)(ˆ)(ψ

{ } { })(ˆexp)()(ˆexp)( xixPxixP ψψ −⊗

( )1−FFT

( )FFT

( )( )1−FFTabs

( )LAMINAi iB a a−

OBJETO OJO

PUPILA

OTF

ESPECTRO OBJETO

ESPECTRODEGRADADO

RUIDO

IMAGEN DEGRADADA

ESPECTRO IMAGENCON RUIDO

MEDIDAS

MEDIDAS CON RUIDO

COEFICIENTESESTIMADOS

FASE ESTIMADA

FILTRORESTAURADOR

RUIDO

MATRIZ DERECONSTRUCCIÓN

IMAGEN RESTAURADA

LÁMINA COMPENSADORA

FASE RESIDUAL

GENERACIÓNABERRACIÓN ÓPTICA

OTF ES TIMADA

ESPECTRO RESTAURADO

2

7

4

6

1

5

3

+

Х

Х

Х

+

+

Page 147: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

126 6.2. Parámetros de evaluación

1) OBJETO: El objeto consiste en una sección de 0.18º de campo, discretizado en 128x128 píxeles, correspondiente a una imagen del mosaico de conos de la retina humana obtenida mediante óptica adaptativa in vivo [Lia97]. Hemos escogido este objeto porque presenta estructuras anatómicas de alta frecuencia espacial. Si mediante la técnica que proponemos somos capaces de restaurar y observar estructuras anatómicas tan pequeñas como las que presenta el objeto considerado, también podremos restaurar estructuras de mayor tamaño y por tanto menor frecuencia espacial, como por ejemplo venas y capilares. El objeto discretizado en 128x128 píxeles se representó a la hora de operar con él centrado en una matriz de 256x256 píxeles. El aumento de dimensión se realizó completando con ceros

2) OJO: Empleamos el modelo de ojo más sencillo, considerando que éste se puede representar por una lente de focal 16.6 mm más una lámina delgada que aglutina todas la aberraciones oculares, y cierta apertura que representa la pupila del ojo. Escogimos un diámetro pupilar de 6.6 mm en el primer ejemplo, mientras que en el segundo empleamos 6.4 mm. Teniendo en cuenta los parámetros empleados y la expresión 5.27, la pupila se representó con un círculo de unos de 62 píxeles de diámetro sobre una malla de ceros de 256x256 píxeles. La aberración ocular se generó con datos aberrométricos correspondientes a ojos reales. Por una parte los datos de los dos ojos empleados en la primera simulación fueron obtenidos mediante un sensor tipo LRT [Nav97, Mor00], mientras que los empleados en los tres ojos de la segunda se obtuvieron en nuestro laboratorio con el sensor HS usado en el dispositivo que emplearemos para obtener imágenes de

Figura. 6.2: Objeto empleado en las simulaciones. [Lia97]

Page 148: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.2. Parámetros de evaluación 127

alta resolución del fondo de ojo. En el segundo ejemplo empleamos datos aberrométricos de series temporales de 6 seg de duración, con un intervalo entre muestras de 0.2 seg, lo que hacen un total de 30 muestras. Todas las aberraciones se construyeron con polinomios de Zernike hasta orden 7 mediante la expresión 3.21. En ambas simulaciones se consideró que las aberraciones de primer y segundo orden se compensaron perfectamente mediante una lente oftálmica. Mientras la primera se llevó a cabo considerando la aberración ocular como una magnitud estática (debido a la carencia de datos aberrométricos temporales), la segunda si que se realizó empleando datos correspondientes a series temporales. El valor rms de las aberraciones generadas fueron los siguientes: en la primera simulación; 0.8 μm para la persona SB; y 1.3 μm para SM, y en la segunda: JAP-OD; 0.61 μm; JAP-OS: 0.33 μm ; SBV-OD: 0.51 μm. En el caso del segundo ejemplo el valor rms corresponde con el valor rms medio de todas las muestras de la serie temporal. 3) GENERACIÓN DE LA LÁMINA COMPENSADORA: En la generación de las láminas compensadoras de fase correspondientes a la primera simulación se emplearon datos aberrométricos de láminas fabricadas con el fin de corregir la aberración de SB y SM. Dichos datos se obtuvieron mediante un sensor tipo LRT, en el instituto de óptica Daza Valdés (CSIC, Madrid). La aberración residual fruto de la compensación de la aberración ocular con la pantalla de fase presentó un valor rms de 0.19 μm para SB y 0.36 μm para SM. En cuanto a la segunda simulación, la estimación de los coeficientes modales de la aberración empleada para la generación de las láminas compensadoras se llevó a cabo respecto a un sistema de coordenadas centrado sobre la pupila del ojo, de forma que anulamos el efecto de los movimientos oculares. En el capitulo 3 apartado 3.3.2.5 ya avanzamos esta forma de estimar los coeficientes. En el siguiente capitulo describiremos los algoritmos relacionados con la medida del movimiento ocular. Para el caso de JAP-OD se empleó el vector de coeficientes modales resultantes del promedio de una serie temporal de aberraciones oculares de 150 muestras y 30 segundos de duración, obtenidas con el HS desarrollado en nuestro laboratorio. El mismo procedimiento se siguió para el caso de JAP-OS. Mientras que para SBV-OD se empleó el promedio de 600 muestras correspondientes a varias series temporales de distinta duración.

Page 149: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

128 6.2. Parámetros de evaluación

Con el fin de incluir en el modelo empleado en el segundo ejemplo posibles deficiencias en la fabricación de la lámina, multiplicamos por 1.05 el vector de coeficientes empleado para su generación, induciendo así un error de un 5% en la fase generada. Tras la compensación, la aberración residual presentó el siguiente valor rms medio (promedio de los rms asociados a cada una de las muestras de la serie aberrométrica): JAP-OD: 0.12 ± 0.02 μm, JAP-OI: 0.18± 0.04 μm, SBV-OD: 0.24 ± 0.04 μm. Al igual que en el caso de la aberración ocular, la fase introducida por la lámina compensadora e construyó a partir de la expresión 3.21 donde se incluyeron únicamente polinomios de Zernike hasta orden 7. 4) SENSOR DE FRENTE DE ONDAS: En ambos ejemplos trabajamos con un sensor tipo Hartmann-Shack. En el primero los parámetros empleados fueron semejantes al sensor LRT usado para obtener los datos aberrométricos de SB y SM. Mientras que en el segundo implementamos un sensor con parámetros idénticos a los del empleado en la validación experimental de la técnica de DWFS-PC. Los datos correspondientes están recogidos en la tabla 6.1 (p. 141). Las medidas correspondientes a cada microlente se obtuvieron a partir de la expresión 3.22, considerando constante la irradiancia del campo. La componente de ruido asociada al computo del centroide la obtuvimos mediante un generador de números aleatorios según una distribución de probabilidad gausiana de media cero y desviación típica de distintas magnitudes. En la primera simulación los niveles de ruido empleados fueron σSH=[0, 0.005, 0.018, 0.054, 0.09] mrad, mientras que en la segunda σSH=[0, 0.005, 0.015, 0.046, 0.09] mrad. Para la generación de estos niveles de ruido partimos del ruido en la determinación del centroide (en unidades píxel) y posteriormente calculamos el ruido en la determinación del gradiente local de la aberración mediante la siguiente relación 1 /rad pix

SH SH m dσ σ= ⋅ donde m1 representa el

tamaño del píxel y d la distancia entre la matriz de microlentes y el plano de detección. 5) GENERACIÓN DE IMÁGENES DEGRADADAS: Para la generación de la imagen degradada seguimos el modelo de formación de imagen discreto presentado en el capítulo anterior:

Page 150: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.2. Parámetros de evaluación 129

i=ho+n (6.1)

La convolución del objeto con la PSF del sistema la realizamos en el plano de Fourier por razones de coste computacional. Para ello el primer paso consiste en realizar la transformada de Fourier del objeto. Seguidamente computamos la OTF del sistema óptico aberrado (5.22), que en un caso será la del ojo y en otro la del sistema ojo-lámina de fase. Finalmente obtenemos el espectro de la imagen degradada sin más que multiplicar la OTF correspondiente a cada caso por el espectro del objeto. Una vez tenemos el espectro degradado del objeto volvemos al espacio imagen y obtenemos la imagen degradada. Para finalizar y representar correctamente el proceso de registro añadimos la componente de ruido de lectura gaussiano no correlacionado de media cero y desviación típica de distintas magnitudes. Las relaciones señal ruido de las imágenes resultantes tuvieron los siguientes valores SNRi=[∞, 50, 25, 12, 6]. 6) RECONSTRUCCIÓN DEL FRENTE: El frente lo estimamos en base a 35 modos mediante una matriz de reconstrucción de mínimos cuadrados (ver capitulo 3 apartado 3.3.2.2) para cuya construcción empleamos el modelo de medidas descrito en la expresión 3.30, particularizada para el caso de irradiancia del campo constante. Una vez tenemos la matriz de reconstrucción los coeficientes estimados se obtuvieron empleando la expresión 3.23. 7) RESTAURACIÓN DE LA IMAGEN: Dentro del proceso de restauración vamos a comparar 4 variantes distintas: a) FW: será el proceso que emplearemos cuando queramos valorar la posibilidad de

obtener imágenes de alta resolución mediante la técnica de deconvolución con una sola imagen. El filtro que emplea esta variante es el filtro de Wiener.

b) FW-PC: consiste en una modificación del caso anterior, en el que se incluye la

lámina compensadora de fase.

Page 151: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

130 6.2. Parámetros de evaluación

c) FVW: se caracteriza por emplear el filtro Vectorial de Wiener sobre 30 pares de

muestras imagen-aberración estimada. Este filtro proporciona una única imagen de forma que no se puede emplear para valorar la utilidad de la deconvolución en aplicaciones que involucren estudios de alta resolución temporal.

d) FVW-PC: consiste en una modificación del caso anterior en el que se incluye la

pantalla compensadora de fase. En este caso el número de muestras empleadas en la restauración también será K=30.

En cuanto a la elección del parámetro de regularización en la primera simulación su valor se determinó por ensayo error hasta obtener el que proporcionó una mejor restauración. Sin embargo en la segunda simulación sustituimos el parámetro de regularización por el cuadrado de la inversa de la relación señal ruido de la imagen, de forma que adaptamos el filtro de restauración al nivel de ruido que presenta la imagen en cada uno de los casos simulados. Multiplicamos el espectro de la imagen restaurada por la OTFD con el fin de acotar su espectro sin introducir una transición abrupta lo que ocasionaría la aparición de “ringing”; y reducir la amplificación de la componente de ruido de alta frecuencia. 6.1.1 Algoritmo de la simulación: Vamos ahora a desarrollar el algoritmo utilizado. Recordamos que el objetivo de realizar estas simulaciones es valorar la utilidad de la técnica de deconvolución con compensación parcial. Dentro de esta evaluación entra la comparación de esta técnica con el caso en el que no empleemos compensación parcial. Por ello hablaremos tanto de sistema ocular como de sistema ocular-lámina de fase, para distinguir ambos casos. Los pasos seguidos para simular ambos sistemas fueron idénticos por lo que nos referiremos en general a un sistema óptico que representa los dos casos. La primera de las simulaciones se caracterizó por considerar constante la

aberración ocular, de forma que la imagen degradada sin ruido y la OTF del

sistema son las mismas para las 30 muestras; cambiando únicamente entre ellas las

Page 152: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.2. Parámetros de evaluación 131

realizaciones del ruido presente en los canales imagen y sensor, y todas las

magnitudes que se ven afectadas por estas componentes de ruido, como por

ejemplo la OTF estimada y el espectro con ruido de la imagen degradada.

Los pasos seguidos fueron los siguientes. Primero generamos la función pupila, que en un caso incluye la aberración ocular y en el otro la aberración residual resultante de la compensación con la lámina de fase. Seguidamente obtenemos la OTF del sistema; y con ella degradamos el espectro del objeto. Después calculamos la imagen degradada a la que le añadimos ruido de lectura (variable aleatoria no correlacionada entre píxeles gausiana de media cero y cierta desviación típica). A continuación generamos las medidas correspondientes al sensor de frente de onda tipo HS incluyendo su componente de ruido. Posteriormente estimamos la aberración presente en el sistema y a partir de ella la OTF estimada. Seguidamente calculamos el espectro de la imagen degradada, construimos el filtro de Wiener, y obtenemos la imagen restaurada. En cada una de las 30 iteraciones almacenamos los datos espectrales de las imágenes degradadas y de las OTFs estimadas correspondientes a cada muestra, para emplear el filtro Vectorial de Wiener una vez se termine el proceso. En cada una de las iteraciones realizadas se actualizó la componente de ruido de ambos canales (sensor e imagen). Este procedimiento lo repetimos para dos aberraciones oculares distintas (SB y SM) y una serie de combinaciones de niveles de ruido en los canales imagen y del sensor especificadas en la tabla 6.1. Como dijimos anteriormente la segunda de las simulaciones se diferencia de la primera fundamentalmente en que considera que la aberración ocular fluctúa temporalmente. Más aún, emplea datos aberrométricos oculares extraídos de series temporales adquiridas en nuestro laboratorio. Teniendo esto en mente es fácil darse cuenta que en este caso todas las magnitudes cambian entre una muestra y otra. Al cambiar la aberración ocular entre iteraciones cambian: las imágenes degradadas por la aberración ocular, la OTF del sistema, la OTF estimada, y por supuesto la imagen restaurada. El ruido añadido en cada canal también es distinto de una iteración a otra. Al igual que en la primera simulación analizamos diferentes combinaciones de niveles de ruido en el canal imagen y en el sensor (ver tabla 6.1). Este análisis lo repetimos para tres ojos distintos (JAP-OD, JAP-OS, SBV-OD), siendo el número de muestras contenido en sus correspondientes series temporales igual a 30.

Page 153: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

132 6.2. Parámetros de evaluación

CASO 1

CASO 2

OJO: Diámetro pupilar:

Focal: RMS de la aberración:

6.6 mm 16.6 mm

SB: 0.8 μm SM: 1.3 μm

6.4 mm 16.6 mm

JAP-OD: 0.61 μm JAP-OI: 0.33 μm SBV-OD: 0.51 μm

SENSOR: Nº de subpupilas:

Distribución: Diámetro subpupila:

Focal subpupila: Longitud de onda: Tamaño del píxel: Niveles de Ruido:

37

hexagonal 600 μm 50 mm 0.55 μm 9 μm

0,0.005,0.0180.054,0.09SHσ⎧ ⎫

= ⎨ ⎬⎩ ⎭

mrad

89

cuadrada 564 μm 52 mm

0.633 μm 15.8 μm

0,0.015,0.046,0.09SHσ⎧ ⎫

= ⎨ ⎬⎩ ⎭

mrad

IMAGEN: Tamaño angular:

Dimensión: SNRI:

Nº de imágenes: Longitud de onda

Parámetro de regularización:

0.18º

128x128 píxeles { },50, 25,12,6ISNR = ∞

1, 30 0.550 μm

53 10γ −= ×

0.18º

128x128 píxeles { },50, 25,12,6ISNR = ∞

1, 30 0.550 μm

21

iSNRγ =

6.2 Parámetros de evaluación Los objetivos de la simulación realizada fueron varios: 1) comprobar la posibilidad de emplear deconvolución con compensación parcial (DWFS-PC) para obtener imágenes de alta resolución espacial del fondo ocular; 2) comprobar incluso la posibilidad de hacerlo sobre una única imagen, como paso previo hacia un procedimiento en tiempo real; 3) comprobar la influencia del filtro de restauración.

Tabla 6.1: Parámetros empleados en las simulaciones.

Page 154: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.2. Parámetros de evaluación 133

Los dos primeros objetivos requieren sobre todo una valoración subjetiva, ya que en aplicaciones clínicas el hecho de que el observador discierna o no las estructuras de interés va a ser el elemento de contraste que nos indicará si la DWFS-PC es útil o no y si es aplicable o no a la observación en tiempo real. Sin embargo para poder cuantificar la mejora inducida por el empleo de compensación parcial (PC), o por el uso de un filtro restaurador (u otro) es conveniente asimismo contar con parámetros objetivos. Los parámetros que emplearemos serán los siguientes: G, parámetro de ganancia en la restauración y

OSNR relación señal ruido del objeto estimado.

Como indicamos en el capítulo 5, el parámetro G se define de la siguiente forma:

2

210logˆ

o iG

o o

⎧ ⎫−⎪ ⎪= ⎨ ⎬−⎪ ⎪⎩ ⎭

(6.1)

donde recordamos que: o es el objeto, i es la imagen degradada, y o es el objeto

estimado, o imagen restaurada. El parámetro G nos indica de forma cuantitativa el grado de mejora que presenta la imagen restaurada respecto a la imagen degradada. Por otra parte la

OSNR se define como.

ˆ 22

ˆ ( , )( , )

ˆ ˆ( , ) ( , )SNR

O

O f fu vf fu v

O f f O f fu v u v

=

(6.2)

Este parámetro nos indica la variabilidad de la estimación del espectro del objeto restaurado. Mayores ˆ ( , )u vO

SNR f f indican menor variabilidad de la estimación. Sin

embargo no nos informa de la proximidad del espectro estimado respecto al espectro real. Esa información la recibimos en este caso del parámetro G que en virtud del teorema de Parseval nos informa no sólo de la proximidad entre el objeto y el objeto estimado, sino que también de la semejanza entre sus correspondientes espectros. En términos generales, ˆ ( , )u vO

SNR f f es una medida de

precisión mientras que G lo es de exactitud.

Page 155: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

134 6.3 Resultados de la Simulación

6.3 Resultados de la simulación Una vez presentadas las simulaciones y los parámetros que empleamos para realizar su evaluación vamos a mostrar los resultados de las mismas. En ambos casos empezaremos con la comparación visual para posteriormente presentar los resultados basados en los parámetros objetivos. En ambas simulaciones empleamos el objeto que mostramos en la figura 6.2. 6.3.1 Primera Simulación: Aberración Estática Como indicamos en los capítulos anteriores y en especial en el capítulo 5, la técnica que estamos evaluando incorpora como elemento distintivo respecto a otras técnicas existentes el empleo de un elemento óptico estático que compensa gran parte de la aberración ocular. En capítulos anteriores hemos justificado, mediante el análisis de la MTF (apartado 4.3), que el empleo de compensación parcial (PC) permite aumentar la resolución espacial del sistema. En sintonía con este estudio mostramos en la figura 6.3 los beneficios del empleo de PC desde la perspectiva de mejora visual de la imagen. Como se puede observar en esta figura el empleo de compensación parcial produce un aumento de la resolución espacial que se manifiesta en la afloración de las estructuras espaciales de alta frecuencia que las aberraciones oculares mantenían ocultas. La presencia de estas estructuras en la imagen obtenida tras la compensación está supeditada a la magnitud de la aberración residual. En el caso de SB esta aberración residual es de 0.19 μm rms mientras que en caso SM es de 0.36 μm rms, prácticamente el doble de la obtenida para SB. En la figura 6.4 mostramos una serie de imágenes restauradas del mosaico de conos. En la fila superior presentamos los resultados obtenidos para SB con FVW (a), FVW-PC (c), y FVW (e), esta última generada en las mismas condiciones de

(a) (b) (d) (c)

Figura. 6.3: Imágenes degradadas por la aberración ocular para (a) SB, (b) SM; Imágenes tras compensar parcialmente la aberración ocular mediante lámina de fase para (c) SB, (d) SM.

Page 156: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 135

relación señal ruido en el canal imagen y ruido en el sensor que las empleadas en la obtención de la figura (c). En la segunda fila mostramos los resultados obtenidos para SM donde (b) fue obtenida con FVW, (d) con FVW-PC y (f) con FVW en las condiciones empleadas para la obtención de (d) Las fig. 6.4 (c)-(d) muestran como la técnica de FVW-PC permite llevar a cabo la restauración en situaciones más adversas de ruido en los canales de la imagen y del sensor que las toleradas por la técnica de FVW. En las figuras (e-f) se observa como para los niveles de ruido empleados en este caso la restauración mediante FVW es de calidad sensiblemente inferior que la de las obtenidas con FVW-PC. La diferencia entre ambos casos se debe a que el aumento de la MTF debida a la compensación parcial (ver apartado 4.3) proporciona una mayor resolución espacial al sistema que redunda en una menor amplificación inadecuada de frecuencias espaciales altas reduciéndose de esta forma la aparición de detalles espurios en la imagen restaurada. En relación con este resultado, el estudio de Catlin [Cat02] sugiere la imposibilidad de obtener imágenes de alta resolución espacial del mosaico de conos en tiempo real mediante la técnica de deconvolución debido a la baja SNRi de las imágenes degradadas, de forma que para poder realizar una restauración con garantías de éxito necesita del empleo de un mínimo de 20 imágenes (en su experimento). En el capítulo 4 comentamos que a la hora de aumentar la relación señal ruido de las

SNRI=25, σSH =0.1 pix

SB FVW

(a) SBFVW

SNRI=6 σSH =0.5 pix

(e) SBFVW-PC

SNRI=6, σSH =0.5 pix

(c)

SMFVW

SNRI=12, σSH =0.1 pix

(f ) SMFVW-PC

SNRI=12, σSH =0.1 pix

(d)SM FVW

SNRI=50, σSH =0.03 pix

(b)

Fig.6.4: Imágenes restauradas mediante FVW y la técnica híbrida FVW-PC para los sujetos SB y SM, con 30 imágenes.

Page 157: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

136 6.3 Resultados de la Simulación

imágenes degradadas una de las formas habituales de proceder consiste en promediar varias muestras (como hizo Catlin en su trabajo). Pero también avanzamos que otra opción es aumentar la MTF reduciendo las aberraciones presentes en el sistema mediante el empleo de algún dispositivo óptico que las compense. En este sentido hemos mostrado en la figura 6.4 como el empleo de la lámina de fase (LF) posibilita trabajar en condiciones de relación señal ruido (SNR) menor en los dos canales implicados en el proceso de restauración de la que se toleraría sin su uso. Continuando esta línea de pensamiento nos preguntamos que SNR podemos tolerar en los canales de la imagen y del sensor para obtener una restauración aceptable con una sola muestra, de forma que podríamos empezar a pensar en emplear la técnica de DWFS-PC para la obtención de imágenes de fondo de ojo sin necesidad de promediar varias muestras, abriendo así el paso hacia una deconvolución en tiempo real. En la figura 6.5 mostramos cualitativamente los resultados de este análisis, obtenidos con los ejemplos numéricos realizados. Tanto para SB como para SM vemos que el empleo de la LF (fig. 6.5 (c) y (d)) posibilita la observación de la estructura de conos empleando una única muestra, lo que no se consigue sin compensación (fig. 6.5 (a) y (b)). También resaltamos de nuevo la dependencia de la restauración con la SNRi de la imagen degradada y el grado de corrección obtenido mediante compensación parcial. Una vez hemos comprobado visualmente los beneficios de emplear compensación parcial, pasamos a realizar la comparación basada en parámetros cuantitativos. En la figura 6.6 mostramos en la primera columna la ganancia G, obtenida del promedio de las ganancias correspondientes a cada una de las 30 restauraciones realizadas con FW (empleando una única muestra) y en la segunda la G correspondiente al empleo del FVW (con 30 muestras), ambas para el caso de SB,

SB FW-PC

SNRI=25, σSH =0.1 pix

SM FW-PC

SNRI=50, σSH =0.03 pix

SB FW

SNRI=25, σSH=0.1 pix

SM FW

SNRI=50, σSH =0.03 pix

(a) (b) (c) (d)

Figura. 6.5: Imágenes restauradas mediante FW y FW-PC para SB y SM.

Page 158: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 137

para distintos niveles de ruido en el canal del sensor SHσ ={ 0, 0.015, 0.018,

0.054, 0.090} mrad y distintas SNRi= [∞,25,6]. En la primera fila presentamos la ganancia obtenida únicamente con el empleo de compensación parcial (PC), en la segunda empleando deconvolución (DWFS), y en la tercera deconvolución tras compensación parcial (DWFS-PC) En esta figura podemos observar que la dependencia de la ganancia con el ruido en el canal del sensor es significativa para SNRi altas y medias, mientras que para SNRi bajas la restauración se ve tan mermada que los errores en el canal del sensor apenas afectan a la calidad de la restauración hasta alcanzar niveles de ruido importantes (0.054, 0.09 mrad).

FW (K=1) FVW (K=30)

50 30 10

-10

503010

-10

50 30 10

-10

503010

-10

50 30 10

-10

503010

-10

PC

DW

FS

DW

FS-P

C

∞ 25 6

G

G

G

G

G

G

∞ 25 6

∞ 25 6 ∞ 25 6

∞ 25 6 ∞ 25 6Figura 6.6: Ganancia en la restauración empleando PC, DWFS, y DWFS-PC para FVW y FW en función de la SNRI y del ruido en el canal del sensor para SB-OD. El eje horizontal representa distintos niveles de SNRI={∞,25,,6} en el canal imagen. Los colores de las barras representan distintos niveles de ruido en el sensor de desviaciones típicas: SHσ ={ 0, 0.015, 0.046, 0.054, 0.090} mrad

Page 159: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

138 6.3 Resultados de la Simulación

También comprobamos al comparar las filas dos y tres, que el empleo de la lámina de fase conllevó un aumento de la ganancia. Más aún, para SNRi iguales a ∞ y 25 observamos que las ganancias obtenidas con FW DWFS-PC son superior y del orden ,respectivamente, a las alcanzadas con FVW DWFS. Vamos ahora a comparar la relación señal ruido del espectro del objeto estimado (SNRÔ) empleando ambos métodos. En la figura 6.7 mostramos la comparación entre FVW (línea de puntos) y FVW-PC (línea continua) para una SNRi=25 en el canal imagen y un ruido de 0.018 mrad de desviación típica en el canal del sensor. Vemos que el empleo de la lámina de fase proporciona una SNRÔ mayor. Esto no tendría especial relevancia si no fuera porque dicho aumento permite obtener una frecuencia de corte efectiva del espectro (frecuencia a la que la SNRÔ =1) de la imagen restaurada superior a la frecuencia del mosaico de conos. Esto significa que vamos a poder observar la estructura del mosaico en nuestra imagen restaurada. Por contra al no usar la pantalla de fase la frecuencia de corte de la imagen restaurada se encuentra por debajo de la del mosaico de conos con lo que no va a ser posible su observación. Es importante resaltar que SNRÔ mayores no indican necesariamente que el valor esperado del espectro de la imagen restaurada se encuentre más próximo al espectro del objeto. El filtro de restauración en general esta sesgado debido a varios factores: errores en la estimación de la fase debido a ruido en las medidas,

0.2 0.4 0.6 0.8 110-1

100

101

102

f

SNRÔ

Figura. 6.7: Relación Señal Ruido del espectro del Objeto restaurado correspondiente al caso de SB, SNRi=25, y σSH=0.1. En línea punteada mostramos la SNRÔ obtenida con FVW y en línea continua la obtenida mediante FVW-PC. La línea vertical discontinua muestra la frecuencia característica del mosaico de conos normalizada a la frecuencia de corte del sistema.

Page 160: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 139

muestreo insuficiente del frente, errores de modelado de medidas y del frente, empleo del parámetro de regularización. De esta forma el proceso de restauración mediante deconvolución introduce errores sistemáticos en la estimación del espectro del objeto, y en consecuencia algunas frecuencias del objeto sufrirán sobre/sub estimación. Sin embargo la técnica de FVW-PC, que ofrece la mejor SNRÔ, es también la menos afectada por este “bias”, como hemos comprobado en el análisis de ganancias presentado anteriormente. En aquellos casos en que fuese necesario, se podrían utilizar filtros de estimación alternativos que incluyan información adicional sobre la aberración obtenida a partir de imágenes de la PSF, como los ya usados con éxito en el campo de la astronomía [Rog94, Rog04B]. 6.3.2 Segunda Simulación: Aberración dinámica Al igual que en la sección anterior empezamos presentando la comparación visual. Recordamos que en este caso la simulación incluye el carácter fluctuante de la aberración ocular. En la figura 6.8 mostramos las imágenes degradadas promedio del mosaico de conos correspondientes a su observación a través del ojo, sin y tras compensación parcial de la aberración mediante una pantalla de fase. Estas imágenes se obtuvieron promediando las 30 imágenes degradadas correspondientes a cada una de las realizaciones de la aberración ocular.

JAP-OD JAP-OS SBV-OD

Imagen Degradada

PC

Figura 6.8: Imágenes del mosaico de conos a través de la óptica ocular sin y con empleo de PC para los ojos analizados de JAP-OD, JAP-OS, SBV-OD

Page 161: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

140 6.3 Resultados de la Simulación

En esta figura se observa que en el caso de JAP-OD el empleo de la pantalla de fase pone de manifiesto la presencia del mosaico de conos en la imagen mientras que en los otros dos casos no se puede decir lo mismo. Recordamos aquí el valor rms medio de las aberraciones residuales correspondientes a los tres casos presentados: JAP-OD: 0.12 ± 0.02 μm, JAP-OS: 0.18± 0.04 μm, SBV-OD: 0.24 ± 0.04 μm. Así, para estos ejemplos podemos establecer un límite aproximado sobre la magnitud de la aberración residual tal que permita apreciar el mosaico de conos. Ese límite está en torno a 0.12 μm rms, del orden del que presentan los instrumentos que incorporan óptica adaptativa. Este comentario tiene un valor puramente indicativo dado que el efecto visual de las aberraciones no depende sólo de su valor rms sino también de su composición detallada. Vamos a mostrar ahora en las figuras 6.9 a 6.11 los promedios de las 30 imágenes restauradas correspondientes a los distintos sujetos y combinaciones de ruido simulados. Recordamos que la restauración de las imágenes se llevó a cabo a través de cuatro variantes: 1)FW; 2) FW-PC; 3) FVW; 4) FVW-PC. Con un recuadro negro destacamos en las figuras la imagen restaurada con mayor nivel de ruido en el canal imagen, que presentando un nivel de ruido dado en el canal del sensor (igual al que presenta el sensor del que disponemos en nuestro laboratorio) posibilita la identificación del mosaico de conos. En cada una de las figuras mostramos los resultados correspondientes a un ojo distinto. En todas ellas se pueden observar una serie de características comunes:

a) La compensación parcial del frente mejora los resultados de la restauración, disminuyendo su sensibilidad al ruido presente tanto en el canal imagen como en el del sensor. b) La restauración realizada con el filtro Vectorial de Wiener es muy superior a la obtenida a partir del promedio de las imágenes restauradas con el filtro de Wiener. Esto es interesante siempre que nos encontremos con aplicaciones que no demanden alta resolución temporal. Esta superioridad se manifiesta con mayor fuerza en la comparación de las imágenes restauradas sin el empleo de la lámina de fase. Por otra parte este comportamiento era esperable si se tiene en cuenta que el filtro Vectorial de Wiener está especialmente diseñado para operar con varias imágenes (ver apartado 5.1.1.3). c) La presencia de detalles espurios en las imágenes restauradas es mayor en las obtenidas sin compensación parcial. Esto se debe a que el empleo de la

Page 162: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 141

PC proporciona un aumento de la MTF del sistema de forma que la amplificación errónea de la componente espectral del ruido es menor. d) A medida que aumentamos el ruido en el canal imagen se toleran ruidos de menor magnitud en el canal del sensor. Un proceso parejo ocurre si aumentamos el ruido en el canal del sensor, ya que se demanda una disminución del ruido en la imagen para poder permitir la restauración.

Vamos a ver ahora que sucede si realizamos la deconvolución empleando una única imagen, lo que nos posibilitará la obtención de secuencias temporales de imágenes restauradas. Mostramos así en las figuras 6.12 a 6.14 una serie de secuencias temporales de 2 seg de duración a intervalos de 0.2 seg correspondientes a las imágenes obtenidas mediante PC, FW y FW-PC. Los datos aberrométricos empleados en este análisis se corresponden con las series temporales obtenidas con el sensor desarrollado en nuestro laboratorio. En cada una de las figuras mostramos los resultados correspondientes a un ojo distinto. En la figura 6.12 analizamos el caso JAP-OD, en la fig.6.13 el caso JAP-OS, y en la fig. 6.14 el caso SBV-OD. En las tres figuras se observa un comportamiento semejante, sólo es posible visualizar el mosaico de conos empleando la técnica FW-PC. Esto quiere decir, que con los parámetros de nuestros ejemplos se hace imprescindible la compensación parcial de la aberración para poder obtener imágenes de alta resolución en tiempo real. En las distintas secuencias correspondientes a las imágenes restauradas se comprueba como hay alguna muestra en la que se observa el mosaico de conos mientras que hay otras en las que no es posible e incluso se produce la aparición de detalles espurios. Este comportamiento se debe a las fluctuaciones de la aberración ocular. En el momento en el que la aberración que presenta el sujeto es compensada por el elemento de fase la aberración residual es pequeña y se posibilita la restauración. En el resto de los casos la observación del mosaico de conos no es posible.

Page 163: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

142 6.3 Resultados de la Simulación

Figura 6.9: Serie de imágenes restauradas para el caso JAP-OD en función de los distintos niveles de ruido simulados y el método de restauración empleado.

0 0.015 0.046 0.090

50

25

12

6

σSH (mrad)

0 0.015 0.046 0.090

0 0.015 0.046 0.090 0 0.015 0.046 0.090

SNR I

50

25

12

6

SNR I

Promedio DWFS-FW Promedio DWFS-FW-PC

DWFS-FVW DWFS-FVW-PC

Page 164: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 143

Figura 6.10: Serie de imágenes restauradas para el caso JAP-OI en función de los distintos niveles de ruido simulados y el método de restauración empleado.

0 0.015 0.046 0.090

50

25

12

6

σSH /mrad)

0 0.015 0.046 0.090

0 0.015 0.046 0.090 0 0.015 0.046 0.090

SNR I

50

25

12

6

SNR I

Promedio DWFS-FW, Promedio DWFS-FW-PC

DWFS-FVW DWFS-FVW-PC

Page 165: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

144 6.3 Resultados de la Simulación

0 0.015 0.046 0.090

50

25

12

6

σSH (mrad)

0 0.015 0.046 0.090

0 0.015 0.046 0.090 0 0.015 0.046 0.090

SNR I

50

25

12

6

SNR I

Promedio DWFS-FW Promedio DWFS-FW-PC

DWFS-FVW DWFS-FVW-PC

Figura 6.11: Serie de imágenes restauradas para el caso SAB-OD en función de los distintos niveles de ruido simulados y el método de restauración empleado.

Page 166: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 145

F

igur

a 6

.12:

Ser

ies

tem

pora

les

de la

aber

raci

ón o

cula

r de

JA

P-O

D,

de 2

seg

undo

s de

dur

ació

n c

on m

uest

ras

espa

ciad

as 0

.2 s

, co

rres

pond

ient

es a

las

sim

ágen

es d

egra

dada

s po

r la

ópt

ica

ocul

ar, im

ágen

es o

bten

idas

em

plea

ndo

la lám

ina

com

pens

ador

a de

fas

e, e

im

ágen

es r

esta

urad

as m

edia

nte

las

técn

icas

de F

W y

FW

-PC

. σ S

H=

0.04

6 m

rad.

t=6

s

Im. Deg. PC FW FW-PC

t=4

s

Page 167: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

146 6.3 Resultados de la Simulación

t=6

s

Im. Deg. PC FW FW-PC

t=4

s

Fig

ura

6.1

2: S

erie

s te

mpo

rale

s de

la

aber

raci

ón o

cula

r de

JA

P-O

S, d

e 2

segu

ndos

de

dura

ción

co

n m

uest

ras

espa

ciad

as 0

.2 s

, co

rres

pond

ient

es a

las

sim

ágen

es d

egra

dada

s po

r la

ópt

ica

ocul

ar, im

ágen

es o

bten

idas

em

plea

ndo

la lám

ina

com

pens

ador

a de

fas

e, e

im

ágen

es r

esta

urad

as m

edia

nte

las

técn

icas

de F

W y

FW

-PC

. σ S

H=

0.04

6 m

rad.

Page 168: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 147

Fig

ura

6.1

2: S

erie

s te

mpo

rale

s de

la

aber

raci

ón o

cula

r de

SB

V-O

D,

de 2

seg

undo

s de

dur

ació

n c

on m

uest

ras

espa

ciad

as 0

.2 s

, co

rres

pond

ient

es a

las

sim

ágen

es d

egra

dada

s po

r la

ópt

ica

ocul

ar,

imág

enes

obt

enid

as e

mpl

eand

o la

lám

ina

com

pens

ador

a de

fas

e, e

im

ágen

es r

esta

urad

as m

edia

nte

las

técn

icas

de

FW

y F

W-P

C. σ S

H=

0.04

6 m

rad.

t=6

s

Im. Deg. PC FW FW-PC

t=4

s

Page 169: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

148 6.3 Resultados de la Simulación

Hasta aquí se analizó la técnica desarrollada mediante la visualización de las imágenes restauradas. Vamos a continuación a realizar el análisis cuantitativo. Empezaremos estudiando la ganancia obtenida con el proceso de restauración En la figura 6.15 mostramos la ganancia G obtenida con el proceso de restauración. En aquellos casos en los que se empleó el filtro de Wiener, FW, (y por tanto la restauración se realizó empleando una única muestra) G representa el promedio de las ganancias obtenidas en la restauración individual de cada una de las 30 imágenes. Para una mayor claridad en las figuras hemos cortado en G=40 el eje vertical de las gráficas. Los resultados concuerdan con los presentados en la valoración visual. Por un lado se observa como la ganancia obtenida únicamente con el empleo de la lámina de fase depende del grado de compensación adquirido. Así la mayor ganancia corresponde al caso JAP-OD (que es el que menor aberración residual presenta). Por otra parte comprobamos como la ganancia obtenida con cualquiera de las técnicas de restauración propuestas decrece en general a medida que aumenta el ruido en cualquiera de los canales (canal imagen, canal del sensor). También observamos como se decelera su ritmo de decrecimiento con el nivel de ruido en el canal del sensor a medida que la SNRi disminuye. Adicionalmente constatamos que el empleo de compensación parcial es beneficioso para el proceso de restauración, hecho que se manifiesta al comparar la fila 2 con la 3 y la 4 con la 5. Igualmente comprobamos como el empleo del filtro vectorial de Wiener (FVW) tanto con PC como sin ella, proporciona resultados superiores a los obtenidos con el filtro de Wiener (FW).

Page 170: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 149

FV

W

FVW

-PC

FW

FW

-PC

JAP-OD JAP-OS

∞ 50 25 12 6 ∞ 50 25 12 6 ∞ 50 25 12 6

∞ 50 25 12 6 ∞ 50 25 12 6 ∞ 50 25 12 6

∞ 50 25 12 6 ∞ 50 25 12 6 ∞ 50 25 12 6

∞ 50 25 12 6 ∞ 50 25 12 6 ∞ 50 25 12 6

∞ 50 25 12 6 ∞ 50 25 12 6 ∞ 50 25 12 6

SNRi

40 20 0

PC

40 20 0

40 20 0

40 20 0

40 20 0

SBV-OD

G

Figura 6.15: Ganancia en la restauración empleando PC, FVW, y FVW-PC, FW, FW-PC, en función de la SNRI y del ruido en el canal del sensor para SBV-OD. El eje horizontal representa distintos niveles de SNRI={∞,50,25,12,6} en el canal imagen. Los colores de las barras representan distintos niveles de ruido en el sensor de desviaciones típicas:

SHσ ={ 0, 0.015, 0.046, 0.090} mrad..

Page 171: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

150 6.3 Resultados de la Simulación

Finalmente vamos a mostrar en la figura 6.16 la relación señal ruido del espectro de la imagen restaurada usando el filtro vectorial de Wiener con 30 imágenes. Nos centraremos en presentar los resultados obtenidos para el nivel de ruido correspondiente al que presenta el sensor HS que emplearemos en la valoración experimental, σSH = 0.046 mrad. En cuanto al ruido en el canal imagen analizaremos el caso de SNRi=12 para JAP-OD y SNRi=50 para los otros dos ojos. En línea discontinua mostramos la SNRÔ de la imagen obtenida mediante FVW-PC y en línea continua la correspondiente a FVW. La línea continua vertical muestra la frecuencia de corte normalizada característica del mosaico de conos.

Figura 6.16: SNRÔ del espectro de la imagen restaurada en función de la frecuencia espacial normalizada para los tres ojos analizados. En línea discontinua mostramos la SNRÔ obtenida restaurando con FVW-PC, en línea continua FVW, y en línea punteada SNRÔ=1. La línea vertical muestra la frecuencia de corte característica del mosaico de conos normalizada.

JAP-OD

JAP-OS

SBV-OD

f

f

f

OSNR

OSNR

OSNR

Page 172: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

6.3 Resultados de la Simulación 151

En los casos de JAP-OD y SBV-OD se observa que la frecuencia de corte efectiva correspondiente a FVW y FVW-PC es mayor que la frecuencia característica del mosaico de conos, lo que posibilita su observación en la imagen restaurada. En este sentido el hecho de emplear la lámina de fase no aumenta la frecuencia de corte efectiva pero si aumenta la SNRÔ lo que redunda en una mejor calidad visual de las imágenes restauradas con esta técnica. Por otra parte para el caso de JAP-OS la SNRÔ correspondiente a la imagen restaurada con FVW-PC es menor que la obtenida con FVW para frecuencias superiores a 0.2. Este hecho no es el esperado, si comparamos la magnitud de la aberración ocular original (0.33 μm rms) con la de la aberración residual después de la compensación (0.18 μm rms). Más aún la aberración residual obtenida para SBV-OD tras la compensación parcial es de 0.24 μm rms y en ese caso la SNRÔ correspondiente a FVW-PC es mayor que la obtenida para FVW. Así pues este comportamiento nos muestra que la SNRÔ no depende únicamente del valor rms de la aberración, sino que también va a depender de la composición detallada de la aberración y del propio espectro del objeto que estamos observando. Recordamos aquí una vez más que la SNRÔ nos informa sobre la fluctuación del espectro del objeto estimado en relación a su valor medio. Sin embargo el parámetro G nos informa de la proximidad entre el espectro estimado y el real. Y como se observa en la figura 6.15 para todos los casos analizados su mayor valor se obtiene cuando se empleó compensación parcial de la aberración ocular.

Page 173: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 174: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

CAPÍTULO 7 153

CAPÍTULO 7

DECONVOLUCIÓN DE IMÁGENES DE FONDO DE OJO (II):

RESULTADOS EXPERIMENTALES

A lo largo de los capítulos anteriores hemos presentado los conceptos relacionados con la técnica de deconvolución tras medida de frente de onda y compensación parcial y hemos verificado mediante simulación su utilidad para la obtención de imágenes de alta resolución del fondo de ojo. En este capítulo presentaremos los resultados experimentales obtenidos de la aplicación de esta técnica tanto en ojos artificiales como en ojos reales. Empezaremos el capítulo describiendo el sistema óptico implementado. Posteriormente presentaremos el proceso de fabricación de la lámina de fase que emplearemos para la compensación de la aberración ocular. Seguidamente describiremos el proceso de calibración del sensor de frente de onda que empleamos para estimar la aberración ocular y medir las láminas de fase. Finalmente mostraremos los resultados obtenidos.

Page 175: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

154 7.1 Descripción del sistema

7.1 Descripción del sistema El dispositivo que hemos desarrollado consiste en una cámara de fondo de ojo en la que se incorpora un canal para la medida de la aberración ocular. Así podemos decir que el dispositivo consta de un brazo de iluminación, un canal de medida de aberraciones, y un canal de imagen. Asimismo dispondremos de un sistema de monitorización pupilar que además nos sirve para llevar a cabo la correcta colocación de la lámina de fase.

Figura 7.1: Esquema del dispositivo experimental. En la figura 7.1 mostramos el esquema del dispositivo. En trazado punteado mostramos el camino que sigue la luz procedente del brazo de iluminación. En línea continua mostramos el trazado de los rayos procedentes del plano de la retina, mientras que en línea discontinua mostramos los rayos procedentes del plano de la pupila del ojo.

Page 176: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.1.1 Descripción del sistema 155

En la tabla 7.1 recogemos los valores de los distintos elementos ópticos empleados en el montaje.

Focal (cm) Diámetro(cm)

Lentes: L1,L2 10 2.5 L3,L4,L5 5 2.5

L6 5/10 2.5 L7 15 2.5 L8 5 2.5

Espejos: E1,E2 2.5 E3 5

Polarizador: P1 5 Diafragmas: DA1, DC1 0.64, 0.2

Divisores de Haz: BS1,BS2 5 Divisores de haz de Película: PBS1,

PBS2 5

Tabla 7.1: Parámetros de los elementos ópticos empleados en el sistema experimental

Siguiendo con la presentación del dispositivo la figura 7.2 muestra una foto del montaje experimental donde se puede observar el aspecto de los distintos elementos y canales implementados.

Page 177: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

156 7.1.1 Brazo de iluminación

Segmento intermedio

Canal del Sensor

Brazo deIluminación

CanalImagen

monitorizaciónpupilar

Ojo Artificial

Figura 7.2: Imagen del dispositivo experimental. Vamos ahora a describir en detalle cada uno de los canales enunciados anteriormente. Empezaremos por el brazo de iluminación, para finalizar con el canal del sensor. 7.1.1 Brazo de iluminación El brazo de iluminación presenta dos fuentes de luz. Por una parte tenemos la fuente 1 que se empleó para la medida de la aberración óptica presente en el sistema. La fuente 2 se usó para iluminar una región amplia de la retina y poder así adquirir la imagen del fondo ocular. A continuación vamos a describir en más detalle el empleo de estas fuentes de luz.

Figura 7.3: Esquema del brazo de iluminación..

Page 178: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.1.1 Brazo de iluminación 157

7.1.1.1 FUENTE 1 La Fuente 1 consiste en un puntero láser de baja coherencia óptica, longitud de onda central de emisión de 0.633 μm y ancho espectral de 50 nm conectado a una fuente de tensión que nos permite el control del nivel de irradiancia. El nivel de potencia empleado fue de entre 2-4 μW. Con la fuente 1 formamos sobre la retina un spot estrecho de forma que la luz reflejada nos permitió caracterizar la aberración ocular del sujeto o estimar la aberración óptica que degrada la imagen de fondo de ojo en el momento de su adquisición. La necesidad de obtener un spot pequeño en la retina está relacionada con los parámetros de nuestro sensor HS (en especial con su focal y el lado de sus microlentes). Cada uno de los spots producidos por el HS va a ser la convolución de la imagen geométrica del spot producido en la retina, tras atravesar todo el sistema óptico incluída cada microlente, con su PSF asociada. Si logramos que el spot en la retina sea pequeño la imagen producida por cada microlente también lo será consiguiendo así: 1) aumentar la relación señal ruido de los spots producidos por las microlentes; 2) y aumentar el rango dinámico del sensor HS. El hecho de aumentar la SNR de los spots de cada microlente es interesante para reducir el tiempo de integración de la cámara del sensor. Mientras que aumentar el rango dinámico permite medir aberraciones de mayor magnitud. Tal como se diseño el dispositivo experimental, el ojo se ilumina sin que la luz pase por el sistema badal. Por una parte esto tiene la ventaja de proporcionar mayor flexibilidad en el alineamiento del canal de iluminación. Pero sobre todo se evita la presencia de reflejos de gran irradiancia tanto en la imagen proporcionada por la cámara del sensor como por la del canal imagen, reflejos que se van generando a medida que el haz de luz va atravesando las distintas lentes que se encuentra hasta llegar al ojo. La desventaja principal del diseño empleado es que es sensible al desenfoque que presente el sujeto. Si el ojo que se pretende estudiar presenta un desenfoque relativamente grande (entorno a ±2D) la imagen del láser que se forma en la retina es ancha y de baja relación señal ruido (ya que la energía es repartida en mayor área). Como dijimos anteriormente necesitaríamos mayor tiempo de exposición para poder detectar e identificar los focos. Pero aunque aumentemos el tiempo de adquisición y por tanto la SNR de los spots, el rango dinámico del sensor se ve irremediablemente reducido pudiendo provocar incluso el solapamiento de los spots producidos por las distintas microlentes.

Page 179: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

158 7.1.1 Brazo de iluminación

En esta situación en la que el desenfoque ocular provoca la estimación de la aberración no sea posible, debido a la baja calidad de los spots de las microlentes, incluiremos delante del ojo del sujeto una lente de prueba que lo corrija. Por otra parte al situar la matriz de microlentes del sensor en un plano conjugado con el plano donde se encuentra la pupila de ojo la presencia de luces parásitas debidas al reflejo corneal en la imagen proporcionada por el sensor va a ser otra cuestión a la que deberemos prestar atención. Para evitar la influencia del reflejo corneal se hizo incidir el haz láser en una zona de la pupila alejada del ápex corneal. Adicionalmente se situó un diafragma de campo (DC1) en un plano conjugado con la retina, consiguiendo evitar que el reflejo corneal llegara hasta el plano de las microlentes (ver la descripción del segmento común). 7.1.1.2 FUENTE 2 En este caso empleamos dos tipos de fuentes distintas atendiendo a la longitud de onda de emisión, un led tipo Luxeon Star/O de color rojo y otro verde según el caso, cuyas longitudes de onda centrales de emisión son 0.625 μm y 0.530 μm respectivamente y un ancho espectral de 20 nm y 35nm. El nivel de potencia lo controlamos mediante una fuente de tensión variable, presentando en general un nivel de 30 μW. Esta fuente la empleamos para iluminar una región de la retina amplia de en torno 3º, tratando que la iluminación fuera lo más uniforme posible. Esto lo conseguimos formando una imagen desenfocada de la fuente sobre la retina. Para evitar la presencia de luces parásitas en las imágenes de fondo de ojo debido a posibles reflejos en la córnea, empleamos un patrón de iluminación anular. Este tipo de iluminación en conjunción con el diafragma de campo (DC1) va a permitirnos evitar que luz procedente del plano de la pupila llegue a la cámara del canal imagen, con lo que conseguiremos adquirir imágenes de mucho mayor contraste. Gracias a la disposición del sistema de iluminación, vamos a poder obtener la imagen del fondo de ojo y la medida de la aberración ocular simultáneamente Dicha simultaneidad de medidas es importante para llevar a cabo la deconvolución de las imágenes de fondo de ojo.

Page 180: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.1.2 Segmento común 159

7.1.2 Segmento Común El segmento común consiste en una serie de elementos ópticos elegidos y colocados para cumplir cuatro funciones: 1) enfocar la imagen de la retina (o equivalentemente compensar el desenfoque presente en la aberración ocular); 2) obtener un plano conjugado con la pupila del ojo en el que situaremos la pantalla compensadora de fase, PC; 3) proporcionar otro plano conjugado con la pupila del ojo donde colocaremos la matriz de microlentes del sensor HS; 4) disponer un plano conjugado con la retina del sujeto donde colocaremos el diafragma de campo DC1.

Figura 7.4: Esquema del segmento común. Para conseguir cumplir estas funciones los elementos se dispusieron de la siguiente forma. El primer elemento es un divisor de haz (BS1) que permite la iluminación del ojo al transmitir la luz procedente del brazo de iluminación y refleja la luz retroreflejada en el ojo hacia L1. La lente L1 y L2 son dos lentes de igual focal (f=10 cm) colocadas inicialmente foco a foco. Sobre el foco objeto de L1 se sitúa la pupila del sujeto de forma que sobre el foco imagen de L2 se obtiene la imagen de la pupila con aumento menos uno en la dirección vertical y uno en la horizontal debido al número impar de reflexiones. Los espejos E1 y E2 se montaron sobre una plataforma de traslación de forma que ambos se mueven solidariamente sin cambiar el ángulo relativo que forman sus superficies. Los espejos en conjunción con las lentes L1 y L2 constituyen el sistema badal. Este sistema es el que permite el enfoque de la imagen retiniana y por tanto la compensación del desenfoque presente en la aberración ocular sin cambiar los aumentos ni la posición de la imagen de la pupila. Dada la focal de las lentes empleadas y teniendo en cuenta la relación de Newton para las lentes, un desplazamiento de la plataforma de traslación de un centímetro proporciona una corrección de 2D de desenfoque.

Page 181: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

160 7.1.2 Segmento común

Sobre el foco imagen de L2 colocaremos la lámina de fase (LF). Tras la LF situamos un diafragma de apertura DA1, para limitar la extensión del haz. Seguidamente colocamos otro sistema telescópico de dos lentes L3-L4 colocadas foco a foco de forma que el foco objeto de L3 coincida con el foco imagen de L2. En el foco imagen de L3 tenemos un plano conjugado con la retina del sujeto. En este sitio colocamos un diafragma de campo (DC1) que cumple dos funciones. Por una parte nos permite seleccionar la región de la imagen que queremos registrar, y por otra parte nos permite eliminar el reflejo corneal. En el plano focal imagen de L4 (donde tenemos otro plano conjugado con la pupila del sujeto) colocaremos la matriz de microlentes del sensor HS. Entre L4 y la matriz de microlentes colocamos un divisor de haz que manda parte de la luz al canal imagen. Para realizar la restauración de la imagen a partir de la imagen de la retina y la medida de la aberración es necesario conocer la orientación de las imágenes de la pupila y de la retina en los distintos planos de interés: 1) plano donde colocaremos la LF; 2) plano de matriz de microlentes; 3) plano de la pupila de salida del canal imagen; 4) y plano de registro de la imagen de la retina. Para ello es necesario tener en cuenta las inversiones producidas por los juegos de lentes y los espejos presentes en el sistema. Vamos ahora a estudiar la relación entre los planos. La imagen de la pupila que se forma sobre la matriz de microlentes está invertida simétricamente respecto al eje vertical mientras que la imagen que se forma sobre el plano donde colocamos la LF se encuentra invertida simétricamente respecto al eje horizontal. Esta información es importante porque nos permite diseñar correctamente (con la orientación debida) el elemento compensador de fase, y también nos indica cómo se relaciona la aberración estimada con la que presenta el ojo en su pupila de salida. El divisor de haz BS2 provoca una reflexión en torno al eje vertical de la fase del campo reflejado en su superficie. Así pues para realizar la restauración de la imagen tenemos que reflejar la aberración estimada o la imagen degradada en torno a dicho eje con el fin de compensar la reflexión inducida por el divisor de haz BS2) 7.1.3 Canal de imagen Este canal consiste en una lente y una cámara CCD (Hamamatsu ORCA-285, C4742-96-12G04). Según el aumento con el que queramos obtener la imagen del fondo ocular la lente que empleamos para formar imagen tendrá una focal u otra.

Page 182: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.2 Fabricación de láminas de fase 161

En principio trabajaremos con dos lentes distintas de focales 10 y 20 cm, que proporcionan un aumento de 6.25 y 12.5 respectivamente. 7.1.4 Canal del sensor En este canal nos encontramos con un sensor Hartmann-Shack. La implementación que hemos realizado de este tipo de sensor consta de tres elementos ópticos: una matriz de microlentes, una lente relé y una cámara CCD.

(a) (b)

Figura 7.5: (a) Esquema del canal del sensor: (b) Imagen de la lámina de fase vista a través de la matriz de microlentes del sensor

Entre PBS1 y L5 situamos el polarizador P1 para eliminar el reflejo corneal correspondiente a la fuente 2. 7.1.4.1 Monitorización de la pupila Para monitorizar la posición axial y transversal de la pupila ocular situamos entre la matriz de microlentes del sensor y la lente relé un divisor de haz de película (PBS1), como se indica en la figura 7.3. La luz reflejada fue dirigida hacia el sistema de observación constituido por una lente de 5 cm de focal y una cámara CCD (Pulnix TM6-AS). Dicho sistema nos proporciona la imagen del plano de la matriz de microlentes y de todos los planos conjugados con éste, como se observa en la fig. 7.3(b) donde vemos superpuestas la imagen de la matriz de microlentes y la de la LF empleada para realizar la compensación.

Page 183: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

162 7.2 Fabricación de láminas de fase

La colocación del sistema de monitorización pupilar en el cuerpo del sensor de frente de ondas permite observar la pupila ocular a través de la matriz de microlentes y obtener la posición relativa entre ambas. Asimismo también es de gran utilidad para la correcta colocación del elemento compensador de fase. 7.1.4.2 Parámetros del sensor Los parámetros que presenta nuestro sensor Hartmann-Shack son los siguientes.

Matriz de Microlentes: Distribución en malla cuadrada. Número de Subpupilas: 11x11 Lado de las subpupilas: 564±5 μm Focal microlentes: 5.07±0.01 cm Focal tras calibración: 5.18±0.09 cm Lente relé: Diámetro 2.5 cm. Focal 5 cm Cámara: Cámara tipo CCD ( Hamamatsu C5985-95 chilled). Tamaño de píxel: 8.6 μm. Tamaño efectivo del píxel: 15.8±0.2 μm. Ganancia: 8 Tiempo de exposición: 0.2 seg Incertidumbre en la determinación del centroides: 0.043 mrad, 0.034 mradx yσ σ= =

7.1.4.3 Criterios de selección La elección de la matriz de microlentes con distribución de las subpupilas en malla cuadrada se debe a que esta distribución facilita la identificación y ordenación de los spots asociados a cada microlente. El lado de las subpupilas se escogió atendiendo al correcto muestreo de la pupila; al número de modos que estimaremos con el sensor; y a la relación señal ruido de los spots producidos por las microlentes. En cuanto a la focal de las microlentes se decidió emplear una focal larga. El motivo fue reducir el efecto del error en la determinación del centroide sobre la estimación del gradiente local de la fase. Una ventaja adicional que encontramos al trabajar con esta focal tan larga es que la

Page 184: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.2 Fabricación de láminas de fase 163

imagen del reflejo corneal de la fuente 1 que se forma sobre la CCD del sensor se encuentra bastante desenfocada, debido a su propagación entre la matriz de microlentes y el plano registro. Esto va a ser fundamental a la hora de facilitar la detección e identificación de los spots correspondientes a cada una de las microlentes ya que la irradiancia del reflejo va a ser menor que la de los spots de las microlentes posibilitando así su descarte. El empleo de la lente relé se debe a la necesidad de obtener una imagen reducida del plano imagen de la matriz de microlentes con el fin de poder registrar todos los spots de la matriz en la cámara CCD. Pero también facilita la construcción del sensor ya que nos permite medir fácilmente la distancia entre la matriz de microlentes y su plano focal, dato fundamental para la correcta estimación del gradiente local de la fase a partir del desplazamiento del centroide de los spots asociados a cada microlente. La cámara CCD que empleamos (Hamamatsu C5985-95 Chilled) permite trabajar con distintos niveles de ganancia y distintos tiempos de exposición. En general trabajamos con el nivel máximo de ganancia (Ganancia=8) y un tiempo de exposición de 200 ms. Otro parámetro importante del sensor es la incertidumbre que presentan sus medidas. Para determinar su valor realizamos la siguiente experiencia. Situamos en nuestro dispositivo el ojo artificial con un papel haciendo de retina, más adelante lo describiremos en mayor detalle. Iluminamos el ojo artificial con el canal del sensor y un nivel de potencia tal que los focos de las microlentes de nuestro sensor presentaron un nivel de irradiancia equivalente al mostrado al medir aberraciones oculares en sujetos. Posteriormente adquirimos 200 imágenes de los focos de la matriz de microlentes. Seguidamente calculamos el centroide de cada uno de los spots de las 200 imágenes, y su desviación típica. Finalmente calculamos el valor medio de todas las desviaciones típicas llegando a los siguientes valores, σx=0.14 pixeles σy=0.12 píxeles, que teniendo en cuenta la focal de las microlentes y el tamaño del píxel equivalen a una incertidumbre de σx=0.043 mrad y σy=0.034 mrad. La diferencia en la magnitud de la incertidumbre entre ambas direcciones se debe al “jitter” que presenta la cámara empleada en el sensor.

Page 185: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

164 7.2 Fabricación de láminas de fase

7.1.4.4 Procesado de imágenes del sensor El proceso de estimación de la aberración consta de tres etapas. La primera consiste en la adquisición de la imagen aberrométrica de los spots correspondientes a la matriz de microlentes. La segunda conlleva el procesado de dicha imagen y la determinación del desplazamiento local de los spots respecto a unos de referencia, de forma que podamos estimar el gradiente local de la aberración sobre cada una de las microlentes. Y la tercera etapa consiste en obtener los coeficientes estimados. De estas tres etapas nos vamos a centrar en este apartado en presentar el procesado de las imágenes aberrométricas. En la figura 7.6 mostramos una imagen aberrométrica típica de las proporcionadas por el sensor, donde se puede observar los spots correspondientes a las microlentes. La medida que emplea el sensor HS es el desplazamiento local del centroide respecto al de referencia. Esto hace indispensable la detección e identificación de los spots. En los primeros trabajos realizados en el campo de la aberrometría ocular con el sensor tipo Hartmann-Shack la solución consistió en asignar a cada microlente una zona de la imagen aberrométrica, de forma que así la identificación y el cálculo del centroide se hacia rápidamente considerando cada región de forma individualizada. El inconveniente de este planteamiento se encuentra en el rango dinámico del sensor (gradiente máximo que puede estimar), ya que este sistema falla si el spot correspondiente a una microlente entra en la zona asignada a otra.

Figura 7.6: Imagen aberrométrica típica proporcionada por el sensor durante la medida de

aberraciones oculares.

Page 186: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.2 Fabricación de láminas de fase 165

Como alternativa a esta técnica “zonal” se desarrollaron otras basadas en la detección e identificación de objetos [Are00, Ari00C, Pri00]. La técnica “piramidal” [Prie00], consiste en una etapa inicial en la que se identifican los focos a partir de su máximo y una serie de etapas sucesivas en las que se va reduciendo el lado de la región cuadrada dentro de la que se calcula su centroide, situando el centro de dichas regiones en la posición del centroide de la región anterior. Por otra parte la técnica desarrollada por Jorge Ares y por mi mismo consiste en el empleo de una serie de algoritmos típicos del procesado morfológico de imágenes que permiten la detección e identificación de objetos, que en este caso son los spots presentes en las imágenes aberrométricas. Es importante tener en cuenta que el procesado morfológico que empleamos para la detección e identificación de los focos se realiza sobre imágenes binarias donde los píxeles toman valor cero o uno, con lo que al final del proceso lo que obtenemos es una mascara binaria que nos permite identificar los píxeles asociados a cada spot. El cálculo del centroide de cada uno de los spots se hace sobre la imagen original en niveles de gris, pero en zonas restringidas a los píxeles que contiene cada objeto identificado.

Page 187: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

166 7.2 Fabricación de láminas de fase

Imagen Aberrométrica

Identificación manual

del centro de la Im. Aberrométrica

Procesado morfológico

(Limpiar, Unir, Dilatar)

Comprobación visual de la máscara

Selección Manual de objetos sobrantes

Etiquetado de objetos

Dilatación de la máscara

Comprobación de la correcta disposición

de los objetos detectados

Figura 7.7 Diagrama de bloques del proceso de detección e identificación de los focos presentes en la imagen aberrométrica.

El primer paso del proceso de detección e identificación de los focos presentes en la imagen aberrométrica consiste en indicar manualmente el centro de la imagen de los spots. Sobre este punto centraremos una máscara binaria que pone a cero todos los píxeles de la imagen aberrométrica que no vamos a emplear en el proceso de identificación y detección de focos. El diámetro de dicha máscara depende del diámetro pupilar que estemos analizando. El siguiente paso consiste en una umbralización por bloques de lado igual al tamaño de la microlente en píxeles. En cada bloque empleamos como nivel de umbral su nivel medio de irradiancia más un término que es igual al producto de la desviación típica de sus niveles de irradiancia por un factor multiplicativo: ( ) ( ) ( ii i )F blockF block F block τ σ> + ⋅ , donde

( i )F block es el bloque i-ésimo de la imagen proporcionada por el sensor, τ es un

factor multiplicativo y ( i )F blockσ es la desviación estándar de la irradiancia en dicho

bloque. De esta forma tenemos en cuenta la iluminación no uniforme de la pupila, o el hecho de que algunos focos sean más brillantes que otros.

Page 188: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.2 Fabricación de láminas de fase 167

(a) (b) (c)

Figura 7.8: Evolución de la máscara binaria durante el proceso de obtención: (a) tras los primeros 3 pasos: (b) tras 7 pasos; (c) tras 8 pasos.

Tras este proceso obtenemos una imagen binaria como la que mostramos en la figura 7.8.a. Ahora empezamos el procesado morfológico sobre la imagen binaria. Primero eliminamos los píxeles aislados. Después eliminamos los objetos de tamaño menor de 4 píxeles. A continuación unimos los objetos próximos no conectados. Finalmente dilatamos los objetos detectados con una máscara de unos de dimensión 3x3. Con esta operación conseguimos aumentar el tamaño de los objetos teniendo en cuenta su forma original. En este punto la mascara binaria tiene el siguiente aspecto (ver figura 7.8.b). El siguiente paso consiste en comprobar visualmente el aspecto de la máscara y decidir si se repite su proceso de obtención aumentando el factor multiplicativo τ, con lo que aumentamos el nivel de umbral y detectamos menos objetos. Si el usuario detecta algún error puede iniciar de nuevo la obtención de la máscara o continuar con el proceso. En la figura 7.8.c mostramos el aspecto de la máscara tras 8 iteraciones. Si el número de objetos detectados no es igual al número de microlentes que empleamos seleccionamos manualmente los objetos sobrantes y los eliminamos, comprobando de nuevo que el número final de objetos detectados es el correcto. Una vez que ya tenemos la máscara que identifica los objetos de interés realizamos un proceso de dilatación de forma que aumentamos el tamaño de los objetos manteniendo su forma. Este paso lo realizamos para garantizar que los spots se encuentran completamente incluidos en cada una de las regiones identificadas. Comprobamos de nuevo que el número de objetos es igual al de microlentes con el fin de detectar posibles fallos inducidos en el proceso de dilatación. Finalmente etiquetamos cada uno de los objetos identificados. En la imagen de la figura 7.9 cada nivel de gris esta asociado a un objeto distinto.

Page 189: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

168 7.2 Fabricación de láminas de fase

Figura 7.9: Máscara de identificación de objetos. Llegados a este punto tenemos los objetos identificados y etiquetados. Esto significa que también sucede lo mismo con los spots presentes en la imagen ya que cada objeto tiene asociada su respectiva región en la imagen proporcionada por el sensor. El siguiente paso consiste en calcular el centroide correspondiente a cada una de las regiones detectadas en la imagen. Antes de calcular el centroide volvemos a emplear el procesado por umbralización, pero esta vez con el fin de eliminar del cálculo del centroide aquellos píxeles que presentan baja relación señal ruido. En este caso el nivel de umbralización se determina mediante el criterio bimodal de Kittley-Illingworth [Har92], de forma que dicho nivel depende totalmente de la distribución de irradiancia asociada a cada objeto. Una vez tenemos calculados los centroides procedemos a su ordenación y comprobamos que los objetos identificados se encuentran correctamente dispuestos teniendo en cuenta que el número de objetos presentes en cada columna de la imagen aberrométrica tiene que coincidir con el número de microlentes en la columna correspondiente. Si la comprobación es negativa se repite el proceso desde el primer paso. Si no, se continúa con el cómputo de los coeficientes modales.

Page 190: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.2 Fabricación de láminas de fase 169

Figura 7.10:Imagen aberrométrica con los focos identificados Así pues ya disponemos del vector de centroides asociados a los spots formados por cada elemento de la matriz de microlentes. Este procedimiento es incomodo cuando se trabaja con series temporales de imágenes aberrométricas ya que se tendría que ejecutar el programa para cada imagen analizada. Sin embargo comprobamos que dentro de cada serie temporal los spots se mueven muy poco entre una imagen y otra dentro de una región que se puede determinar siguiendo un proceso idéntico al descrito, pero aplicado sobre la imagen resultante de sumar todas las imágenes contenidas en la secuencia temporal. De esta forma tendremos una máscara general que nos identificará los spots de cada una de las imágenes pertenecientes a la serie temporal, permitiéndonos el cómputo de sus centroides de una forma más cómoda y rápida. 7.1.4.4.1 Cálculo de los coeficientes estimados Los coeficientes estimados se obtienen del producto de la matriz de reconstrucción por el vector columna de medidas del gradiente local de la fase que se calcula a partir del centroide mediante la siguiente expresión:

refsss X Xm R

dα α

α−

= (7.1)

smαsXαes el gradiente en la dirección α para la subpupila s-ésima, donde y

refsXα son los centroides del s-ésimo spot en la dirección α asociado a la onda

desconocida y a la de referencia respectivamente, y d es la distancia entre el plano de las microlentes y el plano de detección. Como dijimos en el capítulo 3 las

Page 191: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

170 7.2 Fabricación de láminas de fase

medidas se ordenan en un vector columna con las componentes x al principio y las y al final.(ver 3.3.2.2). A la hora de estimar la aberración usaremos distintos procedimientos según su fin. Cuando la estimación se lleve a cabo para realizar la restauración de la imagen de fondo de ojo el hecho de que éste se mueva no es relevante para la estimación. Así, la matriz de reconstrucción se calcula respecto a un sistema de coordenadas cuyo centro coincide con el de la matriz de microlentes. Esto indica que es independiente de la posición del ojo y por tanto de sus movimientos. El modelo de medidas que empleamos considera que ésta se corresponde con el gradiente promedio de la fase sobre cada microlente (3.64) (ver capitulo 3 apartado 3.3.2.3.2 para más detalles). La matriz de reconstrucción la construimos con 35 modos, que son los mismos que recuperaremos. Sin embargo cuando la estimación de la aberración se realice con el propósito de estudiar la aberración ocular o compensar las aberraciones oculares tendremos en cuenta que el ojo se puede mover durante el proceso de medida. Como expresamos en el capitulo 3 en este tipo de aplicaciones es importante tener en cuenta el movimiento ocular. Si queremos conocer la estadística de las aberraciones oculares de un sujeto o diseñar un elemento óptico que sirva para compensarlas es necesario poder desacoplar estos movimientos del proceso de estimación de la aberración. Esto lo llevaremos a cabo empleando la opción 2 presentada en el capitulo 3 apartado 3.3.2.5. La implementación de esta opción involucra dos procesos: 1) determinación del movimiento ocular; 2) cómputo de la matriz de reconstrucción asociada a dicho movimiento. Esto quiere decir que para cada posición del ojo, y por tanto para cada muestra temporal del frente, estimaremos el desplazamiento ocular y calcularemos la matriz de reconstrucción respecto a un sistema de coordenadas cuyo centro coincide con el de la pupila del sujeto. De esta forma la posición relativa de las microlentes cambia respecto al centro de dicho sistema al moverse el ojo, con lo que tenemos que calcular de cada vez la matriz de reconstrucción. Así obtendremos los coeficientes estimados respecto al sistema de coordenadas solidario con el ojo.

Page 192: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.2 Fabricación de láminas de fase 171

7.1.4.5 Seguimiento pupilar Para estimar la aberración respecto a unos ejes solidarios con la pupila del ojo es indispensable determinar la posición relativa de ésta respecto a los ejes del aberrómetro. El parámetro que empleamos para este fin es el centroide de la imagen aberrométrica registrada por la cámara del sensor. Vamos a explicar a continuación la base teórica que nos permite hacerlo. En un medio homogéneo y en el marco de la aproximación parabólica la amplitud compleja de un campo en un plano Пz (z>0) está relacionada con la existente en el plano П (z=0) a través de la integral de Fresnel. Dentro de estas condiciones se puede demostrar que se cumple la siguiente relación entre los centroides ρ(z) y ρ(0) de las distribuciones de irradiancia en los planos Пz y П respectivamente [Tea82, Bar03].

2

2

( ) ''( )( ) (0)

( )

I dz z

I d

φ⎡ ⎤∇⎢ ⎥= +⎢ ⎥⎣ ⎦

∫∫r r r

r rρ ρ (7.2)

( , )x y∂ ∂∂ ∂∇ = ''( )φ rdonde es el operador gradiente transversal, es λ/2π veces la

fase del campo, e I(r) es la distribución de irradiancia en П. Las integrales se extienden a todo el plano. Esta ecuación nos indica que el centroide se propaga en línea recta con una pendiente igual al promedio espacial del gradiente ''( )φ∇ r ,

ponderado por la distribución normalizada de irradiancia en el plano П. Si sobre este plano situamos una matriz de microlentes, a la salida del mismo

''( )φ r ( )φ rserá igual a la suma de la aberración del campo incidente, , más la

diferencia de camino óptico introducida por la matriz, ( )mφ r .

En el caso que nos concierne el campo incidente sobre el plano П es el campo a la entrada de la matriz de microlentes del sensor, que en nuestro sistema es una versión con aumento unidad del campo existente en la pupila de salida del ojo. Un desplazamiento transversal d de la pupila ocular lleva asociado un desplazamiento igual de la distribución de irradiancia I y de la aberración φ, que pasan a ser I(r-d) y φ(r-d), respectivamente. Como las microlentes no se desplazan, ( )mφ r permanece

invariante. La ecuación de propagación del centroide para la pupila desplazada vendrá dada entonces por:

Page 193: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

172 7.2 Fabricación de láminas de fase

( ) 2

2

( ) ( ) ( )'( ) '(0)

( )mI d

z zI d

φ φ⎡ ⎤∇ +⎢ ⎥= +⎢ ⎥⎣ ⎦

∫∫

r - d r - d r r

r - d rρ ρ (7.3)

donde ρ’(z) y ρ’(0) son los nuevos centroides en Пz y П, respectivamente

''( ) ( ) ( )mφ φ φ= +r r rSustituyendo en (7.2) y restando el resultado a (7.3) obtenemos:

2

2

2

2

( ) ( ( ) ( ))'( ) ( ) '(0)

( )

( ) ( ( ) ( ))(0)

( )

m

m

I dz z z

I d

I dz

I d

φ φ

φ φ

⎡ ⎤∇ +⎢ ⎥− = + −⎢ ⎥⎣ ⎦⎡ ⎤∇ +⎢ ⎥− −⎢ ⎥⎣ ⎦

∫∫

∫∫

r - d r - d r r

r - d r

r r r r

r r

ρ ρ ρ

ρ

(7.4)

2( )I d∫ r - d r 2( )I d∫ r rTeniendo en cuenta que la energía se conserva = =E, y

reordenando términos llegamos a:

(( ) )

2 2

2

'( ) ( ) '(0) (0) ( ) ( ) ( ) ( )

( ) ( ) ( )m

zz z I d I dE

I I d

φ φ

φ

− = − + ∇ ∇

+ − ∇

∫ ∫

r' r' r' - r r r

r - d r r r

ρ ρ ρ ρ (7.5)

donde r’=r-d y d2r= d2r’. El primer término de la igualdad (7.5) es el desplazamiento del centroide de la imagen aberrométrica proporcionada por el sensor, dato que podemos obtener directamente con nuestro sistema experimental. Por otra parte, el término ρ’ (0)-ρ(0) es el desplazamiento d de la pupila del ojo en su propio plano, resultado que queremos determinar. La diferencia entre ambos viene dada por el sumando que depende linealmente de z. En la mayoría de casos de interés este sumado tiene un valor mucho menor que el de cualquiera de los términos anteriores, y puede ignorarse sin introducir un error relevante. Nótese que las dos primeras integrales de (7.5) son idénticas y se anulan entre si. La última integral depende de la diferencia de irradiancias sobre el área de las microlentes: si la irradiancia es constante y las microlentes se encuentran totalmente iluminadas esa integral también se anulará y el desplazamiento del centroide en Пz y en П va a ser el mismo e igual a d. En caso de que la irradiancia no sea constante o haya viñeteo de la matriz de microlentes habrá cierto sesgo dado por el valor de esa integral pero, como veremos a continuación, su magnitud es muy pequeña.

Page 194: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.2 Fabricación de láminas de fase 173

Hemos calculado numéricamente esta integral para el caso particular del sensor empleado en nuestro montaje, considerando microlentes de 564 μm de lado y focal de 5.18 cm. La diferencia de camino óptico adicional que cada microlente s introduce en el campo incidente es

2( )2

S

f−

−r r donde rS es el vector de posición del

centro de la microlente respecto al origen del plano П. Así la ecuación (7.5) adopta la forma particular

( ) 2

1'( ) ( ) '(0) (0) ( ) ( ) ( )

S

Ns

s A

zz z I I dfE =

− = − − −∑ ∫ Sr - d r r - r rρ ρ ρ ρ (7.6)

donde AS indica integración sobre el área de la microlente s. La distribución de irradiancia I(r) se generó para una pupila de 6.5 mm de diámetro empleando el modelo sencillo que describe el efecto Stiles-Crawford (ver capitulo 2, ecuación (2.1)) Los valores obtenidos para el último término de (7.6) fueron 0.03 μm para un desplazamiento de la pupila de 50 μm, y 0.54 μm para un desplazamiento de 850 μm, es decir, un error relativo del orden de 6x10-4. Más adelante veremos que este valor es muy inferior a la precisión obtenida con este método, de forma que podemos considerar que dicho sesgo es despreciable. Alguien podría indicar que el razonamiento desarrollado en los párrafos anteriores necesita que entre una muestra y otra de la serie temporal la aberración del sujeto sea constante, ya que en caso contrario la fluctuación de la fase podría inducir un error aleatorio en la estimación del movimiento pupilar. Sin embargo, la magnitud de dicho error es sustancialmente inferior a la resolución espacial de nuestra medida del centroide. Para calcular este error en una situación típica utilizamos una serie temporal de coeficientes aberrométricos correspondientes al ojo SBV-OD. Calculamos el centroide para cada muestra de la serie empleando la expresión 7.2 (en función del gradiente de la aberración), encontrando que su posición fluctúa con una desviación típica de 0.85 nm, mucho menor que la resolución de nuestro sistema. Teniendo en cuenta que la variación temporal de la aberración ocular es muy semejante entre individuos si prescindimos de fluctuaciones acomodativas, creemos que el análisis realizado puede ser extendido a otros sujetos, de forma que en general el error aleatorio introducido por este efecto puede ser despreciado. Vamos ahora a describir el procedimiento seguido para determinar el centroide de la distribución de irradiancia de la imagen aberrométrica registrada por la cámara del sensor (Figura 7.11). Como indicamos en el capitulo 3 el cálculo del centroide se ve muy afectado por la componente de fondo. Para evitar su contribución al

Page 195: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

174 7.2 Fabricación de láminas de fase

cómputo del centroide emplearemos el procesado por umbralización, de forma que identificaremos aquellos píxeles que pertenezcan al fondo y los descartaremos. Los desplazamientos de la pupila los mediremos respecto a una posición de referencia. Dicha posición será el centroide correspondiente a la imagen aberrométrica en la que la mancha pupilar aparece mejor centrada respecto a la matriz de microlentes. Teniendo en cuenta el montaje descrito en los apartados anteriores sabemos que sobre la matriz de microlentes se forma una imagen de la pupila del ojo con aumento unidad pero invertida según el eje vertical. Es pues inmediato deducir el desplazamiento real de la pupila a partir del detectado en las imágenes aberrométricas.

Figura 7.11: Secuencia de tres posiciones distintas del ojo. Del movimiento del centroide de la región iluminada se obtiene una estimación del movimiento ocular.

La precisión final obtenida en la determinación del movimiento ocular es de 50 micras, muy próxima a la de otros métodos de “tracking” desarrollados y empleados en el ámbito de la óptica oftalmica [Gob95, Sch00, Dia06]. Esta precisión se ve afectada principalmente por la relación señal ruido de las imágenes aberrométricas y por el proceso de umbralización. La optimización de estos parámetros podrá permitir una mejora en la estimación del movimiento ocular. 7.2 Fabricación de láminas de fase En los capítulos anteriores quedo claramente demostrada la importancia de las láminas de fase en la obtención de imágenes de alta resolución mediante técnicas de deconvolución. El proceso de fabricación de estos elementos ha sido ya descrito en detalle en la literatura [Nav00,Rod05] por lo que sólo indicaremos aquí sus principales etapas. El proceso de fabricación que se siguió fue el de fotoescultura aplicado sobre un material fotosensible que se denomina fotorresina. El proceso consiste en impresionar una capa de fotorresina a través de una máscara de grises, de forma que aquellas zonas que se ven impresionadas son eliminadas en el proceso de

Page 196: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.2 Fabricación de láminas de fase 175

revelado en relación a la dosis recibida. De esta forma la distribución de transmitancia de la máscara se transfiere a la fotorresina como un mapa de alturas.

Diseño del mapa de alturasy representación en escala

de grises

Impresión en papel yfotorreducción sobrepelícula fotográfica

Revelado y obtención demascara transparente

reducida

FuenteUV

MÁSCARA

Impresión sobreFotorresina

ReveladoFotorresina

Pantalla de fase defotorresina

Figura 7.12. Diagrama de bloques de la fabricación del molde El primer paso del proceso de fabricación consiste en determinar la fase que queremos inducir con la lámina. En este trabajo las láminas fueron construidas con dos fines: 1) compensar la aberración ocular estática de los ojos analizados: 2) y simular aberraciones oculares. El segundo paso consiste en obtener la mascará de grises que se empleará para impresionar la fotorresina. Dicha máscara no es más que una película fotográfica revelada en la que se registro una imagen reducida, del tamaño correspondiente al que queremos que tenga la pantalla de fase, de una imagen impresa en niveles de gris correspondiente al mapa de alturas que queremos transferir a la fotorresina. El tercer paso consiste en irradiar la fotorresina con luz ultravioleta situando la máscara en medio de forma que la dosis de radiación recibida dependa de la

Page 197: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

176 7.2 Fabricación de láminas de fase

transmisión de la máscara. Finalmente el cuarto paso consiste en revelar la fotorresina de forma que las zonas irradiadas sean eliminadas en proporción a la dosis recibida. Se obtiene así el perfil tridimensional del elemento de fase. La fotorresina presenta dos desventajas principalmente. Por una parte es muy

omo indicamos en el capítulo 4 al hablar de las distintas técnicas ópticas de

blanda, de forma que se raya con gran facilidad. Esta propiedad no es deseable para un elemento que se va a emplear en el laboratorio. Por otra parte presenta un espectro de absorción elevado para longitudes de onda cortas, mientras que transmite prácticamente el 100% para longitudes próximas al rojo, de ahí su color rojizo característico. Trabajos relacionados con la búsqueda de materiales de calidad óptica que sean alternativos al empleo de la fotorresina ya se han empezado proporcionando resultados esperanzadores [Ari03B]. Ccompensación de fase, las pantallas de fase funcionan introduciendo diferencias de camino óptico (DCO) mediante diferencias locales de grosor. La DCO entre las distintas partes del frente viene dada por la expresión:

( 1)DCO n z= − Δ (7.7)

donde n es el índice de refracción y zΔ es la diferencia de grosor a lo largo de la A

.3 Calibración del Sensor

amos a describir ahora el proceso que seguimos para la calibración del sensor de

dirección de propagación del campo. la hora de fabricar la pantalla de fase se tiene en cuenta que su índice de refracción depende de la longitud de onda, y por lo tanto la DCO que inducimos. 7 Vfrente de onda HS. La calibración la llevamos a cabo empleando dos métodos distintos: 1) Calibración con onda esférica, 2) Calibración con pantallas de fase. Ambas calibraciones son complementarias. Como veremos a continuación la primera de las calibraciones sirve para obtener el factor de corrección por el que hay que multiplicar los gradientes locales de la fase medidos para que se correspondan con los gradientes reales. Mientras que la segunda de las calibraciones permite comprobar la capacidad del sensor a la hora de medir fases sin simetría de revolución como las que encontramos típicamente en ojos.

Page 198: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.3 Calibración del sensor 177

7.3.1 Calibración con onda esférica

a calibración con onda esférica es el método más empleado en la actualidad para

a generación de ondas esféricas de distinta curvatura la realizaremos mediante el

Lcalibrar sensores HS [Are00, Fra02]. Consiste en hacer llegar al sensor frentes esféricos y compararlos con la estimación realizada a partir de las medidas proporcionadas por el sensor. Lsistema badal incluido en el dispositivo experimental, sin más que desplazar cierta cantidad conocida la plataforma de traslación sobre la que montamos el par de espejos que forman parte del badal. Para saber la curvatura del frente a partir del desplazamiento de los espejos del badal usamos la formula de Newton:

2

2fz = −

xΔ (7.8)

donde f es la focal de la segunda lente del badal, xΔ es el desplazamiento del

el

or otra parte, necesitamos relacionar los datos que proporciona el sensor con la

badal y z es el radio de curvatura de la onda en plano focal imagen de la segunda lente del badal y en el plano de la matriz de microlentes (debido a la relación de conjugación óptica con aumento -1 existente entre ambos planos). Pcurvatura del frente. Para ello comparamos la expresión paraxial de una onda esférica con la fase expresada a partir del polinomio de Zernike Z2

0.

( )( )

2i rπ ⎫ˆ

224

2

3 2 14

ˆ4 3

z

rRi a

e Rzae

λ

πλ −

⎪⇒ =⎬⎪⎭

(7.9)

obteniendo así la relación entre a4 y el radio de curvatura estimado

in embargo la magnitud que nosotros modificamos al desplazar el badal es

z .

xΔ , Spor lo que la comparación la podemos realizar entre xΔ y xΔ . De nuevo según a formula de Newton ˆ

lxΔ se obtiene a partir de z medi e la expresión: ant

2

ˆˆ2

fxz

Δ = − (7.10)

Vamos ahora a describir como llevamos a cabo el proceso de calibración.

Moveremos la plataforma a intervalos de 250 μm con un recorrido total de 2 cm.

Situaremos sobre el carril de desplazamiento de los espejos del badal un tornillo micrométrico de paso 500 μm, precisión de 1 μm y recorrido máximo de 2.5 cm.

Page 199: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

178 7.3 Calibración del sensor

Una vez realizamos la toma de medidas, calculamos los xΔ a partir de la

timación proporcionada por el sensor y los representamos a xΔ . Después es frenteajustamos la recta ( xΔ =m xΔ +n) a los datos experimentales con el fin de obtener

el factor de corrección m, de forma que los desplazamientos estimados correspondan con los inducidos con el tornillo micrométrico. El caso óptimo es obtener una recta de pendiente unidad. La ordenada en el origen distinta de cero indica que la posición inicial no corresponde con la de una onda plana. Las medidas de los gradientes locales de la fase las corregimos sin más que ividirlas entre el factor m. Tras esta corrección volvimos a calcular xΔd .

Seguidamente ajustamos la recta ( xΔ =m xΔ +n) a los datos corregidos

comprobando que la pendiente ya fuera la unidad. Vamos a proceder ahora con la presentación de los resultados obtenidos en el roceso de calibración En la siguiente figura presentamos los desplazamientos p

estimados a partir de la medida del sensor xΔ frente a los realizados con el tornillo micrométrico xΔ .

ˆ

Del ajuste de la recta (

(cm)

xΔ (cm) Figura 7.13: Representación de xΔ frente a xΔ .

xΔ =m xΔ +n) a los datos experimentales obtuvimos los

gui n=3. m. Tras corregir los gradientes locales de la v os

entes valores: m=0.979 356 μsifase dividiéndolos entre m olvim a calcular xΔ , tras lo cuál repetimos el ajuste

obteniendo en este caso los siguientes resultados: m=1±0.024; n=3.3563±0.022 μm, con un residuo medio de 0.685 μm y una desvia n típica de 0.220 μm. Dentro de ció

Page 200: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.3.2 Calibración con láminas de fase 179

estos residuos se encuentran tanto los errores de estimación cometidos en el sensor como los errores introducidos en la traslación de la plataforma de los espejos. De todas formas el acuerdo entre el desplazamiento estimado y el realizado fue muy bueno. 7.3.2 Calibración con láminas de fase

mplementaria de la calibración con onda férica. La utilidad principal de este tipo de calibración es verificar la capacidad

onsta de dos partes: 1) la comparación visual del interferograma e una lámina de fase con el interferograma numérico generado a partir de la

el conveniente de que es muy sensible al “piston” y a los “tilts”, sin embargo la

amos fueron un conjunto de minas de fase que inducen tanto fases correspondientes a polinomios individuales

La calibración con pantalla de fase es coesdel sensor para medir aberraciones como las que se va a encontrar en su uso normal [Rod05]. Esta calibración cdestimación del frente realizado por el sensor HS: 2) la comparación entre la PSF real y la PSF generada a partir de la estimación del frente. La importancia de esta comparación reside en la gran cantidad de información que maneja pues la comparación se realiza tanto en todos los puntos del elemento como en su plano transformado. De esta forma se puede obtener información sobre la semejanza o discrepancia espacial entre la fase estimada y la real de forma rápida y sencilla. La calibración mediante la comparación de interferogramas presenta incomparación adicional entre PSF’s proporciona información complementaria libre de la incertidumbre asociada a dichos parámetros. En nuestro caso los elementos ópticos que empleláde Zernike como fases típicas de aberraciones oculares humanas. Los interferogramas reales los obtuvimos con un interferómetro tipo Mach-Zehnder operando con un láser de λ=0.633 μm. Por otra parte, las PSF’s las obtuvimos en un banco óptico cuya fuente de iluminación fue un láser de la misma longitud de onda. El haz láser fue filtrado, expandido y colimado para iluminar toda la pantalla de fase. Delante de la lente formadora de imagen se colocó un diafragma de apertura que limitó la extensión espacial del haz. La pantalla de fase se situó después de la lente, de forma que desplazando dicho elemento pudimos controlar el tamaño de la PSF.

Page 201: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

180 7.3.2 Calibración con láminas de fase

En la figura 7.14 mostramos para una serie de pantallas de fase la comparación

or otra parte mostramos en la figura 7.15 un ejemplo de la comparación de la

entre los interferogramas reales y los generados computacionalmente a partir de los coeficientes estimados con el sensor HS. Z5

-1 Z62 Z7

5 Z31

P

PSF real correspondiente a la lámina 57Z y la PSF generada a partir de los datos

de dicha lámina obtenidos con el sensor S.

H

Figura 7.15: Comparación entre (a) la PSF real y (b) la PSF generada a partir de los correspondientes a la lámina que

Figura 7.14: Comparación entre los interferogramas real obtenidos con un Mach-Zehnder

datos obtenidos con el sensor HS implementa el modo de Zernike Z5

7.

(M-Z) y los generados a partir de las medidas proporcionadas por el sensor (HS), para una serie de láminas que implementan los siguientes polinomios de Zernike: 1 2 5 1

5 6 7 3, , ,Z Z Z Z−

(b) (a)

M-Z

H-S

Page 202: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.3.2 Calibración con láminas de fase 181

Como dijimos la identificación de errores en la estimación del frente se manifiesta con claridad en este tipo de comparaciones [Rod05]. En la siguiente figura mostramos el interferograma y la PSF generados a partir de los coeficientes estimados con el HS de la fase inducida por la lámina correspondiente al polinomio

57Z cuando se comete un error en la ordenación de los centroides según X a la

a de construir el vector de medidas que se emplea para la estimación de los coeficientes modales. Comparando esta figura con la anterior se observan fácilmente tanto las diferencias en el interferograma como en la PSF. Cabe decir que este tipo de errores no siempre serían detectables con la calibración con onda esférica o la introducción de tilt.

hor

7.4 Resultados de la deconvolución en Oj Artificial

n este apartado vamos a presentar los resultados de la validación del dispositivo

4.1 Descripción de la experiencia

ecordamos en la figura 7.17(a) el montaje que empleamos en la valoración

(a) (b)

Figura 7.16: (a) Interferograma y (b) PSF generados a partir de los datos proporcionados por el sensor, correspondientes a Z5

7 cuando se comete un error en la ordenación de las medidas del gradiente local de la fase en la dirección X.

o Eexperimental y la técnica de deconvolución tras medida de frente de onda con compensación parcial empleando el filtro de Wiener obtenidos con un ojo artificial. 7. Rexperimental de la técnica de DWFS-PC. En este caso hemos incluido el ojo artificial. Éste consiste en una lente (f=5 cm que se encarga de simular el sistema dióptrico del ojo), un objetivo de microscopio OM1 (100 aumentos y apertura numérica 1.3) y un Led superluminiscente, Toshiba 10 mm Ultra-Bright

Page 203: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

182 7.4 Resultados de la deconvolución en ojo artificial

TOSBRIGHT Rojo λ=0.644 μm (Fuente 3). El plano imagen de OM1 va a ser el plano de la retina artificial y la imagen de la fuente 3 producida por OM1 va a ser el objeto de referencia de extensión 62 μm de lado. El plano en el que se encuentra esta imagen se hace coincidir con el plano focal de L9, de forma que el ojo artificial resultante es un ojo emétrope. Sin más que desplazar el plano imagen de OM1 respecto al plano focal de L9 podríamos inducir una miopía o hipermetropía axial. El ojo artificial así construido presenta en el plano de la retina artificial una imagen de la superficie emisora de la fuente 3, la cual será el objeto pequeño de alto contraste que emplearemos en la primera valoración del dispositivo.

n una segunda valoración más realista situamos sobre la focal objeto de L9 un

Figura 7.17: (a) Esquema del montaje experimental empleado en la valoración con ojo artificial, (b) Imagen del ojo artificial Epapel a modo de retina artificial, que iluminamos con el brazo de iluminación, de forma que por un lado la fuente 1 nos permitió obtener la imagen del canal del sensor y por otro lado la fuente 2 nos iluminó una región circular de la retina artificial de 1.8 mm de diámetro. El empleo del papel se debe a que al igual que la retina esparce la luz incidente no solo en su capa superficial sino también en las interiores.

Page 204: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.4 Resultados de la deconvolución en ojo artificial 183

Las aberraciones de alto orden correspondientes al ojo artificial las indujimos mediante una lámina de fase (LF). Dichas aberraciones corresponden con aberraciones oculares reales. El procedimiento seguido en esta experiencia fue el siguiente. Iluminamos el ojo artificial sin aberraciones. En un caso con la fuente 3 y en otro (cuando empleamos el papel como retina) con las fuentes 1 y 2 del brazo de iluminación cuyos niveles de potencia fueron respectivamente 0.9 μW y 33 μW, (ver fig 7.17(a)). Movimos el sistema badal hasta enfocar la imagen del objeto de referencia proporcionada por la cámara 2. Llegados a ese punto adquirimos la imagen del fondo de ojo y la imagen proporcionada por el sensor. Usamos la imagen del objeto de referencia como elemento de contraste a la hora de valorar las técnicas de restauración de imagen FW y FW-PC. En cuanto a la imagen del sensor la emplearemos para obtener los centroides de referencia necesarios para estimar el frente con el HS. Una vez tenemos la imagen y los centroides de referencia situamos, con la ayuda de la cámara de monitorización pupilar (ver fig 7.17(a)), la LF2 delante del ojo artificial con el fin de simular las aberraciones oculares de alto orden. Seguidamente adquirimos las imágenes proporcionadas por el canal imagen y por el sensor HS correspondientes al objeto pequeño. Posteriormente colocamos el papel a modo de retina artificial en el plano focal de L9 y encendemos el brazo de iluminación para obtener la imagen correspondiente al objeto extenso. Después registramos de nuevo las imágenes proporcionadas por ambos canales. El siguiente paso consistió en introducir la pantalla compensadora de fase, LF1, en el sistema de observación. Dicha lámina se situó en el primer plano conjugado con la pupila del ojo artificial junto a DA1, ajustando su posición mediante el canal de posicionamiento. Con el fin de corregir posibles desenfoques residuales se empleó el sistema badal. Finalmente se adquirieron las imágenes proporcionadas por los canales imagen y del sensor. Estas imágenes las empleamos para restaurar la imagen mediante la técnica FW-PC. 7.4.2 Resultados Vamos a mostrar ahora los resultados de las experiencias descritas anteriormente. Empezamos presentando el estudio correspondiente al objeto pequeño. Así pues recogemos en la figura 7.18 las siguientes imágenes: (a) imagen del objeto de referencia; (b) imagen degradada por la óptica ocular incluida la LF2; (c) imagen

Page 205: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

184 7.4 Resultados de la deconvolución en ojo artificial

degradada por la aberración residual tras la compensación parcial con la LF1; (d) imagen restaurada mediante FW-PC; (e) imagen restaurada mediante FW.

(d) (e)

FW-PC FW

(a) (b) (c)

PC IM. REF. IM. DEG.

Figura 7.18: (a) imagen de referencia, (b) Imagen degradada por la óptica ocular, (c) Imagen degradada por la aberración residual tras PC, (d) Imagen restaurada con FW-PC, y (e) Imagen restaurada con FW.

Claramente se observan los beneficios de emplear compensación parcial (PC). Por un lado el empleo de la PC posibilita que en vez de observar la imagen fuertemente degradada mostrada en la fig. 7.18(b) se pueda observar una imagen poco definida del objeto de referencia como se muestra en fig 7.18(c). Este aumento en la calidad de la imagen no solo tiene beneficios a nivel visual sino que también favorece al proceso de deconvolución como se observa de comparar fig. 7.18(d) con fig. 7.18(e). De hecho se puede observar que la imagen obtenida con PC es de mejor calidad que la restaurada con el filtro de Wiener (FW). Esto se debe a que la degradación inducida por la aberración ocular, en relación a los niveles de ruido presentes en el proceso, es tan elevada que el proceso de deconvolución no es capaz de proporcionar una restauración satisfactoria. Este hecho reafirma la importancia de la compensación parcial en relación a su empleo junto a técnicas de deconvolución Mostramos ahora los resultados correspondientes a la observación de objetos extensos. De toda la zona iluminada de la retina artificial presentamos el análisis de la región circular central de diámetro 530 μm. Siguiendo el esquema empleado en la comparación anterior mostramos en la figura 7.19 las siguientes imágenes: (a) imagen del objeto de referencia; (b) imagen degradada por la óptica ocular incluida la LF2; (c) imagen degradada por la aberración residual tras la compensación parcial con la LF1; (d) imagen restaurada mediante FW-PC; (e) imagen restaurada mediante FW.

Page 206: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.4 Resultados de la deconvolución en ojo artificial 185

(a) (b) (c)

(d) (e)

FW-PC FW

PC IM. REF. IM. DEG.

Figura 7.19: (a) imagen de referencia, (b) Imagen degradada por la óptica ocular, (c) Imagen

degradada por la aberración residual tras PC, (d) Imagen restaurada con FW-PC, y (e) Imagen restaurada con FW. Región estudiada de 530 μm de diámetro.

De nuevo se observa como el empleo de la lámina de fase permite observar detalles inapreciables en la imagen obtenida con el ojo sin compensar. Igualmente se pone de manifiesto la superioridad de FW-PC respecto a FW a la hora de obtener imágenes de alta resolución espacial. Como ejemplo del incremento de resolución podemos comprobar como los puntos brillantes señalados con flechas en la figura 7.19, son únicamente observables en la imagen de referencia y en la obtenida con la técnica de FW-PC. Así pues hemos mostrado la utilidad de la técnica de FW-PC en la obtención de imágenes de alta resolución. Hemos visto la importancia del empleo de compensación parcial de la aberración ocular para la obtención de imágenes de alta resolución mediante técnicas de restauración. De igual modo hemos comprobado el

Page 207: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

186 7.5 Resultados de la deconvolución en ojo real

correcto funcionamiento del dispositivo experimental, y en especial debido a su relevancia, del sensor de frente de onda tipo Hartmann-Shack. Pero también verificamos la correcta implementación de los distintos algoritmos relacionados tanto con la estimación de la aberración presente en el sistema como con la restauración de la imagen degradada. En el siguiente apartado emplearemos nuestro dispositivo para la obtención de imágenes de alta resolución del fondo de ojo ahora si con ojos reales. 7.5 Resultados de la Deconvolución en ojo real Empezaremos este apartado describiendo la experiencia y el protocolo de toma de datos. Seguidamente presentaremos los resultados relacionados con el empleo de compensación parcial mediante la comparación de imágenes de fondo de ojo obtenidas con y sin dicha técnica. En este apartado también analizaremos algunas de las limitaciones que presenta su uso. Seguidamente pasaremos a mostrar los resultados obtenidos con la técnica de deconvolución tras compensación parcial.

Fig. 7.20: Esquema del montaje experimental

Page 208: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.5 Resultados de la deconvolución en ojo real 187

7.5.1 Descripción de la experiencia En esta experiencia empleamos el montaje descrito en el apartado 7.1, que recordamos en la figura 7.20. El protocolo de medidas que seguimos fue el siguiente. Empezamos con la instilación de una gota de tropicamida al 1% en el ojo derecho del sujeto tras obtener su consentimiento informado. Esperamos a que la pupila se dilatase y situamos al sujeto en el dispositivo de observación. Para ello empleamos un mordedor de silicona personalizado, lo que nos va permitir encontrar fácilmente, en series distintas, la región retiniana que queremos observar, y así podremos por ejemplo comparar la observación de la misma zona de la retina con y sin el empleo de la lámina de fase. Encendemos el láser (que empleamos para obtener las medidas aberrométricas) y el led (que usamos para obtener las imágenes de fondo de ojo) y verificamos sus niveles de potencia. Después situamos el sujeto en el montaje y le indicamos que se fije en el láser. Posteriormente movemos axialmente la cabeza del sujeto hasta que la imagen de la pupila proporcionada por la cámara que empleamos para su monitorización nos ofrezca una imagen enfocada de la misma. En ese momento sabemos que el plano en el que se encuentra la pupila está conjugado con el plano en el que se encuentra la matriz de microlentes del sensor. Posteriormente movemos vertical y horizontalmente la cabeza del sujeto hasta centrar su pupila respecto a la matriz de microlentes. Mientras el sujeto fije al láser la imagen proporcionada por la cámara del canal imagen nos mostrará la zona de la retina con la que está fijando y que en general pertenecerá a la fóvea. A partir de ese punto le indicamos al sujeto que mire hacia alguna dirección con el fin de encontrar alguna estructura de interés. Una vez tenemos localizada la zona que queremos observar procedemos a centrar de nuevo la pupila del sujeto respecto a la matriz de microlentes, garantizando que la zona que queremos observar sigue siendo visible. Una vez completamos el proceso de colocación del sujeto enfocamos mediante el sistema badal la imagen de fondo de ojo. En ese momento le decimos al sujeto que parpadee esperamos unos 6 segundos mientras seguimos enfocando la imagen de la retina y empezamos el proceso de adquisición de la serie temporal de medidas. Durante el proceso de adquisición se trató de mantener el enfoque de la imagen

Page 209: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

188 7.5 Resultados de la deconvolución en ojo real

mediante el desplazamiento del sistema badal. Se obtuvieron dos tipos distintos de series, con y sin empleo de la lámina de fase.. Debido a la magnitud de la aberración ocular del sujeto que participó en nuestro experimento fue necesario realizar la compensación mediante el empleo de un juego de dos láminas de fase cada una de las cuales es responsable de compensar la mitad de la aberración ocular. El diámetro pupilar osciló según la serie entre 6.4-5.2 mm y los aumentos empleados en el canal de iluminación fueron 6.25x y 12.5x, según empleásemos para formar imagen una lente de 10 ó 20 cm de focal. Respecto a las fuentes de iluminación empleadas, usamos para las medidas aberrométricas un láser controlable en potencia de longitud de onda central de emisión de 633 nm y ancho espectral de 30 nm. La potencia con la que se trabajó osciló entre 2 y 4 μW. Por otro lado para la obtención de las imágenes de fondo de ojo empleamos dos leds Luxeon Star/O de longitudes de onda centrales de emisión 625 nm y 530 nm respectivamente, con un potencia de entre 30-40 μW. El tiempo de exposición de las imágenes aberrométricas y de las de fondo de ojo fue de 120 mseg con un intervalo entre muestras de 400 mseg. Una vez hemos descrito el protocolo de la toma de datos y los valores de los parámetros vamos a proceder a presentar los resultados obtenidos. 7.5.2 Resultados de la compensación parcial Vamos a empezar este apartado mostrando en fig.7.21 (a)-(b) el interferograma y la psf asociada, correspondientes a la fase especificada en el diseño del elemento compensador (fase patrón) incluyendo aberraciones de bajo y alto orden a excepción de los tilts y desenfoque. Como dijimos en el apartado anterior debido a la magnitud de la aberración ocular del sujeto fue necesario emplear un juego de dos láminas para generar la aberración necesaria para realizar su compensación. Este proceder demanda la correcta alineación de las dos láminas de fase de forma que la aberración resultante sea la que pretendemos generar. El alineamiento del dúo de láminas lo realizamos por comparación entre los interferograma correspondiente a las aberraciones de alto orden de la fase patrón y el de la fase generada por el dúo de láminas. Éste

Page 210: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.5 Resultados de la deconvolución en ojo real 189

último se generó en tiempo cuasi-real (a intervalos de 500 msec) a partir de las medidas obtenidas con el sensor HS de nuestro montaje durante el proceso de alineación. En la figuras 7.21(c)-(d) mostramos los interferogramas (λ=0.633 μm), generados computacionalmente incluyendo únicamente aberraciones de alto orden, correspondientes a la fase patrón y la fase medida con el sensor HS de nuestro montaje obtenida al final del proceso de alineación.

(a) (b)

(c) (d)

Fig. 7.21: (a) Interferograma de la fase y (b) psf patrón que queremos generar con el elemento de fase incluyendo aberraciones de bajo y alto orden a excepción de los tilts y desenfoquee;(c)-(d) interferogramas generados considerando únicamente aberraciones de alto orden de la fase patrón (c) y de la fase inducida por el dúo de láminas (d) medida con el sensor HS de nuestro montaje. Diámetro pupilar 6.2 mm.

Teniendo en cuenta todos los coeficientes modales a excepción de los tilts y el desenfoque correspondientes a la fase patrón y la fase generada con el dúo de láminas observamos que la diferencia rms entre las dos fases es de 0.28 μm, y de 0.13 μm si también excluimos los astigmatismos.

Page 211: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

190 7.5 Resultados de la deconvolución en ojo real

La compensación obtenida de la aberración ocular presentada por el sujeto de nuestro estudio con el dúo de láminas considerando todas sus componentes modales fue de un 77%. Vamos a mostrar ahora una serie de imágenes de fondo de ojo tomadas con y sin el empleo de compensación parcial. Empezamos mostrando en la figura 7.22 la imagen del spot retiniano formado por el láser para tres casos distintos: (a) sin compensación parcial; (b) con compensación parcial (PC) mediante lámina de fase; (c) con PC pero con la pupila del sujeto desplazada respecto a la lámina de fase.

(a) (b) (c)

Fig.7.22: Imágenes del láser proyectado sobre la retina: (a) sin lámina de fase; (b) con lámina de fase; (c) con lámina de fase pero con cierto grado de descentramiento de la pupila del sujeto respecto a la lámina. Diámetro pupilar 6.2 mm. Tamaño angular horizontal de la imagen 0.15º.

Observamos en fig.7.22 la mejora introducida gracias al empleo de las láminas de fase. Así mismo comprobamos la importancia del correcto alineamiento del ojo respecto al elemento compensador. En la fig.7.23 mostramos la imagen de una drusa observada con y sin compensación parcial, así como la fase residual medida en cada uno de los casos. La fase residual la mostramos módulo λ, siendo λ=0.633 μm para facilitar su análisis. El diámetro pupilar con el que se obtuvieron estas imágenes fue de 5.4 mm, longitud de onda 0.625 μm, tiempo de exposición 120 mseg.

Page 212: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.5 Resultados de la deconvolución en ojo real 191

(a) (b)

(c) (d)

Fig. 7.23: Fase residual e imágenes de fondo de ojo obtenidas con compensación parcial (a)-(c) y sin compensación (b)-(d).Diametro pupilar 5.4 mm. Tamaño angular 1.48º de lado.

De nuevo se observa una mayor calidad visual de la imagen obtenida con la compensación parcial de la aberración. No sólo las drusas aparecen más definidas sino que incluso se aprecian otras estructuras oculares en el fondo de la imagen. Gracias al empleo de la lámina de fase se puede discernir la presencia de 5 drusas de distinto tamaño, mientras que sin la compensación parcial únicamente se intuyen 2. Hasta aquí hemos presentado un par de ejemplos sobre la mejora que se puede esperar compensando parcialmente la aberración ocular con las láminas de fase fabricadas en nuestro laboratorio, tanto a nivel de calidad visual de la imagen como de la fase. Vamos ahora a presentar un tercer ejemplo. En este caso para obtener la imagen de fondo de ojo iluminamos con el led que emite en verde (λ=0.530 μm). Con esta iluminación esperábamos obtener imágenes de mayor contraste debido a la fuerte absorción que presentan los vasos sanguíneos a esta longitud de onda. En la figura 7.24 mostramos este ejemplo.

Page 213: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

192 7.5 Resultados de la deconvolución en ojo real

(a) (b)

Fig. 7.24: Imágenes de fondo de ojo (a) sin y (b) con compensación parcial e iluminación de fondo con led emitiendo en verde (λ=0.530 μm).Diámetro pupilar 5.6 mm. Tamaño angular horizontal de la imagen 1.85º.

A pesar de que la mejora obtenida en este caso se aprecia con mayor dificultad, se sigue observando una mayor definición de los bordes de los capilares. En ambas imágenes se observa un aumento del contraste en relación con las obtenidas con led rojo. De hecho podemos observar una serie de capilares en la vecindad de las drusas que no son observables cuando iluminamos con rojo (ver fig. 7.23). También se observa una fuerte disminución de la relación señal ruido de la imagen. Al emplear el dúo de láminas para realizar la PC se reduce la SNR un 26% respecto a la incial. Esta disminución de la SNR de la imagen se debe a que las láminas de fase empleadas fueron fabricadas en un tipo de fotorresina que absorbe mucho el verde mientras que es prácticamente transparente en rojo, de forma que cuando iluminamos con el led en rojo, la disminución de irradiancia en la imagen es inapreciable. Sin embargo cuando iluminamos con verde la fotorresina absorbe gran parte de la luz que la atraviesa, provocando así una disminución significativa de la irradiancia en el plano imagen. La solución a esta disminución de la SNR pasa por la fabricación de las LF en materiales con una mayor transparencia [Ari03B]. 7.5.3 Resultados de la FW-PC Vamos ahora a completar el análisis presentando los resultados obtenidos con la técnica de deconvolución tras medida de frente de onda y compensación parcial (FW-PC). Para ello mostraremos a continuación distintas imágenes obtenidas sin y con compensación parcial (PC) de la aberración ocular mediante láminas de fase (LF), e imágenes restauradas mediante la técnica de FW y FW-PC. . Estas

Page 214: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.5 Resultados de la deconvolución en ojo real 193

imágenes fueron obtenidas en las siguientes condiciones: diámetro pupilar 5.3 mm; longitud de onda de iluminación 0.625 μm; tiempo de adquisición 120 msec; y relación de aumentos entre el plano imagen y retiniano de 6.25 ó 12.50. A la hora de obtener las imágenes restauradas empleamos el filtro de Wiener (FW) con un parámetro de regularización elevado (γ=0.05 y γ=0.01) debido a la baja relación señal ruido de las imágenes registradas. A pesar de la idoneidad del filtro vectorial de Wiener para este tipo de estudios en los que como comentamos en el capítulo 5 y 6 la función de degradación fluctúa en el tiempo, su aplicación en el presente estudio se vio dificultada por los movimientos oculares. La correcta implementación del FVW demanda que el objeto a restaurar sea el mismo en todas las muestras, y en nuestro caso los movimientos oculares provocan que esto no sea así. Sin embargo existen distintas alternativas no evaluadas por el momento que permiten compensar estos desplazamientos incontrolados de la retina como son el empleo de un “tracker” de imagen retiniana o la compensación por software basada en la selección de una misma región de todas las imágenes recogidas. Gracias a estas técnicas se puede conseguir que en todas las muestras el objeto degradado sea el mismo permitiendo así la correcta implementación del FVW. En la figura 7.25 mostramos un par de imágenes de vasos sanguíneos obtenidas sin PC y las correspondientes imágenes restauradas empleando FW con γ=0.05. La extensión angular de la imagen es de 2.6º. En (a)-(c) mostramos las imágenes degradadas en dos instantes de tiempo distintos. Mientras que en (b)-(d) presentamos las imágenes restauradas empleando FW. Se observa que el proceso de restauración provoca cierta mejora en la calidad visual de las imágenes analizadas, que se manifiesta en un mayor contraste de los vasos presentes en las mismas.

Page 215: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

194 7.5 Resultados de la deconvolución en ojo real

Degradada Restaurada DWFS

(a) (b)

(c) (d)

Fig. 7.25: Imágenes degradadas y restauradas sin PC. (a)-(c) Imágenes degradadas, (b)-(d) Imágenes restauradas mediante FW. Tamaño angular de 2.6º, γ=0.05, aumentos 6.25.

En la figura 7.26 mostramos otra serie de imágenes de una zona de la retina próxima a la analizada en fig. 7.25 obtenidas con PC. De nuevo presentamos a la izquierda las imágenes degradadas y a la derecha las restauradas. Comparando la figura 7.26 (a)-(c)-(e) con la fig. 7.25 (a)-(c) observamos la mejora significativa obtenida gracias a la compensación parcial de la aberración ocular mediante la lámina de fase. Dicha mejora no solo se manifiesta en un mayor contraste de los vasos sino también en la aparición de estructuras de menor tamaño en el fondo de las imágenes. Más aún se comprueba como el proceso de restauración mediante FW-PC proporciona una mejora significativa de la calidad de las imágenes restauradas respecto a las obtenidas con PC.

Page 216: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.5 Resultados de la deconvolución en ojo real 195

Degradada PC Restaurada FW-PC

(a) (b)

(c) (d)

(e) (f)

Fig. 7.26: Imágenes degradadas y restauradas con PC. (a)-(c)-(e) Imágenes degradadas, (b)-(d)-(f) Imágenes restauradas mediante FW-PC. Tamaño angular de 2.6º, γ=0.05, aumentos 6.25.

Page 217: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

196 7.5 Resultados de la deconvolución en ojo real

En la fig. 7.26(c)-(d) mostramos una muestra en la que se produjo un movimiento ocular significativo durante el tiempo de adquisición. Como se puede observar lo que en realidad es un vaso aparece en este caso como dos. Comparando esta imagen con (a)-(b) y (e)-(f) comprobamos la perdida de nitidez tanto en las imágenes degradadas como en las restauradas. De esta forma mostramos como los movimientos oculares en relación con el tiempo de adquisición que empleamos van a suponer una limitación a la resolución que podremos alcanzar. Vamos a presentar ahora otra serie de imágenes pero en este caso de la región perifoveal obtenidas con 12.5 aumentos, lo que nos proporciona un tamaño de píxel en el plano de la retina de 0.5 μm, de forma que en un principio el sistema presenta una tasa de muestreo suficiente como para poder resolver dichos conos.

Degradada Restaurada

(a) (b)

(c) (d)

Fig. 7.27 Imágenes degradadas y restauradas sin PC. (a)-(c) Imágenes degradadas, (b)-(d) Imágenes restauradas mediante FW. Tamaño angular de 1.3º de lado, γ=0.05, aumentos 12.5.

Page 218: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.5 Resultados de la deconvolución en ojo real 197

Observamos que la restauración con el FW aumenta ligeramente la calidad visual de las imágenes gracias a un incremento del contraste de las mismas. Dicho aumento es suficiente como para permitir la observación de estructuras que en las imágenes degradadas apenas son perceptibles. Vamos ahora a mostrar las imágenes obtenidas con compensación parcial (PC) de la misma región perifoveal. En este caso presentaremos al igual que en las figuras anteriores las imágenes obtenidas con PC y las imágenes restauradas obtenidas con FW-PC con γ=0.1.

(a) (b)

(c) (d)

Degradada Restaurada

Fig. 7.28 Imágenes obtenidas con PC (a)-(c), y restauradas mediante -FW-PC (b)-(d). γ=0.1.Tamaño angular de 1.3º de lado.

En la siguiente figura mostramos las imágenes obtenidas con PC de la misma región perifoveal pero obtenidas con otros valores del parámetro de regularización γ=[0.05, 0.01].

Page 219: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

198 7.5 Resultados de la deconvolución en ojo real

Degradada Restaurada γ=0.05 Restaurada γ=0.01

Fig. 7.29 Imágenes obtenidas con PC (primera columna): Imágenes restauradas con FW-PC

y γ=0.05 (segunda columna): Imágenes restauradas mediante FW-PC y γ=0.01 (tercera columna). Tamaño angular de 1.3º, aumentos 12.5.

Comparando las figuras 7.28 y 7.29 observamos por una parte como la restauración permite la observación de detalles ocultos en las imágenes degradadas. Por otro lado observamos el efecto de la elección del parámetro de regularización. Vemos que al disminuir γ las imágenes presentan estructuras de mayor frecuencia espacial. Sin embargo observando la tercera fila de la figura 7.29 comprobamos que las imágenes restauradas presentan cierto grado de detalles espurios cuya frecuencia espacial aumenta a medida que disminuye el parámetro de regularización. De forma que estructuras presentes en la imagen cuya frecuencia espacial sea del

Page 220: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.5 Resultados de la deconvolución en ojo real 199

orden de la presentada por estos detalles podría ser identificada de forma incorrecta. Y este hecho atañe directamente a la posibilidad de observar el mosaico de conos en las imágenes restauradas. Con el fin de mostrar lo expuesto en este párrafo mostramos en fig.7.30(a) la restauración de la región cuadrada comprendida entre los píxeles de coordenadas (200,200) y (450,450) de la figura 7.29 (a) y en fig. 30(c) la restauración de una imagen de ruido cuyos valores de irradiancia fueron generados aleatoriamente con valor medio y desviación típica del orden de la componente de ruido presente en las imágenes de fondo de ojo analizadas en este apartado. Ambas imágenes se restauraron empleando la misma OTF estimada y γ=0.05. L las figuras (b)-(c) se obtuvieron usando γ=0.01.

(a) (b)

(c) (d)

Fig. 7.30 Imágenes de una sección perifoveal restauradas mediante FW-PC: (a) γ=0.05, (b) γ=0.01. En (c) y (d) mostramos dos imágenes restauradas cuyos valores de irradiancia fueron generados aleatoriamente con valor medio y desviación típica del orden del ruido presente en las imágenes de fondo de ojo con γ=0.05 y γ=0.01 respectivamente. Tamaño angular de 0.48º, aumentos 12.5.

Page 221: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

200 7.5 Resultados de la deconvolución en ojo real

Como se puede observar las imágenes obtenidas con el mismo γ (fig. 7.30(a)-(c) y (b)-(d) presentan estructuras de la misma frecuencia espacial. Esta comparación nos muestra que a la hora de identificar estructuras oculares de alta frecuencia vamos a tener que verificar de algún modo que son estructuras reales y no producto del proceso de restauración. Un posible criterio que podemos emplear para reducir la incertidumbre en la clasificación de dichas estructuras como reales o meros productos de la restauración es la comprobación de la presencia de la misma estructura en imágenes de fondo de ojo obtenidas en distintos instantes de tiempo, de forma que la componente de ruido presente en la imagen sea diferente, y se provoque la aparición de estructuras espurias diferentes en las imágenes restauradas. En la siguiente figura mostramos la restauración obtenida de dos muestras consecutivas obtenidas durante la adquisición de una secuencia de imágenes de fondo de ojo. Las imágenes fueron restauradas mediante FW-PC y con γ=0.1. Podemos observar la presencia de estructuras semejantes en ambas muestras que resaltamos con los círculos y las flechas.

Tanto el tamaño de las estructuras (5 μm) como su organización espacial y repetición entre muestras, nos hacen pensar con cierta cautela en que podrían ser conos perifoveales. A la luz de los resultados obtenidos podemos decir que la técnica de deconvolución tras medida de frente de onda y compensación parcial permite mejorar la

250 300 350 400 450 500

350

400

450

500

300

550

250 300 350 400 450 500

350

400

450

500

550

Fig 7.31: Imágenes consecutivas restauradas mediante FW-PC con γ=0.1.. Tamaño angular 0.48º. Con el círculo y la flecha mostramos algunas de las zonas coincidentes.

Page 222: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

7.5 Resultados de la deconvolución en ojo real 201

resolución espacial de las imágenes de fondo de ojo poniendo de manifiesto estructuras oculares que sin su empleo no serían apreciadas. Aunque la mejora obtenida nos aproxima significativamente a la identificación de

nos perifoveales no es suficiente como para proporcionar una imagen nítida del comosaico. Sin embargo estamos convencidos de que el empleo del filtro vectorial de Wiener (posibilitado por el uso de alguna técnica que nos permita observar siempre la misma región retiniana) y el aumento de la relación señal ruido de las imágenes de fondo de ojo registradas, serán de gran ayuda para su observación.

Page 223: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 224: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Conclusiones 203

CAPÍTULO 8

CONCLUSIONES

Page 225: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

204 Conclusiones

Vamos a presentar a continuación las principales conclusiones de este trabajo. 1. Se ha llevado a cabo una descripción teórica de las medidas proporcionadas

por los sensores Hartmann-Shack en la que se ha incluido el procesado por umbralización. Se ha demostrado que este procesado tiene un efecto sobre el centroide equivalente al que tendría un filtro que, situado sobre la pupila de cada microlente, modificase la contribución de las distintas partes del frente a su dirección media de propagación. A partir de este análisis se mostró que el procesado por umbralización en presencia de aberraciones de tipo comático provoca el desplazamiento del centroide respecto a su posición correcta. También comprobamos que en presencia de aberraciones comáticas la umbralización implica la pérdida de la linealidad en la relación entre el centroide de la distribución de irradiancia en el plano de detección y el gradiente de la fase presente en la pupila del sistema

2. Se ha estudiado el efecto del ruido del detector sobre el cálculo del

centroide de la distribución de irradiancia, teniendo en cuenta de nuevo el procesado por umbralización. Obtuvimos las expresiones que nos proporcionan tanto el valor medio del centroide como la cota superior de su varianza en función del nivel de umbralización y el ruido. Gracias a este análisis comprobamos que el valor medio del centroide puede estar sesgado respecto a su valor correcto. Asimismo constatamos que la evolución de la cota superior de la varianza del centroide en función del umbral presenta un mínimo, de forma que se abre la posibilidad a la selección de aquel nivel de umbral que aumente la exactitud de nuestro sistema, o aquel otro que aumente su precisión.

3. Demostramos la equivalencia entre estimar la aberración ocular respecto a

un sistema de referencia solidario a la pupila del ojo, de forma directa, y hacerlo de forma indirecta mediante una transformación lineal de los coeficientes estimados respecto a otro sistema de referencia, en particular el definido por los ejes del aberrómetro. Esta equivalencia se ha establecido para sistemas de referencia relacionados por transformaciones lineales de coordenadas (traslaciones, rotaciones y/o cambios de escala). También proporcionamos las expresiones exactas para el cálculo de la matriz de transformación que permite relacionar los coeficientes estimados respecto a ambos sistemas de referencia.

Page 226: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Conclusiones 205

4. Mostramos el efecto que tiene el error de la estimación de los coeficientes

modales sobre la MTF ocular estimada. Vimos que el efecto de modelar mal las medidas del sensor es reducido. Por otra parte comprobamos que al considerar que el frente tiene menos modos de los que realmente tiene, la MTF ocular se subestima mientras que el ruido en las medidas produce su sobreestimación.

5. Se ha mostrado la importancia de la elección del filtro de restauración en la

técnica de deconvolución tras medida de frente de onda. En cuanto a la posibilidad de emplear varias imágenes en el proceso de restauración comprobamos la superioridad del filtro vectorial de Wiener respecto al filtro de Wiener tradicional.

6. Se ha propuesto la técnica de deconvolución tras medida del frente de onda

con compensación parcial para la obtención de imágenes de alta resolución del fondo ocular. Ésta técnica está basada en el empleo de elementos compensadores de aberración para elevar significativamente la OTF del sistema formador de imagen, en el que se incluye la óptica aberrada del ojo, aumentando de esta forma la frecuencia de corte efectiva del sistema.

7. Se ha comprobado mediante simulación la viabilidad de la técnica de

deconvolución tras medida de frente de onda con compensación parcial para la obtención de imágenes de alta resolución del fondo de ojo. Más aún mostramos la posibilidad de obtener con esta técnica imágenes del mosaico de conos utilizando una única muestra.

8. Se ha construido un sistema de imagen de alta resolución para la

implementación práctica de la técnica de deconvolución tras medida del frente de onda con compensación parcial. Este sistema consta de un canal que permite la observación del fondo ocular, con la posibilidad de acceder a planos conjugados con la pupila para situar elementos compensadores de fase, y un sensor de frente de onda Hartmann-Shack íntegramente construido y desarrollado para la realización de este trabajo. Se comprobó la utilidad del sistema para la obtención de imágenes de alta resolución de fondo de ojo mediante la técnica de deconvolución tras medida del frente de onda y compensación parcial. Asimismo hemos conseguido obtener imágenes de alta resolución espacial

Page 227: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

206 Conclusiones

mediante el empleo de una única muestra, lo que abre la posibilidad al empleo de técnicas de deconvolución como alternativa a la óptica adaptativa.

9. Con el fin de calibrar el sensor de frente de onda se ha desarrollado un

conjunto de láminas de fase que permiten la identificación de errores difícilmente detectables con el uso de otras técnicas.

10. Para la monitorización de la pupila se ha demostrado el uso de un divisor

de haz situado entre la matriz de microlentes y la lente relé del sensor de frente de onda de forma que se puede registrar la imagen de la pupila vista a través de la matriz de microlentes lo que nos proporciona un test para el posicionamiento axial y transversal del elemento de fase que queremos medir, bien sea un componente óptico o un ojo humano.

11. Se ha desarrollado un sistema de seguimiento o “tracking” pupilar basado

en la medida del centroide de la distribución de irradiancia de las imágenes aberrométricas, lo que posibilita el uso de estas imágenes para determinar los movimientos oculares ocurridos durante el proceso de medida. De esta forma se evita la necesidad de emplear instrumentación específica para esta tarea.

Page 228: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

APENDICE A 207

Apéndice A: Obtención de los índices p q del generador en cartesianas de polinomios de Zernike El generador de polinomios de Zernike que empleamos en este trabajo es el siguiente:

2( ) 2( )

0 0 0

( )!( 1)!( )!( )!

q m jmm m i j i k p n i j k pn n

i j k

n jZ N y xj m j n m j

−+ + + − + + −

= = =

−= −

− − −∑∑∑ (A.1)

En este apéndice vamos a presentar las expresiones empleadas para obtener el valor de los índices empleados en el generador.

0( ) 2

22 00

( ) 2 12

1( ) 2

22 01

( ) 2 12

pn par n mq

n mp

n impar n mq

pn par n mq

n mp

n impar n mq

⎧ =⎧⎪⎪ ⎨ −⎪ = −⎪⎪ ⎩− ≤ ⇒ ⎨

=⎧⎪ ⎪⎪ ⎨ − += −⎪ ⎪⎩⎩

⎧ =⎧⎪⎪ ⎨ −⎪ =⎪⎪ ⎩− > ⇒ ⎨

=⎧⎪ ⎪⎪ ⎨ − −=⎪ ⎪⎩⎩

(A.2)

Notación de Zernike con uno y dos índices Primero vamos a mostrar el paso de notación con dos índices a un índice:

( 2)2

n n mj + +=

(A.3)

En cuanto al paso de notación con un índice a dos índices las expresiones que lo posibilitan son:

3 9 82

2 ( 2)

jn roundup

m j n n

⎡ ⎤− + += ⎢ ⎥

⎢ ⎥⎣ ⎦= − +

(A.4)

Page 229: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 230: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Apéndice B: Primeras páginas de los artículos relacionados con esta tesis 209

APÉNDICE B:

PRIMERAS PÁGINAS DE LOS ARTÍCULOS

RELACIONADOS CON ESTA TESIS

Page 231: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

210 Apéndice B: Primeras páginas de los artículos relacionados con esta tesis

Page 232: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Apéndice B: Primeras páginas de los artículos relacionados con esta tesis 211

Page 233: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

212 Apéndice B: Primeras páginas de los artículos relacionados con esta tesis

Page 234: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Apéndice B: Primeras páginas de los artículos relacionados con esta tesis 213

Page 235: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

214 Apéndice B: Primeras páginas de los artículos relacionados con esta tesis

Page 236: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Apéndice B: Primeras páginas de los artículos relacionados con esta tesis 215

Page 237: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

216 Apéndice B: Primeras páginas de los artículos relacionados con esta tesis

Page 238: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Apéndice B: Primeras páginas de los artículos relacionados con esta tesis 217

Page 239: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

218 Apéndice B: Primeras páginas de los artículos relacionados con esta tesis

Page 240: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Declaración de originalidad 219

DECLARACIÓN DE ORIGINALIDAD

Page 241: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 242: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Declaración de originalidad 221

Declaración de Originalidad Esta Tesis recoge el trabajo realizado y los resultados obtenidos de la actividad investigadora desarrollada por su autor. Sin embargo, como sucede siempre que se trabaja en equipo, parte de los resultados presentados en esta tesis se han beneficiado de la colaboración intensa con diversos miembros del grupo de investigación. A continuación destacamos dichas colaboraciones: Capitulo 3 El análisis teórico y experimental realizado sobre la influencia del procesado por umbralización sobre la estadística del centroide en presencia de ruido de lectura gaussiano, y el estudio sobre el desplazamiento del centroide inducido por el procesado por umbralización en ausencia de ruido se han desarrollado en estrecha colaboración y a partes iguales con D. Jorge Ares. El análisis teórico sobre la estimación de la aberración ocular a partir de la medida del gradiente local de la aberración cuando se produce una transformación lineal de coordenadas entre el sistema de coordenadas solidario a la pupila del ojo y el sistema de coordenadas solidario al sistema óptico de medida se llevó a cabo en colaboración a partes iguales con D. Salvador X. Bará. Capítulo 7 El método de identificación y ordenación de los focos presentes en las imágenes aberrométricas fue desarrollado en colaboración estrecha con D. Jorge Ares. El método de calibración que emplea láminas de fase que inducen aberraciones de alto orden fue desarrollado en colaboración con Pablo Rodríguez, Rafael Navarro, Salvador X. Bará, El método de seguimiento pupilar desarrollado fue concebido en colaboración con D. Salvador X. Bará y Dña. Paula Prado.

Page 243: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 244: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Referencias 223

REFERENCIAS

Page 245: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 246: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Referencias 225

[Aco05] Acosta E., S. Bará, “Variable aberration generators using rotated Zernike plates”, J.Opt.Soc.Am. A, 22 (9), pp. 1993-1996, 2005

[Ale91] Alexander B.F., K. Cheng, “Elimination of systematic error in subpixel accuracy centroid estimation”, Opt. Eng., 30(9), 1320-1331, 1991.

[ANSI04] American National Standards Institute, Methods for reporting optical aberrations of eyes, ANSI Z80.28-2004, Optical Laboratories Association (Merrifield, VA) Annex B, 19-28, 2005.

[App93] Applegate R.A., V. Lakshminarayanan, “ Parametric representation of Stiles-Crawford functions: normal variation of peak location and directionality”, ”, J. Opt. Soc. Am. A, 10( 7), 1611-1623, 1993.

[Are00] Ares J., T. Mancebo, S. Bará, “Position and displacement sensing with Shack—Hartmann wave-front sensors”, Appl.Opt., 39(10), 1511-1520, 2000.

[Are01] Ares J., J. Arines, “Effective noise thresholding intensity distribution: influence on centroid statistics”, Opt. Lett., 26(23), 1831-1833, 2001.

[Are04] Ares J., J. Arines, “Influence of thresholding on centroid statistics: a full analytical description”, App. Opt, 43(31), 5796-5805, 2004.

[Ari00] Arines J., J. Ares, S. Bara, “ Hybrid technique for high resolution imaging of the eye fundus,” International symposium: Adaptive Optics: from telescopes to the human eye, Murcia, Spain, 2000.

[Ari00B] Arines J., S. Bará, “Significance of the recovery filter in deconvolution from wavefront sensing”, Opt. Eng., 39(10), 2789-2796, 2000.

[Ari00C] Arines J., J. Ares, S. Bará, “Imaging processing techniques for increasing the dynamic range of a Shack-Hartmann positioner”, IEEE, 2000 Conference on Lasers and Electro-Optics Europe, ISBN: 0-7803-6319-1, 251. 2000.

[Ari02] Arines J., J. Ares, “Minimum variance centroid thresholding”, Opt. Let., 27(7), 497-499, 2002.

[Ari03] Arines J., S. Bara, "Hybrid technique for high resolution imaging of the eye fundus," Opt. Express 11, 761-766, 2003.

[Ari03B] Arines J., C. Montero, J. Ares, S. Bará, “Fabricacion de matrices de microlentes y pantallas de fase en sustratos polimericos de calidad optica”, 7ª reunion Nacional de Óptica, ISBN: 84-8102-348-5, pp. 42-44, Santander, 2003.

[Ari04] Arines J., J. Ares, “Significance of thresholding processing in centroid based gradient wavefront sensors: effective modulation of the wavefront derivative”, Opt. Comm., 237, 257-266, 2004.

Page 247: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

226 Referencias

[Art01] Pablo Artal, Antonio Guirao, Esther Berrio, David R. Williams, “Compensation of corneal aberrations by the internal optics in the human eye”, J. Vis., 1, 1-8, 2001.

[Ass02] van Assen H. C., M. Egmont-Petersen, and J. H. C. Reiber, “Accurate Object Localization in Gray Level Images Using the Center of Gravity Measure: Accuracy Versus Precision”, IEEE Trans. Im. Proc. 11(12), pp. 1379-1384, 2002.

[Aye88] Ayers G.R., J.C. Dainty, “Iterative blind deconvolution method and its applications”, Opt. Lett., 13(7), 547-549, 1988.

[Bab53] Babcock H.W., “The possibility of compensating astronomical seeing”, Publ. Astr. Soc. Pacific, 65, pp. 229-236, 1953.

[Bar91] Baribeau R., M. Rioux, “Centroid fluctuations of speckled targets”, App.Opt. 30(26), 3752-3755, 1991.

[Bar91B] Baribeau R., M. Rioux, “Influence of speckle on laser range finders”, App. Opt. 30(20), 2873-2878, 1991.

[Bar03] Bara S., “Measuring eye aberrations with Hartmann—Shack wave-front sensors: Should the irradiance distribution across the eye pupil be taken into account?”, J. Opt. Soc. Am. A, 20(12), 2237-2245, 2003.

[Bar06] Bará S., J. Arines, J. Ares, P. Prado, “Direct transformation of Zernike eye aberration coefficients between scaled, rotated and/or displaced pupils”, enviado a J.Opt.Soc.Am. A, Aceptado

[Bec93] Beckers J.M., “Adaptive Optics for Astronomy: Principles, Performance ans Applications”, Annu. Rev. Astron. Astrophys. 31, 13—62, 1993.

[Ben71] Bendat J.S., A.G. Piersol, Random data: Analysis and measurement procedures, (Willey-Interscience, New York, 1971)

[Bie90] Biemond J., R.L. Lagendijk, R.M. Mersereau, “Iterative methods for image deblurring”, Proc.IEEE., 78(5), 856-883, 1990.

[Bil94] Bilgen M., H.S. Hung, “Constrained least-squares filtering for noisy images blurred by random point spread function”, Opt. Eng., 33(6), 2020-2023, 1994.

[Bor92] Born M., E. Wolf, Principles of Optics, 6ª Ed. Pergamon, Oxford, Capitulo 9, 1992.

[Bue02] Bueno J.M., “Polarimetry in the human eye using an imaging linear polariscope”, J.Opt A: Pure. Appl. Opt., 4, 553-561, 2002

[Bue03] Bueno M.J., M. C. W. Campbell, “Polarization properties of the in vitro old human crystalline lens”, Oph. Phy. Opt. 23, 109—118, 2003.

[Bur02] Burns S.A., S. Marcos, A.E. Elsner and S. Bará, "Contrast improvement of confocal retinal imaging by use of phase-correcting plates,'' Opt. Lett. 27, 400-402, 2002.

Page 248: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Referencias 227

[Bur03] Burns S.A., A. E. Elsner, M. B. Mellem-Kairala,R. B. Simmons,” Improved Contrast of Subretinal Structures using Polarization Análisis”, Inv.Oph. Vis. Sci., 44(9), 4061-4068, 2003.

[Cao94] Cao G., X. Yu, “Accuracy analisys of a Hartmann-Shack wavefront sensor operated with a faint object”, Opt. Eng., 33(7), 2331-2335, 1994.

[Car05] Carroll J., C. G. Daniel, A. Roorda, D. R. Williams, “ Recent advances in retinal imaging with adaptive optics”, Optics & Photonics News, January, 36-42, 2005.

[Cas02] Castejón-Mochón J.F., N. López-Gil, A. Benito, P. Artal, "Ocular wave-front statistics in a normal young population", Vis. Res., 42, 1611-1617, 2002.

[Cat02] Catlin D., C. Dainty, “High resolution imaging of the human retina with a Fourier deconvolution technique,” J.Opt.Soc.Am. A 19, 1515-1523, 2002.

[Cha99] D. S. Chauhan, J. Marshall, “The Interpretation of Optical Coherence Tomography Images of the Retina”, Inv. Oph. Vis. Sci, 40(10), 2332-2342, 1999.

[Cha78] Charman W.N., H. Whitefoot, “Astigmatism, accommodation, and visual instrumentation”, Appl. Opt. 17(24), 3903-3910,1978.

[Che04] Cheng X., N. L. Himebaugh, P.S. Kollbaum, L.. Thibos, A.Bradley, “Test—Retest Reliability of Clinical Shack-Hartmann Measurements”, Inv. Oph. & Vis. Sci., 45(1), 351-360, 2004.

[Chi04] Christou J.C., Austin Roorda, David R. Williams, “Deconvolution of adaptive optics retinal images”, ,” J.Opt.Soc.Am. A, 21(8), 1393-1401, 2004.

[Cla95] Clarke, T.A., “A frame-grabber related error in subpixel target location”. Photogrammetric Record. Vol XV.,86, pp. 315-322, 1995.

[Con96] Conan J.M., V. Michau, G. Rousset, “ Signal-to-noise ratio and bias of various deconvolution from wavefront sensing estimators”, Proc. SPIE Vol. 2828, pp. 332-339, 1996.

[Con98] Conan J.M., L.M. Mugnier, T. Fusco, V. Michau, G. Rousset, “Myopic deconvolution of adaptive optics images by use of object and point-spread function power spectra”, Appl. Opt., 37(21), 4614-4622, 1998.

[Cub79] Cubalchini R., “Modal wave-front estimation from phase derivative measurements”, J. Opt. Soc. Am A, 69(7), 972-977, 1979.

[Dal05] Dalimier E., C. Dainty, “Comparative analysis of deformable mirrors for ocular adaptive optics”, Opt. Exp., 13(11), 4275-4285, 2005.

[Dek97] Dekker J.K.,and A. van den Bos, “Resolution: a survey”, J. Opt. Soc. Am. A, 14(3), 547-557, 1997.

Page 249: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

228 Referencias

[Del89] Delori F.C., K.P. Pfilbsen, “Spectral reflectance of the human ocular fundus”, Appl. Opt. 28(6), 1061-1077, 1989.

[Dem89] Demoment G., “Image reconstruction and restoration: Overview of common estimation structures and problems”, IEEE Trans. Acoustics, Speech, and Signal Process., 37, 2024-2036, 1989.

[Dia03] Diaz-Santana L., C. Torti, I. Munro, P. Gasson, C. Dainty, “Benefit of higher closed—loop bandwidths in ocular adaptive optics”, Opt. Exp., 11(20), 2597-2605, 2003.

[Dia05] Diaz-Santana L., G. Walker, S. Bará, “Samplig geometries for ocular aberrometry: a model for evaluation of performance”, Opt. Exp. 13(22), 8801-8818, 2005.

[Dia06] Diaz-Santana L., J. Arines, P. Prado, S. Bará, ““Translational and rotational pupil tracking using wavefront aberration data and image registration techniques”, Opt. Lett. Aceptado.

[Dor94] Dorsch R.G., G. Hausler, J. M. Herrmann, “Laser triangulation: fundamental uncertainty in distance measurement”, App. Opt., 33(7), 1306-1314, 1994.

[Dre89] Dreher A. W., J. F. Bille, R. N. Weinreb, “Active optical depth resolution improvement of the laser tomographic scanner”, Appl. Opt. 28(4), pp. 804-808, 1989.

[Dre99] Drexler W., U. Morgner, F. X. Kartner, C. Pitris, S. A. Boppart, X. D. Li, E. P. Ippen, and J. G. Fujimoto, “In vivo ultrahigh-resolution optical coherence tomography”, Opt. Lett. 24(17), pp. 1221-1223, 1999.

[Dub04] Dubra A., C. Paterson, C. Dainty, “Study of the tear topography dynamics using a lateral shearing interferometer”, Opt. Exp. 12(25), 6278-6288, 2004.

[Els92] Elsner A. E., S. A. Burns, G. W. Hughes, R. H. Webb, “Reflectometry with a scanning laser ophtalmoscope”, Appl. Opt. 31(19), 3697-3710, 1992.

[Els00] Elsner A.E., M. Miura, S.A. Burns, E. Beausencourt, C. Kunze1, L.M. Kelley, J.P. Walter, G.L. Wing, P.A. Raskauskas, D.C. Fletcher, Q. Zhou, A.W. Dreher, “Multiply scattered light tomography and confocal imaging: detecting neovascularization in age-related macular degeneration”, Opt. Exp., 7(2), pp. 95-106, 2000.

[Eri04] Eriksson E., Low-order aberration correction with a membrane deformable mirror for adaptive optics, Tesis, Department of Microtechnology and Nanoscience, Photonics Laboratory, Chalmers University of Technology, G¨oteborg, Sweden, 20, 2004.

Page 250: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Referencias 229

[Fer01] Fernández E. J., Ignacio Iglesias, and Pablo Artal, “Closed-loop adaptive optics in the human eye”, Opt. Lett., 26(10), 746-748, 2001.

[Fer02] Ferher A.F., C.K. Hitzenberger, Optical Coherence Tomography, E. Wolf Progress in Optics Vol. 44, Ed. Elsevier Science B.V., Cap. 4, 215-296, 2002.

[Fie86] Fienup J.R., C.C. Wackerman, “Phase-retrieval stagnation problems and solutions”, J. Opt. Soc. Am. A, 3(11), 1897-1907, 1986.

[Fie01] Fiete R.D., T. Tantalo, “Comparison of SNR image quality metrics for remote sensing systems”, Opt. Eng. 40(4), 574—585, 2001.

[Fil92] Fillard J.P., “Subpixel accuracy location estimation from digital signals”, Opt. Eng., 31(11), 2465-2471, 1992.

[Fon85] Fontanella J.C., “Analyse de surface d’onde, déconvolution et optique active”, J. Optics (Paris), 16, 257-268 (1985).

[For98] Ford S.D., B. Welsh, M.C. Roggemann, “Reconstruction of turbulence-degraded images using the vector Wiener filter”, Opt. Eng., 37(9), 2491-2500, 1998.

[Fra02] Franzén Linda, Measurement of peripheral wavefront aberrations in the hman eye with a Hartmann-Shack sensor”, Tesis, Royal Institute of Technology, Department of Physics, ISSN 0280-316X, Estocolmo, 43-49, 2002.

[Fri77] Fried D.L., “Least-squares fitting wave-front distorsión estimate toa n array of phase-difference measurements”, J. Opt. Soc. Am. A, 67(3), 370-375, 1977.

[Fuj86] Fujimoto J. G., S. De Silvestri, E. P. Ippen, C. A. Puliafito, R. Margolis, A. Oseroff, “Femtosecond optical ranging in biological systems”, Opt. Lett., 11(3), 150-152, 1986.

[Fuj98] Fujimoto J.G., B. Bouma, G.J. Tearney, S.A. Boppart, C. Pitris, J.F. Southern, M.E. Brezinski, “ New technology for high-speed ans high-resolution optical coherence tomography”, Ann N Y Acad Sci, 838, 95-107, 1998

[Gla04] Glanc M., E. Gendron, F. Lacombe, D. Lafaille, J.-F Le Gargasson, P. Lena, “ Towards wide-field retinal imaging with adaptive optics”, Opt. Comm. 230, 225-238, 2004.

[Gob95] Gobbi PG, F: Carones,R. Brancato, M. Carena, A. Fortini, F. Scagliotti, A Morico, E. Venturi. “Automatic eye tracker for excimer laser photorefractive keratectomy”, J Refract Surg, 11(3), 337-342,1995.

[Gon96] Gonzalez R.C., R.E. Woods, Tratamiento Computacional de imagines, Addison-Wesley, Wilmington, 1996.

Page 251: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

230 Referencias

[Gon90] Gongleswki J.D., D.G. Volez, J.S. Fender, D.C. Dayton, B.K. Spielbusch, R.E. Pierson, “First astronomical application of postdetection turbulence compensation: images of α Aurigae, ν Ursae Majoris, and α Germinorum using self-referenced speckle holography”, Appl. Opt., 29(31), 4527-4529, 1990.

[Goo68] Goodman, J. W. , “ Introduction to Fourier Optics”, Ed.McGraw-Hill, Capitulo 6, 123, 1968.

[Goo00] Goodman J.W., Statistical Optics, John Wiley & Sons, New York, Cap. 7, 2000.

[Gra00] Graya L.S., B. Gilmartinb, B. Winn, “Accommodation microfluctuations and pupil size during sustained viewing of visual display terminals”, Ophthal. Physiol. Opt. 20(1), pp. 5-10, 2000.

[Gui01] Guirao A., D. Williams, I. Cox, “Effect of rotation and translation on the expected benefit of an ideal method to correct the eye’s higher-order aberrations”, J. Opt. Soc. Am. A, 18(5), 1003-1015, 2001.

[Har92] Haralick R. M., L. G. Shapiro, “Binary machine vision,” in Computer and Robot Vision Vol. I, Ed. Addison-Wesley Pub. Co., 14-28, 1992.

[Hee95] Hee M.R., J.A. Izatt, E. A. Swanson, D. Huang, J. S. Shuman, C.P. Lin, C. Puliafito, J.G. Fujimoto, “Optical coherence tomography for ophthalmic imaging”, IEEE Eng. Med. Biol., Feb., 67-76, 1995.

[Hem92] Hemenger R. P., “Sources of intraocular light scatter from inversion of an empirical glare function”, App. Opt., 31(19), 3687-3693, 1992

[Her81] Herrmann J., “Cross coupling and aliasing in modal wave-front estimation”, j. Opt. Soc. Am. A., 71(8), 989-992, 1981.

[Her04] Hermann B., E. J. Fernández, A. Unterhuber, H. Sattmann, A. F. Fercher, and W. Drexler, P. M. Prieto and P. Artal, “Adaptive-optics ultrahigh-resolution optical coherence tomography”, Opt. Lett., 29(18), 2142-2144, 2004.

[Hod94] Hodgkinson I.J., P.B: Greer, A.C.B. Molteno, “Point spread function for light scattered in the human ocular fundus”, J. Opt. Soc. Am. A, 11(2), 479-486, 1994.

[Hof01] Hofer H., P. Artal, B. Singer, A.L. Aragón, D.R. Williams, “ Dynamics of the eye’s wave aberration”, J.Opt.Soc.Am.A, 18(3), 497-506, 2001.

[Hof01B] H. Hofer, L. Chen, G. Y. Yoon, B. Singer, Y. Yamauchi and D. R. Williams, “Improvement in retinal image quality with dynamic correction of the eye’s aberrations,” Opt. Express 8, 631-643, 2001.

[Hol96] Holst G.C., CCD Arrays, Cameras and Displays, SPIE Optical Engineering Press, Bellingham, Cap. 4, 1996.

Page 252: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Referencias 231

[How76] Howland B., H.C. Howland, “Subjective Measurementof High-Order Aberrations of the eye”, Science, 193, 580-582, 1976.

[How02] Howland H.C., “High order wave aberration of eyes”, Ophthal. Physiol. Opt., 22, 434—439, 2002.

[Hua91] Huang, D., E. A. Swanson, C. P. Lin, J. S. Schuman, W. G. Stinson, W. Chang, M. R. Hee, T. Flotte, K. Gregory, C. A. Pulia.to, and J.G. Fujimoto, “Optical coherence tomography”. Science, 254, 1178-1181, 1991.

[Ide92] Idell P.S., A. Webster, “Resolution limits for coherent optical imaging: signal-to-noise analysis in the spatial-frequency domain”, J. Opt. Soc. Am. A, 9(1), 43-56, 1992.

[Igl00] I. Iglesias, P. Artal, “High resolution images obtained by deconvolution from wave-front sensing,” Opt. Lett. 25, 1804-1806, 2000.

[Kas02] Kasprzak H.T. ,J.W. Jaronski, “Measurement of fine dynamic changes of the corneal topography by use of interferometry,” Interferometry XI: Applications, Proc. SPIE, 4778, 169—176, 2002.

[Kel04] Kelly J.E., T. Mihashi, H.C. Howland, “Compensation of corneal horizontal/vertical astigmatism, lateral coma, and spherical aberration by internal optics of the eye”, J. Vis , 4, 262-271, 2004.

[Kin03] King-Smith P. E., B. A. Fink, N. F. Kelly K. Nichols, R. M. Hill, G. S. Wilson, “The Thickness of the Human Precorneal Tear Film:Evidence from Reflection Spectra”, Inv. Oph. & Vis. Sci., 41(11), 3348-3359, 2003.

[Kni02] Knighton R.W., X. Huang, “Analytical methods for scanning laser polarimetry”, Opt. Exp. 10(21), 1179-1189, 2002.

[Ko04] Ko T. H., D. C. A., and J. G. Fujimoto, “Ultrahigh resolution optical coherence tomography imaging with a broadband superluminescent diode light source”, Opt. Exp., 12(10), 2112-2119.

[Kot86] Kotulak J.C., C.M. Schor, “Temporal variations in accommodation during steady-state Conditions”, J.Opt. Soc. Am. A, 3(2), 223-227, 1986.

[Lan99] Lane R. I., G. Richard, “Analysis of optimal centroid estimation applied to Shack Hartmann sensing” App. Opt., 38(32), 6737-6743, 1999.

[Lar01] Larichev A.V., P V Ivanov,N G Iroshnikov,V I Shmalhauzen, "Measurement of eye aberrations in a speckle field", Quantum Electron., 31 (12), 1108-1112, 2001.

[Lia94] J. Liang, B. Grimm, S. Goelz, J.F. Bille, “Objective measurement of wave aberrations of the human eye with the use of a Hartmann-Shack wave-front sensor,” J. Opt. Soc. Am. A. 11(7), 1949-1957, 1994.

Page 253: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

232 Referencias

[Lia97] Liang J., D.R. Williams, “Aberrations and retinal image quality of the normal human eye”, J. Opt. Soc. AM. A, 14(11), 2873-2883, 1997.

[Lia97B] Liang J., D. R. Williams, and D. Miller, "Supernormal vision and high-resolution retinal imaging through adaptive optics," J. Opt. Soc. Am. A 14, 2884-2892, 1997.

[Lie67] Liebelt P.B., An introduction to optimal estimation, Addison-Wesley Co., Washington, 1967.

[Mal92] Malacara D., Optical shop testing, 2 Ed. John Wiley & Sons Inc., Canada, Cap.13, 1992.

[Mar96] Marcos Susana, “Estudio de la distribución de fotorreceptores en la fóvea humana mediante interferometría ocular de Speckle”, Tesis Doctoral, Instituto de Óptica Daza Valdés, Universidad de Salamanca, 1996.

[Mar01] Marquez A., C. Iemmi, J.C. Escalera, J. Campos, S. Ledesma, J. A. Davis, M.J. Yzuel, “Amplitude apodizers encoded onto Fresnel lenses implemented on a phase-only spatial light modulator”, App.Opt. 40(14), 2316-2322, 2001.

[Mei86] Meinel E.S., “ Origins of linear and nonlinear recursive restoration algorithms”, J.Opt.Soc.Am. A, 3(6), 787-799, 1986.

[Mon04] Montes-Mico R., J.L. Alio, G. Muñoz, W. N. Charman, “Temporal Changes in Optical Quality of Air—Tear Film Interface at Anterior Cornea after Blink”, Inv. Opht. & Vis Sci, 45(6), 1752-1757, 2004.

[Mon04B] Montes-Mico R., J. L. Alio, Gonzalo Muñoz, J. J. Perez-Santonja, W.N. Charman, “Postblink Changes in Total and Corneal Ocular Aberrations”, Ophthalmology, 111(4), 758-67, 2004.

[Mor89] Morgan J.S., D.C. Slater, J.G. Timothy, E.B. Jenkins, “Centroid position measurements and subpixel sensitivity variations with the MAMA detector”, Appl.Opt., 28(6), 1178-1192, 1989.

[Mor98] Morgan J.E., A Waldock, G JeVery, A Cowey, “Retinal nerve fibre layer polarimetry: histological and clinical comparison”, Br J Ophthalmol, 82. 684—690, 1998.

[Mor00] Moreno E., Laser ray tracing in the human eye: measurement and correction of the aberrations by jeans of phase plates, Tesis, Departamento Fisica Aplicada, Universidad de Cantabria, Madrid, 2000.

[Nav97] Navarro R., M.A. Losada, “Aberrations and relative efficiency of light pencils in the living human eye”, Opt. Vis. Sci., 74(7), 540-547, 1997.

Page 254: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Referencias 233

[Nav00] Navarro R., E. Moreno-Barriuso, S. Bará, T. Mancebo, Phase plates for wave-aberration compensation in the human eye, Optics Letters, Vol. 25, 236-238 (2000),

[Nir03] Nirmaier T., G. Pudasaini, J. Bille, “Very fast wave-front measurements at the human eye with a custom CMOS-based Hartmann—Shack sensor”, Opt. Exp., 11(21), 2704-2716, 2003.

[Pap91] Papoulis A., Probability, Random Variables, and Sthochastic Processes. 3ª Ed. McGraw-Hill, New York, 1991.

[Pfu98] Pfund J., N. Lindlein, J. Schwinder, “Misalignment effects of the Shck-Hartmann sensor”, Appl. Opt. 37(1), 22-27, 1998.

[Pir04] Pirchera M., Erich Götzingera, Rainer Leitgeba, Harald Sattmanna, Oliver Findlband Christoph. K. Hitzenbergera “Imaging of polarization properties of human retina in vivo with phase resolved transversal PS-OCT”, OPt. Exp. 12(24), 5940-5951, 2004.

[Por01] Porter J, Guirao A, Cox IG, Williams DR. Monochromatic aberrations of the human eye in a large population. J Opt Soc Am. A ,18(8), 1793-1803, 2001.

[Pod00] Podoleanu A. Gh., John A. Rogers,David A. Jackson, Shane Dunne, “Three dimensional OCT images from retina and skin”, Opt. Exp. (7)9, 292-298, 2000.

[Pri90] Pimot.J. G. Rousset, J.C. Fontanella, ,“Deconvolution from wavefront sensing: a new technique for compensating turbulence degraded image”, J. Opt. Soc. Am 7(9), 1598-1608, 1990.

[Pri03] Primot J., “Theoretical description of Shack—Hartmann wave-front sensor”, Opt. Comm, 222, 81—92, 2003.

[Prie00] Prieto P.M., F. Vargas-Martín, S. Goelz, P. Artal, “Analysis of the performance of the Hartmann—Shack sensor in the human eye”, J. Opt. Soc. Am. A, 17(8), 1388-1398, 2000.

[Prie04] Prieto P.M., E.J. Fernández, S. Manzanera, P. Artal, “Adaptive optics with a programmable phase modulator: applications in the human eye”, Opt. Exp., 12(17), 4059-4071, 2004.

[Rod05] Rodríguez P., R. Navarro, J. Arines, S. Bará, “A calibration set for ocular aberrometers. Manufacture, Testing and applications”, J.Ref.Surg, 22(3), pp. 275-284, 2006.

[Rog94] Roggeman M.C., B. M. Welsh, “Signal-to-noise ratio for astronomical imaging by deconvolution from wave-front sensing,” Appl. Opt. 33(23), pp. 5400-5414, 1994.

Page 255: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

234 Referencias

[Rog94B] Roggeman M.C., B.M. Welsh, J. Devey, “Biased estimators and object-spectrum estimation in the method of deconvolution from wave-front sensing,” Appl. Opt. 33(24), pp. 5754-5763, 1994.

[Rog96] Roggemann M.C., B. Welsh, Imaging through turbulence, Ed. CRC Press, Boca Raton, 1996.

[Rog97] Roggemann M.C., B. Welsh, R. Fugate, “Improving resolution of ground-based telescopes”, Rew. Mod. Phys., 69(2), 437-505, 1997.

[Rog01] Rogers J. A., A. Gh. Podoleanu, G. M. Dobre, D. A. Jackson, F.. W. Fitzke, “Topography and volume measurements of the optic nerve using en-face optical coherence tomography”, Opt. Exp. 9(10), 533-545, 2001.

[Roo00] Roorda A., “ Adaptive Optics Ophthalmology”, J. Ref. Sur., 16, S602-S607, 2000.

[Roo02] Roorda A., F. Romero-Borja, W. J. Donnelly, III, H. Queener, T. J. Hebert, and M. C. W. Campbell, "Adaptive optics scanning laser ophthalmoscopy," Opt. Express 10, 405-412, 2002.

[Roo02B] Roorda A., Human visual system-image formation, Encyclopedia of Imaging Science and Technology, Vol.1, Editor Joseph P. Hornak, (John Wiley & Sons, New York), 539-557, 2002.

[Ros97] Ross M.H., L.J. Romrell, G.I. Kaye, Histologia, texto y atlas color, Ed. Panamericana, Mexico, 1997, Capitulo 24, 766-769.

[Sch93] Schulz T.J., “Multiframe blind deconvolution of astronomical images”, J. Opt. Soc. Am. A, pp. 1064-1073, 1993.

[Sch00] Schwiegerling J:, W.S Robert, “Eye movement during laser in situ keratomileusis”, J Cat. Ref. Sur., 26, pp. 345-351, 2000.

[Shi92] Shi X., R. K. Ward, “Restoration of images degraded by atmospheric turbulence and detection noise”, J. Opt. Soc. Am A, 9(3), pp. 364-370, 1992.

[Shi02] Shirai T., “Liquid-crystal adaptive optics based on feedback interferometry for high-resolution retinal imaging”, App.Opt., 41(19), 4013-4023, 2002.

[Smi61] Smirnov A, "Measurement of the wave aberration of the human eye," Biophysics 6, pp. 766-795, 1962.

[Sol98] Solomon C., S. Rios, E. Acosta, S. Bará, “Modal wavefront projectors of minimum error norm”, Opt. Comm. 155, 251-254, 1998.

[Solo05] Soloviev O., G. Vdobin, “Hartmann-Shack test with random masks for modal wavefront reconstruction”, Opt. Exp. 13(23), pp. 9570-9584, 2005.

Page 256: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Referencias 235

[Sta03] Stara L.R., N.C. Strang, D.A. Atchison, “Dynamic accommodation response in the presence of astigmatism”, J. Opt. Soc. Am. A, . 20(12), 2228-2236, 2003.

[Tea82] Teague M, “Irradiance moments: their propagation and use for unique phase retrieval”, J.Opt.Soc.Am. A 72(9), 1199-1209, 1982.

[Thi97] Thibos L. N., A. Bradley, “Use of liquid-crystal adaptive-optics to alter the refractive state of the eye,” Optom. Vis. Sci. 74, 7, pp. 581-587 1997.

[Thi00] Thibos LN, Applegate RA, Schwiegerling JT, Webb R. Standards forreporting the optical aberrations of eyes. In: Lakshminarayanan V, ed. Trends in Optics and Photonics. Vision Science and Its Applications, Vol 35. OSA Technical Digest Series. Washington, DC: Optical Society of America, pp. 232-244, 2000.

[Thi02] Larry N. Thibos, Arthur Bradley and Xin Hong, “A statistical model of the aberration structure of normal, well- corrected eyes”, Ophthal. Physiol. Opt. 22, 427-433, 2002.

[Tho04] Thomas Sandrine, “Optimized centroid computing in a Shack-Hartmann sensor”, ALT'03 International Conference on Advanced Laser Technologies: Biomedical Optics. Edited by Wang, Ruikang K.; Hebden, Jeremy C.; Priezzhev, Alexander V.; Tuchin, Valery V. Proceedings of the SPIE, Volume 5490, pp. 1238-1246, 2004.

[Tyl82] Tyler G. A.; D.L. Fried, “Image-position error associated with a quadrant detector”, J. Opt. Soc. Am., vol. 72, 804-808, 1982.

[Tys91] Tyson R.K., Principles of Adaptive Optics, Ac. Press, (San Diego), Cap.2, 25-27, 1991.

[Var98] Vargas-Martín F., Pedro M. Prieto, and Pablo Artal, “Correction of the aberrations in the human eye with a liquid-crystal spatial light modulator: limits to performance”, J. Opt. Soc. Am. A, 15( 9), 2552-2562, 1998.

[Vdo05] Vdovin G., m. Loktev, A. Simonov, V. Kijko, S. Volkov, “Adaptive correction of human-eye aberrations in a subjective feedback loop”, Opt. Lett. 30(7), pp. 795-797, 2005.

[Wan03] Wang J., Desmond Fonn, Trefford L. Simpson, and Lyndon Jones “Precorneal and Pre- and Postlens Tear Film Thickness Measured Indirectly with Optical Coherence Tomography”, Inv. Oph. & Vis. Sci., 44(6), pp. 2524-2528, 2003.

[War91] R. K. Ward and E. Lam, ‘‘Semi-blind restoration from differently blurred versions of an image’’, Proc. Canadian Soc. For Electrical and Computer Eng. 4, 2949—2952, 1991.

Page 257: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

236 Referencias

[Web92] Webb R.H., C. M. Penney, and K. P. Thompson, “Measurement of ocular local wavefront distortion with a spatially resolved refractometer”, Appl. Opt., 31(19), 3678-3686, 1992.

[Wel86] Welford W.T., Aberrations of Optical Systems, Ed. Adam Hilger, Bristol, Cap. 7, 1986.

[Wel95] Welsh B. M., M.C. Roggemann, B.L. Ellerbroek, T L. Pennington, “Fundamental performance comparison of a Hartmann and a shearing interferometer wave-front sensor”, App. Opt., 34(21), pp. 4186-4195, 1995

[Wes90] West G.A., T.A. Clarke, “A survey and examination of subpixel measurement techniques,” ISPRS Int. Conf. on Close Range Photogram. and Machine Vision, SPIE 1395, 456-463, 1990.

[Wil00] Williams D., G.Y. Yoon, J. Porter, A. Guirao, H. Hofer, I. Cox,” Visual Benefit of Correcting Higher Order Aberrations of the Eye”, J. Ref. Sur., 16, S554-S559, 2000.

[Wya92] Wyant J.C., K. Creath, Basic Wavefront Aberration theory for optical metrology, Ed. Academic Press, Inc., Applied Optics and Optical Engineering Vol XI, Cap. 1, 1992.

[Yan04] Yang S., Gavin Erry, Sheila Nemeth, Sunanda Mitra, Peter Soliz, “Image restoration with high resolution adaptive optical imaging System”, Proceedings of the 17th IEEE Symposium on Computer-Based Medical Systems (CBMS’04), 2004.

[Yoo02] Yoon G.Y., D. R. Williams, “Visual performance after correcting the monochromatic and chromatic aberrations of the eye”, J. Opt. Soc. Am. A, 19(2), 266-275, 2002.

[You87] Youngquist R.C., S. Carr, D.E.N. Davies, “Optical coherente-domain reflectometry: anew optical evaluation technique”, Opt. Lett, 12(3), 158-160, 1987.

[You00] B. Young, J.W. Heath, Whater’s Histología functional, Elsevier Science, 4 Ed. Madrid, 2000, Capitulo 21, 382-392.

[Zha05] Zhang Y., J. Rha, R.S. Jonnal, and D. T. Millar, “Adaptive optics parallel spectral domain optical coherence tomography for imaging the living retina”, Opt. Exp., Vol.13(12) , pp. 4792-4811, 2005.

[Zhu04] Zhu M., M.J.Collins, R.Iskander, “Microfluctuations of the wavefront aberrations of the eye”, Opht. Phys. Opt., 24, 562-571, 2004.

Page 258: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...

Referencias 237

Referencias de Internet [URL1] - http://www.siste.com.ar/images/Television/Ojo.gif [URL2] - http://webvision.med.utah.edu/spanish/vgeneral.html [URL3] - http://www.cvs.rochester.edu/williamslab/r_lowcost.html

Page 259: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...
Page 260: IMAGEN DE ALTA RESOLUCIÓN DEL FONDO DE OJO POR ...