Endeleblec

5
En [Hartley y Sturm, 1997] se presenta una descripción exhaustiva de la técnica de triangulación, así como de la solución al problema de correspondencia que genera entre puntos de la imagen y puntos de la escena. 3.2.2.2. Luz estructurada Usando patrones de luz con cierto grado de complejidad, que son proyectadas sobre la escena, las técnicas ópticas de luz estructurada obtienen información tridimensional de ésta. Dicha información tridimensional se obtiene analizando las deformaciones de la proyección del patrón sobre la escena con respecto al patrón original proyectado [Battle et al., 1998]. El problema de la correspondencia entre los puntos de la imagen y los puntos del patrón original se resuelve de forma sencilla gracias a la codificación existente en los patrones de luz. Entre las estrategias para codificar patrones de proyección sobre una escena podemos citar [Salvi et al., 2003]: multiplexado temporal, vecindad espacial y codificación directa. Las estrategias de multiplexado temporal proyectan una secuencia de patrones diferentes sobre la escena a lo largo del tiempo, por lo que la estructura de cada patrón puede ser muy simple. En esta estrategia se suelen utilizar códigos binarios, códigos n-arios y códigos Gray, entre otros. La codificación basada en la vecindad espacial crea un código para cada zona del patrón a proyectar a partir de los códigos asignados a sus vecinos. Los métodos de codificación más utilizados en este caso son secuencias de Bruijn y M-arrays. En el caso de la codificación directa, se define un código para cada píxel a partir de paletas de niveles de gris o de color. 3.2.2.3. Interferometría Las técnicas interferométricas hacen interferir la luz emitida por los objetos de la escena con la generada por otras fuentes de iluminación. Por tanto, en la cámara del sistema de visión se obtiene un patrón de interferencia. La holografía convencional, la holografía conoscópica y las técnicas interferométicas basadas en láser y en el efecto Speckle son las más utilizadas actualmente. Cada uno de los píxeles de la cámara de un sistema de visión convencional registra información acerca de la intensidad de la luz que incide en él. En el caso de la holografía se busca, además de esta intensidad, la fase de la luz incidente [Guenther, 1990]. Los rayos procedentes de un punto de la escena no son focalizados a un punto concreto de la imagen sino que llegan a todo el plano de

description

es un archivo libre

Transcript of Endeleblec

Page 1: Endeleblec

En [Hartley y Sturm, 1997] se presenta una descripción exhaustiva de la técnica de triangulación, así como de la solución al problema de correspondencia que genera entre puntos de la imagen y puntos de la escena.3.2.2.2. Luz estructuradaUsando patrones de luz con cierto grado de complejidad, que son proyectadas sobre la escena, las técnicas ópticas de luz estructurada obtienen información tridimensional de ésta. Dicha información tridimensional se obtiene analizando las deformaciones de la proyección del patrón sobre la escena con respecto al patrón original proyectado [Battle et al., 1998]. El problema de la correspondencia entre los puntos de la imagen y los puntos del patrón original se resuelve de forma sencilla gracias a la codificación existente en los patrones de luz.Entre las estrategias para codificar patrones de proyección sobre una escena podemos citar [Salvi et al., 2003]: multiplexado temporal, vecindad espacial y codificación directa. Las estrategias de multiplexado temporal proyectan una secuencia de patrones diferentes sobre la escena a lo largo del tiempo, por lo que la estructura de cada patrón puede ser muy simple. En esta estrategia se suelen utilizar códigos binarios, códigos n-arios y códigos Gray, entre otros. La codificación basada en la vecindad espacial crea un código para cada zona del patrón a proyectar a partir de los códigos asignados a sus vecinos. Los métodos de codificación másutilizados en este caso son secuencias de Bruijn y M-arrays. En el caso de lacodificación directa, se define un código para cada píxel a partir de paletas deniveles de gris o de color.3.2.2.3. InterferometríaLas técnicas interferométricas hacen interferir la luz emitida por los objetosde la escena con la generada por otras fuentes de iluminación. Por tanto, en lacámara del sistema de visión se obtiene un patrón de interferencia. La holografíaconvencional, la holografía conoscópica y las técnicas interferométicas basadasen láser y en el efecto Speckle son las más utilizadas actualmente.Cada uno de los píxeles de la cámara de un sistema de visión convencionalregistra información acerca de la intensidad de la luz que incide en él. En elcaso de la holografía se busca, además de esta intensidad, la fase de la luz

incidente [Guenther, 1990]. Los rayos procedentes de un punto de la escena no sonfocalizados a un punto concreto de la imagen sino que llegan a todo el plano deésta, interfiriendo con los rayos de un haz de referencia, lo que genera un patrónde interferencia denominado holograma. Aunque con apariencia desordenada elholograma contiene información más completa de la escena que una fotografíaordinaria. Si los hologramas se generan a partir de luz incoherente, la técnicaaplicada recibe el nombre de holografía conoscópica.Finalmente, aunque no se trate en realidad de una técnica interferométrica,la técnica basada en patrones de Moiré suele clasificarse junto a éstas debido aque las imágenes obtenidas y los algoritmos de procesamiento necesarios paraobtener información tridimensional de la escena son similares. Matemáticamente,un patrón de Moíré es un patrón interferencial de baja frecuencia que se producecuando dos patrones de mayor frecuencia espacial se interponen [Blais, 2004].El fenómeno de Moiré permite obtener información de todos los puntos de laescena a partir de una única imagen. Atendiendo a la forma en la que se genereel patrón de Moiré, se distinguen dos técnicas [Paakkari, 1998]: sombreado deMoiré y proyección de Moiré. En ocasiones también se utilizan variaciones ocombinaciones de estas dos técnicas.

3.3. Limitaciones de las técnicas ópticasLas técnicas ópticas obtienen información tridimensional de una escena a partirdel análisis de una o varias imágenes adquiridas de dicha escena a través deun sensor del sistema de visión por computador. Este análisis requiere que lasimágenes reúnan ciertas condiciones tanto de iluminación como de enfoque. Siestas condiciones no se cumplen, la precisión con la que se obtiene la informacióntridimensional de la escena se ve considerablemente reducida.A continuación se describen las principales limitaciones que pueden aparecer

Page 2: Endeleblec

al aplicar técnicas ópticas para la reconstrucción tridimensional de una escena[Bradshaw, 1999], referidas principalmente a técnicas de triangulación activa,aunque estas limitaciones se pueden encontrar al aplicar la mayoría de técnicasópticas descritas anteriormente.Iluminación adversa. En los sistemas de visión por computador una iluminaciónincorrecta de la escena limita la obtención de información tridimensionalde la misma. Si la escena está insuficientemente iluminada,a partir de la imagen capturada por el sensor será difícil extraer sus características.Si la escena está muy iluminada, el contraste en la imagenobtenida se reduce considerablemente, dificultando también la extracciónde características de la escena.La solución a este problema suele pasar por ajustar el tiempo de exposición

de la cámara para controlar la cantidad de luz que incide en el sensor de lamisma. También se pueden utilizar filtros específicos que impidan el pasode ciertas longitudes de onda del espectro electromagnético al sensor y sólopermitan el paso de las necesarias para la reconstrucción de la escena, esdecir, las longitudes de onda del patrón proyectado.Oclusión. La limitación más importante que presentan las técnicas ópticas,especialmente las basadas en triangulación activa y en luz estructurada,es la oclusión, producida principalmente en los bordes de los objetos oen cambios bruscos de la geometría de su superficie. Esta limitación sepresenta de dos formas diferentes. La primera de ellas se denomina oclusiónde cámara y se produce cuando, desde el punto de vista de la cámara, haypuntos de la escena que están ocultos por otros. La segunda recibe elnombre de oclusión de iluminación y se pone de manifiesto cuando existenciertos puntos de la escena que producen sombras sobre otros, ocultandoel patrón proyectado.Para evitar esta limitación, el diseño de la geometría del sistema de visióndebe tener en cuenta las posibles oclusiones que se puedan producir yminimizarlas modificando la posición de la cámara y de las fuentes deiluminación. En caso de no poder eliminar todas las oclusiones con undiseño adecuado, se pueden utilizar varias cámaras y varias fuentes deiluminación para compensarlas.Plegamiento de bordes. En los bordes de los objetos parte de la luz delpatrón proyectado sobre la escena se refleja y parte continúa su trayectoriarecta al no entrar en contacto con la superficie del objeto. Este hechomotiva que la posición de un punto de la escena se calcule de forma erróneaque, aplicado a todo el borde de un objeto, produce como resultado quedicho borde aparezca ligeramente plegado. El tamaño de este efecto esproporcional al ancho del patrón proyectado.La solución principalmente adoptada para reducir este efecto es utilizaruna fuente de iluminación que pueda ser focalizada de forma muy precisa,es decir, que pueda ser proyectada en áreas muy pequeñas, como porejemplo un láser.Textura. Los cambios bruscos de textura en la superficie de los objetos de laescena provocan un efecto similar al plegamiento de bordes, debido a que elpatrón proyectado sobre la escena es reflejado con diferentes intensidades.Esta limitación suele aparecer sobre objetos que presentan defectos defabricación o que contienen impurezas o suciedad.Los sistemas de visión por computador encargados de obtener informacióntridimensional de una escena cuyos objetos presentan múltiples cambios

de textura, utilizan técnicas de procesamiento de señales con el objetivode filtrar las imágenes capturadas para reducir errores en las medidas.Dispersión del patrón. En caso de que la fuente de iluminación que proyectael patrón sobre la escena lo haga con un elevado grado de paralelismo aalgún objeto de la misma, el patrón se verá disipado sobre la superficie dedicho objeto, con lo que se dificulta la detección posterior del patrón sobrela imagen capturada por el sensor del sistema de visión.

Page 3: Endeleblec

La solución a esta limitación pasa por reposicionar el proyector del patrónatendiendo a la geometría de los objetos del sistema.Reflexión. Si las superficies de los objetos son muy reflectantes, es posibleque parte del patrón proyectado originalmente sobre la escena sea reflejadopor la superficie de un objeto e ilumine otra parte de la escena (reflejoespecular).La solución adoptada en los sistemas de visión para mitigar estos efectoses aplicar a la superficie de los objetos alguna capa de pintura que permitareducir su índice de reflexión.Movimiento. El movimiento de los objetos de la escena o del patrón proyectadosobre ésta puede ocasionar desenfoque en las imágenes adquiridas porla cámara del sistema de visión en el caso de que la frecuencia de muestreodel sensor sea relativamente baja en comparación con el movimiento delos objetos o del patrón. Este desenfoque provoca un efecto similar al delplegamiento de bordes durante el proceso de obtención de la informacióntridimensional de la escena a partir de las imágenes capturadas.Esta limitación está directamente relacionada con la iluminación adversa,ya que si se aumenta la frecuencia de muestreo del sensor para evitar eldesenfoque, se reduce la cantidad de luz que incide en éste procedente dela escena.