Procesamiento Digital de Imágenes y Visión

Post on 03-Jan-2016

47 views 8 download

description

Procesamiento Digital de Imágenes y Visión. M.C. Juan Carlos Olivares Rojas. Agenda. Transformaciones punto a punto. Transformaciones de 2 imágenes. Operaciones de vecindad. Transformaciones lógicas. Transformaciones geométricas. Agenda. Detección de bordes. Extracción de Regiones. - PowerPoint PPT Presentation

Transcript of Procesamiento Digital de Imágenes y Visión

Procesamiento Digital de Imágenes y Visión

M.C. Juan Carlos Olivares Rojas

Agenda

• Transformaciones punto a punto.

• Transformaciones de 2 imágenes.

• Operaciones de vecindad.

• Transformaciones lógicas.

• Transformaciones geométricas.

Agenda

• Detección de bordes.

• Extracción de Regiones.

• Detección de Movimiento.

• Detección de objetos 3D.

Introducción

• El Procesamiento Digital de Imágenes es un área de la graficación por computadora muy importante.

• Los fundamentos del Procesamiento Digital de Imágenes están íntimamente relacionados con el tratamiento de señales, por lo que se les puede aplicar elementos como filtros, transformación, detección, extracción de elementos, entre otras cosas.

Introducción

• La función principal de la visión artificial es reconocer y localizar objetos en el ambiente mediante el procesamiento de las imágenes.

• La visión computacional es el estudio de estos procesos, para entenderlos y construir máquinas con capacidades similares.

• Se tienen muchas áreas de aplicación como robótica, procesos industriales, etc.

Introducción

Arquitectura de un Sistema de Visión Artificial

Introducción

• A continuación se muestran las etapas del proceso de visión artificial.

Introducción

• La adquisición de la imagen consiste en la obtención de una señal visual del mundo analógico al digital (cámara fotográfica, video, escáner, etc.).

• La limpieza consiste en eliminar aspectos como el ruido al aplicar filtros o bien mejorar la calidad de la imagen.

Introducción

• El proceso de segmentación consiste en dividir la imagen en sus partes principales.

• Presentación y Descripción: en base a la segmentación se describe cada parte.

• Interpretación y Reconocimiento: dado el descriptor de un objeto se compara con la descripción que se cuenta en la base de conocimientos y se realiza una acción.

Introducción

• Base de Conocimientos: es un repositorio donde se almacén la descripción de diversos objetos que serán útiles en el reconocimiento de patrones (formas visuales).

Normal1 punto en 8 píxel

Introducción

256 Niveles de Gris 4 Niveles de Gris

Introducción

Ojo de Lena Valores del Ojo

Características de las Imágenes

• Antes de entrar a los algoritmos y métodos de procesamiento digital de imágenes es conveniente ver las características de las imágenes.

• Histograma es una gráfica en el cual se cuenta la frecuencia de color, es útil para cambiar la intensidad de luz de una imagen respetado sus atributos característicos.

Histograma

Histograma de Lena Normal

Histograma de Lena Obscuro

Ruido

• Se considera ruido a toda aquella variación de la tonalidad de la imagen no debida a la luz recibida.

• Existen diversos tipos de ruidos: correlados (cuando depende de la posición del pixel), no correlados (cuando depende de la posición del pixel, se basan en distribuciones de probabilidad como la Gaussiana) y los ruidos aleatorios o de “sal y pimienta”.

Ruido

Normal

Ruido Correlado

Ruido Gaussiano

Ruido Aleatorio

Brillo

• Se define como brillo al nivel medio de gris de una imagen.

Brillo 104

Brillo 56

Contraste

• Es la variación de gris de un punto respecto al brillo de la imagen. Se puede definir de forma aproximada con bajo consumo de recursos computacionales como:

• La definición correcta es:

Contraste

C1= 95.81%C2= 26.45%

C1= 94.42%C2= 10.56%

Nitidez

• Es la respuesta de la imagen ante cambios bruscos de iluminación.

Nitidez

• La baja nitidez de una imagen puede estar motivada por: – Objetos fuera del rango de enfoque de la óptica. – Deficiencias en el elemento sensor. – Efectos de algoritmos de tratamiento de

imágenes.

Nitidez

Nitidez 18.245% Nitidez 9.777%

Diferencia Cuadrática de Dos Imágenes

• La diferencia es útil cuando se desea calcular el grado de variación de una imagen obtenida con un algoritmo de procesamiento de imagen con respecto a la original.

• En donde Fr es la imagen base y f la imagen que se desea analizar.

Diferencia Cuadrática de Dos Imágenes

ECT=28.957, ECN=26.536%

Transformaciones Punto a Punto

• Son las transformaciones más simple sobre una imagen o señal.

• Las imágenes se pueden representar como matrices de puntos, donde cada punto tiene asociado un modelo de color.

• Un ejemplo básico sería la multiplicación por un escalar.

Transformación Punto a Punto

• Algunos ejemplos de transformaciones puntuales:– Suma. – Resta. – Multiplicación. – División. – Máximo. – Mínimo. – Umbralización. – Inversa.

Transformación Punto a Punto

InversaOriginal

Transformaciones de 2 imágenes

• La transformación de dos imágenes generalmente hace referencia a que se utiliza otra matriz para modificar cierto aspecto de los atributos de la señal original. Por ejemplo la intensidad, los tonos de luz, etc.

• Se pueden utilizar algunos operadores como la multiplicación, suma de matrices, entre otras.

Transformación de Dos Imágenes

• Algunos ejemplos de operaciones son:– Suma. – Resta. – Multiplicación. – División. – Máximo. – Mínimo. – AND. – OR. – XOR.

Transformación de dos Imágenes

originalImagen con ruido Gausiano

Diferencia entre las imagen

Diferencia multiplicada por 6

Transformaciones de Dos Imágenes

Original Umbralizada 128

Imagen Inversa de la Umbralizada 128

Mínimo de la Inversa Umbralizada 128 y la original

Transformaciones Globales

• La transformación depende de todos los puntos de la imagen. Pueden utilizarse estadísticos como en la ecualización o máximos y mínimos para el escalado de imágenes.

Transformaciones Globales

Imagen Original Imagen Ecualizada

Operaciones de vecindad

• Antes de ver los operadores de vecindad conviene recalcar las formas en que ésta se da.

Vecindad a 4 Vecindad a 8

Reducción de Ruido

• Los operadores de vecindad permiten definir filtros para la eliminación de ruido en las imágenes.

• El promedio del entorno de vecindad es un filtro lineal en el cual se promedian los valores de intensidad de un punto en base a sus vecinos.

Reducción de Ruido

Entorno de vecindad

Imagen con ruido gausisano s=5

Imagen Filtrada

Reducción de Ruido

• Existen otros filtros como los no lineales o estadísticos. Donde el algoritmo y los entornos de vecindad cambian.

• No todos los filtros aplican de la misma manera a las imágenes por lo que se debe probarlos.

Transformaciones lógicas

• Generalmente se utilizan máscaras para poder encontrar alguna característica útil en las imágenes:

– AND. – OR. – XOR.

Transformaciones geométricas

• La imagen se transforma, realizándose un cambio de variables pero no de dominio.

• La posición de cada píxel es función de la posición del píxel correspondiente en la imagen original, y viene determinada por una transformación geométrica.

Transformaciones Geométricas

• Entre las más empleadas están:   – Homotecia. – Zoom. – Traslación. – Rotación. Transformación de Hotelling. – Warping. Corrección de distorsiones. – Morphing.

Transformaciones Globales

• La imagen se transforma en globalmente, sin considerar los píxels de forma individual, realizándose un cambio de dominio. Entre las más empleadas están:

• Transformada de Fourier. • Transformada de Hadamard-Walsh. • Transformada de Karhunen-Loève (KLT). • Transformada discreta del coseno (DLT).

Transformaciones Globales

• Transformada de Hough.

• Cambio entre modelos del espacio de colores.

• Y sus correspondientes transformadas inversas.

Detección de bordes.

• Se denomina borde en una imagen a cualquier discontinuidad que sufre alguna función de intensidad sobre los puntos de la misma.

• En la proyección bidimensional de una escena tridimensional intervienen distintos tipos de bordes:

Detección de Bordes

• Cambio brusco en la distancia cámara-objetos, con normal continua (dc) o con discontinuidad en la normal (dnc).

• Cambio en la normal del objeto (n).

• Cambio en la reflectancia del objeto (r).

• Cambio en la proyección de la luz incidente (s).

Detección de Bordes

Detección de Bordes

Imagen OriginalRealce de Bordes Operador Sobel

Aplicación del Umbral

Detección de Bordes

• También se utilizan los gradientes.

• La detección de bordes es la primera parte para la segmentación. Consiste en determinar los cambios de intensidad de los pixeles, es muy sensible al ruido.

• Esta técnica nos permitirá más adelante extraer características de las regiones de la imagen.

Extracción de Regiones

• Una vez que se ha podido segmentar una imagen, es posible extraer toda la información de una imagen, la cual no es otra cosa que otra matriz.

• A esa matriz se le pueden hacer comparaciones como por ejemplo para detectar el reconocimiento de escritura en un PDA o el reconocimiento de una huella digital.

Detección de Movimiento• La detección de movimientos ocurre cuando se

realiza una comparativa entre dos imágenes muy similares.

• Se debe realizar una segmentación de la imagen para poder ubicar un área sobre la cual trabajar y notar las diferencias.

• Las imágenes deben tener las mismas características.

Detección de Movimiento

• Cualquier dispositivo de adquisición de video debe permitir el poder almacenar y manipular imágenes de manera individual.

• Al detectar movimiento surgen algunas preguntas de interés:

• ¿Cómo detectar el movimiento de un ojo?

• ¿Cómo detectar el movimiento de una persona?

Detección de Movimiento

• ¿Qué ocurre cuando una imagen es totalmente diferente a otra?

• Para auxiliarse en la detección de movimiento se suele utilizar puntos clave que ayuden a detectar los movimientos. En un cuerpo humano esos puntos clave son generalmente las extremidades: codos, rodillas, tobillo, dedos, etc. y depende de lo que se va a tratar de detectar.

Detección de objetos 3D• Para poder detectar figuras en 3D se ocupan

tener conocimiento de cómo está formado la imagen.

• En imágenes bidimensionales se tienen que detectar bordes que puedan definirnos el volumen de un objeto.

• Tambien se pueden utilizar imágenes del mismo objeto desde diferentes puntos de vista.

Detección de objetos 3D

• En algunos casos se analizan las imágenes desde diferentes ángulos y se trata de reconstruir las imágenes en 3D.

• Por ejemplo se trata de aplicar las tomografías desde diferentes cortes para poder definir un modelo en 3D del cerebro.

Referencias

• Súcar, E, Gómez, G, Procesamiento de Imágenes y Visión Computacional, Departamento de Computación, Tecnológico de Monterrey Campus Cuernavaca.

• http://isa.umh.es/titere/tutorial/vision/

¿Preguntas?