PROCESAMIENTO DIGITAL DE IMÁGENES
6.1.- INTRODUCCION
El Tratamiento Digital de Imágenes contempla el procesamiento y el análisis de imágenes.
El procesamiento está referido a la realización de transformaciones y a la restauración y
mejoramiento de las imágenes. El análisis consiste en la extracción de propiedades y
características de las imágenes, así como la clasificación e identificación y el reconocimiento
de patrones.
La importancia del procesamiento y análisis digital de imágenes se encuentra en:
· Medicina
· Biología
· Astronomía
· Historia
· Geología
· Criminalistica
· Fotografía
Estas aplicaciones tienen un gran valor científicotécnico pero quizás su importancia social,
desde e punto de vista de su repercusión sobre la sociedad en general y el hombre en
particular sea su característica más importante.
En el procesamiento digital de imágenes deben tomarse en cuenta varios aspectos como la
percepción psicovisual del ser humano. Éste es un factor importante porque
independientemente del tratamiento que se le aplique a una imagen, el observador será
quien, según su percepción, decidirá si dicha imagen le agrada o no.
El desarrollo de los métodos de procesamiento digital de imágenes tiene su origen en dos
áreas principales de aplicación: el mejoramiento de la información pictórica para la
interpretación humana, y el procesamiento de datos de la imagen para la percepción de
máquina autónoma en el que se incluyen etapas de transmisión y/o almacenamiento de
estos datos.
La herramienta usada en el tratamiento digital de las imágenes son las matemáticas; los
conceptos que se verán son básicos. La computadora y los algoritmos que se implementan
sobre éstas también tienen un papel muy importante en la manipulación de las imágenes.
El procesamiento digital de imágenes aparece tardíamente en la historia de la
computación, ya que antes de pensar en ello, había que desarrollar el hardware y los
sistemas operativos gráficos que permitieran hacerlo. Por otro lado, los algoritmos y las
técnicas de optimización que han tenido que desarrollarse para el procesamiento digital de
imágenes son muy sofisticados y elaborados. En la actualidad existen muchas aplicaciones
de software que permiten el procesamiento digital de imágenes, mucho de este utiliza
técnicas o algoritmos que son bien conocidos por la comunidad que trabaja en ello, pero
otros utilizan sus propias variantes o técnicas nuevas que están poco documentadas.
Hay diferentes técnicas que existen para procesar imágenes, estas técnicas podemos
agruparlas en tres grandes grupos:
• Modificación de Color
• Modificación de Imagen
• Generación de efectos.
6.2.- OBJETIVOS
. Extraer información de imágenes digitales.
• Utilizar herramientas informáticas para la extracción de información.
• Capturar, realzar, segmentar, medir, identificar y visualizar objetos de interés en las
imágenes.
• Aplicaciones en diversas áreas: medicina, medioambiente, industria,
seguridad, gestión.
¿Qué es una imagen digital?
Una imagen digital es una representación bidimensional de una imagen a partir de una
matriz numérica, frecuentemente en binario (unos y ceros). Dependiendo de si la resolución
de la imagen es estática o dinámica, puede tratarse de una imagen matricial (o mapa de
bits) o de un gráfico vectorial. El mapa de bits es el formato más utilizado, aunque los
gráficos vectoriales tienen uso amplio en la autoedición y en las artes gráficas
Un tipo de imagen que puede ser manipulada por un equipo informático La transformación
de una imagen analógica en una digital es lo que conocemos como digitalización, y éste es
el primer paso para el tratamiento digital de imágenes.
Formación y tipos de imágenes Desde un punto de vista físico, una imagen puede
considerarse como un objeto plano cuya intensidad luminosa y color puede variar de un
punto a otro. Si se trata de imágenes monocromas (blanco y negro), se pueden representar
como una función continua f(x, y) donde (x, y) son sus coordenadas y el valor de f es
proporcional a la intensidad luminosa (nivel de gris) en ese punto.
Las imágenes son representaciones de objetos los cuales son sensados a través de su
energía radiante, por ejemplo, la luz. Por tanto, por definición la formación de una imagen
requiere de una fuente de radiación, un objeto y un sistema de formación. Las fuentes de
formación pueden ser de varios tipos (fuente de luz blanca, sistemas con láser, tubos de
rayos X, fuentes térmicas y también fuentes de ondas acústicas).
OBTENCIÓN
Las imágenes digitales se pueden obtener de varias formas:
• Por medio de dispositivos de conversión analógica-digital como los escáneres y las
cámaras digitales.
• Directamente mediante programas informáticos, como por ejemplo realizando dibujos
con el ratón (informática) o mediante un programa de renderización 2D.
Las imágenes digitales se pueden modificar mediante filtros, añadir o suprimir elementos,
modificar su tamaño, etc. y almacenarse en un dispositivo de grabación de datos como por
ejemplo un disco duro.
ESTRUCTURA
La mayoría de formatos de imágenes digitales están compuestos por una cabecera que
contiene atributos (dimensiones de la imagen, tipo de codificación, etc.), seguida de los
datos de la imagen en sí misma. La estructura de los atributos y de los datos de la imagen
es distinto en cada formato.
Además, los formatos actuales añaden a menudo una zona de metadatos ("metadata" en
fotografía (Escala de sensibilidad , flash, etc.)
Estos metadatos se utilizan muy a menudo en el formato extensión cámaras digitales y
videocámaras.
EDICIÓN DE IMÁGENES
Si una imagen representada en dominio espacial la pasamos a dominio frecuencial,
podemos modificar los valores de la luminosidad (que en dominio frecuencial se ven
representados como componente de frecuencia f) de tal manera que podemos ampliar,
decrementar o eliminar su amplitud y de esta forma modificamos la imagen.
Por ejemplo, si en el dominio frecuencial modificamos la componente 0, lo que estaremos
haciendo es modificar la tonalidad de luz de la imagen.
Esto ha dado como resultado un gran número de aplicaciones, des de óptica, hasta la
visualización de imágenes con rayos X para fines médicos.
6.3 OPERACIONES DE PROCESAMIENTO DE IMÁGENES
Puede ser empleada por métodos ópticos, fotográficos y digitales
El sistema de computación grafica es el método eficaz que dio origen a la técnica de
procesamiento de imágenes.
Las imágenes impresas en papel fotográfico, no permite la utilización plena de
toda la información contenida en ellas.
Para procesamiento de imágenes (multiespectrales) geo-referenciados
(topográficos, geoquímica, geofísica, etc.) son utilizados imágenes estructurales
digitalmente en una malla o grid regular para efectos de visualización en un
monitor de video
TRATAMIENTO DE IMÁGENES: El tratamiento de imágenes por computadora
surgió inicialmente como aplicación de procedimientos matemáticos tendientes a
corregir las fotografías y mejorar su interpretación.
Posteriormente, con el desarrollo de la tecnología y la aparición de nuevos sensores
de imágenes, procedimientos computacionales y algoritmos matemáticos o
estadísticos, los procesos se fueron sofisticando y masificando por los menores
costos de hardware y software y hoy en día permiten, no sólo la mejora de imágenes
para interpretación visual humana, sino también su interpretación por una máquina,
en campos tales como: teledetección, robots industriales para montaje e
inspección, reconocimiento de objetivos militares, procesamiento de huellas
dactilares, análisis de muestras de sangre y radiografías, predicción del
tiempo atmosférico y de las cosechas, microscopía, reconocimiento de
caracteres, etc.
6.3.1 EL PROCESAMIENTO DIGITAL DE IMÁGENES
Consiste entonces en la manipulación, mejoramiento y extracción de información de las
imágenes naturales con el uso de computadoras digitales.
En este resumen mencionaremos procesos generales aplicados en imágenes digitales
y otros específicos que se utilizan en imágenes de sensores remotos. Los procesos que
se describen son algunos de los más comunes que se utilizan.
SENSORES REMOTOS. DEFINICIÓN:
El término “sensores remotos” (o también “teledetección”) se refiere a la observación
a distancia (“remota”) de la superficie terrestre.
Las plataformas sobre las cuales van montados los sensores, son aviones o satélites.
Los sensores que “observan” desde esas plataformas pueden ser pasivos
(ópticos) (cámaras fotográficas, barredores multiespectrales, detectores CCD), los
cuales captan la luz solar que refleja la superficie terrestre, en diversas bandas
espectrales, o bien activos, tales como el radar de apertura sintética, el cual
emite una señal y capta los ecos reflejados por los elementos de la superficie.
Las imágenes obtenidas con estos sensores tienen un formato digital (o si no lo
tienen pueden ser digitalizadas, como en el caso de las fotografías aéreas) y pueden
ser procesadas por computadora.
6.3.2 CLASIFICACIÓN DE LAS TÉCNICAS DE PROCESAMIENTO DE IMÁGENES:
1- Digitalización y cuantificación: pasaje de imágenes continúas a discretas. Esto es
inherente al sistema sensor o en el caso de fotos se puede realizar posteriormente con un
escáner.
2- Preprocesamiento: normalización de los datos de entrada.
3- Mejora o realce: operaciones tendientes a mejorar la apariencia de los datos de entrada.
4- Restauración: recuperación de la imagen original, en el supuesto de que los datos de
entrada se encuentren afectados a algún tipo de degradación, como por ejemplo
ruidos, turbulencia atmosférica, movimientos indeseados de la plataforma, etc.
5- Codificación: consiste en la compresión de información con el objeto de reducir el costo
de transmisión de las imágenes, un almacenamiento más eficiente y su tratamiento
numérico.
6- Análisis: consiste en la obtención de descripciones numéricas o simbólicas de la imagen
de partida, es decir se extrae información significativa de la imagen.
7- Reconstrucción: obtención de información de un objeto en base a sus proyecciones,
como por ej. tomografía o resonancia en medicina. En el campo de la teledetección,
podríamos encuadrar aquí a la obtención de imágenes terrestres en perspectiva a
partir de una imagen satelital y su modelo digital (elevación) de terreno.
8- Transformaciones: como por ejemplo georreferenciación de imágenes satelitales
utilizando datos cartográficos, combinación de imágenes de distintos sensores,
combinaciones multitemporales, etc.
6.3.3 REPRESENTACIÓN DIGITAL DE UNA IMAGEN
Una imagen de un objeto real (imagen analógica) es continua tanto en la variación espacial
como en la variación de sus niveles de gris o brillo. Ahora bien, una computadora digital
maneja datos numéricos, de manera que para poder manipular una imagen es necesario
expresar a la misma como un arreglo de datos numéricos, por lo cual es necesario
discretizar la imagen tanto en el espacio (geometría) como en la amplitud de grises
(radiometría) y representarla como una matriz numérica.
La discretización: en el espacio se denomina muestreo, pues se toman muestras de la
imagen a intervalos regulares.
La discretización: en amplitud se llama cuantización, y consiste en la asignación de niveles
de gris discretos al brillo o gris promedio dentro de cada muestra o pixel.
La asignación de valores numéricos a los distintos niveles de gris se denomina
codificación, pues se relaciona la información visual de los distintos tonos de gris
con un código numérico arbitrario.
El proceso muestreo – cuantificación – codificación se denomina digitalización.
IMAGEN DIGITAL O DISCRETA: Una imagen digital o discreta queda entonces
representada por una grilla o matriz de elementos (pixeles), donde cada elemento
está ubicado en una determinada línea y columna de la matriz y tiene un valor
entero correspondiente al brillo medio en el sector que comprende.
Esta disposición de pixeles en una grilla se denomina formato raster, en
contraposición con el formato vectorial usado en computación gráfica. El término pixel
proviene del inglés: “picture element”.
La resolución geométrica o espacial de una imagen está dada por el tamaño
de la muestra - o pixel, en este caso, que está relacionado con el tamaño
del mínimo elemento discernible en la imagen, o bien la mínima distancia en
que dos objetos próximos se distinguen como diferentes. Se hace la salvedad
de que a veces pueden verse objetos más pequeños que el tamaño
correspondiente a la resolución espacial debido a que tienen una alta
respuesta (alta reflectancia en sensor óptico o retrodispersión en radar), y al
ser tan brillantes saturan el promedio de respuesta en un cierto radio de
acción.
La resolución radiométrica de una imagen está dada por los distintos tonos
de gris (la cantidad de éstos), con que se puede representar a los pixeles.
En la siguiente figura se representan los conceptos de resolución enunciados,
para el caso de una señal unidimensional, por ejemplo una línea de imagen.
Si el tamaño del pixel disminuye y la diversidad de tonos de gris es mayor, es
decir, si las resoluciones espacial y radiométrica mejoran, entonces la imagen digital
“se parece” más a la imagen analógica original y pueden llegar a confundirse visualmente.
Las resoluciones geométrica y radiométrica dependen del dispositivo sensor que
capta y digitaliza una imagen.
Las imágenes se almacenan en distintos formatos de archivos, y en el caso de
imágenes satelitales, existen registros y archivos auxiliares en donde se guarda una
cantidad de información asociada con las características de obtención de la imagen, tales
como fecha, datos de la plataforma, ángulo de toma, etc.
PROCESAMIENTO DIGITAL DE IMÁGENES SATELITALES DE TODO TIPO DE SENSOR AEROESPACIAL
Geomatica es completamente compatible con ArcGIS ya que PCI Geomatics de Canada es Business Partner de ESRI Inc. de los EE.UU
MATLAB es uno de los mejores y más completos entornos interactivos que existen. MATLAB está especializado en la realización de cálculos complejos, la implementación de nuevos algoritmos.
Sistemas de Información Geográfica (SIG) permiten volcar la información en mapas temáticos que posibilitan el control y la evaluación del área estudiada.
TIPOS DE IMÁGENES
Imágenes de reflexión: sensan la radiación que ha sido reflejada por las superficies de los objetos (información obtenida: forma, textura, color).
Imágenes de emisión: los objetos que se transforman en imágenes son originalmente luminosos (focos, estrellas).
Imágenes de absorción: proporcionan información sobre la estructura interna del objeto (la radiación pasa a través de él).
CARACTERÍSTICAS DE LAS IMÁGENES DE SENSORES REMOTOS
Las imágenes colectadas por sensores remotos, poseen algunas características que
diferencian de otras imágenes digitales, esas características son:
ESTRUCTURA DE LA IMÁGENES DE SENSORES REMOTOS
Las imágenes están constituidas por una disposición de elementos en forma de una
malla.
Cada celda de grid de elementos tienen una localización definida en un sistema de
coordenadas X;Y
Cada celda posee un atributo numérico “z” (nivel de gris, que varía de blanco a
negro) = DN
DN de una celda representa la intensidad de la energía electromagnética (reflejada o
emitida por los diferentes materiales presentes en el pixel) medida por el sensor.
Origen de grid PIXEL = picture element
pixel
DN
Fila
una imagen LANSAT está compuesto de 6.550 x 65550 elementos = 42 millones de
pixeles para cada banda
IMAGEN DE UNA CRUZ COMPUESTA POR DOS ÁREAS
o áreas blancas
o áreas negras
o cada pixel con matriz numérica
o DN varia: 0 (negro) a 255 (blanco)
OBSERVACIÓN
Una imagen no digital (fotografía aérea) puede ser transformada en imagen digital a través
de un proceso conocido “digitalización” con la ayuda de un equipo periférico denominado
“escáner “, que trasforma en una imagen análoga (fotografías, mapas, etc.). compuesto por
líneas y columnas, con cada celda predefinido y con un valor de DN la nueva matriz
convertida en formato digital gráfico, puede ser leída y manipulada por sistemas de
procesamiento digital.
NO DIGITAL DIGITALIZACION
IMAGEN ANALOGA
Transformada
por
Proceso de
FORMATO DIGITAL GRAFICO
RESOLUCIONES DE LAS IMÁGENES DE SENSORES REMOTOS:
Si los sensores son pasivos u ópticos,
la resolución geométrica está relacionada con
las características del sistema óptico. En el caso
de barredores montados en aviones o satélites,
donde hay un espejo oscilante, está dada por el
ángulo instantáneo de visión (IFOV), por
ejemplo el antiguo MSS scanner de la serie
LANDSAT. Si se trata de arreglos CCD
(Charged Coupled Device), tales como el sensor de
la serie SPOT, la resolución geométrica está dada
por el sistema óptico y por las características de
este arreglo CCD. Las resoluciones radiométricas
de los sistemas están relacionada con las
características del sistema opto-electrónico que
transforma la información visual en señales
eléctricas, y con el proceso de digitalización de estas
señales.
FOTOGRAFIA AEREA FOTOGRAFIA AEREA FOTOGRAFIAS MAPAS
COMPUESTOS POR LINEAS Y COLUMNAS
FOTOGRAFIAS MAPAS COMPUESTOS POR LINEAS Y
COLUMNAS
SCANERSCANER
Otra característica de los sensores pasivos, es que captan las imágenes en distintas bandas
del espectro electromagnético (bandas del visible, infrarrojo cercano, medio y térmico), lo que
puede lograrse colocando filtros para cada banda entre el sensor y la imagen a captar. En
este caso se obtiene una imagen multiespectral, es decir una imagen compuesta por tantas
imágenes o planos como bandas son captadas. Cada plano o canal es una imagen en tonos de
gris que representan la reflectancia del terreno en esa banda espectral. Estos planos pueden
considerarse como “versiones distintas de una misma cosa”. Si a tres cualquiera de estos planos
se les asignan los colores azul, verde y rojo (en un monitor color, por ej.), se obtiene lo que
se denomina una imagen en “falso color”.
Sensores Pasivos u Ópticos
Si se dispone de las bandas espectrales azul, verde y roja correspondientes al visible (ej: bandas
1, 2 y 3 de Landsat TM) y se les asignan los colores correspondientes azul, verde y rojo, se obtiene
una imagen en “color natural”.
Dado que cada elemento de la superficie terrestre refleja la luz solar en distintas proporciones en
cada banda del espectro (esto conforma su firma espectral), el hecho de contar con un juego
de datos multiespectrales es muy importante ya que permite que se identifiquen mejor los
elementos presentes en la escena.
Cuantas más bandas espectrales tenga una imagen y más finas éstas sean, mejor será su
resolución espectral. Ej: el sensor LANDSAT Thematic Mapper tiene 30 m de resolución espacial
y 7 bandas espectrales. El sensor SPOT HRV tiene mejor resolución espacial (20 m) pero
peor información espectral (3 bandas).
Con respecto a los sensores activos, tales como el radar de apertura real (SLAR) o
sintética (SAR), proveen imágenes de una sola banda y en el nivel de gris del pixel
intervienen diversos factores, tales como la rugosidad del suelo, humedad del mismo, tipo de
elemento, pendiente del
terreno, longitud de onda de la señal incidente, etc. La principal ventaja de este tipo de imágenes es
que son “todo tiempo”, resultando una fuente de información muy importante en zonas donde la
cobertura de nubes es muy frecuente e impide a los sensores ópticos obtener buenas
imágenes. Como desventaja se menciona el hecho de que poseen una sola banda y que deben ser
sometidas a
un filtrado previo para reducción de ruido “speckle”, que es inherente a este tipo de imágenes.
Asimismo, en zonas montañosas, el efecto topográfico del relieve introduce distorsiones que deben
ser minimizadas con la aplicación de software de corrección específico.
Para los sensores activos, la resolución geométrica en azimut (dirección del vuelo) está
relacionada con las características de la antena, y en alcance (perpendicular a la línea de
vuelo ) depende del ancho del pulso transmitido y el ángulo de depresión. Cabe aclarar que
como este ángulo es variable transversalmente a la escena, la resolución también lo es, por lo
tanto se realiza
un remuestreo de los pixeles para que representen la misma área, y así resulta que la resolución de
la imagen puede no coincidir con el tamaño del pixel.
Sensores Activos (Radar)
Se observa además en la figura anterior que la ubicación de un elemento sobre la línea de
imagen está relacionada con el tiempo de retorno del eco (se relaciona tiempo con distancia),
por eso en zonas con relieve existirán errores en los posicionamiento de los puntos dentro
de la imagen
(efectos de “overlay”, “forshortening”, “sombras”).
Distorsión por relieve (Sensores Activos)
Las laderas parecen “recostarse” hacia el sensor porque los picos de montaña, al devolver antes
la señal, son ubicados erróneamente más cerca del sensor en la línea de imagen.
Otra característica de las imágenes satelitales en general, tanto ópticas como r adar, es
que se obtienen con una frecuencia regular, dependiendo de la órbita del satélite (período de
“revisita”). Esto define el concepto de multitemporalidad de las imágenes. Al contar con
imágenes de una zona tomadas en distintas fechas, se pueden realizar estudios multitemporales
para observar cómo han variado ciertas características.
Resumiendo, podemos hablar de cuatro tipos de resoluciones para una imagen digital: resolución
geométrica o espacial, resolución radiométrica, resolución multiespectral y
resolución multitemporal.
Según el campo de aplicación, se requieren sensores que enfaticen alguna de estas
características, por ejemplo en imágenes meteorológicas se requiere cubrir grandes áreas con baja
resolución espacial pero alta revisita (multitemporalidad), en uso catastral son necesarios
sensores con buena resolución geométrica, para evaluación de recursos naturales se deberá
contar con imágenes de varias bandas espectrales a fin de poder discriminar elementos en
base a su firma espectral.
Se incluye a continuación una tabla comparativa de características de sensores pasivos (visible,
infrarrojo e infrarrojo térmico) y activos (SAR) y de las imágenes que proporcionan:
Composición color de imágenes:
Utilizando un mismo sensor óptico, se pueden combinar tres bandas espectrales distintas, como
ya mencionamos anteriormente. Cada banda de una imagen multiespectral destaca
aspectos distintos de la información presente en una escena (por ej. vegetación,
infraestructuras, rocas, penetración en agua, etc.), de manera que la combinación color más
conveniente dependerá de la aplicación.
Para sensores SAR, como hay una sola banda, pueden combinarse en color imágenes de
una zona tomadas en tres fechas distintas. También pueden mezclarse bandas de distintos
sensores. La fotointerpretación posterior debe tener en cuenta cómo se hizo la asignación de
colores.
Bandas espectrales y resolución espacial de algunos sensores ópticos:
ALGORITMOS PARA PROCESAMIENTO DE IMÁGENESExisten dos grandes clases de transformaciones de imágenes:
- Transformaciones radiométricas: los valores de nivel de gris de los pixeles son alterados sin
modificar la geometría de la imagen (contrastes, filtrados, clasificación, texturas, cocientes).
- Transformaciones geométricas: se altera la geometría de la imagen, es decir, la ubicación de
los pixeles dentro de la misma (registración, georreferenciación, remuestreos).
Dentro de las transformaciones radiométricas, pueden distinguirse dos grandes grupos de
algoritmos de procesamiento: puntual y espacial.
Transformaciones radiométricas
Algoritmos de procesamiento puntual:
La operación sobre un pixel de la imagen se realiza sin tener en cuenta los pixeles vecinos. Ej:
ensanche de contraste, umbralización, pseudocolor, operaciones algebraicas entre
imágenes (sustracción, cociente).
Estos algoritmos son de fácil implementación en las computadoras convencionales, por ejemplo
en los casos de ensanche de contraste, umbralización, y pseudocolor se utilizan “look-up tables”
(tablas de consulta), en donde entrando con un nivel de gris se obtiene el de salida.
Ejemplo de transformación puntual: manipulación de histogramas (ensanche de contraste,
segmentación, etc.)
Algoritmos de procesamiento espacial o regional:
La operación para obtener un pixel en la imagen de salida tiene en cuenta tanto el
pixel correspondiente en la imagen de entrada como una cantidad arbitraria de vecinos de
éste. Ej: operaciones de filtrado, gradientes, realces de bordes, etc.
Estos algoritmos requieren una implementación con un mayor grado de complejidad que los de
procesamiento puntual.
Manipulación de bandas o canales en distintos procesos
Hay procesos que actúan sobre cada banda por separado y otros en donde se procesan todas las
bandas simultáneamente.
-Ensanche de contraste
-Filtrados
-Modificaciones geométricas
-Texturas
-Clasificación multiespectral (1 canal de salida)
-Componentes Principales
-Fusión multibanda/ multisensor
-Transformada de canales
-Cocientes (2 canales de entrada, uno de salida)
-Índices de Vegetación
HISTOGRAMA DE UNA IMAGEN DIGITALEl histograma de una imagen es una tabla o gráfico que indica la cantidad de píxeles
en la imagen que corresponden a cada valor de gris. El concepto es análogo al de
densidad de probabilidad que se utiliza en estadística.
El histograma de una imagen sólo especifica el número total de pixeles correspondientes a cada
nivel de gris y no proporciona información acerca de la distribución espacial de los mismos.
El análisis del histograma de una imagen constituye un paso previo para lograr una
eficiente manipulación del contraste o algún proceso de umbralización.
En la figura se grafican, como ejemplo, las envolventes de diversos histogramas, observándose
que si la imagen es oscura el histograma se encuentra corrido hacia la izquierda, si en cambio los
niveles de gris son altos está corrido hacia la derecha. Si la imagen tiene poco
contraste (diferenciación de niveles de gris), el histograma es estrecho, si hay más contraste se
encuentra más expandido, dado que hay más riqueza en los tonos de gris.
ENSANCHE DE CONTRASTEEl ensanche de contraste es una transformación radiométrica puntual (pixel a pixel) muy simple,
cuyo objetivo es lograr una mejor discriminación de imágenes con bajo contraste. Cada nivel de gris
de la imagen se modifica sin considerar los niveles de gris de los píxeles adyacentes. Se aumenta el
rango de niveles de gris a fin de mejorar la interpretabilidad de las imágenes y para aprovechar toda
la capacidad del sistema de display.
La curva de transformación o función de transferencia puede ser o no lineal, y el proceso
consiste en ingresar a esta función con un nivel de gris en la imagen de entrada y obtener un nuevo
valor a ser grabado en la imagen de salida, o visualizado en un monitor.
Los ensanches de contraste que
más se aplican son los lineales y por
nivelación de histograma (este
último es no lineal).
Ensanche de contraste lineal:
La función de transferencia es una recta. Se elige un límite inferior y otro superior de la curva y
allí se traza una recta de transferencia:
De esta forma los valores de gris entre A y B de la imagen se distribuirán linealmente entre 0 y
255 a la salida.
Ensanche de contraste no lineal:
La función de transferencia no es una recta. Por ejemplo, en el ensanche por nivelación
de histograma, se asigna una mayor diferenciación de grises en aquellos lugares más poblados
de la curva del histograma. De esta manera el histograma resultante se “nivela”, es decir, los
valores de gris quedan repartidos en forma más pareja entre los pixeles. No es un ensanche tan
“suave” como
el anterior, y se utiliza en imágenes en donde es necesario resaltar una subimagen (se nivela
el histograma de ésta).
DETECCION DE UMBRAL (THRESHOLDING)Entre los tipos de operaciones de manipulación de contraste se encuentra la
denominada “detección de umbral”. Consiste en segmentar la imagen en dos clases bien
diferenciadas: objeto y fondo, mediante la simple aplicación de un umbral en el rango de los niveles
de gris.
El histograma de la figura es característico de de las imágenes que contienen objetos grises sobre
un fondo oscuro. Se fija un determinado umbral T, a los pixeles con valor de gris menor a T se
les asigna color negro, y a los que están por encima color blanco, resultando una imagen binaria
(sólo 2 tonos de gris).
SEGMENTACIÓN (DENSITY SLICING)Se toman varios umbrales, y a los niveles de gris comprendidos entre dos umbrales consecutivos,
se les asigna un único tono de gris. Los niveles quedan entonces reducidos a una cantidad menor y
la imagen resulta “segmentada”. Ejemplo:
Nivel de grispixel original
Nivel de grispixel resultado
001
23
1467
28etc.
PSEUDOCOLOR (COLOR MAPPING)Consiste en asignar un color distinto a cada nivel de gris de una imagen en blanco y negro,
es decir, colorear la imagen de acuerdo a sus determinadas tonalidades de gris, con una asignación
de colores arbitraria. Esto enriquece la capacidad del ojo en distinguir tonalidades. También
pueden
tomarse rangos de niveles de gris (como en la segmentación) y darles distintos colores.
Se utiliza, por ejemplo, para fotointerpretar imágenes en blanco y negro, o para colorear una
imagen clasificada, en donde los niveles de gris representan una clase de elementos determinada.
Nivel de grispixel original
Color pixelresultado
0 color11 color 23 color 3
etc
No debe confundirse al pseudocolor con la composición color azul-verde-rojo de tres canales de
imagen. El pseudocolor es un coloreado artificial de un sólo canal.
FILTRADOS POR CONVOLUCIÓN DE MÁSCARASEste es un proceso de tipo regional (el pixel de salida depende de una ventana en
el entorno del pixel original).
Es una operación en el dominio espacial que equivale a un filtrado en el
dominio de las frecuencias de la señal. Está implementada por medio de
una máscara o ventana con determinados coeficientes, que puede
ser diseñada por el operador, quien define el tamaño de la máscara (3x3, 5x5,
7x7, 11x11, etc.)
Los sucesivos pixeles de la imagen se van multiplicando por la
máscara, la cual va recorriendo la imagen de entrada y generando
una imagen de salida filtrada. Cada canal de la imagen se filtra en forma
independiente.
Según los valores que se elijan para los coeficientes de la máscara, se
obtendrán distintas transformaciones sobre la imagen, tales como: suavizado
(filtrado pasa-bajas), detección de bordes (filtrado pasa-alta), realce de bordes,
gradientes direccionales, etc. Hay máscaras estándar que son utilizadas con
frecuencia.
Filtro Pasa-Bajas (filtro media):
Está dentro de las operaciones de suavizado, que son operaciones que se realizan
para reducir ruido y otros efectos espurios que pueden estar presentes en una imagen \
REFERENCIAS BIBLIOGRÁFICAS
Universidad Nacional del Centro de la Prov. de Bs. As.
Facultad de Ciencias Exactas.
UNIVERSIDAD SIMON BOLÍVAR – BOLIVIA
Juan Reyes Reyes
Profesor Investigador del Departamento de Ingeniería Electrónica
Centro Nacional de Investigación y Desarrollo Tecnológico.
UNESCO RAPCA
CONCLUSIONES
El procesamiento digital de imágenes y la visión por computadora, son tópicos que
se utilizan cada vez mas en diversas áreas, tales como publicidad, cinematografía,
meteorología, medicina, etc.
El aprovechar el alto desempeño del MATLAB para procesar matrices y vectores
así como el alto desempeño en graficación permite implementar sistemas de
procesamiento digital de imágenes o bien visión por computadora.
Hoy día se estudia como mejorar la complejidad en la codificación de los vectores
de movimiento y esquemas de cuantización multicapa para una óptima ordenación
de los bits
La optimización de imágenes para diseños de pantalla se deberá tener en cuenta la
calidad de la imagen en relación con el menor peso posible.
Top Related