Sistemas de Visión por Computadora
INTRODUCCIÓN
Actualmente se desarrollan sistemas de visión por
computadora, para utilizarse como herramientas de trabajo en
diversas áreas tales como: medicina, vigilancia, control de
calidad, inspección industrial, robótica, espacio, radares, etc.,
en estas áreas existen actividades que requieren una gran
cantidad de tiempo para resolver un problema específico, sin
embargo estos sistemas ayudan en la reducción de tiempo para
llevar a cabo dichas actividades. Los sistemas desarrollados son
considerados herramientas de gran utilidad donde la inspección
visual es difícil, tediosa o peligrosa para un humano.
La visión por computadora es una tecnología que está
creciendo, y consiste básicamente de los siguientes
dispositivos: dispositivos para capturar imágenes, sistemas de
iluminación que aseguren la calidad de la imagen,
V
Sistemas de Visión por Computadora
computadoras y software que pueda hacer la manipulación de
las imágenes adquiridas, de tal forma que se pueda hacer el
reconocimiento de las características en la imagen.
Es por todo esto que el desarrollo del contenido de esta
monografía está organizado de la siguiente manera: En el
capítulo I se habla del concepto e historia de sistemas de visión
por computadora, en el capítulo II se aborda los principales
elementos que conforma un sistema de visión por computadora,
en el capítulo III se describen las diferentes etapas que
conforman un sistema de visión por computadora y por último
en el capítulo IV se mencionan algunas áreas de aplicación de
un sistema de visión por computadora en la actualidad.
VI
Sistemas de Visión por Computadora
ÍNDICE GENERAL
Pági
naIntroducción…………………………………………………………
………………………….
V
Índice
general…………………………………………………………………
VI
Lista de
figuras…………………………………………………………………
IX
Capítulo I:
Introducción…………………………………………………………
11
1.1
Historia……………………………………………………………
12
1.2 Concepto de visión por
computadora……………………………………..
15
1.3 Visión humana y visión por
computadora……………………………….
17
Capítulo II: Elementos de un sistema de visión por
computadora………….
21
2.1
Imagen……………………………………………………………
22
2.2
Iluminación………………………………………………………
26
VII
Sistemas de Visión por Computadora
2.3
Ópticas……………………………………………………………
28
2.4
Cámaras……………………………………………………………
31
2.5 Tarjetas de
adquisición…………………………………………………………
39
Capítulo III: Etapas de un sistema de visión por
computadora………………
41
3.1 Captación de
imagen…………………………………………………………….
42
3.2 Procesamiento de
imágenes……………………………………………………
43
3.2.1 Realce de la
imagen…………………………………………………….
44
3.2.2 Detección de
bordes……………………………………………………
45
3.2.3 Eliminación de
ruidos…………………………………………………
46
3.3
Segmentación……………………………………………………
48
3.3.1 Técnica basada en
umbralización………………………………….
51
3.3.2 Técnica basada en
bordes…………………………………………….
52
3.3.3 Técnica orientada a
regiones………………………………………..
53
3.4 Representación y
descripción…………………………………………………
5
43.5 Reconocimiento e
interpretación……………………………………………
55
3.5.1 Elementos de análisis de
imágenes………………………………..
56
3.5.2 Patrones y clases de
patrones………………………………………..
57
3.5.3
Interpretación………………………………………………
57
Capítulo IV:
Aplicaciones…………………………………………………………
59
4.1
Medicina……………………………………………………………
59
VIII
Sistemas de Visión por Computadora
4.2 Control de calidad en la
industria…………………………………………..
61
4.3
Robótica……………………………………………………………
64
4.4 Identificación de
personas……………………………………………………..
67
4.5 Seguridad y
vigilancia…………………………………………………………
69
Conclusión……………………………………………………………
………………………….
70
Bibliografía……………………………………………………………
………………………….
71
LISTA DE FIGURAS
Págin
a
Figura 1.1: Visión por computadora versus visión
humana……………………. 20
Figura 2.1: Elementos de un sistema de
visión……………………………………… 21
Figura 2.2: Una imagen analógica y su conversión a una imagen
digital…. 22
Figura 2.3: Proceso de digitalización de una
imagen……………………………… 23
Figura 2.4: Cuatro representaciones de una misma imagen con
distintas
IX
Sistemas de Visión por Computadora
resoluciones…………………………………………………………
24
Figura 2.5: Cuatro representaciones de una misma imagen con
distintas profundidad de
bits…………………………………………….. 25
Figura 2.6: Ejemplo de
iluminación……………………………………………………. 27
Figura 2.7: Ejemplo de
óptica…………………………………………………………….. 29
Figura 2.8: Sensor
CDD…………………………………………………………………….
35
Figura 2.9: Sensor
CMOS…………………………………………………………………..
36
Figura 2.10: Tarjetas
digitalizadoras…………………………………………………….. 40
Figura 3.1: Etapas de una aplicación basada en la visión por
computadora………………………………………………………………….
.. 41
Figura 3.2: Captación de
imagen………………………………………………………… 42
Figura 3.3: Ejemplo de realzado de la
X
Sistemas de Visión por Computadora
imagen………………………………………. 44
Figura 3.4: Ejemplo de obtención de los bordes de una
imagen…………….. 46
Figura 3.5: Ruido
Gaussiano……………………………………………………………….
47
Figura 3.6: Ruido Sal y
Pimienta………………………………………………………… 47
Figura 3.7: Ejemplo de eliminación de
ruido……………………………………….. 48
Figura 3.8: Ejemplo de segmentación de
imágenes……………………………….. 496
Figura 3.9: Segmentación por
umbralización……………………………………….. 51
Figura 3.10: Segmentación basada en
bordes……………………………………….. 52
Figura 3.11: Segmentación orientada a
regiones…………………………………… 53
Figura 3.12: Imagen de un poisedon y una sirena en la misma
escena........ 54
Figura 3.13: (a) Ejemplo de etiquetado de una
imagen………………………….. 55
Figura 3.13: (b) Ejemplo de reconocimiento de objetos.
………………………… 55
XI
Sistemas de Visión por Computadora
Figura 3.14: Reconocimiento e
interpretación……………………………………… 58
Figura 4.1: Ejemplo de aplicación en la
medicina…………………………………. 59
Figura 4.2: Ejemplo de imágenes tomadas por Rayos
“X”………………………. 60
Figura 4.3: Ejemplo de
ultrasonido……………………………………………………… 60
Figura 4.4: Ejemplo de control de
calidad……………………………………………. 63
Figura 4.5: Figura: 4.4: Robots trabajando en la
industria………………………. 67
Figura 4.6: Ejemplo de reconocimiento de
caras…………………………………… 68
Figura 4.7: Ejemplo de identificación por huella
digital…………………………. 69
Figura 4.8: Ejemplo de seguridad y vigilancia a través de
captación
de imágenes por
cámaras……………………………………………………. 69
XII
Sistemas de Visión por Computadora
CAPÍTULO I: INTRODUCCIÓN
Uno de los sentidos más importantes de los seres humanos es la
visión. Ésta es empleada para obtener la información visual del
entorno físico. Según Aristóteles, “Visión es saber que hay y
donde mediante la vista”, de hecho, se calcula que más de 70%
de las tareas del cerebro son empleadas en el análisis de la
información visual.
El refrán popular de “una imagen vale más que mil palabras”
tiene mucho que ver con los aspectos cognoscitivos de la
especie humana. Casi todas las disciplinas científicas emplean
un conjunto de gráficos para transmitir conocimiento. Se podría
hacer mediante texto, pero para la especie humana resulta
mucho más eficiente procesar imágenes que procesar texto.
11
Sistemas de Visión por Computadora
La visión humana es el sentido más desarrollado y el que menos
se conoce debido a su gran complejidad. Es una actividad
inconsciente y difícil de saber cómo se produce.
El uso de nuestro sistema de visión está integrado a un
sofisticado sistema de control que incluye desde el ajuste del
sistema de lentes del ojo para focalizar la imagen en la retina,
hasta los cálculos precisos que realiza para saber donde caerá
la pelota en un partido de fútbol.
Para construir un sistema de visión artificial, se tiene que
recurrir a los elementos equivalentes a la visión natural para
construir con artefactos, máquinas, equipos y sistemas que
“vean” y actúen en función de lo que ven. Como ejemplo se
puede pensar en un operador de fábrica cuya función es retirar,
de la línea de producción, todos los productos con defectos; y
sustituido por una máquina que haga exactamente lo mismo.
12
Sistemas de Visión por Computadora
1.1 HISTORIA
Los sentidos son los medios de los que dispone el ser humano
para interactuar con el entorno que le rodea y la visión es uno
de los mecanismos sensoriales de percepción más importante
en el ser humano. Debido a la importancia del sentido de la
vista humana y con la aparición de las primeras computadoras,
una de las primeras aplicaciones en la que se investigó fue en la
visión por computadora.
Los primeros trabajos relacionados con la visión por
computadora datan de la década de 1950. El entusiasmo inicial
fue tan grande debido principalmente a una gran confianza en
las posibilidades de las computadoras y porque para el hombre
la acción de ver es una tarea sencilla, e igual debería suceder
para las computadoras. Años después, ese entusiasmo
13
Sistemas de Visión por Computadora
desapareció debido a los limitados avances y a las pocas
aplicaciones existentes.
Aunque en los años sesenta se desarrollaron algoritmos que son
utilizados hoy en día, como los detectores de bordes de Roberts
(1965), Sobel (1970) y Prewitt (1970), su funcionamiento estaba
muy limitado a un reducido número de imágenes y casos. Es por
ello que en los años setenta hubo un abandono progresivo en la
investigación.
A partir de la década de los ochenta se empieza a hacer
hincapié en la extracción de características. Así se tiene la
detección de texturas (Haralik (1979)), y la obtención de la
forma a través de ellas (Witkin (l98l)). En ese mismo año, 1981,
se publican artículos sobre visión estéreo (Mayhew y Frisby),
detección del movimiento (Horn), interpretación de formas
(Steven) y líneas (Hanade); o los detectores de esquinas de
Kitchen y Rosendfeld (1982). Quizá el trabajo más importante
14
Sistemas de Visión por Computadora
de esa década es el libro de David Marr (Visión: a computacional
investigation into the human reprentation and processing of
cisual information, 1982) donde se abordaba por primera vez
una metodología completa del análisis de imágenes a través de
la computadora.
A partir de esta década la visión por computadora toma de
nuevo interés y empieza a ser una de las principales líneas de
investigación en muchas universidades. Como confirmación de
este nuevo interés aparece en revistas especializadas, aumenta
el número de congresos dedicados a la visión por computadora,
aparecen asignaturas en los planes de estudio de las
universidades, etc.
Los principales motivos de este crecimiento se debe en gran
parte a un enfoque más realista del problema a resolver, al
desarrollo de las computadoras (aumento de la capacidad de
15
Sistemas de Visión por Computadora
cálculo y disminución del precio) y hardware especializado en el
procesamiento y tratamiento de imágenes.
1.2 CONCEPTO DE VISIÓN POR COMPUTADORA
El término “Visión por Computadora” dentro del campo de la
Inteligencia Artificial puede considerarse como el conjunto de
todas aquellas técnicas y modelos que permiten el
procesamiento, análisis y explicación de cualquier tipo de
información especial obtenida a través de imágenes digitales.
A continuación se enumeran diferentes conceptos de visión por
computadora, que es lo mismo decir visión artificial o visión por
computador.
16
Sistemas de Visión por Computadora
Ciencia que estudia la interpretación de las imágenes
mediante computadores.
Ciencia que desarrolla la base teórica y algorítmica
mediante la que se extrae y analiza información útil sobre
el mundo / entorno, a partir de una imagen.
“Visión es un proceso que produce, a partir de imágenes
del mundo externo, una descripción que es útil para el
observador y que está libre de información irrelevante”.
La Visión Artificial describe la deducción automática de las
estructuras y propiedades de un mundo tridimensional,
posiblemente dinámico, a partir de una o varias imágenes
bidimensionales de él.
17
Sistemas de Visión por Computadora
En resumen, la visión por computadora es la ciencia que estudia
la interpretación de imágenes mediante computadores, que
pretende los siguientes objetivos:
Procesar las imágenes.
Reconocer los objetos presentes: Mesa, sillas, asientos,
respaldos.
Inspeccionar los objetos: Correctos e incorrectos.
Localizar objetos.
1.3 VISIÓN HUMANA Y VISIÓN POR COMPUTADORA
El hombre ha imitado muchas veces, en la construcción de sus
artefactos, a la naturaleza, la visión por computadora intenta
copiar la manera cómo los seres humanos perciben la
información visual por medio de usar cámaras fotográficas que
actúan como globos oculares y computadoras para procesar la
información de una “manera inteligente” al igual que el cerebro
humano. Las cámaras con sus ópticas hacen las veces del globo
18
Sistemas de Visión por Computadora
ocular, mientras la computadora realiza las tareas de
procesamiento, emulando el comportamiento del cerebro.
Cuando se establecieron en la década de los 50, los objetivos de
la Inteligencia Artificial, se suponía que con la llegada del siglo
XXI habría máquinas que serían capaces de describir, con
información de alto nivel, las escenas capturadas. Con el paso
del tiempo se vio que aquel anhelo se iba desvaneciendo.
Hoy en día, todavía no hay una teoría de la visión. No se
conocen los mecanismos que el cerebro utiliza para obtener la
información de la percepción.
El cerebro es capaz, de manera inconsciente, de determinar la
distancia a los objetos, de reconocerlos en diferentes
posiciones, aunque se encuentren rotados y con información
parcialmente oculta. En definitiva, el cerebro presenta una
19
Sistemas de Visión por Computadora
sofisticación en la percepción que ni ahora ni en mucho tiempo
habrá posibilidad de implementar artificialmente.
Lo que sí hace la visión por computadora es construir nuevos y
más sofisticados algoritmos que sean capaces de obtener
información de bajo nivel visual. Y aunque todavía se esté años
luz de la percepción visual de los seres vivos, la visión artificial
es muy eficaz en tareas visuales repetitivas para el hombre. Por
ejemplo, en el campo de la inspección de productos en la
industria o en contar células en una imagen de microscopía o en
determinar la trayectoria de un vehículo en una autopista, etc.
Resumiendo, las principales ventajas de la visión humana
respecto a la de computadora y viceversa (véase la figura 1.1),
son:
20
Sistemas de Visión por Computadora
Sistema humano:
Mejor reconocimiento de objetos.
Mejor adaptación a situaciones imprevistas.
Utilización de conocimiento previo.
Mejor en tareas de alto nivel de proceso.
Sistema por computadora:
Mejor en la medición de magnitudes físicas.
Mejor para la realización de tareas rutinarias.
Mejor en tareas de bajo nivel de proceso.
Condiciones especiales de adquisición de imágenes.
Objetos muy pequeños o muy grandes.
Detalles con alta resolución.
Cuerpos muy cercanos o muy alejados.
Entornos muy oscuros o muy iluminados.
21
Sistemas de Visión por Computadora
Entornos peligrosos.
Tareas rutinarias y repetitivas.
Aumento de la objetividad.
Elevado número de imágenes a visualizar.
Dotar de percepción visual a sistemas autónomos.
Sustitución del ser humano por rentabilidad.
Figura 1.1: Visión por computadora versus visión humana.
22
Sistemas de Visión por Computadora
CAPÍTULO II: ELEMENTOS DE UN SISTEMA
DE
VISIÓN POR COMPUTADORA
En este capítulo se definen y describen los elementos básicos
que conforma el sistema de visión por computadora. Para
desarrollar una aplicación que requiera el análisis de imágenes
por computadora se tiene disponible un amplio conjunto de
elementos que van desde las fuentes de luz necesarias para
iluminar los objetos hasta los algoritmos encargados de
clasificarlos. En la figura 2.1 se muestra los elementos de un
sistema de visión.
23
ESCENA
COMPUTADORA
TARJETA DE ADQUISICION
SENSOR PARA CAPTURA DE LA IMAGENSISTEMA DE
ILUMINACION
Sistemas de Visión por Computadora
Figura 2.1: Elementos de un sistema de visión.
2.1 IMAGEN
Una imagen es un registro de valores organizados en forma
bidimensional, generalmente representando intensidad de
radiación electromagnética.
Para que una imagen analógica (una imagen natural captada
con una cámara, en blanco y negro, en escala de grises, o a
color, pueda ser procesada mediante una computadora, es
preciso someter a la imagen analógica (ver figura 2.2 (a)) a un
proceso de discretización, tanto espacialmente como en
intensidad para obtener la imagen digital (ver figura 2.2 (b)). En
donde la unidad mínima de información es el píxel.
24
Sistemas de Visión por Computadora
(a) Imagen analógica (b) Matriz numérica tras la
digitalización
Figura 2.2: Una imagen analógica y su conversión a una imagen digital.
La transformación de una imagen analógica a otra discreta se
llama digitalización y es el primer paso en cualquier aplicación
de procesamiento de imágenes digitales. El proceso de
digitalización (véase figura 2.3) consta de dos partes: muestreo
y cuantificación.
El muestreo consiste en una subdivisión de la imagen analógica
en porciones, es la parte encargada de integrar en puntos la
información que se halla en un área determinada. Estos puntos
en los que se integra el área son los elementos más pequeños
en que se divide una imagen: los píxeles.
25
Sistemas de Visión por Computadora
La cuantificación consiste en codificar digitalmente el color
integrado en cada píxel. La meta de la cuantificación es cambiar
la resolución de color de una imagen (número de bits en la
representación del color) con una distorsión mínima.
Figura 2.3: Proceso de digitalización de una imagen.
La resolución de una imagen, o también denominada resolución
espacial, se refiere a la cantidad de píxeles de una imagen por
pulgada (ppi). Dicho con un ejemplo práctico, si una imagen
tiene una resolución de 100 ppi, significa que contiene 10,000
píxeles en una pulgada cuadrada (100 píxeles de ancho por 100
píxeles de alto). Cuanto mayor sea la resolución de las
imágenes mayor número de píxeles contendrán y por tanto
mayor calidad se obtiene.
26
Sistemas de Visión por Computadora
La resolución más adecuada para una imagen depende de lo
que se vaya a hacer con dicha imagen. A continuación se
muestra un ejemplo (ver figura 2.4) de la misma imagen pero
con diferentes resoluciones, manteniendo el rango de niveles de
intensidad entre 0 y 128.
(a) 200X330 píxeles (b) 100X160 píxeles (c) 50X80 píxeles (d)
25X40 píxeles
Figura 2.4: Cuatro representaciones de una misma imagen con
distintas resoluciones.
La profundidad de píxeles, es el número de bits de información
almacenados por píxel. La profundidad de píxeles determina
cuanta información de color (o nivel de gris) existe para cada
píxel de la imagen. Un píxel con una profundidad de bits de 1
tiene dos valores posibles: 0 y 1, por ejemplo blanco y negro.
27
Sistemas de Visión por Computadora
Con una profundidad de 8 bits hay 256 valores posibles y con
una profundidad de 24 bits se obtienen 16,7 millones de valores
posibles.
En la figura 2.5 se muestran cuatro imágenes que tienen todas,
una resolución de 200x320 píxeles, pero donde la profundidad
de bits varía. La figura 2.5 (a) tiene 64 niveles de gris, que son 6
bits de profundidad, la figura 2.5 (b) posee 32 niveles de gris (5
bits de profundidad), la figura 2.5 (c) solamente tiene 8 niveles
de gris (3 bits) y la figura 2.5 (d) tiene 2 niveles de grises, que
en realidad serán el blanco y el negro.
(a) Imagen con 6 bits de (b) Imagen con 5 bits de (c) Imagen con 3 bits de (d) Imagen con 1 bits deProfundidad Profundidad Profundidad Profundidad
Figura 2.5: Cuatro representaciones de una misma imagen con
distintas profundidad de bits.
28
Sistemas de Visión por Computadora
2.2 ILUMINACIÓN
La iluminación es importante durante el procesamiento de
imágenes, ya que una iluminación deficiente hace más difícil de
interpretar a dicho objeto en una escena.
La iluminación juega un papel primordial dentro del proceso de
visión, ya que una iluminación deficiente hace más difícil de
interpretar al objeto en una escena (pues simplifica
considerablemente el análisis y la interpretación de la escena).
Las imágenes recibidas por las cámaras no pueden estar,
generalmente, en un ambiente de iluminación no adecuada,
esto es, donde las condiciones de iluminación no hayan sido
estudiadas. En estos casos, la propia sombra de otro objeto que
interfiera hará peligrar el éxito del montaje.
Los sistemas de visión por computadora trabajan, normalmente,
con iluminaciones estructuradas (adecuadas). El espacio
29
Sistemas de Visión por Computadora
captado por las cámaras está aislado del resto, en donde no hay
contaminación lumínica, no hay sombras inesperadas, no
existen objetos que interseccionen a los escenarios que se
desean capturar. La iluminación se diseña para que sea capaz
de resaltar los objetos de interés. La iluminación depende
básicamente de la naturaleza de las superficies donde se va a
reflejar y del tipo de fuente luminosa (Ver figura 2.6).
Figura 2.6: Ejemplo de iluminación
Técnicas de iluminación
Existen muchas técnicas de iluminación y resulta difícil de
generalizar sobre los distintos tipos de iluminación, ya que suele
30
Sistemas de Visión por Computadora
depender de cada caso concreto. A continuación se presentan
las principales técnicas:
Iluminación direccional
Iluminación difusa
Iluminación a contraluz
Iluminación estructurada
Iluminación polarizada
Aspectos a considerar en la iluminación
Variación de la iluminación en pequeños periodos de
tiempo.
Alimentación continúa, alimentación alterna en alta
frecuencia y sincronización.
Variación de la iluminación en largos periodos de tiempo.
Arranque y autocalibración.
Temperatura y disposición física.
Fuentes luminosas de alta precisión.
31
Sistemas de Visión por Computadora
Mantenimiento, coste y facilidad de recambio.
2.3 ÓPTICAS
La óptica es el elemento del sistema de visión que permite
concentrar los rayos luminosos del entorno sobre el plano
sensor. Una vez definido el sistema de iluminación, la elección
de la óptica influirá en la calidad de la imagen recibida y del
tamaño de los objetos.
Figura 2.7: Ejemplo de óptica.
32
Sistemas de Visión por Computadora
Características de las ópticas
Enfoque. Actuando sobre el enfoque se puede conseguir
una imagen más o menos nítida. Las ópticas comerciales
se pueden clasificar por el enfoque en: ópticas fijas, ópticas
variables y ópticas motorizadas. Estas últimas disponen de
un motor de forma que se puede enfocar o bien de forma
automática o bien de forma teleoperada.
Iris o apertura. El dispositivo de apertura está formado
de láminas muy delgadas dispuestas de tal manera que en
el centro se forma un círculo por el que puede entrar la luz.
Abriendo o cerrando el iris entrará más o menos luz,
haciendo que la imagen sea más clara o más oscura.
Cerrando el iris también se aumenta la profundidad de
campo y se disminuyen las aberraciones de la lente, sin
embargo se tendrá que iluminar más la escena. El iris
puede ser manual, automático (autoiris) o motorizado. Las
ópticas con auto iris tienen un motor, al igual que las
33
Sistemas de Visión por Computadora
motorizadas, pero ésta no se controla por un usuario a
distancia, sino por la propia cámara. La cámara regulará el
auto iris abriéndolo o cerrándolo en función de la cantidad
de luz que esté recibiendo.
Zoom. Las ópticas con zoom permiten, mediante dos
conjuntos de lentes que se pueden acercar o separar,
hacer que la escena aparezca más próxima. De esta
manera se puede fijar en detalles que a simple vista no se
aprecian, pudiendo tener una vista general de la escena o
en detalles concretos, realizando una magnificación de la
imagen. El efecto de aumentar el zoom es la disminución
del ángulo de vista. Las ópticas pueden ser con o sin zoom
y éstas pueden ser manuales o motorizadas.
Parámetros de las ópticas
34
Sistemas de Visión por Computadora
A la hora de comprar una óptica en el mercado para un sistema
de visión hay que tener claro las necesidades del proyecto. El
precio de la óptica puede variar en función de sus
características y calidades. Los principales parámetros en la
elección de una óptica son:
Distancia focal f.
Número F.
Angulo de vista.
Rosca.
2.4 CÁMARAS
Las cámaras de video han tenido una rápida evolución en los
últimos años, desde las primeras cámaras de video que iban
35
Sistemas de Visión por Computadora
equipadas con tubos Vidicon hasta las más modernas cámaras
provistas de sensores CCD y CMOS.
Hay dos tipos principales de cámaras que se utilizan en
sistemas de visión por computadoras: Cámaras Matriciales y
Cámaras Lineales.
Cada uno de estos tipos de cámaras se describirá por separado
y se consideran generalmente tecnologías completamente
distintas. Sin embargo hay muchas características que se
superponen en ambos tipos de cámaras.
Cámaras Matriciales
Término que se refiere a que el sensor de la cámara cubre un
área o que está formado por una matriz de píxeles.
Una cámara matricial produce una imagen de un área,
normalmente con una relación de aspecto de 4 a 3. Esta
36
Sistemas de Visión por Computadora
relación viene de los tiempos de las cámaras Vidicon y de los
formatos de cine y televisión. Actualmente existen muchas
cámaras que ya no mantienen esta relación y que no siguen los
formatos de la televisión.
Cámaras Lineales
El concepto de barrido lineal se asocia a la construcción de una
imagen línea a línea, utilizando un sensor lineal de forma que la
cámara se desplaza con respecto al objeto a capturar, o bien el
objeto se desplaza con respecto a la cámara. La utilización de
cámaras lineales sin ser compleja requiere de una mayor
experiencia en los entornos de visión que la utilización de
cámaras matriciales.
La tecnología de cámaras lineales hace mucho tiempo que fue
desarrollada para aplicaciones de inspección de materiales
fabricados en continuo, como papel, tela, planchas metálicas,
37
Sistemas de Visión por Computadora
etc. Sin embargo en la actualidad se está imponiendo en
muchos otros procesos productivos y de inspección, que
requieren alta resolución y / o alta velocidad a un precio
competitivo.
Las cámaras lineales utilizan sensores lineales que acostumbran
a tener entre los 512 y 8192 elementos (píxeles), con una
longitud lo más corta posible, y con una gran calidad con el fin
de obtener la mejor sensibilidad y prestaciones.
Con la tecnología de cámaras lineales es posible capturar
objetos de grandes dimensiones en una sola pasada, mientras
que con cámaras matriciales este mismo objeto debería ser
dividido en una secuencia de imágenes parciales.
CCD versus CMOS
38
Sistemas de Visión por Computadora
El sensor de imagen de la cámara se encarga de transformar la
luz en señales eléctricas. Cuando se fabrica una cámara, existen
dos tecnologías de sensor de imagen disponibles:
- CCD (Dispositivo de acoplamiento de carga)
- CMOS (Semiconductor de óxido metálico complementario)
Los sensores CCD se fabrican usando una tecnología
desarrollada específicamente para la industria de cámaras,
mientras que los sensores CMOS se basan en una tecnología
estándar ampliamente utilizada en los chips de memoria como
por ejemplo, dentro de una PC.
Tecnología CCD
Los sensores CCD (ver figura 2.8) llevan utilizándose en las
cámaras desde hace más de 20 años y presentan muchas
39
Sistemas de Visión por Computadora
ventajas de calidad, entre las cuales cabe destacar una mejor
sensibilidad a la luz que los sensores CMOS. Esta mayor
sensibilidad a la luz se traduce en mejores imágenes en
situaciones de luz escasa.
Sin embargo, los sensores CCD son caros ya que están
fabricados siguiendo un proceso no estandarizado y más
complejo para ser incorporados a una cámara. Además, cuando
existe un objeto muy luminoso en la escena (como, por ejemplo,
una lámpara o la luz solar directa), el CCD puede tener
pérdidas, provocando rayas verticales por encima y por debajo
del objeto.
Figura 2.8: Sensor CDD.
40
Sistemas de Visión por Computadora
Tecnología CMOS
Los recientes avances en los sensores CMOS (ver figura 2.9) los
acercan a sus homólogos CCD en términos de calidad de la
imagen, pero siguen siendo inadecuados para cámaras donde
se exige la máxima calidad de imagen posible.
Una de las limitaciones actuales de los sensores CMOS es su
menor sensibilidad a la luz. En condiciones de luz normales esto
no supone ningún problema, mientras que en situaciones de
escasa luz se vuelve manifiesto. El resultado es una imagen
muy oscura o una imagen con apariencia granular.
Figura 2.9: Sensor CMOS.
41
Sistemas de Visión por Computadora
Elección de una cámara
Muchos son los aspectos que pueden influir en la elección de
una cámara a otra. Sin embargo, algunas consideraciones han
de tenerse en cuenta para no arrepentirse de la compra o para
no gastarse más dinero del que realmente hace falta.
Normalmente, la elección de la cámara va íntimamente ligada a
la de la óptica.
Las características técnicas son las más importantes y las que
siempre se tendrá presente a la hora de adquirir una cámara. A
continuación se enumeran algunas de ellas.
Formato de video
EI formato de la señal es importantísimo ya que tanto las
cámaras como las digitalizadoras y, a veces, los monitores
deben ser del mismo formato. El formato cambia de un país a
otro.
42
Sistemas de Visión por Computadora
En Europa se tiene el sistema PAL (Phase Alternating Line, en
español línea alternada en fase) o CCIR (Comité Consultivo
Internacional de Radiocomunicaciones) que será siempre al que
se haga referencia. En los países francófonos se emplea el
sistema SECAM (Color secuencial con memoria) y en el
continente Americano y Japón el sistema NTSC (National
Television System(s) Committee).
Otro tipo de cámaras que no sigue ninguno de estos formatos
son las llamadas cámaras digitales que envían la información al
digitalizador en formato digital codificado según el formato de
cada fabricante, aunque se está extendiendo el protocolo IEEE
1394 o FireWire. Si se adquiere una cámara de este tipo hay
que tener en cuenta que son mucho más caras y que no todos
los computadores tienen este puerto, aunque ofrecen
numerosas ventajas.
Resolución
43
Sistemas de Visión por Computadora
Una imagen en el sistema CCIR está formada por 576 filas y 768
columnas, sin embargo, el tamaño del CCD puede ser mayor o
menor. La norma es que cuantos más píxeles disponga el CCD
mayor será la calidad de la imagen. Otro factor a tener en
cuenta, en la resolución, es el número de bits con que se
digitaliza el píxel. Lo normal en cámaras digitales es emplear 8
bits, aunque existen cámaras de hasta 16 bits por píxel.
2.5 TARJETAS DE ADQUISICIÓN
El nombre tarjeta digitalizadora (véase figura 2.10) no es
correcto del todo, ya que ésta incluye operaciones de
procesamiento e incluso permiten recibir señal de vídeo digital.
Sin embargo, este término es ampliamente aceptado por
razones históricas, pues al principio estas tarjetas no hacían
44
Sistemas de Visión por Computadora
más que digitalizar la imagen y era el computador el encargado
de procesarlas.
Una tarjeta digitalizadora o frame grabber tiene como propósito
principal muestrear, en tiempo real, la salida estándar de una
cámara de vídeo, pasando la información a la computadora. La
información es almacenada temporalmente y una vez allí la
información es procesada siguiendo las directrices de un
programa.
Dependiendo de la aplicación, la tarjeta puede ser programada
para capturar y almacenar cuadros individuales, recoger una
cierta secuencia de cuadros o quizás leer de manera continua la
imagen de vídeo y realizar una tarea determinada en tiempo
real. Algunas tarjetas tienen características avanzadas como
puede ser captura síncrona de las imágenes.
45
Sistemas de Visión por Computadora
Las digitalizadoras con capacidades para el procesamiento en
tiempo real derivan sus prestaciones de los procesadores
digitales de señal (DSP). Éstos pueden realizar procesamientos
básicos sobre la señal de una manera encadenada y en tiempo
real.
Figura 2.10: Tarjetas digitalizadoras.
46
Sistemas de Visión por Computadora
CAPÍTULO III: ETAPAS DE UN SISTEMA DE
VISIÓN POR COMPUTADORA
El desarrollo de una aplicación basada en la visión por
computadora se puede dividir en seis etapas, tal como lo
muestra el esquema de la figura 3.1, en donde las flechas
coloreadas indican el orden en las etapas, mientras que las
flechas sin colorear significan que en cada etapa se actualiza el
conocimiento del problema con la información que se extrae en
la misma. Aunque el orden que se marca es secuencial, a veces
y dependiendo de los objetivos del problema no se tiene que
pasar por todas las etapas o incluso realizar una realimentación
si es necesario.
Cada una de las etapas que conforman el sistema de visión se
describen a continuación.
47
Extracción de características
Preprocesamiento
Adquisición de Imagen
Segmentación
Descripción de objetos
Reconocimiento
Conocimiento del problema
Sistemas de Visión por Computadora
Figura 3.1: Etapas de una aplicación basada en la visión por computadora.
3.1 CAPTACIÓN DE IMÁGENES
La primera etapa del proceso es la adquisición de la imagen, es
decir la adquisición de una imagen digital. Para la adquisición
digital de imágenes se necesitan dos elementos. El primero de
ellos es un dispositivo físico sensible a una determinada banda
del espectro de energía electromecánica (como las bandas de
rayos X, ultravioleta, visible o infrarrojo) y que produzca una
señal eléctrica de salida proporcional al nivel de energía
detectado.
El segundo, denominado digitalizador, es un dispositivo para
convertir la señal de salida del sistema sensible a forma digital.
48
Sistemas de Visión por Computadora
Ésta es transmitida hasta el computador, ya sea para su
monitorización o procesamiento.
Figura 3.2: Captación de imagen.
3.2 PROCESAMIENTO DE IMÁGENES
Una vez preparada la escena para ser capturada por las
cámaras de visión por computadora, se deberá de tratar el
aspecto tanto de cuantificación como de codificación que sufre
la señal de vídeo al ser introducida en la computadora. Esta
etapa, trata de obtener una nueva imagen que o bien mejore su
calidad o bien destaque algún atributo primario de los objetos
capturados.
49
Sistemas de Visión por Computadora
Esta etapa pretende mejorar o realzar las propiedades de la
imagen para facilitar las siguientes operaciones del sistema de
visión por computadora, tales como las etapas de
segmentación, extracción de las características y finalmente la
interpretación automática de las imágenes.
En el primer aspecto se tratarán de corregir las posibles faltas
de iluminación uniforme, la eliminación del ruido o de aumentar
el contraste en la imagen. Mientras en el segundo, su objetivo
es realzar los bordes de los objetos, regularizar sus colores,
destacar sus texturas, etc.
A continuación se describen las principales técnicas de
procesamiento de imágenes:
3.2.1 REALCE DE LA IMAGEN
50
Sistemas de Visión por Computadora
El objetivo principal del realce (ver figura 3.3) es el de destacar
los detalles finos de una imagen o intensificar detalles que han
sido difuminados, bien sea por error bien por efecto natural del
método de adquisición de la imagen.
El realce tiene un efecto opuesto a la eliminación de ruido, ya
que se trata de resaltar aquellos píxeles que presentan un nivel
de gris distinto al de sus vecinos. Por ello, si la imagen es
ruidosa, el efecto del ruido se multiplicará, por lo que antes de
resaltar la imagen habrá que eliminar el ruido de la misma.
Figura 3.3: Ejemplo de realzado de la imagen.
3.2.2 DETECCIÓN DE BORDES
51
Sistemas de Visión por Computadora
Una vez que la imagen ha sido procesada se está en disposición
de detectar los objetos presentes en ella. Para ello se buscan en
la imagen características que definen al objeto que se desea
encontrar.
Una de las informaciones más útiles que se encuentran en una
imagen la constituyen los bordes, ya que al delimitar los objetos
definen los límites entre ellos y el fondo, y entre los objetos
entre sí.
Un borde es la frontera entre dos regiones con niveles de gris
relativamente distintas. Su causa principal es originada por la
intersección de varios objetos, con diferentes niveles de
reflectancia, que al ser proyectados sobre la cámara generan
discontinuidades de intensidad en los píxeles correspondidos
(véase la figura 3.4).
52
Sistemas de Visión por Computadora
Sin embargo, estas discontinuidades también aparecen de
forma no deseada por la presencia del ruido, por el efecto de
sombras sobre los propios objetos o por una iluminación no
uniforme dentro de la escena.
(a) Imagen de entrada para (b) Imagen de salida con los bordes
detectar los bordes
Figura 3.4: Ejemplo de obtención de los bordes de una imagen.
3.2.3 ELIMINACIÓN DE RUIDOS
53
Sistemas de Visión por Computadora
Todas las imágenes tienen una cierta cantidad de ruido, valores
distorsionados, etc., debidos a diversos motivos, como al sensor
de la cámara que captura la imagen o al medio de transmisión
de la señal. El ruido se manifiesta generalmente en píxeles
aislados que toman un valor de gris diferente al de sus vecinos
y es una información no deseada que contamina la imagen
(véase la figura 3.7(a)). Básicamente, el ruido se puede
clasificar en dos tipos:
Gausiano: El ruido se superpone a los puntos de la imagen
de forma aditiva. Su valor sigue una distribución normal.
a) Imagen original b) Imagen con ruido gaussiano
Figura 3.5: Ruido Gaussiano.
54
Sistemas de Visión por Computadora
Impulsional (sal y pimienta): Se caracteriza por la aparición
de píxeles con valores arbitrarios normalmente detectables
porque se diferencian mucho de sus vecinos más
próximos.
a) Imagen original b) Imagen con ruido sal y pimienta
Figura 3.6: Ruido Sal y Pimienta.
a) Imagen original con ruido . b) Resultado después de
eliminarle el ruido.
Figura 3.7: Ejemplo de eliminación de ruido.
55
Sistemas de Visión por Computadora
3.3 SEGMENTACIÓN
En cualquier imagen se encontrarán presentes uno o varios
objetos. El objetivo de la segmentación es separar dichos
objetos y distinguirlos entre sí (véase figura 3.8). Después de
esta separación estará el proceso de descripción individualizada
de los objetos encontrados y su reconocimiento e
interpretación.
La segmentación se basa en tres propiedades:
1. Similitud. Cada uno de los píxeles de un elemento tiene
valores parecidos para alguna propiedad.
2. Discontinuidad. Los objetos destacan el entorno y tienen
por tanto unos bordes definidos.
3. Conectividad. Los píxeles pertenecientes al mismo objeto
tienen que ser contiguos, es decir, deben estar agrupados.
56
Sistemas de Visión por Computadora
Figura 3.8: Ejemplo de segmentación de imágenes.
Estas suposiciones no son fáciles de cumplir, pero son
fundamentales para una buena segmentación. Respecto a la
similitud, los objetos deberían presentar una apariencia
uniforme.
Esto no va a ser posible debido a diversos factores como la
iluminación, pequeñas variaciones en el material de los objetos,
al sensor de la cámara, etc. Respecto a la discontinuidad, los
bordes no tienen por que estar bien definidos. Y por último, se
puede dar el caso de ocultamientos parciales de un objeto por
57
Sistemas de Visión por Computadora
parte de otro lo que dificultará el cumplimiento de la
conectividad de todos los puntos del objeto.
Las técnicas de segmentación se basan en la búsqueda de las
partes uniforme de la imagen o justo lo contrario, aquellas
partes donde se produce un cambio. Tanto si se elige una u otra
forma para la segmentación, o una combinación de ambas, al
final lo que se obtendrán serán regiones.
Una región es un conjunto de píxeles en los que existe un
camino entre cualquier pareja de sus píxeles, y todos los píxeles
del camino pertenecen a la región, además de presentar
propiedades o características comunes.
58
Sistemas de Visión por Computadora
3.3.1 TÉCNICA BASADA EN UMBRALIZACIÓN
La umbralización es una técnica de segmentación ampliamente
utilizada en las aplicaciones industriales. Se emplea cuando hay
una clara diferencia entre los objetos a extraer respecto del
fondo de la escena. Los principios que rigen son la similitud
entre los píxeles pertenecientes a un objeto y sus diferencias
respecto al resto. Por tanto, la escena debe caracterizarse por
un fondo uniforme y por objetos parecidos. La técnica más
utilizada es la segmentación por análisis del histograma.
La umbralización consiste en elegir un valor de la intensidad y
convertir todo lo que es superior a ese valor a 1 y lo que es
inferior a 0.
59
Sistemas de Visión por Computadora
Figura 3.9: Segmentación por umbralización.
3.3.2 TÉCNICA BASADA EN BORDES
La localización de las fronteras de los objetos en la escena,
emplearán las técnicas de detección de los bordes. Sin
embargo, esta etapa no es definitiva para poder segmentar los
objetos presentes en la imagen. La presencia de ruido, el efecto
de las sombras, la falta de iluminación uniforme y un largo
etcétera de causas, produce que los contornos no sean del todo
continuos y cerrados sobre los objetos.
Se requiere otra etapa de post-procesamiento. Esta nueva fase
emplea los resultados de la detección de bordes para elaborar
las fronteras de los objetos. Se trata de agrupar los píxeles
etiquetados como bordes, de la etapa anterior (de detección de
bordes), empleando la propiedad de conectividad.
60
Sistemas de Visión por Computadora
Figura 3.10: Segmentación basada en bordes.
3.3.3 TÉCNICA ORIENTADA A REGIONES
La estrategia a emplear en este tipo de segmentación está
basada en los criterios de similitud y continuidad de los píxeles
que forman una región. Las regiones se forman mediante
píxeles que tengan conectividad y presenten alguna propiedad
de similitud y discrepancia respecto al resto de los píxeles que
no pertenecen a la región.
61
Sistemas de Visión por Computadora
Figura 3.11: Segmentación orientada a regiones.
3.4 REPRESENTACIÓN Y DESCRIPCIÓN
A la salida del proceso de segmentación habitualmente se
tienen los datos de píxel en bruto, que constituyen bien el
contorno de una región o bien todos los puntos de una región
determinada.
La descripción en la visión consiste en extraer características de
un objeto para reconocerlo. Por lo general los descriptores
deben ser independientes del tamaño de la localización y
62
Sistemas de Visión por Computadora
orientación del objeto y deben contener suficiente información
de discriminación para distinguir un objeto del otr Existen
ambigüedades en las que un descriptor no puede distinguir un
objeto de otro como se observa en la figura 3.9, en la que se
visualiza una imagen de poisedon y también la forma de una
sirena.
Figura 3.12: Imagen de un poisedon y una sirena en la misma escena.
3.5 RECONOCIMIENTO E INTERPRETACIÓN
El reconocimiento es el proceso que asigna una etiqueta a un
objeto basándose en la información proporcionada por sus
descriptores. La interpretación implica asignar significado a un
conjunto de objetos reconocidos. La interpretación trata de
63
Sistemas de Visión por Computadora
asignar significado a un conjunto de entidades etiquetadas. El
etiquetado o coloreado consiste en asignar un valor único a
cada región.
Figura 3.13 (a): Ejemplo de etiquetado de una imagen.
Figura 3.13 (b): Ejemplo de reconocimiento de objetos.
3.5.1 ELEMENTOS DE ANÁLISIS DE IMÁGENES
64
Sistemas de Visión por Computadora
El análisis de imágenes es un proceso que consiste en
descubrir, identificar comprender los patrones que son
relevantes en el rendimiento de un trabajo basado en imágenes.
Uno de los principales objetivos del análisis de imágenes por
computadora consiste en dotar a una máquina, en algún
sentido, de la capacidad de aproximación, similar a la de los
seres humanos.
Resulta conceptualmente útil dividir el espectro de técnicas de
análisis imágenes en tres áreas básicas. Estas áreas son:
1. Procesado de bajo nivel
Trata de un tipo de funciones a las que se puede considerar
como reacciones automáticas, y que no requieren inteligencia
por parte del sistema de análisis de imágenes.
2. Procesado de nivel intermedio
65
Sistemas de Visión por Computadora
Se refiere a la labor de extracción y caracterización de los
componentes de la imagen que se obtiene de un proceso a bajo
nivel.
3. Procesado de alto nivel
Comprende el reconocimiento y la interpretación, estos dos
procesos tienen un gran parecido con lo que normalmente se
conoce como conocimiento inteligente.
3.5.2 PATRONES Y CLASES DE PATRONES
Un patrón es una descripción estructural o cuantitativa de un
objeto o de alguna otra entidad de interés en una imagen. Una
clase de patrones es una familia de patrones que comparten
algunas propiedades comunes.
66
Sistemas de Visión por Computadora
3.5.3 INTERPRETACIÓN
La interpretación es el proceso que dota a un sistema de visión
de reconocer e interpretar a un objeto.
La potencia de un sistema de visión artificial se determina por
su capacidad de extraer información con significado de una
escena dentro de un amplio margen de condiciones de visión y
usando un mínimo de conocimiento sobre los objetos que se
están observando.
67
Sistemas de Visión por Computadora
Figura 3.14: Reconocimiento e interpretación.
CAPÍTULO IV: APLICACIONES
En este capítulo se describen algunas de las muchas
aplicaciones del sistema de visión por computadora en el
mundo actual.
4.1 MEDICINA
68
Sistemas de Visión por Computadora
La comunidad médica utiliza muchas aplicaciones en las que
aparece el procesamiento de imágenes, entre las que se
incluyen radiografías, ultrasonidos, etc.
Figura 4.1: Ejemplo de aplicación en la medicina.
Análisis de imágenes tomadas por rayos “X”.
Figura 4.2: Ejemplo de imágenes tomadas por Rayos “X”.
Análisis de imágenes tomadas por ultrasonidos.
69
Sistemas de Visión por Computadora
Figura 4.3: Ejemplo de ultrasonido.
4.2 CONTROL DE CALIDAD EN LA INDUSTRIA
Hoy en día, en muchos procesos de fabricación, los límites de
detección de defectos han superado la percepción del ojo
humano; por esta razón las empresas del mundo moderno han
visto la necesidad de crear un sistema que permita controlar en
forma precisa y acertada la calidad de sus productos. Es así
como nace la visión por computadora.
70
Sistemas de Visión por Computadora
La visión por computadora, como se ha definido anteriormente
es un sistema informatizado que captura la imagen de un objeto
determinado en una línea de producción y procede a la
identificación de diferentes parámetros para el control de
calidad, como el color, la textura, la forma, la estructura interna
y externa del producto.
Los sistemas de visión por computadora completan tareas de
inspección con un alto nivel de flexibilidad y repetibilidad, nunca
se cansan, ni se aburren, ni se distraen y pueden ser puestos a
trabajar en ambiente donde los inspectores humanos no podrían
trabajar bajo condiciones de seguridad. Mientras los sistemas de
visión por computadora exceden a los operadores humanos en
términos de ambiente de trabajo, sí dependen de la forma en
que el ojo humano interactúa con el cerebro para procesar
imágenes y tomar decisiones.
71
Sistemas de Visión por Computadora
Para un inspector humano, los ojos proporcionan información
del ambiente que lo rodea, el cerebro interpreta lo que los ojos
ven, basado en experiencias previas con objetos similares.
Basándose en esta interpretación, se toman decisiones y
acciones. En forma similar, los sistemas de visión por
computadora ven al objeto, lo interpretan y toman decisiones.
La visión por computadora se está convirtiendo rápidamente en
un factor clave en el desarrollo de la calidad total dentro de los
diferentes procesos de automatización industrial.
Su implementación en una empresa genera un aumento en el
nivel de producción y una reducción en los costos de
fabricación, elevando los niveles de competitividad en el
mercado nacional e internacional.
La visión por computadora permite inspeccionar el proceso de
producción sin fatigas ni distracciones, facilitando la
72
Sistemas de Visión por Computadora
cuantificación de las variables de calidad traduciéndose en un
mejoramiento continuo (véase figura 4.3).
Figura 4.4: Ejemplo de sistema de visión para el control de
calidad.
Algunas de las tareas que realiza el sistema de visión por
computadora en esta área son las siguientes:
Verificación de etiquetas.
Inspección de contenedores.
Inspección de motores.
73
Sistemas de Visión por Computadora
Inspección de cristales.
Control de calidad de comida.
Inspección de soldaduras.
Inspección de circuitos impresos.
Inspección madera, tela, fundiciones, papel.
4.3 ROBÓTICA
Un robot es un manipulador controlado por computadora,
diseñado para mover materiales, piezas, herramientas u otros
dispositivos especializados a través de una serie de pasos
programados.
La robótica se define como el conjunto de conocimientos
teóricos y prácticos que permiten concebir, realizar y
automatizar sistemas basados en estructuras mecánicas
74
Sistemas de Visión por Computadora
poliarticuladas, dotados de un determinado grado de
“inteligencia” y destinados a la producción industrial o al
sustitución del hombre en muy diversas tareas. Un sistema
robótica puede describirse como “Aquél que es capaz de recibir
información, de comprender su entorno a través del empleo de
modelos, de formular y de ejecutar planes, y de controlar o
supervisar su operación”. La robótica es esencialmente
pluridisciplinaria y se apoya en gran medida en los progresos de
la microelectrónica y de la informática, así como en los de
nuevas disciplinas tales como el reconocimiento de patrones y
de inteligencia artificial.
La robótica es un componente esencial de la automatización de
la fabricación, que afectará la mano de obra humana a todos
niveles, desde los trabajadores más especializados hasta los
técnicos profesionales y directores de producción. Los futuros
robots pueden encontrar aplicaciones fuera de la fábrica, por
ejemplo en bancos, restaurantes e incluso en sus propios
75
Sistemas de Visión por Computadora
hogares. Es posible, y quizá probable, que la robótica llegue a
ser un campo como el de la tecnología informática actual, que
invada nuestra sociedad.
Objetivos de la robótica:
1. El aumento de la productividad.- Esto se consigue,
fundamentalmente, optimizando la velocidad del trabajo
del robot, que reduce el tiempo parcial a cargo del
manipulador y aumenta el rendimiento total en línea de
producción.
2. Potenciar la flexibilidad en la adaptación a series de
producción cortas.
3. Conseguir una rápida amortización de la inversión, como
consecuencia de la sustitución de la mano de obra, mejor
uso y mayor duración de las herramientas, menores
76
Sistemas de Visión por Computadora
pérdidas de material residual, pocas averías y
mantenimiento reducido.
4. Mejorar la capacidad de los productos fabricados, dada la
precisa repetividad de los movimientos del robot y la
posibilidad de incrementar un control de calidad.
5. Realizar trabajos en condiciones hostiles y peligrosas,
tales como las que se llevan a cabo en ambientes con
temperaturas elevadas, contaminación, gases tóxicos,
materiales inflamables o radiactivos y en los entornos
submarinos o espaciales.
Área de la robótica donde se aplica el sistema de visión por
computadora (véase figura 4.4):
Guiado de robots industriales
Navegación de robots móviles.
77
Sistemas de Visión por Computadora
Figura: 4.5: Robots trabajando en la industria.
4.4 IDENTIFICACIÓN DE PERSONAS
Consiste en identificar o verificar automáticamente la identidad
de las personas basándose en sus características físicas o sus
pautas de comportamientos. Por ejemplo el reconocimiento del
iris, las huellas dactilares, la cara o la voz, etc.
Reconocimiento de la cara
Permite determinar la identidad de una persona, al comparar
una imagen de su cara con imágenes de referencia
almacenadas en una base de datos, en la que también se
78
Sistemas de Visión por Computadora
almacena la identidad de las personas asociadas a cada imagen
de referencia. Esta comparación se realiza analizando
elementos estructurales presentes en las caras.
Figura 4.6: Ejemplo de reconocimiento de caras.
Huellas dactilares
Las huellas dactilares son los surcos o líneas que existen en las
yemas de los dedos. Estas líneas poseen diseños únicos en cada
persona y por lo tanto se utilizan como un método de
identificación de identidad. Un escáner óptico captura una
imagen de los surcos y estrías de nuestra huella dactilar, y
compara los puntos en que terminan o se bifurcan los surcos
con los de la imagen que tiene archivada.
79
Sistemas de Visión por Computadora
Figura 4.7: Ejemplo de identificación por huella digital.
4.5 SEGURIDAD Y VIGILANCIA
Consiste a la detección y seguimiento de personas a través de
cámaras (véase figura 4.6), de esta forma el sistema de visión
capta todas las imágenes en los establecimientos donde se
encuentra instalada ya sea en bancos, tiendas comerciales o en
cualquier otro negocio, empresa o industria.
80
Sistemas de Visión por Computadora
Figura 4.8: Ejemplo de seguridad y vigilancia a través de captación de imágenes por cámaras.
CONCLUSIONES
En este trabajo se presentó una breve introducción al tema de
sistema de visión por computadora siguiendo con una
descripción de los elementos en que se compone, así como las
etapas que lo conforman, concluyendo con una explicación de
las principales aplicaciones del mismo.
Es preciso reconocer que hoy por hoy la visión por computadora
a veces no es la mejor solución a un problema. Existen muchas
ocasiones en las que el problema es tan complejo que la
solución humana es lo mejor, la solución humana es menos
estructurada que la solución artificial y muchos problemas de
visión por computadora requieren un nivel de inteligencia
mucho mayor que el que la máquina pueda ofrecer. No obstante
el sistema de visión humana puede describir automáticamente
una textura en detalle, un borde, un color, una representación
81
Sistemas de Visión por Computadora
bidimensional de una tridimensional, ya que puede diferenciar
entre imágenes de diferentes personas, firmas, colores, etc.,
puede vigilar ciertas zonas, etc. Aun a pesar de las limitaciones
expuestas, cada día es mayor el número de aplicaciones de la
visión artificial.
BIBLIOGRAFÍA
Referencias Bibliográficas:
1. González, Rafael y Woods, Richard, 1992. Tratamiento
digital de imágenes. Ed. Addison-Wesley/Díaz de Santos.
2. Pajares Martinsanz Gonzalo, De La Cruz García Jesús M.,
2002. Visión por computador imágenes digitales y
aplicaciones. Ed. Alfaomega.
3. González Jiménez, Javier, 2000. Visión por computador.
Ed. Paraninfo.
4. Sánchez Calle, Ángel, 2005. Aplicaciones de la Visión
artificial y la biometría informática. Ed. Dikydson
Referencias de Internet:
82
Sistemas de Visión por Computadora
1. Http://Iris.Usc.Edu/Vision-Notes/Rosenfeld/Contents.Html
2. Http://Turing.Iimas.Unam.Mx/~Elena/Teaching/CV-
Mast.Html
3. Http://Www.Debevec.Org/Research/IBL/
4. Http://Ccc.Inaoep.Mx/%7Elabvision/
5. Http://Www.Diinf.Usach.Cl/~Dmery/Visiona/Visiona.Pdf
6. Http://Www.Des.Udc.Es/~Adriana/Tercerciclo/
Cursoimagen/Curso/Web/Indice.Html
83
Top Related