Sistemas de Visión por Computadora
INTRODUCCIÓN
Actualmente
se
desarrollan
sistemas
de
visión
por
computadora, para utilizarse como herramientas de trabajo en dive divers rsas as áre reas as tale taless co como mo:: me medi dici cina na,, vigi vigila lanc ncia ia,, co cont ntro roll de calida calidad, d, inspecci inspección ón industr industrial, ial, robótica robótica,, espacio, espacio, ra radare dares, s, etc., etc., en es esta tass ár área eass exis existe ten n ac acti tivi vida dade dess que que re requ quie iere ren n una una gran gran cantidad de tiempo para resolver un problema específico, sin embargo estos sistemas ayudan en la reducción de tiempo para llevar a cabo dichas actividades. Los sistemas desarrollados son considerados herramientas de gran utilidad donde la inspección visual es difícil, tediosa o peligrosa para un humano. humano.
La visión por computador ora a es una tecnología que está creciendo,
y
consiste
básicamente
de
los
siguientes
dispositivos: dispositivos para capturar imágenes, sistemas de iluminación
que
aseguren
la
calidad
de
la
imagen,
V
Sistemas de Visión por Computadora
computadoras y software que pueda hacer la manipulación de las imágenes adquiridas, de tal forma que se pueda hacer el reconocimiento reconocimiento de las características en la imagen. imagen.
Es por todo odo esto que el des esa arrol rrollo lo del cont ontenid enido o de esta sta mono monogr graf afía ía es está tá or orga gani niza zado do de la sigu siguie ient nte e ma mane nera ra:: En el capítulo I se habla del concepto e historia de sistemas de visión por comput computad adora ora,, en el ca capí pítul tulo o II se abord aborda a los princ principa ipales les elementos elementos que conforma un sistema de visión por computadora, en el ca cap pítulo tulo III se desc scri rib ben las las difer eren enttes etap tapas que conforman un sistema de visión por computadora y por último en el capítulo IV se mencionan algunas áreas de aplicación de un sistema de visión por computadora computadora en la actualidad. actualidad.
VI
Sistemas de Visión por Computadora
ÍNDICE GENERAL Pági Introducción…………………………………………………………
V
Índice
VI
Lista de
IX
Capítulo I:
11
1.1
12
1.2 Concepto de visión por
15
1.3 Visión humana humana y visión por
17
Capítulo II: Elementos Elementos de un sistema de visión por
21
2.1
22
2.2
26
VII
Sistemas de Visión por Computadora
2.3
28
2.4
31
2.5 Tarjetas de
39
Capítulo III: Etapas de un sistema de visión por
41
3.1 Captación de
42
3.2 Procesamiento de
43
3.2.1 Realce de la
44
3.2.2 Detección de
45
3.2.3 Eliminación de
46
3.3
48 3.3.1 Técnica basada en
51
3.3.2 Técnica basada en
52
3.3.3 Técnica orientada a
53
3.4 Representación y
5
3.5 Reconocimiento e
55
3.5.1 Elementos de análisis de
56
3.5.2 Patrones y clases de
57
3.5.3
57
Capítulo IV:
59
4.1
59
VIII
Sistemas de Visión por Computadora
4.2 Control de calidad en la
61
4.3
64
4.4 Identificación de
67
4.5 Seguridad y
69
Conclusión……………………………………………………………
70
Bibliografía……………………………………………………………
71
LISTA DE FIGURAS Págin a Figura 1.1: Visión por computadora versus visión humana……………………. 20 Figura 2.1: Elementos de un sistema de visión……………………………………… 21 Figura 2.2: Una imagen analógica y su conversión a una imagen digital…. 22 Figura 2.3: Proceso de digitalización de una imagen……………………………… 23 Figura 2.4: Cuatro representaciones de una misma imagen con distintas resoluciones………………………………………………………… 24 IX
Sistemas de Visión por Computadora
Figura 2.5: Cuatro representaciones de una misma imagen con distintas profundidad de bits…………………………………………….. Figura 2.6: Ejemplo de
25
iluminación……………………………………………………. Figura 2.7: Ejemplo de
27
óptica…………………………………………………………….. Figura 2.8: Sensor
29
CDD……………………………………………………………………. 35 Figura 2.9: Sensor CMOS………………………………………………………………….. 36 Figura 2.10: Tarjetas digitalizadoras…………………………………………………….. 40 Figura 3.1: Etapas de una aplicación basada en la visión por computadora………………………………………………… ………………. .. 41 Figura 3.2: Captación de imagen………………………………………………………… Figura 3.3: Ejemplo de realzado de la
42
imagen………………………………………. 44 Figura 3.4: Ejemplo de obtención de los bordes de una imagen…………….. Figura 3.5: Ruido
46
Gaussiano………………………………………………………………. 47 X
Sistemas de Visión por Computadora
Figura 3.6: Ruido Sal y Pimienta………………………………………………………… Figura 3.7: Ejemplo de eliminación de
47
ruido……………………………………….. 48 Figura 3.8: Ejemplo de segmentación segmentación de imágenes………………………………..
49
6
Figura 3.9: Segmentación por umbralización……………………………………….. Figura 3.10: Segmentación basada en bordes……………………………………….. Figura 3.11: Segmentación orientada a
51
52
regiones…………………………………… 53 Figura 3.12: Imagen de un poisedon y una sirena en la misma escena........
54
Figura 3.13: (a) Ejemplo de etiquetado de una imagen………………………….. 55 Figura 3.13: (b) Ejemplo de reconocimiento de objetos. ………………………… 55 Figura 3.14: Reconocimiento Reconocimiento e interpretación……………………………………… Figura 4.1: Ejemplo de aplicación en la
58
medicina…………………………………. 59 Figura 4.2: Ejemplo de imágenes tomadas por Rayos “X”………………………. Figura 4.3: Ejemplo de
60
ultrasonido……………………………………………………… Figura 4.4: Ejemplo de control de calidad…………………………………………….
60
63 XI
Sistemas de Visión por Computadora
Figura 4.5: Figura: 4.4: Robots trabajando en la industria………………………. 67 Figura 4.6: Ejemplo de reconocimiento de caras…………………………………… 68 Figura 4.7: Ejemplo de identificación identificación por huella digital…………………………. 69 Figura 4.8: Ejemplo de seguridad y vigilancia a través de captación de imágenes por cámaras…………………………………………………….
69
XII
Sistemas de Visión por Computadora
CAPÍTULO I: INTRODUCCIÓN
Uno de los sentidos más importantes de los seres humanos es la visión. Ésta es empleada para obtener la información visual del entorno físico. Según Aristóteles, “Visión es saber que hay y donde mediante la vista”, de hecho, se calcula que más de 70% de las tareas del cerebro son empleadas en el análisis de la información visual.
El refrán popular de “una imagen vale más que mil palabras” tien tiene e much ucho que que ver ver co con n los los aspec specto toss co cogn gnos osci citi tivo voss de la especie humana. Casi todas las disciplinas científicas emplean un conjunto de gráficos para transmitir conocimiento. Se podría hacer hacer me media diante nte texto texto,, pero pero para para la especi especie e huma humana na re resu sulta lta mucho más eficiente procesar imágenes que procesar procesar texto.
11
Sistemas de Visión por Computadora
La visión humana es el sentido más desarrollado desarrollado y el que menos se co cono noce ce debi debido do a su gran gran co comp mple leji jida dad. d. Es una una activ ctivid idad ad inconsciente inconsciente y difícil de saber cómo se produce. El uso de nues esttro sistem stema a de visi visión ón está stá integ tegra rad do a un sofisticado sistema de control que incluye desde el ajuste del sistema de lentes del ojo para focalizar la imagen en la retina, hasta los cálculos precisos precisos que realiza realiza para saber saber donde caerá caerá la pelota en un partido de fútbol.
Para Pa ra co cons nstr trui uirr un sist sistem ema a de visi visión ón ar arti tifi fici cial al,, se tien tiene e que que recurrir a los elementos equivalentes a la visión natural para constr construir uir con ar artef tefac actos tos,, má máqu quina inas, s, equip equipos os y sist sistema emass que que “vean” y actúen en función de lo que ven. Como ejemplo se puede pensar en un un operador operador de fábrica cuya cuya función es retirar, retirar, de la línea de producción, todos los productos con defectos; y sustituido sustituido por una máquina que haga exactamente exactamente lo mismo.
12
Sistemas de Visión por Computadora
1.1 HISTORIA
Los sentidos son los medios de los que dispone el ser humano para interactuar con el entorno que le rodea y la visión es uno de los mecanismos sensoriales de percepción más importante en el ser humano. Debido a la importancia del sentido de la vista humana y con la aparición de las primeras computadoras, una de las primeras aplicaciones en la que se investigó fue en la visión por computadora.
Los
primeros
trabajos
relacionados
con
la
visión
por
computadora datan de la década de 1950. El entusiasmo inicial fue tan grande debido principalmente a una gran confianza en las posibilidades de las computadoras y porque para el hombre la acción de ver es una tarea sencilla, e igual debería suceder para las
computadoras. Años después, ese
entusiasmo
13
Sistemas de Visión por Computadora
desapareció debido a los limitados avances y a las pocas aplicaciones existentes.
Aunque en los años sesenta se desarrollaron algoritmos que son utilizados hoy en día, como los detectores de bordes de Roberts (1965), Sobel (1970) y Prewitt (1970), su funcionamiento estaba muy limitado a un reducido número de imágenes y casos. Es por ello que en los años setenta hubo un abandono progresivo en la investigación.
A partir de la década de los ochenta se empieza a hacer hincapié en la extracción de características. Así se tiene la detección de texturas (Haralik (1979)), y la obtención de la forma a través de ellas (Witkin (l98l)). En ese mismo año, 1981, se publican artículos sobre visión estéreo (Mayhew y Frisby), detección del movimiento (Horn), interpretación de formas (Steven) y líneas (Hanade); o los detectores de esquinas de Kitchen y Rosendfeld (1982). Quizá el trabajo más importante
14
Sistemas de Visión por Computadora
de esa década es el libro de David Marr (Visión: a computacional investigation into the human reprentation and processing of cisual information, 1982) donde se abordaba por primera vez una metodología completa del análisis de imágenes a través de la computadora.
A partir de esta década la visión por computadora toma de nuevo interés y empieza a ser una de las principales líneas de investigación en muchas universidades. Como confirmación de este nuevo interés aparece en revistas especializadas, aumenta el número de congresos dedicados a la visión por computadora, aparecen asignaturas en los planes de estudio de las universidades, etc.
Los principales motivos de este crecimiento se debe en gran parte a un enfoque más realista del problema a resolver, al desarrollo de las computadoras (aumento de la capacidad de
15
Sistemas de Visión por Computadora
cálculo y disminución del precio) y hardware especializado en el procesamiento y tratamiento de imágenes.
1.2 CONCEPTO DE VISIÓN POR COMPUTADORA
El término “Visión por Computadora” dentro del campo de la Inteligencia Artificial puede considerarse como el conjunto de todas
aquellas
técnicas
y
modelos
que
permiten
el
procesamiento, análisis y explicación de cualquier tipo de información especial obtenida a través de imágenes digitales.
A continuación se enumeran diferentes conceptos de visión por computadora, que es lo mismo decir visión artificial o visión por computador.
16
Sistemas de Visión por Computadora
•
Ciencia que estudia la interpretación de las imágenes mediante computadores.
•
Ciencia que desarrolla la base teórica y algorítmica mediante la que se extrae y analiza información útil sobre el mundo / entorno, a partir de una imagen.
•
“Visión es un proceso que produce, a partir de imágenes del mundo externo, una descripción que es útil para el observador y que está libre de información irrelevante”.
•
La Visión Artificial describe la deducción automática de las estructuras y propiedades de un mundo tridimensional, posiblemente dinámico, a partir de una o varias imágenes bidimensionales de él.
17
Sistemas de Visión por Computadora
En resumen, la visión por computadora es la ciencia que estudia la interpretación de imágenes mediante computadores, que pretende los siguientes objetivos:
•
Procesar las imágenes.
•
Reconocer los objetos presentes: Mesa, sillas, asientos, respaldos.
•
Inspeccionar los objetos: Correctos e incorrectos.
•
Localizar objetos.
1.3 VISIÓN HUMANA Y VISIÓN POR COMPUTADORA
El hombre ha imitado muchas veces, en la construcción de sus artefactos, a la naturaleza, la visión por computadora intenta copiar la manera cómo los seres humanos perciben la información visual por medio de usar cámaras fotográficas que actúan como globos oculares y computadoras para procesar la información de una “manera inteligente” al igual que el cerebro humano. Las cámaras con sus ópticas hacen las veces del globo
18
Sistemas de Visión por Computadora
ocular,
mientras
la computadora
realiza
las
tareas
de
procesamiento, emulando el comportamiento del cerebro.
Cuando se establecieron en la década de los 50, los objetivos de la Inteligencia Artificial, se suponía que con la llegada del siglo XXI habría máquinas que serían capaces de describir, con información de alto nivel, las escenas capturadas. Con el paso del tiempo se vio que aquel anhelo se iba desvaneciendo.
Hoy en día, todavía no hay una teoría de la visión. No se conocen los mecanismos que el cerebro utiliza para obtener la información de la percepción.
El cerebro es capaz, de manera inconsciente, de determinar la distancia a los
objetos,
de
reconocerlos
en
diferentes
posiciones, aunque se encuentren rotados y con información parcialmente oculta. En definitiva, el cerebro presenta una
19
Sistemas de Visión por Computadora
sofisticación en la percepción que ni ahora ni en mucho tiempo habrá posibilidad de implementar artificialmente.
Lo que sí hace la visión por computadora es construir nuevos y más sofisticados algoritmos que sean capaces de obtener información de bajo nivel visual. Y aunque todavía se esté años luz de la percepción visual de los seres vivos, la visión artificial es muy eficaz en tareas visuales repetitivas para el hombre. Por ejemplo, en el campo de la inspección de productos en la industria o en contar células en una imagen de microscopía o en determinar la trayectoria de un vehículo en una autopista, etc.
Resumiendo, las principales ventajas de la visión humana respecto a la de computadora y viceversa (véase la figura 1.1), son:
20
Sistemas de Visión por Computadora
Sistema humano:
•
Mejor reconocimiento de objetos.
•
Mejor adaptación a situaciones imprevistas.
•
Utilización de conocimiento previo.
•
Mejor en tareas de alto nivel de proceso.
Sistema por computadora:
•
Mejor en la medición de magnitudes físicas.
•
Mejor para la realización de tareas rutinarias.
•
Mejor en tareas de bajo nivel de proceso.
•
Condiciones especiales de adquisición de imágenes. •
Objetos muy pequeños o muy grandes.
•
Detalles con alta resolución.
•
Cuerpos muy cercanos o muy alejados.
•
Entornos muy oscuros o muy iluminados. 21
Sistemas de Visión por Computadora
•
•
Entornos peligrosos. Tareas rutinarias y repetitivas.
•
Aumento de la objetividad.
•
Elevado número de imágenes a visualizar.
•
Dotar de percepción visual a sistemas autónomos.
•
Sustitución del ser humano por rentabilidad.
Figura 1.1: Visión por computadora versus visión humana.
22
Sistemas de Visión por Computadora
CAPÍTULO II: ELEMENTOS DE UN SISTEMA DE VISIÓN POR COMPUTADORA
En este capítulo se definen y describen los elementos básicos que conforma el
sistema de visión por computadora. Para
desarrollar una aplicación que requiera el análisis de imágenes por computadora se tiene disponible un amplio conjunto de elementos que van desde las fuentes de luz necesarias para iluminar los objetos hasta los algoritmos encargados de clasificarlos. En la figura 2.1 se muestra los elementos de un sistema de visión.
SISTEMA DE ILUMINACION
SENSOR PARA CAPTURA DE LA IMAGEN
COMPUTADORA
TARJETA DE ADQUISICION
23 ESCENA
Sistemas de Visión por Computadora
Figura 2.1: Elementos de un sistema de visión.
2.1 IMAGEN
Una imagen es un registro de valores organizados en forma bidimensional, generalmente representando intensidad de radiación electromagnética.
Para que una imagen analógica (una imagen natural captada con una cámara, en blanco y negro, en escala de grises, o a color, pueda ser procesada mediante una computadora, es preciso someter a la imagen analógica (ver figura 2.2 (a)) a un proceso de discretización, tanto espacialmente como en intensidad para obtener la imagen digital (ver figura 2.2 (b)). En donde la unidad mínima de información es el píxel.
24
Sistemas de Visión por Computadora
(a) Imagen analógica
(b) Matriz numérica tras la
digitalización
Figura 2.2: Una imagen analógica y su conversión a una imagen digital.
La transformación de una imagen analógica a otra discreta se llama digitalización y es el primer paso en cualquier aplicación de procesamiento de imágenes digitales. El proceso de digitalización (véase figura 2.3) consta de dos partes: muestreo y cuantificación.
El muestreo consiste en una subdivisión de la imagen analógica en porciones, es la parte encargada de integrar en puntos la información que se halla en un área determinada. Estos puntos en los que se integra el área son los elementos más pequeños en que se divide una imagen: los píxeles.
25
Sistemas de Visión por Computadora
La cuantificación consiste en codificar digitalmente el color integrado en cada píxel. La meta de la cuantificación es cambiar la resolución de color de una imagen (número de bits en la representación del color) con una distorsión mínima.
Figura 2.3: Proceso de digitalización de una imagen.
La resolución de una imagen, o también denominada resolución espacial, se refiere a la cantidad de píxeles de una imagen por pulgada (ppi). Dicho con un ejemplo práctico, si una imagen tiene una resolución de 100 ppi, significa que contiene 10,000 píxeles en una pulgada cuadrada (100 píxeles de ancho por 100 píxeles de alto). Cuanto mayor sea la resolución de las imágenes mayor número de píxeles contendrán y por tanto mayor calidad se obtiene.
26
Sistemas de Visión por Computadora
La resolución más adecuada para una imagen depende de lo que se vaya a hacer con dicha imagen. A continuación se muestra un ejemplo (ver figura 2.4) de la misma imagen pero con diferentes resoluciones, manteniendo el rango de niveles de intensidad entre 0 y 128.
(a) 200X330 píxeles
(b) 100X160 píxeles
(c) 50X80 píxeles
(d)
25X40 píxeles
Figura 2.4: Cuatro representaciones de una misma imagen con distintas resoluciones.
La profundidad de píxeles, es el número de bits de información almacenados por píxel. La profundidad de píxeles determina cuanta información de color (o nivel de gris) existe para cada píxel de la imagen. Un píxel con una profundidad de bits de 1 tiene dos valores posibles: 0 y 1, por ejemplo blanco y negro.
27
Sistemas de Visión por Computadora
Con una profundidad de 8 bits hay 256 valores posibles y con una profundidad de 24 bits se obtienen 16,7 millones de valores posibles.
En la figura 2.5 se muestran cuatro imágenes que tienen todas, una resolución de 200x320 píxeles, pero donde la profundidad de bits varía. La figura 2.5 (a) tiene 64 niveles de gris, que son 6 bits de profundidad, la figura 2.5 (b) posee 32 niveles de gris (5 bits de profundidad), la figura 2.5 (c) solamente tiene 8 niveles de gris (3 bits) y la figura 2.5 (d) tiene 2 niveles de grises, que en realidad serán el blanco y el negro.
(a) Imagen con 6 bits de (b) Imagen con 5 bits de Imagen con 1 bits de Profundidad Profundidad Profundidad
(c) Imagen con 3 bits de
(d)
Profundidad
Figura 2.5: Cuatro representaciones de una misma imagen con distintas profundidad de bits.
28
Sistemas de Visión por Computadora
2.2 ILUMINACIÓN
La iluminación es importante durante el procesamiento de imágenes, ya que una iluminación deficiente hace más difícil de interpretar a dicho objeto en una escena.
La iluminación juega un papel primordial dentro del proceso de visión, ya que una iluminación deficiente hace más difícil de interpretar
al
objeto
en
una
escena
(pues
simplifica
considerablemente el análisis y la interpretación de la escena). Las imágenes recibidas por las cámaras no pueden estar, generalmente, en un ambiente de iluminación no adecuada, esto es, donde las condiciones de iluminación no hayan sido estudiadas. En estos casos, la propia sombra de otro objeto que interfiera hará peligrar el éxito del montaje.
Los sistemas de visión por computadora trabajan, normalmente, con iluminaciones estructuradas
(adecuadas).
El
espacio
29
Sistemas de Visión por Computadora
captado por las cámaras está aislado del resto, en donde no hay contaminación lumínica, no hay sombras inesperadas, no existen objetos que interseccionen a los escenarios que se desean capturar. La iluminación se diseña para que sea capaz de resaltar los objetos de interés. La iluminación depende básicamente de la naturaleza de las superficies donde se va a reflejar y del tipo de fuente luminosa (Ver figura 2.6).
Figura 2.6: Ejemplo de iluminación
Técnicas de iluminación Existen muchas técnicas de iluminación y resulta difícil de generalizar sobre los distintos tipos de iluminación, ya que suele
30
Sistemas de Visión por Computadora
depender de cada caso concreto. A continuación se presentan las principales técnicas:
•
Iluminación direccional
•
Iluminación difusa
•
Iluminación a contraluz
•
Iluminación estructurada
•
Iluminación polarizada
Aspectos a considerar en la iluminación
•
Variación de la iluminación en pequeños periodos de tiempo.
•
Alimentación continúa,
alimentación alterna en alta
frecuencia y sincronización. •
Variación de la iluminación en largos periodos de tiempo. Arranque y autocalibración.
•
•
Temperatura y disposición física. Fuentes luminosas de alta precisión. 31
Sistemas de Visión por Computadora
•
Mantenimiento, coste y facilidad de recambio.
2.3 ÓPTICAS
La óptica es el elemento del sistema de visión que permite concentrar los rayos luminosos del entorno sobre el plano sensor. Una vez definido el sistema de iluminación, la elección de la óptica influirá en la calidad de la imagen recibida y del tamaño de los objetos.
Figura 2.7: Ejemplo de óptica.
32
Sistemas de Visión por Computadora
Características de las ópticas •
Enfoque. Actuando sobre el enfoque se puede conseguir una imagen más o menos nítida. Las ópticas comerciales se pueden clasificar por el enfoque en: ópticas fijas, ópticas variables y ópticas motorizadas. Estas últimas disponen de un motor de forma que se puede enfocar o bien de forma automática o bien de forma teleoperada.
•
Iris o apertura. El dispositivo de apertura está formado de láminas muy delgadas dispuestas de tal manera que en el centro se forma un círculo por el que puede entrar la luz. Abriendo o cerrando el iris entrará más o menos luz, haciendo que la imagen sea más clara o más oscura. Cerrando el iris también se aumenta la profundidad de campo y se disminuyen las aberraciones de la lente, sin embargo se tendrá que iluminar más la escena. El iris puede ser manual, automático (autoiris) o motorizado. Las ópticas con auto iris tienen un motor, al igual que las
33
Sistemas de Visión por Computadora
motorizadas, pero ésta no se controla por un usuario a distancia, sino por la propia cámara. La cámara regulará el auto iris abriéndolo o cerrándolo en función de la cantidad de luz que esté recibiendo.
•
Zoom. Las ópticas con zoom permiten, mediante dos conjuntos de lentes que se pueden acercar o separar, hacer que la escena aparezca más próxima. De esta manera se puede fijar en detalles que a simple vista no se aprecian, pudiendo tener una vista general de la escena o en detalles concretos, realizando una magnificación de la imagen. El efecto de aumentar el zoom es la disminución del ángulo de vista. Las ópticas pueden ser con o sin zoom y éstas pueden ser manuales o motorizadas.
Parámetros de las ópticas
34
Sistemas de Visión por Computadora
A la hora de comprar una óptica en el mercado para un sistema de visión hay que tener claro las necesidades del proyecto. El precio
de
la óptica
puede
variar
en
función
de sus
características y calidades. Los principales parámetros en la elección de una óptica son:
•
Distancia focal f.
•
Número F.
•
Angulo de vista.
•
Rosca.
2.4 CÁMARAS
Las cámaras de video han tenido una rápida evolución en los últimos años, desde las primeras cámaras de video que iban
35
Sistemas de Visión por Computadora
equipadas con tubos Vidicon hasta las más modernas cámaras provistas de sensores CCD y CMOS. Hay dos tipos principales de cámaras que se utilizan en sistemas de visión por computadoras: Cámaras Matriciales y Cámaras Lineales.
Cada uno de estos tipos de cámaras se describirá por separado y se consideran generalmente tecnologías completamente distintas. Sin embargo hay muchas características que se superponen en ambos tipos de cámaras.
Cámaras Matriciales Término que se refiere a que el sensor de la cámara cubre un área o que está formado por una matriz de píxeles.
Una cámara matricial produce una imagen de un área, normalmente con una relación de aspecto de 4 a 3. Esta
36
Sistemas de Visión por Computadora
relación viene de los tiempos de las cámaras Vidicon y de los formatos de cine y televisión. Actualmente existen muchas cámaras que ya no mantienen esta relación y que no siguen los formatos de la televisión.
Cámaras Lineales El concepto de barrido lineal se asocia a la construcción de una imagen línea a línea, utilizando un sensor lineal de forma que la cámara se desplaza con respecto al objeto a capturar, o bien el objeto se desplaza con respecto a la cámara. La utilización de cámaras lineales sin ser compleja requiere de una mayor experiencia en los entornos de visión que la utilización de cámaras matriciales.
La tecnología de cámaras lineales hace mucho tiempo que fue desarrollada para aplicaciones de inspección de materiales fabricados en continuo, como papel, tela, planchas metálicas,
37
Sistemas de Visión por Computadora
etc. Sin embargo en la actualidad se está imponiendo en muchos otros procesos productivos y de inspección, que requieren alta resolución y / o alta velocidad a un precio competitivo.
Las cámaras lineales utilizan sensores lineales que acostumbran a tener entre los 512 y 8192 elementos (píxeles), con una longitud lo más corta posible, y con una gran calidad con el fin de obtener la mejor sensibilidad y prestaciones.
Con la tecnología de cámaras lineales es posible capturar objetos de grandes dimensiones en una sola pasada, mientras que con cámaras matriciales este mismo objeto debería ser dividido en una secuencia de imágenes parciales.
CCD versus CMOS
38
Sistemas de Visión por Computadora
El sensor de imagen de la cámara se encarga de transformar la luz en señales eléctricas. Cuando se fabrica una cámara, existen dos tecnologías de sensor de imagen disponibles:
-
CCD (Dispositivo de acoplamiento de carga) -
(Semiconductor
CMOS
de
óxido
metálico
usando
una
tecnología
complementario)
Los
sensores
CCD
se
fabrican
desarrollada específicamente para la industria de cámaras, mientras que los sensores CMOS se basan en una tecnología estándar ampliamente utilizada en los chips de memoria como por ejemplo, dentro de una PC.
Tecnología CCD
39
Sistemas de Visión por Computadora
Los sensores CCD (ver figura 2.8) llevan utilizándose en las cámaras desde hace más de 20 años y presentan muchas ventajas de calidad, entre las cuales cabe destacar una mejor sensibilidad a la luz que los sensores CMOS. Esta mayor sensibilidad a la luz se traduce en mejores imágenes en situaciones de luz escasa. Sin embargo, los sensores CCD son caros ya que están fabricados siguiendo un proceso no estandarizado y más complejo para ser incorporados a una cámara. Además, cuando existe un objeto muy luminoso en la escena (como, por ejemplo, una lámpara o la luz solar directa), el CCD puede tener pérdidas, provocando rayas verticales por encima y por debajo del objeto.
40
Sistemas de Visión por Computadora
Figura 2.8: Sensor CDD.
Tecnología CMOS Los recientes avances en los sensores CMOS (ver figura 2.9) los acercan a sus homólogos CCD en términos de calidad de la imagen, pero siguen siendo inadecuados para cámaras donde se exige la máxima calidad de imagen posible.
Una de las limitaciones actuales de los sensores CMOS es su menor sensibilidad a la luz. En condiciones de luz normales esto no supone ningún problema, mientras que en situaciones de escasa luz se vuelve manifiesto. El resultado es una imagen muy oscura o una imagen con apariencia granular.
41
Sistemas de Visión por Computadora
Figura 2.9: Sensor CMOS.
Elección de una cámara Muchos son los aspectos que pueden influir en la elección de una cámara a otra. Sin embargo, algunas consideraciones han de tenerse en cuenta para no arrepentirse de la compra o para no gastarse más dinero del que realmente hace falta.
Normalmente, la elección de la cámara va íntimamente ligada a la de la óptica. Las características técnicas son las más importantes y las que siempre se tendrá presente a la hora de adquirir una cámara. A continuación se enumeran algunas de ellas.
•
Formato de video
EI formato de la señal es importantísimo ya que tanto las cámaras como las digitalizadoras y, a veces, los monitores
42
Sistemas de Visión por Computadora
deben ser del mismo formato. El formato cambia de un país a otro.
En Europa se tiene el sistema PAL (Phase Alternating Line, en español línea alternada en fase) o CCIR (Comité Consultivo Internacional de Radiocomunicaciones) que será siempre al que se haga referencia. En los países francófonos se emplea el sistema SECAM (Color secuencial con memoria) y en el continente Americano y Japón el sistema NTSC (National Television System(s) Committee). Otro tipo de cámaras que no sigue ninguno de estos formatos son las llamadas cámaras digitales que envían la información al digitalizador en formato digital codificado según el formato de cada fabricante, aunque se está extendiendo el protocolo IEEE 1394 o FireWire. Si se adquiere una cámara de este tipo hay que tener en cuenta que son mucho más caras y que no todos los
computadores
tienen
este
puerto,
aunque
ofrecen
numerosas ventajas.
43
Sistemas de Visión por Computadora
•
Resolución
Una imagen en el sistema CCIR está formada por 576 filas y 768 columnas, sin embargo, el tamaño del CCD puede ser mayor o menor. La norma es que cuantos más píxeles disponga el CCD mayor será la calidad de la imagen. Otro factor a tener en cuenta, en la resolución, es el número de bits con que se digitaliza el píxel. Lo normal en cámaras digitales es emplear 8 bits, aunque existen cámaras de hasta 16 bits por píxel.
2.5
TARJETAS DE ADQUISICIÓN
El nombre tarjeta digitalizadora (véase figura 2.10) no es correcto del todo, ya que ésta incluye operaciones de procesamiento e incluso permiten recibir señal de vídeo digital. 44
Sistemas de Visión por Computadora
Sin embargo, este término es ampliamente aceptado por razones históricas, pues al principio estas tarjetas no hacían más que digitalizar la imagen y era el computador el encargado de procesarlas.
Una tarjeta digitalizadora o fr ame grabber tiene como propósito principal muestrear, en tiempo real, la salida estándar de una cámara de vídeo, pasando la información a la computadora. La información es almacenada temporalmente y una vez allí la información es procesada siguiendo las directrices de un programa.
Dependiendo de la aplicación, la tarjeta puede ser programada para capturar y almacenar cuadros individuales, recoger una cierta secuencia de cuadros o quizás leer de manera continua la imagen de vídeo y realizar una tarea determinada en tiempo real. Algunas tarjetas tienen características avanzadas como puede ser captura síncrona de las imágenes.
45
Sistemas de Visión por Computadora
Las digitalizadoras con capacidades para el procesamiento en tiempo real derivan sus prestaciones de los procesadores digitales de señal (DSP). Éstos pueden realizar procesamientos básicos sobre la señal de una manera encadenada y en tiempo real.
Figura 2.10: Tarjetas digitalizadoras.
46
Sistemas de Visión por Computadora
CAPÍTULO III: ETAPAS DE UN SISTEMA DE VISIÓN POR COMPUTADORA
El desarrollo de una aplicación basada en la visión por computadora se puede dividir en seis etapas, tal como lo muestra el esquema de la figura 3.1, en donde las flechas coloreadas indican el orden en las etapas, mientras que las flechas sin colorear significan que en cada etapa se actualiza el conocimiento del problema con la información que se extrae en la misma. Aunque el orden que se marca es secuencial, a veces y dependiendo de los objetivos del problema no se tiene que pasar por todas las etapas o incluso realizar una realimentación si es necesario. Cada una de las etapas que conforman el sistema de visión se Extracción de características
Segmentación
describen a continuación. Preprocesamient o
Adquisición de Imagen
Conocimiento del problema
Descripción de objetos
Reconocimiento
47
Sistemas de Visión por Computadora
Figura 3.1: Etapas de una aplicación basada en la visión por computadora. 3.1
CAPTACIÓN DE IMÁGENES
La primera etapa del proceso es la adquisición de la imagen, es decir la adquisición de una imagen digital. Para la adquisición digital de imágenes se necesitan dos elementos. El primero de ellos es un dispositivo físico sensible a una determinada banda del espectro de energía electromecánica (como las bandas de rayos X, ultravioleta, visible o infrarrojo) y que produzca una señal eléctrica de salida proporcional al nivel de energía detectado.
48
Sistemas de Visión por Computadora
El segundo, denominado digitalizador, es un dispositivo para convertir la señal de salida del sistema sensible a forma digital. Ésta es transmitida hasta el computador, ya sea para su monitorización o procesamiento.
Figura 3.2: Captación de imagen. 3.2
PROCESAMIENTO DE IMÁGENES
Una vez preparada la escena para ser capturada por las cámaras de visión por computadora, se deberá de tratar el aspecto tanto de cuantificación como de codificación que sufre la señal de vídeo al ser introducida en la computadora. Esta etapa, trata de obtener una nueva imagen que o bien mejore su
49
Sistemas de Visión por Computadora
calidad o bien destaque algún atributo primario de los objetos capturados.
Esta etapa pretende mejorar o realzar las propiedades de la imagen para facilitar las siguientes operaciones del sistema de visión
por
computadora,
tales
como
las
etapas
de
segmentación, extracción de las características y finalmente la interpretación automática de las imágenes.
En el primer aspecto se tratarán de corregir las posibles faltas de iluminación uniforme, la eliminación del ruido o de aumentar el contraste en la imagen. Mientras en el segundo, su objetivo es realzar los bordes de los objetos, regularizar sus colores, destacar sus texturas, etc.
A continuación se describen las principales técnicas de procesamiento de imágenes:
50
Sistemas de Visión por Computadora
3.2.1
REALCE DE LA IMAGEN
El objetivo principal del realce (ver figura 3.3) es el de destacar los detalles finos de una imagen o intensificar detalles que han sido difuminados, bien sea por error bien por efecto natural del método de adquisición de la imagen.
El realce tiene un efecto opuesto a la eliminación de ruido, ya que se trata de resaltar aquellos píxeles que presentan un nivel de gris distinto al de sus vecinos. Por ello, si la imagen es ruidosa, el efecto del ruido se multiplicará, por lo que antes de resaltar la imagen habrá que eliminar el ruido de la misma.
Figura 3.3: Ejemplo de realzado de la imagen.
3.2.2
DETECCIÓN DE BORDES
51
Sistemas de Visión por Computadora
Una vez que la imagen ha sido procesada se está en disposición de detectar los objetos presentes en ella. Para ello se buscan en la imagen características que definen al objeto que se desea encontrar.
Una de las informaciones más útiles que se encuentran en una imagen la constituyen los bordes, ya que al delimitar los objetos definen los límites entre ellos y el fondo, y entre los objetos entre sí.
Un borde es la frontera entre dos regiones con niveles de gris relativamente distintas. Su causa principal es originada por la intersección de varios objetos, con diferentes niveles de reflectancia, que al ser proyectados sobre la cámara generan discontinuidades de intensidad en los píxeles correspondidos (véase la figura 3.4).
52
Sistemas de Visión por Computadora
Sin embargo, estas discontinuidades también aparecen de forma no deseada por la presencia del ruido, por el efecto de sombras sobre los propios objetos o por una iluminación no uniforme dentro de la escena.
(a) Imagen de entrada para bordes detectar los bordes
(b) Imagen de salida con los
Figura 3.4: Ejemplo de obtención de los bordes de una imagen.
3.2.3
ELIMINACIÓN DE RUIDOS
53
Sistemas de Visión por Computadora
Todas las imágenes tienen una cierta cantidad de ruido, valores distorsionados, etc., debidos a diversos motivos, como al sensor de la cámara que captura la imagen o al medio de transmisión de la señal. El ruido se manifiesta generalmente en píxeles aislados que toman un valor de gris diferente al de sus vecinos y es una información no deseada que contamina la imagen (véase la figura 3.7(a)). Básicamente, el ruido se puede clasificar en dos tipos:
•
Gausiano: El ruido se superpone a los puntos de la imagen de forma aditiva. Su valor sigue una distribución normal.
a) Imagen original gaussiano
b) Imagen con ruido
Figura 3.5: Ruido Gaussiano.
54
Sistemas de Visión por Computadora
•
Impulsional (sal y pimienta): Se caracteriza por la aparición de píxeles con valores arbitrarios normalmente detectables porque se diferencian mucho de sus vecinos más próximos.
a) Imagen original
b) Imagen con ruido sal y pimienta
Figura 3.6: Ruido Sal y Pimienta.
a)
de
Imagen original con ruido .
b) Resultado después eliminarle el ruido.
Figura 3.7: Ejemplo de eliminación de ruido.
55
Sistemas de Visión por Computadora
SEGMENTACIÓN
3.3
En cualquier imagen se encontrarán presentes uno o varios objetos. El objetivo de la segmentación es separar dichos objetos y distinguirlos entre sí (véase figura 3.8). Después de esta separación estará el proceso de descripción individualizada de
los
objetos
encontrados
y
su
reconocimiento
e
interpretación.
La segmentación se basa en tres propiedades: 1. Similitud. Cada uno de los píxeles de un elemento tiene valores parecidos para alguna propiedad. 2. Discontinuidad. Los objetos destacan el entorno y tienen por tanto unos bordes definidos. 3. Conectividad. Los píxeles pertenecientes al mismo objeto tienen que ser contiguos, es decir, deben estar agrupados.
56
Sistemas de Visión por Computadora
Figura 3.8: Ejemplo de segmentación de imágenes.
Estas suposiciones no son fáciles de cumplir, pero son fundamentales para una buena segmentación. Respecto a la similitud, los objetos deberían presentar una apariencia uniforme.
Esto no va a ser posible debido a diversos factores como la iluminación, pequeñas variaciones en el material de los objetos, al sensor de la cámara, etc. Respecto a la discontinuidad, los bordes no tienen por que estar bien definidos. Y por último, se puede dar el caso de ocultamientos parciales de un objeto por
57
Sistemas de Visión por Computadora
parte de otro lo que dificultará el cumplimiento de la conectividad de todos los puntos del objeto.
Las técnicas de segmentación se basan en la búsqueda de las partes uniforme de la imagen o justo lo contrario, aquellas partes donde se produce un cambio. Tanto si se elige una u otra forma para la segmentación, o una combinación de ambas, al final lo que se obtendrán serán regiones.
Una región es un conjunto de píxeles en los que existe un camino entre cualquier pareja de sus píxeles, y todos los píxeles del camino pertenecen a la región, además de presentar propiedades o características comunes.
58
Sistemas de Visión por Computadora
3.3.1
TÉCNICA BASADA EN UMBRALIZACIÓN
La umbralización es una técnica de segmentación ampliamente utilizada en las aplicaciones industriales. Se emplea cuando hay una clara diferencia entre los objetos a extraer respecto del fondo de la escena. Los principios que rigen son la similitud entre los píxeles pertenecientes a un objeto y sus diferencias respecto al resto. Por tanto, la escena debe caracterizarse por un fondo uniforme y por objetos parecidos. La técnica más utilizada es la segmentación por análisis del histograma.
La umbralización consiste en elegir un valor de la intensidad y convertir todo lo que es superior a ese valor a 1 y lo que es inferior a 0.
59
Sistemas de Visión por Computadora
Figura 3.9: Segmentación por umbralización.
3.3.2
TÉCNICA BASADA EN BORDES
La localización de las fronteras de los objetos en la escena, emplearán las técnicas de detección de los bordes. Sin embargo, esta etapa no es definitiva para poder segmentar los objetos presentes en la imagen. La presencia de ruido, el efecto de las sombras, la falta de iluminación uniforme y un largo etcétera de causas, produce que los contornos no sean del todo continuos y cerrados sobre los objetos.
Se requiere otra etapa de post-procesamiento. Esta nueva fase emplea los resultados de la detección de bordes para elaborar las fronteras de los objetos. Se trata de agrupar los píxeles etiquetados como bordes, de la etapa anterior (de detección de bordes), empleando la propiedad de conectividad.
60
Sistemas de Visión por Computadora
Figura 3.10: Segmentación basada en bordes. 3.3.3
TÉCNICA ORIENTADA A REGIONES
La estrategia a emplear en este tipo de segmentación está basada en los criterios de similitud y continuidad de los píxeles que forman una región. Las regiones se forman mediante píxeles que tengan conectividad y presenten alguna propiedad de similitud y discrepancia respecto al resto de los píxeles que no pertenecen a la región.
61
Sistemas de Visión por Computadora
Figura 3.11: Segmentación orientada a regiones.
3.4
REPRESENTACIÓN Y DESCRIPCIÓN
A la salida del proceso de segmentación habitualmente se tienen
los datos de píxel en bruto, que constituyen bien el
contorno de una región o bien todos los puntos de una región determinada.
La descripción en la visión consiste en extraer características de un objeto para reconocerlo. Por lo general los descriptores deben ser independientes del tamaño de la localización y orientación del objeto y deben contener suficiente información 62
Sistemas de Visión por Computadora
de discriminación para distinguir un objeto del otr Existen ambigüedades en las que un descriptor no puede distinguir un objeto de otro como se observa en la figura 3.9, en la que se visualiza una imagen de poisedon y también la forma de una sirena.
Figura 3.12: Imagen de un poisedon y una sirena en la misma escena. 3.5
RECONOCIMIENTO E INTERPRETACIÓN
El reconocimiento es el proceso que asigna una etiqueta a un objeto basándose en la información proporcionada por sus descriptores. La interpretación implica asignar significado a un conjunto de objetos reconocidos. La interpretación trata de asignar significado a un conjunto de entidades etiquetadas. El
63
Sistemas de Visión por Computadora
etiquetado o coloreado consiste en asignar un valor único a cada región.
Figura 3.13 (a): Ejemplo de etiquetado de una imagen.
Figura 3.13 (b): Ejemplo de reconocimiento de objetos.
3.5.1 ELEMENTOS DE ANÁLISIS DE IMÁGENES
El análisis de imágenes es un proceso que consiste en descubrir,
identificar
comprender
los patrones
que
son
relevantes en el rendimiento de un trabajo basado en imágenes. 64
Sistemas de Visión por Computadora
Uno de los principales objetivos del análisis de imágenes por computadora consiste en dotar a una máquina, en algún sentido, de la capacidad de aproximación, similar a la de los seres humanos.
Resulta conceptualmente útil dividir el espectro de técnicas de análisis imágenes en tres áreas básicas. Estas áreas son:
1. Procesado de bajo nivel Trata de un tipo de funciones a las que se puede considerar como reacciones automáticas, y que no requieren inteligencia por parte del sistema de análisis de imágenes.
2. Procesado de nivel intermedio Se refiere a la labor de extracción y caracterización de los componentes de la imagen que se obtiene de un proceso a bajo nivel. 3. Procesado de alto nivel
65
Sistemas de Visión por Computadora
Comprende el reconocimiento y la interpretación, estos dos procesos tienen un gran parecido con lo que normalmente se conoce como conocimiento inteligente.
3.5.2
PATRONES Y CLASES DE PATRONES
Un patrón es una descripción estructural o cuantitativa de un objeto o de alguna otra entidad de interés en una imagen. Una clase de patrones es una familia de patrones que comparten algunas propiedades comunes.
3.5.3 INTERPRETACIÓN
66
Sistemas de Visión por Computadora
La interpretación es el proceso que dota a un sistema de visión de reconocer e interpretar a un objeto.
La potencia de un sistema de visión artificial se determina por su capacidad de extraer información con significado de una escena dentro de un amplio margen de condiciones de visión y usando un mínimo de conocimiento sobre los objetos que se están observando.
Figura 3.14: Reconocimiento e interpretación. 67
Sistemas de Visión por Computadora
CAPÍTULO IV: APLICACIONES
En este capítulo se describen algunas de las muchas aplicaciones del sistema de visión por computadora en el mundo actual.
4.1 MEDICINA
La comunidad médica utiliza muchas aplicaciones en las que aparece el procesamiento de imágenes, entre las que se incluyen radiografías, ultrasonidos, etc.
68
Sistemas de Visión por Computadora
Figura 4.1: Ejemplo de aplicación en la medicina. •
Análisis de imágenes tomadas por rayos “X”.
Figura 4.2: Ejemplo de imágenes tomadas por Rayos “X”.
•
Análisis de imágenes tomadas por ultrasonidos.
69
Sistemas de Visión por Computadora
Figura 4.3: Ejemplo de ultrasonido.
4.2 CONTROL DE CALIDAD EN LA INDUSTRIA
Hoy en día, en muchos procesos de fabricación, los límites de detección de defectos han superado la percepción del ojo humano; por esta razón las empresas del mundo moderno han visto la necesidad de crear un sistema que permita controlar en forma precisa y acertada la calidad de sus productos. Es así como nace la visión por computadora.
La visión por computadora, como se ha definido anteriormente es un sistema informatizado que captura la imagen de un objeto determinado en una línea de producción y procede a la
70
Sistemas de Visión por Computadora
identificación de diferentes parámetros para el control de calidad, como el color, la textura, la forma, la estructura interna y externa del producto.
Los sistemas de visión por computadora completan tareas de inspección con un alto nivel de flexibilidad y repetibilidad, nunca se cansan, ni se aburren, ni se distraen y pueden ser puestos a trabajar en ambiente donde los inspectores humanos no podrían trabajar bajo condiciones de seguridad. Mientras los sistemas de visión por computadora exceden a los operadores humanos en términos de ambiente de trabajo, sí dependen de la forma en que el ojo humano interactúa con el cerebro para procesar imágenes y tomar decisiones.
Para un inspector humano, los ojos proporcionan información del ambiente que lo rodea, el cerebro interpreta lo que los ojos ven, basado en experiencias previas con objetos similares. Basándose en esta interpretación, se toman decisiones y
71
Sistemas de Visión por Computadora
acciones. En forma similar, los sistemas de visión por computadora ven al objeto, lo interpretan y toman decisiones.
La visión por computadora se está convirtiendo rápidamente en un factor clave en el desarrollo de la calidad total dentro de los diferentes procesos de automatización industrial.
Su implementación en una empresa genera un aumento en el nivel de producción y una reducción en los costos de fabricación, elevando los niveles de competitividad en el mercado nacional e internacional.
La visión por computadora permite inspeccionar el proceso de producción
sin
fatigas
ni
distracciones,
facilitando
la
cuantificación de las variables de calidad traduciéndose en un mejoramiento continuo (véase figura 4.3).
72
Sistemas de Visión por Computadora
Figura 4.4: Ejemplo de sistema de visión para el control de calidad.
Algunas de las tareas que realiza el sistema de visión por computadora en esta área son las siguientes: •
Verificación de etiquetas.
•
Inspección de contenedores.
•
Inspección de motores.
•
Inspección de cristales.
•
Control de calidad de comida.
•
Inspección de soldaduras.
•
Inspección de circuitos impresos.
•
Inspección madera, tela, fundiciones, papel.
73
Sistemas de Visión por Computadora
4.3 ROBÓTICA
Un robot es un manipulador controlado por computadora, diseñado para mover materiales, piezas, herramientas u otros dispositivos especializados a través de una serie de pasos programados.
La robótica se define como el conjunto de conocimientos teóricos
y prácticos que
automatizar
sistemas
poliarticuladas,
permiten
basados
dotados
de
concebir,
en estructuras
un
determinado
realizar
y
mecánicas grado
de
“inteligencia” y destinados a la producción industrial o al sustitución del hombre en muy diversas tareas. Un sistema robótica puede describirse como “Aquél que es capaz de recibir información, de comprender su entorno a través del empleo de
74
Sistemas de Visión por Computadora
modelos, de formular y de ejecutar planes, y de controlar o supervisar su operación”. La robótica es esencialmente pluridisciplinaria y se apoya en gran medida en los progresos de la microelectrónica y de la informática, así como en los de nuevas disciplinas tales como el reconocimiento de patrones y de inteligencia artificial.
La robótica es un componente esencial de la automatización de la fabricación, que afectará la mano de obra humana a todos niveles, desde los trabajadores más especializados hasta los técnicos profesionales y directores de producción. Los futuros robots pueden encontrar aplicaciones fuera de la fábrica, por ejemplo en bancos, restaurantes e incluso en sus propios hogares. Es posible, y quizá probable, que la robótica llegue a ser un campo como el de la tecnología informática actual, que invada nuestra sociedad.
Objetivos de la robótica:
75
Sistemas de Visión por Computadora
1. El aumento de la productividad.- Esto se consigue, fundamentalmente, optimizando la velocidad del trabajo del robot, que reduce el tiempo parcial a cargo del manipulador y aumenta el rendimiento total en línea de producción.
2. Potenciar la flexibilidad en la adaptación a series de producción cortas.
3. Conseguir una rápida amortización de la inversión, como consecuencia de la sustitución de la mano de obra, mejor uso y mayor duración de las herramientas, menores pérdidas
de
material
residual,
pocas
averías
y
mantenimiento reducido.
76
Sistemas de Visión por Computadora
4. Mejorar la capacidad de los productos fabricados, dada la precisa repetividad de los movimientos del robot y la posibilidad de incrementar un control de calidad.
5.
Realizar trabajos en condiciones hostiles y peligrosas, tales como las que se llevan a cabo en ambientes con temperaturas elevadas, contaminación, gases tóxicos, materiales inflamables o radiactivos y en los entornos submarinos o espaciales.
Área de la robótica donde se aplica el sistema de visión por computadora (véase figura 4.4): •
Guiado de robots industriales
•
Navegación de robots móviles.
77
Sistemas de Visión por Computadora
Figura: 4.5: Robots trabajando en la industria.
4.4 IDENTIFICACIÓN DE PERSONAS
Consiste en identificar o verificar automáticamente la identidad de las personas basándose en sus características físicas o sus pautas de comportamientos. Por ejemplo el reconocimiento del iris, las huellas dactilares, la cara o la voz, etc. •
Reconocimiento de la cara
Permite determinar la identidad de una persona, al comparar una
imagen
de
su
cara
con
imágenes
de
referencia
almacenadas en una base de datos, en la que también se almacena la identidad de las personas asociadas a cada imagen de
referencia.
Esta
comparación
se
realiza
analizando
elementos estructurales presentes en las caras. 78
Sistemas de Visión por Computadora
Figura 4.6: Ejemplo de reconocimiento de caras.
•
Huellas dactilares
Las huellas dactilares son los surcos o líneas que existen en las yemas de los dedos. Estas líneas poseen diseños únicos en cada persona y por lo tanto se utilizan como un método de identificación de identidad. Un escáner óptico captura una imagen de los surcos y estrías de nuestra huella dactilar, y compara los puntos en que terminan o se bifurcan los surcos con los de la imagen que tiene archivada.
79
Sistemas de Visión por Computadora
Figura 4.7: Ejemplo de identificación por huella digital.
4.5 SEGURIDAD Y VIGILANCIA Consiste a la detección y seguimiento de personas a través de cámaras (véase figura 4.6), de esta forma el sistema de visión capta todas las imágenes en los establecimientos donde se encuentra instalada ya sea en bancos, tiendas comerciales o en cualquier otro negocio, empresa o industria.
Figura 4.8: Ejemplo de seguridad y vigilancia a través de captación de imágenes por cámaras.
CONCLUSIONES
80
Sistemas de Visión por Computadora
En este trabajo se presentó una breve introducción al tema de sistema de visión por computadora siguiendo con una descripción de los elementos en que se compone, así como las etapas que lo conforman, concluyendo con una explicación de las principales aplicaciones del mismo.
Es preciso reconocer que hoy por hoy la visión por computadora a veces no es la mejor solución a un problema. Existen muchas ocasiones en las que el problema es tan complejo que la solución humana es lo mejor, la solución humana es menos estructurada que la solución artificial y muchos problemas de visión por computadora requieren un nivel de inteligencia mucho mayor que el que la máquina pueda ofrecer. No obstante el sistema de visión humana puede describir automáticamente una textura en detalle, un borde, un color, una representación bidimensional de una tridimensional, ya que puede diferenciar entre imágenes de diferentes personas, firmas, colores, etc., puede vigilar ciertas zonas, etc. Aun a pesar de las limitaciones
81
Sistemas de Visión por Computadora
expuestas, cada día es mayor el número de aplicaciones de la visión artificial.
BIBLIOGRAFÍA Referencias Bibliográficas: 1.
González, Rafael y Woods, Richard, 1992. Tratamiento digital de imágenes. Ed. Addison-Wesley/Díaz de Santos.
2.
Pajares Martinsanz Gonzalo, De La Cruz García Jesús M., 2002. Visión por computador imágenes digitales y aplicaciones. Ed. Alfaomega.
3.
González Jiménez, Javier, 2000. Visión por computador. Ed. Paraninfo.
4.
Sánchez Calle, Ángel, 2005. Aplicaciones de la Visión artificial y la biometría informática. Ed. Dikydson
Referencias de Internet: 1.
Http://Iris.Usc.Edu/Vision-Notes/Rosenfeld/Contents.Html
2.
Http://Turing.Iimas.Unam.Mx/~Elena/Teaching/CVMast.Html 82