Tópicos Avanzados: Inteligencia Computacional...

Post on 03-Jul-2020

23 views 0 download

Transcript of Tópicos Avanzados: Inteligencia Computacional...

(c) 2020. P. Gómez-Gil, INAOE 1

Tópicos Avanzados:

Inteligencia Computacional I

Instructoras (en orden alfabético) Dra. Ma. del Pilar Gómez Gil

Dra. Alicia Morales Reyes

Primavera 2020 pgomez@inaoep.mx

V: 09-Mar-20

(c) 2020. P. Gómez-Gil, INAOE 2

1. Objetivo del curso

Introducir a estudiantes de posgrado en los

tópicos fundamentales relacionados a la

Inteligencia Computacional (IC), así como

en sus principales aplicaciones

1.1 Para que hablemos todos

de lo mismo….

¿Qué es Inteligencia Computacional (IC)? Conceptos, paradigmas, algoritmos e

implementaciones de sistemas que exhiben un comportamiento “inteligente” al aplicarse en sistemas complejos.

Los algoritmos involucrados en IC están inspirados en sistemas biológicos, e incluyen varias áreas, como las redes neuronales artificiales, los sistemas evolutivos, los sistemas difusos, .

(c) 2020. P. Gómez-Gil, INAOE 3

¿Que es “inteligencia”?

Según el diccionario Merriam-Webster:

“Es la habilidad de aprender, entender o

enfrentar nuevas situaciones;

Es la habilidad de aplicar conocimiento para

manipular el medio ambiente;

Es la habilidad de pensar de manera

abstracta; puede medirse con criterios

objetivos obtenidos de pruebas.”

(c) 2020. P. Gómez-Gil, INAOE 4

Página de recursos del curso:

(c) 2020. P. Gómez-Gil, INAOE 5

http://ccc.inaoep.mx/~pgomez/cursos/IC-I/

(c) 2020. P. Gómez-Gil, INAOE 6

Método de trabajo

Curso impartido en 2 etapas, involucrando a los diferentes instructores.

Dependiendo de la etapa y el tema, habrá exposiciones en clase de los

conceptos fundamentales de cada tema, se discutirán las dudas en clase y

se propondrán temas o artículos específicos para revisión del estado del

arte.

Se desarrollarán tareas y proyectos de investigación asignados por los

instructores

Fechas de exámenes

1o. examen …………….2 de Abril

2o. examen …………….30 de Abril

(c) 2020. P. Gómez-Gil, INAOE 7

Evaluación de la parte de RNA

1o. examen 35%

2o. examen 35%

Tareas proyectos,

examencitos etc. 30%

(c) 2020. P. Gómez-Gil, INAOE 8

Libro de texto para RNA

(c) 2020. P. Gómez-Gil, INAOE 10

Disponible en la biblioteca digital del INAOE

Dr. James Bezdek, en su visita al

INAOE, en Febrero del 2012

(c) 2020. P. Gómez-Gil, INAOE 11

(c) 2020. P. Gómez-Gil, INAOE 12

Dr. Haykin y Dra. Gómez en el MICAI

2008

(c) 2020. P. Gómez-Gil, INAOE 13

http://cis.ieee.org/

Sistemas inteligentes (Kruse et al. 2013)

Requieren simular el pensamiento inteligente y realizar acciones en el campo en que son aplicados

Su calidad depende fuertemente de la manera en que se representa el conocimiento

La IC incluye aspectos teóricos (¿Cómo y por qué trabajan los sistemas inteligentes?) y prácticos (¿Dónde y cuándo se pueden usar estos sistemas?)

(c) 2020. P. Gómez-Gil, INAOE 14

Inteligencia Artificial e

inteligencia computacional

Originalmente, el conocimiento de los sistemas artificiales inteligentes fue representado por modelos simbólicos. Por ejemplo, representaciones top-down, sistemas expertos basados en reglas, probadores automáticos de teoremas y técnicas de investigación de operaciones (planeación, “scheduling”)

(c) 2020. P. Gómez-Gil, INAOE 15

Inteligencia Artificial e inteligencia

computacional (cont.)

La representación simbólica funciona bien en muchos casos, pero no es fácilmente escalable; los errores/complicaciones pequeñas crecen exponencialmente (Kruse et al. 2013)

Aunque esa representación obtiene soluciones óptimas, muchas veces no puede aplicarse en la práctica

La inteligencia computacional (IC) permite trabajar con sistemas imprecisos y encontrar soluciones en tiempos razonables, aunque no exactas

(c) 2020. P. Gómez-Gil, INAOE 16

Inteligencia computacional

(cont.)

Cubre una gran cantidad de modelos, pero los mas comunes incluyen: 1) Sistemas inspirados en la naturaleza. Ejemplos de

estos son las redes neuronales artificiales y los algoritmos evolutivos

2) Sistemas que representan conocimiento incierto, vago o incompleto. Ejemplos de éstos son los sistemas difusos y las redes bayesianas

Es muy común combinar las soluciones, creando sistemas híbridos, ejemplo sistemas neuro-difusos.

(c) 2020. P. Gómez-Gil, INAOE 17

(c) 2020. P. Gómez-Gil, INAOE 18

¿Que Son las Redes Neuronales

Artificiales?

Las Redes Neuronales Artificiales (R.N.A.) son modelos matemáticos inspirados en sistemas

biológicos, adaptados y simulados en computadoras convencionales.

Los elementos que las conforman se asemejan a las neuronas biológicas.

[Wasserman 89]

Una definición mas amplia de Redes

Neuronales Artificiales…

“Una red neuronal es un procesador masivamente paralelo y distribuido hecho de unidades procesadoras simples, las cuales son de manera natural propensas a almacenar conocimiento adquirido de la experiencia y hacerlo útil. Se parece al cerebro en dos aspectos: 1. La red neuronal adquiere el conocimiento del medio

ambiente, a través de un proceso de aprendizaje

2. La fuerza de conexión entre los neurones, conocida como los pesos sinápticos, se utiliza para almacenar el conocimiento adquirido ” [Haykin 1999]

(c) 2020. P. Gómez-Gil, INAOE 19

(c) 2020. P. Gómez-Gil, INAOE 20

Componentes básicos de las RNA

1. Elementos de procesamiento: Neurones

2. Regla de activación de los elementos.

3. Topología de interacción entre los elementos de

procesamiento.

4. Regla de propagación a través de las conexiones.

5. Regla de aprendizaje.

6. Medio ambiente en el que el sistema opera.

(c) 2020. P. Gómez-Gil, INAOE 21

Características Principales de Las RNA

1. APRENDIZAJE. Una red neuronal puede modificar su comportamiento en respuesta al medio ambiente.

2. GENERALIZACION. Una vez entrenada, la red neuronal puede ser insensible a cambios en sus entradas.

3. ABSTRACCION. Una red neuronal puede determinar la esencia o características principales de un conjunto de datos.

(c) 2020. P. Gómez-Gil, INAOE 22

ALCANCES Y LIMITACIONES DE LAS

RNA

Las R.N.A. no son la solución de todos los problemas, sino solo de aquellos en los que "las reglas de solución" no son conocidas, y existen suficientes datos ejemplos que permitan a la red aprender.

Las R.N.A. son hasta cierto punto impredecibles.

Las R.N.A. no pueden explicar como resuelven un problema. La representación interna generada puede ser demasiado compleja para ser analizada, aún y en los casos más sencillos.

(c) 2020. P. Gómez-Gil, INAOE 23

Resumen de los Beneficios de los

Sistemas Neuronales Artificiales [Haykin

1994]

1. Son sistemas no lineales

2. Son capaces de hacer un mapeo entre entradas y salidas

3. Son adaptables

4. Pueden dar información sobre la confiabilidad de sus respuestas

5. Pueden dar información sobre el “contexto” de la selección

6. Son tolerantes a fallas

7. Son implementables en VLSI

8. Son universales en cuanto a su análisis y diseño

9. Presentan analogías con los sistemas biológicos

Una solución basada en RNA

vale la pena si…

Las reglas de decisión de la solución no

se conocen explícitamente

Hay una gran cantidad de datos que

representan al problema…

(c) 2020. P. Gómez-Gil, INAOE 24

(c) 2020. P. Gómez-Gil, INAOE 25

EVENTOS HISTORICOS IMPORTANTES

1943. W. McCulloch y W. Pitts publican "A Logical Calculus of the ideas imminent in nervious activity" in Bulletin of Mathematical Biophysics, 5: 115-33.

1949. D. O. Hebb publica el libro "Organization of Behavior" New York: Science Editions. La ley de aprendizaje especificada por Hebb ha sido la base para los algoritmos de entrenamiento de R.N.A.

Entre los años 50´s y 60´s un grupo de investigadores producen las primeras redes neuronales artificiales, implementadas con circuitos electrónicos. Entre ellos están Marvin Minsky, Frank Rosenblatt y Bernanrd Widrow.

1962. F. Rosenblatt publica el libro "Principles of neurodynamics". New York: Spartan Books, presentando las bases del perceptrón.

(c) 2020. P. Gómez-Gil, INAOE 26

EVENTOS HISTORICOS IMPORTANTES

(2)

1969. M. Minsky y S. Papert publican "Perceptrons" Cambridge, MA: MIT Press. En este libro muestran que el perceptrón es teóricamente incapaz de resolver problemas muy simples. Se crea una fuerte desmotivación en la investigación del área.

1986. D. E. Rumelhart, G. E. Hinton y R. J. Williams publican "Learning internal representations by error propagation", en Parallel Distributed Processing, Vol I, pp 318-62. Cambridge MA: MIT Press. Acá presentan uno de los primeros algoritmos para entrenar redes neuronales de varios niveles, destruyendo el mito de Minsky y haciendo resurgir la investigacion en el área de R.N.A.

... Cientos de modelos y aplicaciones han surgido desde entonces....

Tarea

Leer capítulo 2 “Introduction” del libro de

texto (Kruse et al. 2013)

(c) 2020. P. Gómez-Gil, INAOE 27