Trabajo IA

7
Definición El conexionismo es un conjunto de enfoquesen los ámbitos de la inteligencia artificial, psicológica cognitiva, ciencia cognitiva, neurociencia y filosofía de la mente, que presenta los fenómenos de la mente y del comportamiento como procesosque emergen de redes formadas por unidades sencillas interconectadas. Hay muchas formas de conexionismo, perolas formas mas comunes son los modelos de redes neuronales. Precursores de los Sistemas Conexionistas en las Bases Biológicas Biológicas ( 1..890-1..940): Son Cajal con Sherrington y Pavlov los tres hombres que más han hecho por acercar a una explicación experimental el misterio de la vida nerviosa. Camilo Golgies el primero en describir la neurona. Williams (1.890) describe el primer sistema conexionista afirmando: "cuando dos procesos cerebrales están en activo conjuntamente o cuando existe una inmediata sucesión, uno de ellos tiende a propagar la excitación al otro" Lashley (1..900) por ser el primero en estudiar cómo almacenar y procesar información utilizando para ello una representación distribuida de la misma. Cajal Es el propio McCulloch (1.952), quien refiriéndose a las investigaciones de Cajal, dice: "su teoría neuronal ha sido tan fuertemente establecida como la base de nuestra Ciencia, que nosotros ignorábamos qué pasaba antes, y hemos olvidado que él fue el primero que lo propuso ".En 1.895, Cajal sienta las bases de lo que él ya llamaba, en aquellos tiempos "Ingeniería Neuronal". Cajal(continuación). En 1.888 postula la llamada "Teoría de la Neurona“

Transcript of Trabajo IA

Page 1: Trabajo IA

DefiniciónEl conexionismo es un conjunto de enfoquesen los ámbitos de la inteligencia artificial, psicológica cognitiva, ciencia cognitiva, neurociencia y filosofía de la mente, que presenta los fenómenos de la mente y del comportamiento como procesosque emergen de redes formadas por unidades sencillas interconectadas. Hay muchas formas de conexionismo, perolas formas mas comunes son los modelos de redes neuronales. 

Precursores de los Sistemas Conexionistas en las Bases Biológicas Biológicas ( 1..890-1..940):

Son Cajal con Sherrington y Pavlov los tres hombres que más han hecho por acercar a una explicación experimental el misterio de la vida nerviosa.

Camilo Golgies el primero en describir la neurona.

Williams (1.890) describe el primer sistema conexionista afirmando: "cuando dos procesos cerebrales están en activo conjuntamente o cuando existe una inmediata sucesión, uno de ellos tiende a propagar la excitación al otro"

Lashley (1..900) por ser el primero en estudiar cómo almacenar y procesar información utilizando para ello una representación distribuida de la misma.

Cajal Es el propio McCulloch (1.952), quien refiriéndose a las investigaciones de Cajal, dice: "su teoría neuronal ha sido tan fuertemente establecida como la base de nuestra Ciencia, que nosotros ignorábamos qué pasaba antes, y hemos olvidado que él fue el primero que lo propuso ".En 1.895, Cajal sienta las bases de lo que él ya llamaba, en aquellos tiempos "Ingeniería Neuronal".

Cajal(continuación).

En 1.888 postula la llamada "Teoría de la Neurona“

En 1.890 propone la "Teoría de la polarización Dinámica “

En 1.892 describe la "Teoría Neurotrópica".

Dos reflexiones de Cajal realizadas hace un siglo:

A) Al no encontrar diferencias cualitativas entre las células del SN de los humanos y de los animales, decidió postular que,: "la superioridad funcional del SN de los humanos estaría relacionada con la abundancia prodigiosa y con la cuantía considerable de las llamadas neuronas de axón corto"

Page 2: Trabajo IA

B)“El artificio soberano de la sustancia gris es tan intrincado que desafía y desafiará por muchos

Siglos la obstinada curiosidad de los investigadores".

LA REPRESENTACION del conocimiento EN LOS MODELOS CONEXIONISTAS

en los últimos años una nueva arquitectura no simbólica (Rumelhart, 1989), como una rama de la inteligencia artificial y del modelo cognitivo, llamada conexionismo o procesamiento paralelo distribuido, cuya idea central consiste en considerar que la cognición se produce a partir de la interacción simultánea de una serie de unidades semejantes a neuronas que se encuentran altamente interconectadas. Estos modelos intentan superar algunos problemas surgidos por los modelos computacionales como la mala actuación en tareas relacionadas con la satisfacción simultánea de una serie de restricciones "ligeras" (McClelland, Rumelhart y Hinton,1986).

Los creadores del conexionismo aunque ofrecen una explicación de los modelos mentales basada en la idea de cómputo mental, no aceptan que el sistema tenga que manipular símbolos, a la vez que consideran que el modelo del computador está bastante alejado del conocimiento que se tiene actualmente sobre el funcionamiento del cerebro ya que parece poco probable que el cerebro implemente programas que funcionen serialmente como propone el modelo computacional de la mente (Feldmany Ballard, 1982). Si se tiene en cuenta que una neurona necesita unos cuantos milisegundos para ejecutar una función y que una tarea de un nivel elevado de complejidad puede realizarse en unos cientos de milisegundos, el cerebro únicamente podría pasar por unos cien pasos discretos para realizar la tarea (lo que Feldman, 1985, ha llamado "el programa de los 100 pasos"). Para que el cerebro pueda pasar a través de los miles de pasos de información codificada en un programa de ordenador, es necesario que funcione en paralelo.

El modelo cerebral de la mente defendido desde esta nueva perspectiva afirma que las funciones cognitivas se producen en redes que operan en paralelo (Lloyd, 1989). Estos modelos no creen en la necesidad del programa almacenado ni de un lenguaje interior constituido por la manipulación de símbolos. Se trata, por tanto, de modelos no simbólicos de la mente en los que la actividad surge de la fuerza de las conexiones entre las unidades del sistema, no de los símbolos codificados dentro del sistema, siendo los pesos de estas conexiones los que determinan el funcionamiento de la red.

las representaciones en los sistemas conexionistas se encuentran distribuidas en el conjunto de unidades de la red. Esta red esta dotada de las siguientes propiedades: 1) Tiene capacidad de autogenerarse, ya que nuevos "inputs" pueden clasificarse de la misma manera que otros semejantes existentes en el sistema; 2) tiene la capacidad de completar un patrón especificado de una manera incompleta, la red es capaz de proporcionar las activaciones correspondientes en los nodos que carecen de ellas; 3) tolera imperfecciones, de manera que cuando se lesionan ciertas unidades del sistema su funcionamiento se resiente ligeramente pero no se imposibilita totalmente

Como en estas redes no existe un programa almacenado las representaciones se manipulan de manera no computacional. Para ello, se parte de un conjunto de representaciones que constituyen el "input" del sistema, y de otro conjunto que constituyen su "output"; no existiendo, sin embargo, representaciones intermedias. El desarrollo de esta forma diferente de entender la representación ha sido tan fuerte que para algunos se trata de un nuevo paradigma (Schneider, 1987).

Las redes de neuronas artificiales (denominadas habitualmente como RNA o en inglés como: "ANN"1 ) son un paradigma de aprendizaje y procesamiento

Page 3: Trabajo IA

automático inspirado en la forma en que funciona elsistema nervioso de los animales. Se trata de unsistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. Eninteligencia artificial es frecuente referirse a ellas comoredes de neuronas o redes neuronales.

Aplicaciones Las redes de neuronas artificiales 

Las características de las RNA las hacen bastante apropiadas para aplicaciones en las que no

se dispone a priori de un modelo identificable que pueda ser programado, pero se dispone de

un conjunto básico de ejemplos de entrada (previamente clasificados o no). Asimismo, son

altamente robustas tanto al ruido como a la disfunción de elementos concretos y son

fácilmente paralelizables.

Esto incluye problemas de clasificación y reconocimiento de patrones de voz, imágenes,

señales, etc. Asimismo se han utilizado para encontrar patrones de fraude económico, hacer

predicciones en el mercado financiero, hacer predicciones de tiempo atmosférico, etc.

También se pueden utilizar cuando no existen modelos matemáticos precisos o algoritmos con

complejidad razonable, por ejemplo la red de Kohonen ha sido aplicada con un éxito más que

razonable al clásico problema del viajante (un problema para el que no se conoce solución

algorítmica de complejidad polinómica).

Ejemplos[editar]

Quake II Neuralbot[editar]

Un bot es un programa que simula a un jugador humano. El Neuralbot es un bot para el

juego Quake II que utiliza una red neuronal artificial para decidir su comportamiento y

un algoritmo genético para el aprendizaje. Es muy fácil probarlo para ver su evolución. Más

información aquí [1]

Algoritmo de aprendizaje

Page 4: Trabajo IA

El aprendizaje automático las personas lo llevamos a cabo de manera

automática ya que es un proceso tan sencillo para nosotros que ni

nos damos cuenta de cómo se realiza y todo lo que implica. Desde

que nacemos hasta que morimos los seres humanos llevamos a cabo

diferentes procesos, entre ellos encontramos el de aprendizaje por

medio del cual adquirimos conocimientos, desarrollamos habilidades

para analizar y evaluar a través de métodos y técnicas así como

también por medio de la experiencia propia. Sin embargo, a las

máquinas hay que indicarles cómo aprender, ya que si no se logra

que una máquina sea capaz de desarrollar sus habilidades, el

proceso de aprendizaje no se estará llevando a cabo, sino que solo

será una secuencia repetitiva. También debemos tener en cuenta que

el tener conocimiento o el hecho de realizar bien el proceso de

aprendizaje automático no implica que se sepa utilizar, es preciso

saber aplicarlo en las actividades cotidianas, y un buen aprendizaje

también implica saber cómo y cuándo utilizar nuestros conocimientos.

Para llevar a cabo un buen aprendizaje es necesario considerar todos

los factores que a este le rodean, como la sociedad, la economía, la

ciudad, el ambiente, el lugar, etc. Por lo tanto, es necesario empezar

a tomar diversas medidas para lograr un aprendizaje adecuado, y

obtener una automatización adecuada del aprendizaje. Así, lo primero

que se debe tener en cuenta es el concepto de conocimiento, que es

el entendimiento de un determinado tema o materia en el cual tu

puedas dar tu opinión o punto de vista, así como responder a ciertas

interrogantes que puedan surgir de dicho tema o materia.

En el aprendizaje automático podemos obtener 3 tipos de

conocimiento, que son:

1. Crecimiento

Es el que se adquiere de lo que nos rodea, el cual guarda la información en la

memoria como si dejara huellas.

2. Reestructuración

Al interpretar los conocimientos el individuo razona y genera nuevo conocimiento al

cual se le llama de reestructuración.

3. Ajuste

Es el que se obtiene al generalizar varios conceptos o generando los propios.

Page 5: Trabajo IA

Los tres tipos se efectúan durante un proceso de

aprendizaje automático pero la importancia de cada tipo

de conocimiento depende de las características de lo que

se está tratando de aprender.

El aprendizaje es más que una necesidad, es un factor

primordial para satisfacer las necesidades de

la inteligencia artificial.

Tipos de algoritmos[editar]

Los diferentes algoritmos de Aprendizaje Automático se agrupan en una taxonomía en función

de la salida de los mismos. Algunos tipos de algoritmos son:

Aprendizaje supervisado

El algoritmo produce una función que establece una correspondencia entre las

entradas y las salidas deseadas del sistema. Un ejemplo de este tipo de algoritmo es

el problema de clasificación, donde el sistema de aprendizaje trata de etiquetar

(clasificar) una serie de vectores utilizando una entre varias categorías (clases). La

base de conocimiento del sistema está formada por ejemplos de etiquetados

anteriores. Este tipo de aprendizaje puede llegar a ser muy útil en problemas de

investigación biológica, biología computacional y bioinformática.

Aprendizaje no supervisado

Todo el proceso de modelado se lleva a cabo sobre un conjunto de ejemplos formado

tan sólo por entradas al sistema. No se tiene información sobre las categorías de esos

ejemplos. Por lo tanto, en este caso, el sistema tiene que ser capaz de reconocer

patrones para poder etiquetar las nuevas entradas.

Aprendizaje semisupervisado

Este tipo de algoritmos combinan los dos algoritmos anteriores para poder clasificar de

manera adecuada. Se tiene en cuenta los datos marcados y los no marcados.

Aprendizaje por refuerzo

El algoritmo aprende observando el mundo que le rodea. Su información de entrada es

el feedback o retroalimentaciónque obtiene del mundo exterior como respuesta a sus

acciones. Por lo tanto, el sistema aprende a base de ensayo-error.

Page 6: Trabajo IA

Transducción

Similar al aprendizaje supervisado, pero no construye de forma explícita una función.

Trata de predecir las categorías de los futuros ejemplos basándose en los ejemplos de

entrada, sus respectivas categorías y los ejemplos nuevos al sistema.

Aprendizaje multi-tarea

Métodos de aprendizaje que usan conocimiento previamente aprendido por el sistema

de cara a enfrentarse a problemas parecidos a los ya vistos.

El análisis computacional y de rendimiento de los algoritmos de

aprendizaje automático es una rama de la estadísticaconocida

como teoría computacional del aprendizaje.