Informe sustentacion privada hector nino

9

Click here to load reader

Transcript of Informe sustentacion privada hector nino

Page 1: Informe sustentacion privada hector nino

LA RED NEURONAL DE KOHONENANTONIO JOSE GALAN HENRIQUEZ

MANUEL FERNANDO LIZARAZO BALLESTEROSUNIVERSIDAD INDUSTRIAL DE SANTANDER

COLOMBIA

Se tiene una red neuronal de Kohonen con dos dimensiones en la capa de entrada (x,y) y nueve (m=9) nodos o neuronas en la capa de salida, es decir una cuadricula de 3x3 que presenta I=10 iteraciones y un radio de actualización de vecindad de R=3, y RA=0,1 es la rata de aprendizaje.

Una vista más ilustrativa la red seria la que se ve a continuación donde la capa de salida tiene en su parte inferior las dos dimensiones o el vector de dos dimensiones asociado a cada neurona o nodo

Page 2: Informe sustentacion privada hector nino

Pasos para el trabajo con una red neuronal de Kohonen

1. Inicialización de pesos:

Los pesos son coeficientes que pueden adaptarse dentro de la red que determinan la intensidad de la señal de entrada registrada por la neurona artificial. Ellos son la medida de la fuerza de una conexión de entrada. Estas fuerzas pueden ser modificadas en respuesta de los ejemplos de entrenamiento de acuerdo a la topología específica o debido a las reglas de entrenamiento.

La inicialización de pesos se realiza generalmente aleatoriamente.

Capa de entrada/ x y

Capa de salidaNeurona 1 0.3342 0.6177Neurona 2 0.6987 0.8594Neurona 3 0.1978 0.8055Neurona 4 0.0305 0.5767Neurona 5 0.7441 0.1829Neurona 6 0.5000 0.2399Neurona 7 0.4799 0.8865Neurona 8 0.9047 0.0287Neurona 9 0.6099 0.4899

2. Búsqueda de una base de datos para el entrenamiento de la red

Para este ejemplo tenemos una tabla de 5 registros que lógicamente debe ser de dos dimensiones para que coincida con la capa de entrada para su posterior entrenamiento

Dimensión de los registros/ x yRegistros

Registro 1 0.1679 0.0596Registro 2 0.9787 0.6820Registro 3 0.7127 0.0424Registro 4 0.5005 0.0714Registro 5 0.4711 0.5216

ITERACION 1/100

Page 3: Informe sustentacion privada hector nino

3. Encontrar la neurona ganadora o BMU mediante la diferencia euclídea.

Para este paso se escoge aleatoriamente un dato o registro de la base de datos de entrenamiento y se compara con los pesos asociados de cada neurona de la capa de salida esta comparación con cada neurona de la capa de salida se hace atreves de la distancia euclídea para cada nodo entonces el nodo que arroje el menor valor de la distancia euclídea será la neurona ganadora o BMU.

Entonces el proceso sería así:

Page 4: Informe sustentacion privada hector nino

4. BUSQUEDA LA VECINDAD DE ACTUALIZACION DE PESOS APARTIR DEL RADIO

Con la actual formula se haya el radio de actualización de pesos en función de la iteración actual.

Sigma = radio inicial, para este ejemplo 3

Lambda = (numero de interacciones) / (LN (sigmao)), en este caso = 10/LN (3)

EJEMPLO:

Para la primera iteración t=1

Tendremos de radio

Sigma= 3*EXP (-1/(10/LN (3)))= 2,69

Para la ultima iteración t=10

Tendremos de radio

Sigma= 3*EXP (-10/(10/LN (3)))= 1

Es decir el radio va disminuyendo gradualmente con el paso del tiempo o de las iteraciones, tendríamos una grafica similar a las siguientes.

Área abarcada para un radio= 2,69 Área abarcada para un radio= 1

En la primera iteración En la última iteración

Page 5: Informe sustentacion privada hector nino

5. ACTUALIZACION DE PESOS DEL BMU Y LA VECINDAD ELEJIDA

ECUACION DE ACTUALIZACION DE PESOS

La primera ecuación describe la actualización de los pesos para cada neurona y está en función del tiempo y de la función gaussiana y de la función de rata de aprendizaje.

Esta ecuación muestra cómo será el nuevo peso que tendrá la neurona cogiendo el antiguo peso y sumándole la diferencia entre el registro de entrada y el peso de la neurona el cual es multiplicado por la rata de aprendizaje u por la función gaussiana (es la función que actualiza con más intensidad las neuronas cercanas al BMU)

ECUACION DE RATA DE APRENDIZAJE

Donde L es la rata de aprendizaje y depende de la iteración actual, y Lo es la rata de aprendizaje inicial o por defecto, en este caso 0,1. La rata de aprendizaje decrece exponencialmente con el tiempo y tiende a cero. Donde lambda=numero de iteraciones.

La rata de aprendizaje para la primera iteración seria L (1) = 0,1*EXP (-1/10)=0,09

La rata de aprendizaje para la ultima iteración seria L (10) = 0,1*EXP (-10/10)=0,034

ECUACION DE FUNCION GAUSSIANA

Ahora la ecuación de la función gaussiana, esta ecuación es un factor para la actualización de los pesos y depende de la iteración en que se encuentre y de la distancia entre la neurona a actualizar y la BMU, entre mayor sea la distancia entre estas dos neuronas el impacto de actualización será menor o tendrá menos efecto.

Page 6: Informe sustentacion privada hector nino

PARA LA PRIMERA ITERACION

La función gaussiana para la neurona más alejada la BMU, es decir la neurona 8:

O (t) = EXP ((-2,5^2)/2*2,69^2)=0.65

La función gaussiana para la neurona más cercana al BMU, es decir la neurona 2, ella misma:

O (t) = EXP ((-0^2)/2*2,69^2)=1

LOS RESULTADOS FINALES PARA LA PRIMERA ITERACION DE LOS NUEVOS PESOS SERAN:

Tenemos los siguientes parámetros para iteración=1.

Radio (i=1)=Sigma (i=1)=2.69 Neuronas que se encuentra dentro del radio para (i=1)= 1, 2, 3, 4, 5, 6, 8 La rata de aprendizaje para la primera iteración seria L (1) = 0,09 Función gaussiana para la neurona 8= O (t) = EXP ((-2,5^2)/2*2,69^2)=0.65 Función gaussiana para la neurona 1= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86 Función gaussiana para la neurona 3= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86 Función gaussiana para la neurona 4= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86 Función gaussiana para la neurona 5= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86 Función gaussiana para la neurona 6= O (t) = EXP ((-1,5^2)/2*2,69^2)=0.86 Función gaussiana para la neurona 2= O (t) = EXP ((-0^2)/2*2,69^2)=1

Page 7: Informe sustentacion privada hector nino

Ahora se repite todo este proceso mencionado anteriormente 100 veces que es el numero de iteraciones seleccionado.