Redes Neuronales Introduccióniecon02.us.es/ASIGN/SEA/redesneur_simplificada.pdfRedes Neuronales...
Transcript of Redes Neuronales Introduccióniecon02.us.es/ASIGN/SEA/redesneur_simplificada.pdfRedes Neuronales...
Redes Neuronales
Introducción
José Manuel Quero ReboulDpto. Ingeniería Electrónica
Universidad de Sevilla
DILEMA
• Aritmética
• Visión
• Datos
• Direccionada por contenido
1 cerebro=1/10 calculadora de bolsillo
1 cerebro=1000 supercomputadores
cerebro mucho peor
cerebro mucho mejor
MEM
OR
IA
CA
LCU
LO
Arquitectura Von Newman
• Unico nodo de procesamiento (800Mhz)• Memoria pasiva• Baja conectividad
BUSBUS
CPUCPU MEMMEM E/SE/S E/SE/S
Bus de datos: Cuello de Botella (Secuencialidad)Bus de datos: Cuello de Botella (Secuencialidad)
Cerebro
• 1010 neuronas (10ms)• 104 dendritas• 1014 pesos de conexión• Los pesos almacenan y
procesan
Definición
Computación neuronal:
Computación en redes masivas paralelas de procesadores simples y no lineales, que almacenan todo su contenido en los pesos de conexión
Computación en redes masivas paralelas de procesadores simples y no lineales, que almacenan todo su contenido en los pesos de conexión
Propiedades:– Eliminación del cuello de botella– Inteligencia artificial llevada al límite
Ley de Propagaciónj
jiji IWnet ∑=
Neurona Artificial
Entorno
Ley de Activación),...)(),(),(()1( 21 tnettnettaFta =+
Función de Salida)(afo =
Patrón de Conectividad
Ley de Aprendizaje))(),(),(),(()1( totatnettwgtw iijij =+
Red neuronal
neuronas
pesos
capas
salidas
entradas
Topologías:
•Monocapa
•Multicapa
•Redes forward
•Redes recurrentes
•Redes realimentadas
•Redes de funciones radiales
Aprendizaje• El conocimiento es obtenido a partir de la
experiencia y almacenado en los pesos• Tipos de aprendizajes:
– Preprogramadas– Ley de Hebbs– Aprendizaje competitivo– Aprendizaje supervisado
• La red extrae y copia la estructura interna del conocimiento del entorno
Leyes de Aprendizaje
WIWdt
dW )()( ⋅−⋅== γφ&
WI
)(),( ⋅⋅ γφ
)( IWfo T=
o:Vector de pesos
: Señales de entrada:Funciones escalares (W,I,o):salida
Función de Tranferencia no lineal
•Justificación
1) Ley de Hebb: Cuanto mayor sea la excitación, mayor será el refuerzo de la conexión
2) Factor de Olvido: Proporcional a la propia magnitud
•Condiciones (estabilidad dinámica)
1)
2)
Leyes de Aprendizaje
I)(⋅φ
ttWto ∀⇒ finita acotadasi )()(
W)(⋅−γ
∞→→⇒≠ ttWI 0)(0 si /
Propiedades de las RN• Procesamiento de un gran conjunto de datos• Baja densidad de información• Robustez ante fallo en estructura• Robustez ante inconsistencia en los datos de
entrada• Datos y reglas de procesamiento confundidos en
las conexiones• Procesamiento altamente paralelo• Capacidad de Autoorganización. Adaptabilidad
¿Cuando usar Redes Neuronales?
• Cuando se quiere desarrollar un modelo (funcional, clasificador, predicción de serie temporal,...)
• Ejemplos– Finanzas: Modelos de mercado– Ingeniería: Modelado de procesos y control
adaptativo– Medicina: Diagnosis
¿Cuando usar Redes Neuronales?
• En análisis de datos con baja densidad de información
• Ejemplos:– Reconocimiento de imágenes– Reconocimiento de firmas– Análisis de encuestas– Predicción meteorológica
Perceptrón•Memoria Asociativa
⎟⎟⎠
⎞⎜⎜⎝
⎛−= ∑
=
θn
jjjh iwfo
1
Interpretación Geométrica
10
1
01 w
iwwi θ
+−=
Σ
w1
wn
w2
θ
-+
1i
2i
ni
A
AA
A
A
B
B
BB
0i
1i
Recta de Decisión
Perceptrón
)()]()([ titotddt
dwi
i −=α
•Aprendizaje Supervisado: Regla δ
10 −≤≤ ni { }1,1)(),( −∈totd
Aprendizaje a partir de aleatoriosiw
Problema: Oscilación ante entradas no separablesEjemplo: función XOR
Patron de Entrada Patron de Salida00011011
0110
01
10
PerceptrónSolución: Añadir una dimensión adicional
Patron de SalidaPatron de Entrada Patron Intermedio00011011
000010100111
0110
0 1
1
0
Nodos de representación interna
Perceptrón MulticapaEstructura Regiones de
DecisiónProblema XOR Clases
ComplejasUna capa
Semiespacioslimitados por hiperplanos
A
AB
B
Regiones de Decisión Generales
BA
Dos capas Regiones convexas abiertas o cerradas
A
AB
B
BA
Arbitrarias.Complejidad limitada por el número de nodos
Tres capasA
AB
B
BA
Perceptrón Multicapa
Capa de Salida
Capa de Entrada
Capas Ocultas
OR
AND
HIPERPLANOS
)( θ−= ii netfo ∑==
n
jjiji iwnet
1
xexf −+=
11)(
θ
1
0
x
x
eexf −
−
+−
=11)(
θ
1
-1
)( ii netfo =
Perceptrón Multicapa
Capa de Salida
Capa de Entrada
Capas Ocultas
OR
AND
HIPERPLANOS
Retropropagación
(Regla δ generalizada)
j a previa i capa)1( ijijp itw δη=+Δ
⎪⎩
⎪⎨⎧
′−′
= ∑ Ocultas Capas)(Salida de Capa))((
kijkpjj
jjpjj
j wnetfodnetf
δδ
Queda determinar qué es para cada neurona pjδ
Perceptrón MulticapaRetropropagación: Demostración
∑∑∑ −=≡p j
pjpjp
p odEE 2)(21Error Cuadrático Médio
Cambio del error al variar la excitación en j
Cambio de la excitación la variar el peso de conexiónji
pj
pj
p
ji
p
wnet
netE
wE
∂
∂
∂
∂=
∂
∂Regla de la cadena (1)
Segundo Término
pii
pijijiji
pj oowww
net∑ =
∂∂
=∂
∂)( (2)
(3)pj
ppj net
E∂
∂−≡δ
Primer Término
Definamos pjpjjip ow ηδ=Δ⇒Sustituyendo (2) y (3)en (1)
Perceptrón Multicapa
pi
pj
pj
p
pj
ppj net
ooE
netE
∂
∂
∂
∂−=
∂
∂−=δRegla de la cadena
Cambio del error al variar la salida
Cambio de la salida por cambiar la excitación
Segundo Término
)( pjpj netfo =Dado que )( pjpj
pj netfneto
′=∂
∂⇒ Derivada de la función de salida
2)(21∑ −=
jpjpjp odE
Primer Término
Para neurona de salida. Dado que )( pjpjpj
p odoE
−−=∂
∂⇒
( )pjpjpjpj odnetf −′=⇒ )(δ
Perceptrón MulticapaPara neurona oculta.
∑ ∂
∂
∂
∂=
∂
∂
k pj
pk
pk
p
pj
p
onet
netE
oE
⎟⎠
⎞⎜⎝
⎛∂∂
∂
∂= ∑∑
ipiki
k pjpk
p owonet
E∑∂
∂=
kkj
pk
p wnetE
∑−=k
kjpk wδ
∑′=⇒k
kjpkpjpj wnetf δδ )(
δ de la capa previa Conexión con la neurona previa
Cómo afecta a la capa previa
jnetpj eo −+
=1
1Particularizando ( ) )1(1
)( 2 pjpjnet
net
jpj ooe
enetfoj
j
−=+
=′=′⇒−
−
⎪⎩
⎪⎨⎧
−−−
=⇒ ∑ Ocultas Capas)1(Salida de Capa))(1(
kijkjj
jjjj
j wiiodoo
δδ