2º asignacion redes neuronales

55
REDES NEURONALES REDES NEURONALES (Neural (Neural Networks) Networks) Y SU APLICACION A LA Y SU APLICACION A LA MINERIA MINERIA INTEGRANTES: - MARTINEZ VELARDE, Alfredo - MELENDEZHUAMAN, Omar - DE LA CRUZ ORDOÑEZ, David - PANEZ DELGADO, Wilder - ROJAS CRISTOBAL, Oscar

Transcript of 2º asignacion redes neuronales

REDES NEURONALES REDES NEURONALES (Neural (Neural Networks) Networks) Y SU APLICACION A LA Y SU APLICACION A LA MINERIAMINERIA

INTEGRANTES:

- MARTINEZ VELARDE, Alfredo

- MELENDEZHUAMAN, Omar

- DE LA CRUZ ORDOÑEZ, David

- PANEZ DELGADO, Wilder

- ROJAS CRISTOBAL, Oscar

BASES BIOLOGICAS QUE BASES BIOLOGICAS QUE INSPIRARON LAS REDES INSPIRARON LAS REDES NEURONALES ARTIFICIALESNEURONALES ARTIFICIALES

SISTEMA NERVIOSO SISTEMA NERVIOSO BIOLOGICOBIOLOGICO

NEURONANEURONA

SINAPSISSINAPSIS

RED NEURONAL RED NEURONAL ARTIFICIALARTIFICIAL

El cerebro humano es el sistema de cálculo más complejo que conoce el hombre. El ordenador y el hombre realizan bien diferentes clases de tareas; así la operación de reconocer el rostro de una persona resulta una tarea relativamente sencilla para el hombre y difícil para el ordenador, mientras que la contabilidad de una empresa es tarea costosa para un experto contable y una sencilla rutina para un ordenador básico.  Un grupo de investigadores ha perseguido la creación de un modelo en el ordenador que iguale o adopte las distintas funciones básicas del cerebro. El resultado ha sido una nueva tecnología llamada Computación Neuronal o también Redes Neuronales Artificiales.

CARACTERÍSTICAS DE LAS REDES NEURONALES ARTIFICIALES Las Redes Neuronales Artificiales, ANN (Artificial Neural Networks) están inspiradas en las redes neuronales biológicas del cerebro humano.  Las ANN al margen de "parecerse" al cerebro presentan una serie de características propias del cerebro. Por ejemplo las ANN aprenden de la experiencia, generalizan de ejemplos previos a ejemplos nuevos y abstraen las características principales de una serie de datos. Abstraer: aislar mentalmente o considerar por separado las cualidades de un objeto.

ESTRUCTURA BÁSICA DE UNA RED NEURONAL Redes Neuronales Artificiales.-En las Redes Neuronales Artificiales, ANN, la unidad análoga a la neurona biológica es el elemento procesador, PE (process element). Un elemento procesador tiene varias entradas y las combina, normalmente con una suma básica. La suma de las entradas es modificada por una función de transferencia y el valor de la salida de esta función de transferencia se pasa directamente a la salida del elemento procesador. La salida del PE se puede conectar a las entradas de otras neuronas artificiales (PE) mediante conexiones ponderadas correspondientes a la eficacia de la sinapsis de las conexiones neuronales.Una red neuronal consiste en un conjunto de unidades elementales PE conectadas de una forma concreta. El interés de las ANN no reside solamente en el modelo del elemento PE sino en las formas en que se conectan estos elementos procesadores. Generalmente los elementos PE están organizados en grupos llamados niveles o capas. Una red típica consiste en una secuencia de capas con conexiones entre capas adyacentes consecutivas. Existen dos capas con conexiones con el mundo exterior. Una capa de entrada, buffer de entrada, donde se presentan los datos a la red, y una capa buffer de salida que mantiene la respuesta de la red a una entrada. El resto de las capas reciben el nombre de capas ocultas.

1943 McCulloch y Pitts presentan la neurona formal.

1949 D. Hebb publica su regla de aprendizaje para neuronas.

1951 Minsky plantea su máquina neuronal.

1956 Rochester, Holland, entre otros, realizan pruebas sobre ensambles de células y su acción en el cerebro.

1958 Von Neumann propone un modelo para el cerebro.

1958 Rosenblatt propone el perceptrón.

1960 Widrow y Hopf presentan el Adaline y el aprendizaje por ajuste de mínimos cuadrados. Lo aplican a la eliminación del eco en llamadas telefónicas y constituye la primera aplicación práctica de las redes neuronales.

1969 Minsky y Papert analizan el preceptrón y encuentran que tiene limitaciones lógicas importantes.

HISTORIA DE LA COMPUTACIÓN NEURONAL

Los primeros años

Reflexión y estancamiento  

 1972 Kohonen presenta sus primeros trabajos sobre redes neuronales y memorias asociativas.

1972 J. Anderson desarrolla la red neuronal llamada: “estado cerebral en una caja”.

1975 Fukushima, en los laboratorios NHK, en Tokio, desarrolla el cognitrón, una red neuronal especializada en reconocimiento de patrones. No logra reconocer caracteres distorsionados o rotados.

1976 Grossberg, en la Universidad de Boston, inicia sus trabajos sobre redes neuronales artificiales. Se distingue por su carácter altamente matemático y con sentido biológico.

1982 Kohonen presenta la red que ahora se llama mapeo autoorganizado (SOM por su nombre en inglés).

La década de oro de las redes neuronales

 1982-1985 J. Hopfield presenta la red de aprendizaje mediante la regla de Hebb. Utiliza técnicas de la Física Estadística para demostrar que tiene propiedades de memoria asociativa. Gran impacto en el mundo de los físicos.

1984 Ackley, Hinton y Sejnoski desarrollan la máquina de Boltzmann. Una red neuronal

1985 Se establece el sistema de propagación hacia atrás, que había aparecido para ser olvidado en diversas ocasiones.

1986 Surge el mapeo de Kohonen.

2000 El paralelismo, las redes neuronales y la inteligencia articial en general, convergen en una teoría del aprendizaje de desarrollo acelerado con aplicaciones muy diversas.

Una red neuronal es un sistema compuesto de muchos elementos procesadores simples operando en paralelo, cuya función es determinada por la estructura de la red, fuerza en las conexiones y el procesamiento realizado por los elementos computacionales en los nodos

"Una red neuronal es un procesamiento distribuido masivamente paralelo que tiene una tendencia natural para almacenar conocimiento empírico y hacerlo disponible para el uso”

Haykin, S

Una Red Neuronal viene caracterizada por:

•Topología

•La intensidad de la conexión entre sus pares de neuronas (pesos)

•Las propiedades de los nodos

•Las reglas de aprendizaje de pesos, controlan los pesos y/o estados de los elementos de procesados (neuronas).

•Dos tipos de aprendizaje•Supervisado•No supervisado

•Dos fases de operación•Entrenamiento de la red•Recuperacion de lo aprendido

•No son algorítmicas

Las RNA generan ellas mismas sus propias "reglas", para asociar la respuesta a su entrada; es decir, aprende por ejemplos y de sus propios errores.

•Requieren de algún tipo de patrón

Problemas que son muy difíciles de calcular pero que no requieren de respuestas perfectas, sólo respuestas rápidas y buenas. Tal y como acontece con el escenario bursátil en el que se quiere saber ¿compro?, ¿vendo?, ¿mantengo?, o en el reconocimiento cuando se desea saber ¿se parece? ¿es el mismo pero tienen una ligera modificación?

La ventaja de las Redes Neuronales Artificiales (RNA), reside en el procesado paralelo, adaptativo y no lineal. Las (RNA) han encontrado muchas aplicaciones con éxito en la visión artificial, en el procesado de señales e imágenes, reconocimiento del habla y de caracteres, análisis de imágenes médicas, control remoto, control de robots, inspección industrial y exploración científica.

El dominio de aplicación de las (RNA) se puede clasificar de la siguiente forma:

•Asociación y clasificación•Regeneración de patrones•Regresión y generalización •Optimización

Las Redes Neuronales son útiles para:

Clasificación de patrones Aproximación de funcionesMapeoEn los que exista información imprecisa y con tolerancia a fallosAprendizaje AdaptativoAutoorganizaciónTolerancia a FallosOperación en tiempo realFácil construcción en circuitos integrados

La entrada total de la unidad k es la suma ponderada de las entradas que recibe más el término de offsetEste tipo de expresiones que calculan la entrada total se denominan reglas de propagación y, en general, pueden tener diferentes expresiones

El número de capas intermedias y el número de neuronas de cada capa dependerá del tipo de aplicación al que se vaya a destinar la red neuronal.

BACKPROPAGATION

PERCEPTRON

Los elementos de procesado de una red neuronal se distribuyen por capas, existen tres tipos de capas:

1. Capa de entrada: Dependen del problema a abordar

2. Capa de salida: Salidas que proporciona la estructura

3. Capas ocultas: Conjunto de elementos de procesado asociados en capas que se encuentran entre la capa de entrada y la capa de salida

•Las funciones (tanto de activación como de salida) de los elementos de procesado pueden ser diferentes

•No existe limitación en el número de capas ocultas

•En general, cuanto mayor sea la diferencia entre los elementos de entrada y los de salida, será necesario dotar a la estructura de más capas ocultas

•La habilidad de la red para procesar información crece en proporción directa al número de capas ocultas

En función de la dirección del movimiento de la información se puede realizar una clasificación:

Redes feedforward

Redes feedback

Redes feedlateral

Supervisado

En el aprendizaje supervisado (aprender con un maestro), la adaptación sucede cuando el sistema compara directamente la salida que proporciona la red con la salida que se desearía obtener de dicha red; existen 3 tipos:

Por corrección de errorPor refuerzoEstocástico

Regla deltaUna red con una única capa con una única neurona en la salida con una función de activación lineal, la salida viene dada por:

Supongamos que vamos a entrenar una red de decisión más idóneo para un conjunto de muestras de entrada consistentes “x” y valores de salida deseada “d”.

Para cada muestra dada del conjunto de entrada, la salida real de la red difiere de la salida deseada en “d-y”, donde y es la salida real de la red correspondiente a la entrada x

La función de error, dada por el método del menor error cuadrático medio, es la suma de los cuadrados de los errores individuales de cada patrón. Es decir, el error total E viene dado por:

Los valores de los pesos de conexión se buscan de forma tal que se minimice la función E y este proceso se realiza por un método conocido gradiente descendiente

Dado que la función de activación es lineal, como se comentaba al comienzo,

¿Cuántas capas ocultas?Por experiencia se sabe que usar más de una capa oculta casi nunca es benéfico. El problema es que el entrenamiento es dramáticamente más lento cuando se usan más capas ocultas. Esto se debe a dos efectos:

•La capa adicional a través de la cual los errores deben ser retropropagados hace que el gradiente sea más inestable.

•El número de mínimos falsos se incrementa usualmente de una manera dramática.

¿Cuántas neuronas ocultas?•El usar muy pocas neuronas ocultas dejará a la red neuronal sin los recursos necesarios para resolver el problema

•El usar muchas neuronas podrá incrementar el tiempo de entrenamiento

•Además, un número excesivo de neuronas ocultas puede causar un problema de sobreajuste.

¿Cuántas neuronas ocultas?

Un paradigma somero para la elección del número de neuronas ocultas en muchos problemas es la regla de la pirámide geométrica.

¿Cuánto tiempo se debe entrenar?

Se dice que las redes neuronales pueden ser sobreentrenadas. Quiere decir que hay una cantidad óptima de entrenamiento y que se puede entrenar más allá de dicho punto para mejorar el funcionamiento en el conjunto de entrenamiento, pero degradando dicho funcionamiento en la población general.

Las principales aplicaciones de la inteligencia artificial está constituido por sistemas expertos, algoritmos genéticos , redes neuronales, etc, sabiendo que la industria minera trabaja con una gran cantidad de datos, que matemáticamente su solución se vuelve compleja complicándose encontrar una correspondencia de la variables, las redes neuronales destierran completamente a las técnicas convencionales matemáticas.

APLICACIONESAPLICACIONES

Algoritmos genéticos y redes neuronales artificiales para la programación de vehículos inteligentes no tripulados para la operación en la mina con la finalidad de acceder a espacios confinados, detonar tiros cortados o superar condiciones de alto riesgo evitando la presencia y exposición de colaboradores humanos en dichas tareas.

Redes neuronales artificiales para dosificar el flujo de aire en la ventilación minera subterránea de manera que se optimice las descargas en función a la necesidad de aire, reduciendo los costos.

ESTIMACION DE PROPIEDADES MECANICAS DE LA ROCA CON

REDES NEURONALES.

Propiedades petrofísicas

Porosidad.Es la fracción del volumen total de la roca ocupada por su espacio vacío (lleno de agua , aire ) , y representa el porcentaje del espacio total que puede ser ocupado por líquidoso gases. Esta propiedad determina la propiedad de acumulación de las rocasy, generalmente, se expresa como porcentaje o fracción de la unidad . 

Permeabilidad (k)  Es la capacidad de una roca para permitir el paso de fluidos a través de ellos sin modificar su estructura interna, por lo que determina la velocidad a la que se desplaza el fluido que contiene por unidad de tiempo.Se dice que un material es permeable si deja pasar a través de el unacantidad apreciable de fluido en un tiempo dado, e impermeable si la cantidadde fluido es despreciable.

Propiedades MecánicasPropiedades Mecánicas

Resistencia a la compresión sin confinamiento (UCS)

Porosidad % Permeabilidad (mD) Resistencia (PSI)

20 12 1200

18,8 40 3800

17,9 62 4700

17,4 69 5000

16,8 80 7000

15 96 8970

15,7 91 8300

12 183 15000

10 198 17000

8 307 25000

DATOS DE LABORATORIODATOS DE LABORATORIO

La tabla  muestra claramente las entradas y salidas para cada propiedad.

Desarrollo de la herramienta

La figura   muestra la representación gráfica de las configuraciones seleccionadas por el algoritmo genético teniendo la porosidad y la permeabilidad como datos de entrada. Como dato de salida se obtiene la resistencia a la compresión sin confinamiento (UCS).

Para el caso de la resistencia a la compresión uniaxial, la figura muestra la comparación entre valores reales y estimados por la red neuronal.

Análisis de resultados

• Se probaron diferentes configuraciones de red neuronal por tipo de prueba, buscando las que más se ajustaran al conjunto de datos y, la seleccionada presenta error promedio de 2.2058 % respectivamente para cada una de las pruebas.

• Con las pruebas que se presentaron para diversos conjuntos de datos de entrenamiento, se demuestra cómo realmente se logra una generalización con el modelo propuesto y se facilita con su análisis determinar el número de datos que se hacen necesarios para obtener resultados confiables.

Conclusiones

• Se calculo la propiedad mecánica de roca (resistencia a la compresión sin confinamiento )utilizando métodos propios de la inteligencia artificial (redes neuronales).

• El modelo de redes neuronales descrito muestra que este puede ser un modelo de confianza para la determinación de las propiedades mecánicas utilizando información de petrofísica y requiriendo un conjunto de datos experimentales obtenidos previamente.

Creación y Entrenamiento de la Red Neuronal

ANEXO

Simulación de la Red Neuronal ya entrenada

Parametros de interes durante el entrenamiento

0 500 1000 1500

10-4

10-3

10-2

10-1

100

1581 Epochs

Tra

inin

g-B

lue

Goal-B

lack

Performance is 9.99819e-005, Goal is 0.0001

Error vs Numero de Entrenamientos (Epochs)

Utilización de la Red con datos de 14% de porosidad y 140 mD permeabilidad

Bibliografía

 http://oa.upm.es/14183/1/MECANICA_DE_ROCAS_1.pdf  http://webcache.googleusercontent.com/search?q=cache:JbAH0u2gAWoJ:https://www.u-cursos.cl/ingenieria/2011/2/GL5201/1/material_docente/objeto/384079+&cd=1&hl=es&ct=clnk&gl=pe   http://ocw.uis.edu.co/ingenieria-civil/estabilidad-de-taludes/clase11/ensayos_geotecnicos_de_rocas.pdf  Título: REDES NEURONALES ARTIFICIALES YSUS APLICACIONES Autor: Xavier Basogain Olave Escuela superior de ingeniería Bilbao

Título: NEURAL NETWORKS. Autor: Simon HayLin McMaster University. Hamilton,Ontorio, Canada

Título: MODELIZACION ESTADISTICA CON REDES NEURONALES. Autor: Maria Castellano Mendez. Diciembre 2009.