Utilización del Neurocontrolador B-spline

170
 CINVESTAV Centro de Investigación y de Estudios Avanzados del I.P.N. Unidad Guadalajara Metodologías TCAD para diseñar diodos epitaxiales de recuperación rápida de silicio usando una estructura con contacto tipo mosaico P + /N +  Tesis que presenta: Hector Eduardo Aldrete Vidrio  para obtener el grado de: Maestro en Ciencias en la especialidad de: Ingeniería Eléctrica Director de Tesis Dr. Juan Martín Santana Corte Dr. Juan Luis del Valle Padilla Guadalajara, Jal., Junio del 2002.  Unidad Guadalajara Utilización del Neurocontrolador B-spline para Regular el StatCom Rubén Tapia Olvera Doctor en Ciencias Ingeniería Eléctrica Dr. Juan Manuel Ramírez Arredondo Guadalajara, Jalisco, Diciembre de 2006.

Transcript of Utilización del Neurocontrolador B-spline

CINVESTAVCentro de Investigacin y de Estudios Avanzados del I.P.N. Unidad Guadalajara Unidad

Utilizacin del Neurocontrolador B-spline para TCAD el StatCom MetodologasRegular para disear diodos

epitaxiales de recuperacin rpida de silicio usando una estructura con contacto tipo + + mosaico P /NTesis que presenta: Hector Eduardo Aldrete Vidrio Rubn Tapia Olvera para obtener el grado de: Maestroen Ciencias Doctor en Ciencias en la especialidad de: Ingeniera Elctrica Director de Tesis Dr.Dr. Juan Martn Santana Corte Juan Manuel Ramrez Arredondo Dr. Juan Luis del Valle PadillaGuadalajara, Jalisco, Diciembre del 2006. Guadalajara, Jal., Junio de 2002.

Metodologas Neurocontrolador diodos Utilizacin del TCAD para disearB-spline epitaxiales de recuperacin rpida de silicio para Regular el StatCom usando una estructura con contacto tipo mosaico P+/N+Tesis de Maestra en Ciencias Tesis de Doctoradoen Ciencias Ingeniera ElctricaPor:

Hector Eduardo Aldrete Vidrio Rubn Tapia Olvera Ingeniero en Comunicaciones y Electrnica Maestro en Ciencias en Ingeniera Elctrica Centro deUniversidad deyGuadalajara 1992-1996 del IPN Investigacin de Estudios Avanzados 2000-2002 Becario del CONACYT, expediente no. 143876 de CONACyT, 157990

Director de Tesis Dr.Dr. Juan Martn Santana Corte Juan Manuel Ramrez Arredondo Dr. Juan Luis del Valle Padilla

CINVESTAV del IPN Unidad Guadalajara, Junio de 2002. CINVESTAV del IPN Unidad Guadalajara, Diciembre del 2006.

!Sftvnfo!

!El uso y aplicacin de tcnicas que se relacionan con sistemas inteligentes han surgido debido a las limitantes que acompaan a las tcnicas convencionales en todas las reas del conocimiento. Estos mtodos tienen caractersticas que les permiten adaptarse a mltiples tipos de problemas, an si la aplicacin para la cual se requiere no posea un modelo matemtico exacto. En el caso de los sistemas elctricos de potencia en su forma original son asimtricos y no lineales. Sin embargo, con el propsito de llevar a cabo estudios y desarrollos que permitan analizar su comportamiento, frecuentemente se han considerado simtricos y lineales. Con el avance que se tiene en hardware, software e investigaciones en el anlisis de sistemas no lineales, es posible realizar estudios y anlisis a detalle para los Sistemas Elctricos de Potencia (Electric Power Systems, EPSs), incluyendo controladores basados en algoritmos neuronales (que forman parte de los sistemas inteligentes) que permiten considerar las no linealidades de la red elctrica. Por tal motivo, en este trabajo se emplean las redes neuronales para el modelado y control de voltaje de sistemas de potencia, utilizando para ello un Compensador Esttico Sncrono (Static Synchronous Compensator, StatCom) lo que proporciona robustez y desempeo satisfactorio del sistema. En la actualidad, los Sistemas Flexibles de Transmisin de Corriente Alterna (Flexible Alternating Current Transmission Systems, dispositivos FACTS) son una alternativa importante para mejorar la operacin de una red elctrica. Su rpida respuesta los hace muy tiles para controlar diferentes seales, como por ejemplo, el voltaje y el flujo de potencia en una lnea de transmisin. Considerando esta problemtica, se presenta la aplicacin del Control Predictivo

No Lineal (Nonlinear Predictive Control, NPC) para controlar un dispositivo FACTS, el StatCom, con el propsito de regular la magnitud de tensin en el nodo de la red elctrica donde se conecta. Para esta tarea se propone el empleo de una red neuronal por su diseo simple y robusto, mostrando perspectivas importantes respecto a la complejidad que exhiben los controladores no lineales. Con los resultados que se obtienen al aplicar el NPC a sistemas de potencia, se observa un desempeo satisfactorio del sistema, aprecindose la evolucin deseada de la seal controlada. Esto se consigue con el correcto funcionamiento del modelo neuronal y fijando adecuadamente los parmetros de la ley de control. Una de las principales ventajas del uso de redes neuronales en control es su implementacin, debido a que en algunos casos permiten reducir la complejidad y costo computacional del controlador en comparacin con las tcnicas convencionales. Bajo este esquema, se propone el empleo de un controlador neuronal B-spline para controlar la magnitud de voltaje en un nodo de la red elctrica con la inclusin de un StatCom, mediante un entrenamiento en lnea. Se explica la teora bsica en que se fundamenta el algoritmo neuronal B-spline exponiendo su procedimiento de diseo para modelado y control de sistemas dinmicos. Concretando el desarrollo, con la aplicacin de un controlador neuronal en una red elctrica, obteniendo resultados muy interesantes. Los resultados de control de voltaje se comparan con los obtenidos con el controlador convencional Proporcional-Integral (Proportional-Integral, PI), demostrando su simplicidad y desempeo ptimo adaptndose adecuadamente a los diferentes escenarios a los que se ve sometida la red elctrica, al analizar su desempeo en sistemas multimquinas. El controlador propuesto permite de forma natural una interaccin positiva con Estabilizadores de Sistemas de Potencia (Power Systems Stabilizers, PSSs) sintonizados previamente, observndose la respuesta dinmica de diferentes variables de los generadores de la red ante diferentes disturbios y cambios de operacin. Con el objetivo de mostrar resultados prcticos del empleo de los controladores neuronales Bspline, se implementa el control neuronal en un par de sistemas en laboratorio de menor dimensin y complejidad que un sistema de potencia, sin embargo, se exhibe que su aplicacin en sistemas prcticos es posible. En primer lugar se desarrolla el control de la velocidad de un motor de corriente directa, y en segundo trmino una implementacin de un dispositivo StatCom controlando la magnitud de voltaje; ambos sistemas se ven expuestos a diferentes condiciones de operacin. Los resultados de laboratorio demuestran la aplicabilidad de la propuesta comparado con el controlador convencional PI.

ii

Bhsbefdjnjfoupt!

!Gracias a Dios por permitirme estar vivo y poder realizar todos mis sueos. A mis padres Delfino y Liba, que incansablemente me han cuidado y orientado en las buenas y en las malas, animndome a no desfallecer ante las adversidades y a cumplir mis anhelos. A mis hermanas Mari y Tere, m cuado Norberto y mis hermosos sobrinos Joshua y David por el cario y sostn que me han brindado en todo momento. A mi amada esposa Cris por creer en m y apoyarme incansablemente en todos los proyectos que nos proponemos. A mi asesor Juan Manuel Ramrez que siempre ha estado aconsejndome de la mejor forma posible, que ms all de un asesor es un amigo. A mis sinodales que con sus buenos consejos han cooperado a mejorar mi trabajo de tesis. A mis amigos por todos los momentos alegres que hemos compartido.

iv

!

Joejdf!

!Resumen Agradecimientos ndice Lista de Figuras Lista de acrnimos Lista de variables Captulo 1 Introduccin1.1 1.2 1.3 1.4 Antecedentes Motivacin del empleo de redes neuronales Aplicaciones Contribuciones

i iii v ix xv xvii

11 2 4 5

1.5 Estructura del trabajo 1.6 Referencias

6 8

Captulo 2 Introduccin a las Redes Neuronales2.1 Introduccin 2.2 Redes Neuronales Biolgicas 2.3 Redes de Neuronas Artificiales 2.3.1. Modelo General de las ANNs 2.3.2. Arquitecturas de Redes Neuronales 2.3.3. Modos de Operacin de las ANNs 2.4. Generalizacin de una ANN 2.5. Diseo de modelos neuronales 2.5.1. Ejemplo 1 2.6. Redes neuronales B-spline 2.6.1. Modelo neuronal B-spline 2.6.2. Funciones base monovariable 2.6.3. Funciones base multivariable 2.6.4. Regla de aprendizaje 2.6.5. Anlisis de convergencia y estabilidad 2.6.6. Ejemplo 2 2.7. Conclusiones 2.8. Referencias

1111 12 13 14 15 16 17 18 18 25 27 29 29 32 33 34 40 40

Captulo 3 Control Predictivo No Lineal3.1 Introduccin 3.2 Modelo Sistema Mquina Barra Infinita con StatCom 3.3 Ley de Control 3.3.1 Control Predictivo No Lineal 3.3.2 Modelo Neuronal 3.4 Control NPC para el SMIB con StatCom 3.4.1 Caso 1 3.4.2 Caso 2 3.5 Control NPC para el Sistema de 3 mquinas y 9 nodos donde se instala un StatCom 3.5.1 Modelo dinmico para el StatCom en un sistema multimquinas 3.5.2 Control NPC de un sistema de potencia multimquinasvi

4545 46 49 49 51 52 55 56 58 58 61

nd ic e

3.5.2.1 Caso 3 3.5.2.2 Caso 4 3.5.2.3 Caso 5 3.6 Conclusiones 3.7 Referencias

65 67 69 71 72

Captulo 4 Coordinacin de Dispositivos de Control en Sistemas Multimquinas4.1. Antecedentes 4.2. Sintonizacin de PSSs 4.3. Sistema multi-mquinas incluyendo PSSs y un dispositivo StatCom 4.3.1. Sistema de 3 mquinas y 9 nodos 4.3.1.1. Caso 1 4.3.1.2. Caso 2 4.3.1.3. Caso 3 4.3.2. Sistema de 16 mquinas y 68 nodos 4.3.2.1. Caso 4 4.3.2.2. Caso 5 4.3.2.3. Caso 6 4.3.2.4. Caso 7 4.4. Estabilidad en los EPSs 4.5. Conclusiones 4.6. Referencias

7373 74 77 81 81 83 86 90 92 95 98 102 106 108 108

Captulo 5 Aplicaciones de Control B-spline en Tiempo Real5.1. Introduccin 5.2. Control neuronal en lnea de un motor de DC 5.2.1. Estimacin de parmetros 5.2.2. Control neuronal de la velocidad del motor de DC 5.3. Control B-spline en lnea de un dispositivo StatCom 5.3.1. Caso 1 5.3.2. Caso 2 5.3.3. Caso 3 5.4. Conclusiones 5.5. Referencias

111111 112 114 116 119 120 123 125 127 127

vii

Apndice A Conclusiones Trabajos Futuros Publicaciones

129 141 145 147

viii

!Mjtub!ef!Gjhvsbt!

!Fig. 2.1. Fig. 2.2. Fig. 2.3. Fig. 2.4. Fig. 2.5. Fig. 2.6. Fig. 2.7. Fig. 2.8. Fig. 2.9. Fig. 2.10. Fig. 2.11. Estructura tpica de una neurona biolgica. Modelo genrico de neurona artificial. Modelo de neurona estndar. Diagrama simplificado de un StatCom. Modelo en estado estacionario del StatCom. Estructura de la red neuronal propuesta para el ejemplo 1. Evolucin del entrenamiento de la red neuronal propuesta para el ejemplo 1 con una meta de 1e-14. Representacin de una red neuronal de tres capas. Representacin esquemtica de una red B-spline. Vector de puntos de control para un espacio de entrada unidimensional ( l = 1 ), ri = 5 y i = 3 . Puntos de control de dos dimensiones ( l = 2 ), donde el rea sombreada representa el espacio de entrada. Puntos exteriores equidistantes para el eje 1 y coincidentes para el segundo. Funcin base monovariable de orden K = 1, , 4. Funcin base multivariable de dos dimensiones formada por 2 funciones base monovariable de orden 2. Funcin base multivariable de dos dimensiones formada por 2 funciones base monovariable de orden 2 ( x1 ) y orden 3 ( x2 ). 12 15 15 19 20 22 24 26 27 28 28 30 31 31

Fig. 2.12. Fig. 2.13. Fig. 2.14.

Fig. 2.15. Fig. 2.16. Fig. 2.17. Fig. 2.18. Fig. 2.19. Fig. 2.20. Fig. 2.21. Fig. 2.22. Fig. 2.23.

Representacin grfica de la funcin y( x) = x 2 . Funciones base para ajustar el modelo neuronal de la funcin y( x) = x 2 . Red neuronal propuesta para modelar la funcin y( x) = x 2 . Desempeo del modelo neuronal y su comparacin con la funcin real y ( x) = x 2 . Error entre la respuesta del modelo neuronal y la funcin real y( x) = x . Desempeo del modelo neuronal ante valores diferentes de . Evolucin de los pesos sinpticos en el intervalo [-1 1]. Evolucin de los pesos sinpticos en el intervalo [-1 2]. Evolucin de los pesos sinpticos en el intervalo [-1 3].2

34 35 35 36 37 38 38 39 39

Fig. 3.1. Fig. 3.2. Fig. 3.3. Fig. 3.4. Fig. 3.5. Fig. 3.6. Fig. 3.7. Fig. 3.8. Fig. 3.9. Fig. 3.10. Fig. 3.11. Fig. 3.12. Fig. 3.13. Fig. 3.14. Fig. 3.15. Fig. 3.16. Fig. 3.17. Fig. 3.18. Fig. 3.19. Fig. 3.20.x

Sistema de potencia mquina-barra infinita donde se conecta un dispositivo StatCom. Esquema del NPC. Muestras para el entrenamiento de la ANN: a) entrada de control m; b) magnitud de voltaje | v | . Neuro identificador para el SMIB con StatCom. Diagrama esquemtico del NPC para el SMIB con StatCom. Caso 1: Evolucin de la magnitud de tensin del nodo controlado. Caso 1: Desempeo de la seal controlada NPC. Caso 1: Evolucin de la magnitud de tensin del nodo controlado y la prediccin del neuro identificador. Caso 2: Evolucin de la magnitud de tensin del nodo controlado. Caso 2: Desempeo de la seal controlada NPC. Caso 2: Evolucin de la magnitud de tensin del nodo controlado y la prediccin del neuro identificador. Representacin de un sistema multimquinas. Modelo del StatCom. Inyeccin de corrientes. Sistema de 3 mquinas y 9 nodos de la WSCC. Muestras para el entrenamiento de la ANN: a) entrada de control m ; b) magnitud de voltaje v5 . Neuro identificador para el EPS de 3 mquinas con StatCom. Diagrama esquemtico del NPC para el sistema de 3 mquinas con StatCom. Caso 3: a) Evolucin de la magnitud de tensin del nodo 5; b) aumento en una seccin de la Fig. 3.19a. Caso 3: a) Desempeo de la seal controlada NPC.L

46 50 53 54 54 55 56 56 57 57 58 59 60 61 62 63 65 65 66 67

L is t a d e F igu r as

Fig. 3.21. Fig. 3.22. Fig. 3.23. Fig. 3.24. Fig. 3.25. Fig. 3.26.

Caso 4: Evolucin de la magnitud de tensin del nodo controlado. Caso 4: Desempeo de la seal controlada NPC. Caso 4: Magnitud de voltajes nodales del EPS. Caso 5: Evolucin de la magnitud de tensin del nodo controlado. Caso 5: Magnitud de voltaje nodo 7 y 8 cuando se presenta una falla trifsica. Caso 5: Magnitud de voltaje nodo 6 y 9 cuando se presenta una falla trifsica.

68 68 69 70 70 70

Fig. 4.1. Fig. 4.2. Fig. 4.3. Fig. 4.4. Fig. 4.5. Fig. 4.6. Fig. 4.7. Fig. 4.8. Fig. 4.9. Fig. 4.10. Fig. 4.11. Fig. 4.12. Fig. 4.13. Fig. 4.14. Fig. 4.15. Fig. 4.16. Fig. 4.17. Fig. 4.18. Fig. 4.19. Fig. 4.20. Fig. 4.21. Fig. 4.22. Fig. 4.23. Fig. 4.24. Fig. 4.25.

Sistema de excitacin esttico. Diagrama de bloques de un PSS con dos bloques de atraso-adelanto. Sistema de 3 mquinas y 9 nodos de la WSCC. Controlador B-spline propuesto. Diferencia angular 21, caso 1. Desviacin de velocidad 2, caso 1. a) Magnitud de voltaje del nodo 4; b) Ampliacin de una pequea seccin de la Fig. 4.7a, caso 1. a) Magnitud de voltaje del nodo 5; b) Ampliacin de una pequea seccin de la Fig. 4.8a, caso 1. Diferencia angular 21, caso 2. Desviacin de velocidad 3, caso 2. Potencia activa de la mquina 2, caso 2. Magnitud de voltaje del nodo 4, caso 2. a) Magnitud de voltaje del nodo 5; b) Ampliacin de una pequea seccin de la Fig. 4.13a, caso 2. Magnitud de voltaje del nodo 6, caso 2. Diferencia angular 31, caso 3. Diferencia angular 21, caso 3. Desviacin de velocidad 1, caso 3. Potencia activa de la mquina 1, caso 3. Potencia activa de la mquina 3, caso 3. a) Magnitud de voltaje del nodo 5; b) Ampliacin de una pequea seccin de la Fig. 4.20a, caso 3. Magnitud de voltaje del nodo 6, caso 3. Magnitud de voltaje del nodo 7, caso 3. Magnitud de voltaje del nodo 9, caso 3. Sistema de potencia de 16 mquinas y 68 nodos. Diferencia angular 7,13, caso 4.

75 75 79 79 81 81 82 83 84 84 84 85 86 86 87 87 88 88 88 89 89 90 90 91 92xi

Fig. 4.26. Fig. 4.27. Fig. 4.28. Fig. 4.29. Fig. 4.30. Fig. 4.31. Fig. 4.32. Fig. 4.33. Fig. 4.34. Fig. 4.35. Fig. 4.36. Fig. 4.37. Fig. 4.38. Fig. 4.39. Fig. 4.40. Fig. 4.41. Fig. 4.42. Fig. 4.43. Fig. 4.44. Fig. 4.45. Fig. 4.46. Fig. 4.47. Fig. 4.48. Fig. 4.49. Fig. 4.50. Fig. 4.51. Fig. 4.52. Fig. 4.53. Fig. 4.54.

Diferencia angular 9,13, caso 4. Desviacin de velocidad 6, caso 4. Desviacin de velocidad 12, caso 4. Potencia activa de la mquina 1, caso 4. Magnitud de voltaje del nodo 16, caso 4. Magnitud de voltaje de los nodos 14 y 19, caso 4. Magnitud de voltaje del nodo 21, caso 4. Diferencia angular 1,13, caso 5. Desviacin de velocidad 4, caso 5. Desviacin de velocidad 9, caso 5. Potencia activa de la mquina 5, caso 5. Potencia activa de la mquina 7, caso 5. a) Magnitud de voltaje del nodo 5; b) Ampliacin de una pequea seccin de la Fig. 4.38a, caso 5. Magnitud de voltaje del nodo 24, caso 5. Diferencia angular 5,13, caso 6. Diferencia de velocidad 6, caso 6. Potencia activa de la mquina 4, caso 6. Potencia activa de la mquina 6, caso 6. Potencia activa de la mquina 8, caso 6. a) Magnitud de voltaje del nodo 5; b) Ampliacin de una pequea seccin de la Fig. 4.45a, caso 6. Magnitud de voltaje de los nodos 12 y 22, caso 6. Magnitud de voltaje de los nodos 26 y 38, caso 6. Diferencia angular 2,13, caso 7. Diferencia angular 4,13, caso 7. Desviacin de velocidad 1, caso 7. Desviacin de velocidad 7, caso 7. Potencia activa de la mquina 1, caso 7. a) Magnitud de voltaje del nodo 5; b) Ampliacin de una pequea seccin de la Fig. 4.53a, caso 7. Magnitud de voltaje del nodos 23, caso 7.

93 93 94 94 94 95 95 96 96 97 97 97 98 98 99 99 100 100 101 101 102 102 103 103 103 104 104 105 105

Fig. 5.1. Fig. 5.2. Fig. 5.3.

Diagrama del circuito equivalente de un motor de DC. Evolucin de la velocidad del motor a plena carga. El voltaje se desconecta en t = 1.91 seg. Lazo de control de un motor de DC conectado en derivacin.

113 116 116

xii

L is t a d e F igu r as

Fig. 5.4. Fig. 5.5. Fig. 5.6. Fig. 5.7. Fig. 5.8. Fig. 5.9. Fig. 5.10. Fig. 5.11. Fig. 5.12. Fig. 5.13. Fig. 5.14. Fig. 5.15. Fig. 5.16. Fig. 5.17. Fig. 5.18. Fig. 5.19. Fig. 5.20.

Esquema de control de un motor de DC con un controlador B-spline. Cambio del valor de referencia para la velocidad del motor de DC de 110 a 188.49 rad/seg. Desempeo de la velocidad cuando se desconecta la carga al sistema y el valor de referencia es 188.49 rad/seg. Evolucin de la velocidad cuando se reconecta la carga, siendo la referencia de 188.49 rad/seg. Sistema elctrico de potencia de laboratorio. Prototipo del StatCom. Carga trifsica resistiva e inductiva conecta al sistema de potencia de la Fig. 5.8. Forma de onda en terminales del transformador de acoplamiento generada por la fuente convertidora de voltaje del dispositivo StatCom. Caso 1. Voltaje y corriente de la fase a en terminales del transformador de acoplamiento, (a) controlador neuronal; (b) controlador PI. Caso 1. Potencia reactiva que inyecta el dispositivo StatCom a la red elctrica. Caso 1. Potencia reactiva que inyecta el generador a la red elctrica. Caso 2. Voltaje y corriente de la fase a en terminales del transformador de acoplamiento, (a) controlador neuronal; (b) controlador PI. Caso 2. Aumento en una seccin de la Fig. 5.15, (a) controlador neuronal; (b) controlador PI. Caso 2. Corriente inyectada por el StatCom al sistema. Caso 3. Voltaje y corriente de la fase a en terminales del transformador de acoplamiento, (a) controlador neuronal; (b) controlador PI. Caso 3. Potencia reactiva que absorbe el StatCom de la red elctrica. Caso 3. Corriente inyectada por el generador al sistema. Convergencia del i-simo modo natural, i (t ) , que se adapta empleando una regla de gradiente descendente con ( 1 i ) < 1 (se ajusta una forma exponencial para unir los puntos). Un conjunto singular de datos de entrenamiento (una ecuacin con dos valores desconocidos). El vector de pesos inicial se proyecta ortogonalmente en el hiperplano de solucin.

117 118 118 118 119 120 121 121 122 122 123 123 124 125 125 126

126

Fig. A.1

Fig. A.2

133 140

xiii

xiv

! Mjtub!ef!Bdspojnpt!

!AC ACD ANN AVR BP CONV DC DSP EPS FACTS IGBT LMS MIMO MLPN MSE NPC PI PSS PWM RBFN Alternating Current Adaptive Critic Design Artificial Neural Network Automatic Voltage Regulator Backpropagation Conventional Linear Controller Direct Current Digital Signal Processing Electric Power System Flexible AC Transmission System Insulated Gate Bipolar Transistor Least Mean Squares Multiple Input - Multiple Output Multilayer Perceptron Neural Network Mean Square Error Non-linear Predictive Control Proportional - Integral Power System Stabilizer Pulse Width Modulation Radial Basis Function Neural Network

SISO SMIB StatCom VSC

Single Input - Single Output Single Machine Infinite Bus Static Synchronous Compensator Voltage Source Converter

xvi

!Mjtub!ef!wbsjbcmft!

!a bi

ey fi hii iE jkAk l m n na

Salida de la funcin de activacin de la red neuronal Valor de umbral de la red neuronal Error instantneo Funcin de activacin de la red neuronal Regla de propagacin de la red neuronal i -simo elemento Corriente que inyecta o absorbe el StatCom al sistema de potencia Nmero imaginario 1 Ganancia del sistema de excitacin Constantes Nmero de entradas en las redes B-spline Entrada de control del esquema PWM Nmero de nodos del sistema Nmero de salidas pasadas utilizadas en la red neuronal Nmero de entradas pasadas utilizadas en la red neuronal Nmero de generadores Tiempo de retardo Nmero de nodos de carga

nb ng nknr

pr ris t u v DC v w x xi

x' x1 x3 y y

B C DCD E' E fd

F H I J JoK L M N N1N2

NuNz

R Ra Rf

Nmero de salidas de funciones base de las redes B-spline Resistencia Puntos interiores de control de las funciones base de las redes B-spline Variable para la transformada de Laplace Tiempo Entrada de control Voltaje en el capacitor del StatCom Magnitud de voltaje Peso sinptico Reactancia i -sima entrada de la red neuronal Reactancias transitorias Constantes Salida actual del sistema Salida de la red neuronal Constante viscosa de la friccin Capacitancia del capacitor del StatCom Factor de amortiguamiento Voltajes transitorios internos del generador Voltaje de excitacin Condiciones de operacin del sistema de potencia Constante de inercia Intervalo de una variable de las entradas de las redes B-spline Funcin de desempeo del MSE Funcin objetivo de la ley de control Orden de las funciones base de las redes B-spline Inductancia Es la constante de inercia Funcin base de las redes B-spline Horizonte de prediccin mnimo Horizonte de prediccin mximo Horizonte de control Nmero de muestras empleadas para el entrenamiento Valor de referencia Resistencia de armadura Resistencia de campo Potencia activa

P

xviii

QS T TA

Te Tm T' Vs

i a e g p u vi w zi

Potencia reactiva Potencia aparente Constante de tiempo Constante de tiempo del sistema de excitacin Par electromagntico Par mecnico Constantes de tiempo transitorias a circuito abierto Seal de salida de los PSSs Incremento ngulo de control del esquema PWM ngulo de fase del voltaje nodal Diferencia angular Posicin angular del rotor Puntos de control de las redes B-spline Puntos exteriores de control de las funciones base de las redes B-spline Eigenvalor Relacin de aprendizaje Factor de penalizacin Velocidad angular Vector de salidas de las funciones base Matriz de error Matriz de gradiente Vector de relacin cruzada Vector de entradas de control Eigenvector derecho Vector de pesos Eigenvector izquierdo Vector de estados del sistema de potencia Matriz de estado Matriz de estado aumentada Matriz de perturbacin Matriz Hessiana Vector de inyecciones de corriente Jacobiano Matriz unitaria de eigenvectores Matriz de autocorrelacin Vector de voltajes nodales Matriz de admitancias nodalxix

x A ~ A Ep

H I J QR V Y

Matriz de pesos y umbrales Vector de parmetros ajustables de la red neuronal

xx

! Dbqjuvmp!2

!! Jouspevddjpo

!1.1 AntecedentesUn sistema elctrico de potencia se compone de tres entidades principales: los sistemas de generacin, los sistemas de transmisin, y los sistemas de distribucin. La produccin de energa elctrica la realizan los generadores, se consume por las cargas, y se transporta de los generadores a las cargas a travs del sistema de transmisin. Los sistemas de transmisin son las entidades que realizan la unin entre las estaciones de generacin y los sistemas de distribucin, y pueden intercambiar energa con otros sistemas de potencia. En la actualidad la operacin de los sistemas de potencia es compleja, debido al rpido incremento de las cargas y a la diversidad de conexin y desconexin de stas; del mismo modo, su estructura general tiene las fuentes de potencia y las cargas ampliamente dispersas. Asimismo, se reducen los mrgenes de seguridad, con altas prdidas debido al incremento en la demanda y las restricciones en la construccin de nuevas lneas de transmisin. Sin embargo, algunos sistemas de transmisin de alto voltaje operan por debajo de sus lmites trmicos debido a restricciones, tal como lmites de voltaje y estabilidad. Adems, en la mayora de los casos, los sistemas de transmisin tradicionales que son altamente interconectados no estn diseados para los requerimientos de control complejos. Por otro lado, en los sistemas de potencia modernos se ha incrementado el intercambio de grandes cantidades de energa a largas distancias y por lo regular se ven sometidos a un crecimiento continuo en sus interconexiones. Usualmente, se emplean agentes de control que

proporcionan control local en diferentes lugares de la red elctrica a travs de los estabilizadores de sistemas de potencia, reguladores automticos de voltaje (Automatic Voltage Regulators, AVRs), dispositivos FACTS, etc. Estas tecnologas y controles, han ayudado a mitigar problemas de inestabilidad. Por ejemplo: de voltaje, de frecuencia y han disminuido las oscilaciones inter-rea del pasado. No obstante falta mucho por hacer. Esta situacin global requiere la revisin de los mtodos de anlisis y prcticas tradicionales, en la creacin de nuevos conceptos que podran permitir el uso de lneas de transmisin y generacin existentes, y llevarlas a su mxima capacidad sin reducir la seguridad y estabilidad de la red elctrica. Otra razn que est forzando a la revisin de mtodos tradicionales de transmisin y control es la tendencia de los sistemas de potencia modernos a seguir los cambios en la economa globalizada de hoy en da, aspectos que estn llevando a la desregulacin del mercado de la generacin y transmisin de potencia elctrica para generar y transportar la potencia deseada, estimulando la competitividad entre industrias elctricas. En la actualidad, se han propuesto esquemas adaptativos de control no-lineal, que ayudan a resolver los errores de modelado, disturbios y dinmicas especficas sin modelar, establecindose como una alternativa con caractersticas particulares que permiten su empleo en la planeacin, operacin y control de los sistemas de potencia con una alta eficiencia. Algunas tcnicas modernas denominadas sistemas inteligentes, que se utilizan en el rea de control y modelado son: redes neuronales, lgica difusa, algoritmos genticos, sistemas expertos, etc. De estos modelos, la simplicidad y aplicabilidad de las redes neuronales las hace una opcin con perspectivas prometedoras para su estudio, anlisis, desarrollo y aplicacin en el rea de los sistemas de potencia. Esto se debe entre otras causas, a su capacidad de poder operar con: gran cantidad de informacin; no linealidades existentes; relaciones que se tienen entre los patrones de entrada-salida, as como evaluacin de la estabilidad y problemas de prediccin de carga.

1.2

Motivacin del empleo de redes neuronales

En los sistemas de potencia se requiere de la operacin continua y apropiada para el suministro de energa, esto se puede conseguir entre otras cosas, con una adecuada precisin en la planeacin de: el equipo interconectado; comportamiento dinmico del sistema; y la correcta identificacin de los lmites de operacin. Para ello, se requiere de mtodos precisos que puedan manejar ese conocimiento y dirigirlo al diseo de sistemas de potencia, econmicos y seguros. Los sistemas inteligentes ofrecen una interesante alternativa por su desempeo en modelado dinmico y anlisis de estabilidad, que puede proporcionar considerable valor y un nuevo entendimiento. Se puede decir, que los sistemas inteligentes pueden emplearse para cubrir los complejos requerimientos de los sistemas de potencia y eliminar las limitantes que se

2

I n tr oducc i n

presentan con el uso de los mtodos analticos tradicionales. Estos nuevos modelos se refieren al conocimiento basado en el sistema, donde se pueden utilizar los conocimientos de personal especializado para la operacin, planeacin y control de la red elctrica. La evaluacin de sistemas inteligentes ha mostrado que las tcnicas basadas en redes neuronales pueden ser de gran ayuda para la evaluacin de la estabilidad de sistemas de potencia [1], debido a su habilidad de generalizar y aprender de informacin histrica. Recientemente, se ha incrementado la atencin a las redes de neuronas artificiales (Artificial Neural Networks, ANNs) para modelar sistemas no lineales y disear controladores. La estructura de estos modelos se forma por un arreglo uniforme de unidades bsicas de clculo interconectadas entre s. Despus de seleccionar su estructura, las interconexiones se ponderan mediante un entrenamiento, para aproximar el comportamiento entrada-salida de un sistema dinmico. El algoritmo proporciona una reduccin en la complejidad de la descripcin sobre modelos derivados por medio de leyes fsicas. Los esquemas neuronales tienen la habilidad de identificar el modelo de sistemas desconocidos mediante un conjunto de datos que relacionan la(s) entrada(s) y la(s) salida(s). Las ANNs son sistemas de procesamiento paralelo distribuido compuestos por elementos de procesamiento no lineal, que se desempean de manera similar a las funciones ms elementales de las neuronas biolgicas. Por ejemplo, poseen la habilidad de aprender de la experiencia, generalizar a partir de ejemplos previos, y resumir informacin pertinente de muestras que contienen informacin irrelevante o incompleta. Las ANNs no son adecuadas para tareas matemticas simples, como puede ser, el clculo de la cada de tensin en un alimentador. Sin embargo, ayudan a resolver un gran nmero de problemas de reconocimiento de patrones, que son computacionalmente difciles o imposibles de resolver por medio de programas iterativos convencionales. Algunas ventajas del empleo de redes neuronales son: 1. Tienen la habilidad de aprender y construir un modelo no lineal complejo a travs de un conjunto de muestras entrada-salida. La arquitectura de la red permite un fcil entrenamiento sin la necesidad de un modelo estructurado. 2. Se pueden agregar o eliminar fcilmente variables de entrada. Se pueden emplear datos correlacionados o no. 3. Las redes neuronales tienen una capacidad de filtrado. Pueden tratar con situaciones inciertas que se presenten en el proceso con efectividad. 4. Las redes neuronales se ejecutan rpidamente. Se puede seleccionar un aprendizaje fuera de lnea o en lnea de bajo costo computacional. 5. Las ANNs consisten de un gran nmero de unidades de procesamiento en paralelo que se pueden implementar utilizando hardware de propsito general o especial. Las redes neuronales son capaces de identificar y controlar sistemas variantes en el tiempo con mltiples entradas - mltiples salidas (Multiple Inputs - Multiple Outputs, MIMO), como losC a p t u l o 1 3

turbogeneradores [2]. Estos modelos con un entrenamiento continuo en lnea pueden seguir la dinmica del sistema, siendo su identificacin adaptable a los cambios en las condiciones y punto de operacin. En la literatura, se ha reportado control ptimo no lineal para sistemas y procesos complejos basados en diseos adaptables crticos [3]. Esto se debe, a la capacidad de los modelos neuronales de tratar con sistemas complejos, que incluyen no linealidades, operando en ambientes altamente inciertos. Asimismo, se han desarrollado investigaciones en el rea de control, principalmente a travs de un neurocontrol, con resultados promisorios [4-5]. Estos modelos se han empleado para resolver diferentes tipos de problemas en la operacin y planeacin de sistemas de potencia, especialmente para evaluar la prediccin de estabilidad, prevencin de inestabilidad, rangos de contingencia, etc. Los requerimientos del sistema para desarrollar o asignar este tipo de algoritmos son los siguientes: 1. Habilidad para identificar los estados del sistema. 2. Selectividad de controles. 3. Habilidad de aprender para actualizar el conocimiento. 4. Coordinacin de tareas. 5. Flexibilidad. 6. Habilidad para tratar con situaciones inciertas.

1.3

Aplicaciones

Debido a la naturaleza altamente compleja en el modelado y control de sistemas de potencia, en la actualidad se sigue desarrollando el empleo de algoritmos neuronales en actividades de planeacin, operacin y control. Las redes neuronales ofrecen una alternativa para los controladores convencionales como controladores adaptativos no lineales. Se han reportado trabajos que emplean redes de perceptrn multicapa y redes de funcin radial en el control adaptativo de sistemas de potencia, comparando su desempeo con los controladores convencionales [2-3, 6-7]. Se han empleado los modelos neuronales para disminuir los requerimientos computacionales para anlisis de seguridad dinmica de la red elctrica respecto a los mtodos tradicionales, estos estudios son: estabilidad de voltaje y de ngulo, [1, 8-10]. Estas tcnicas emplean las redes neuronales como parte del controlador y sirven para determinar la seal controlada mejorando la estabilidad del sistema; los resultados se comparan con los obtenidos mediante los controladores convencionales. Adems, se han empleado las ANNs para determinar el control adecuado de estabilizadores de sistemas de potencia que amortigen las oscilaciones de baja frecuencia, mejorando la estabilidad del sistema [11-14]. En algunos casos el entrenamiento del modelo neuronal se realiza en lnea, analizando las ventajas que se presentan bajo este esquema. En lo que respecta a la electrnica de potencia, se realiza el control con un esquema de modulacin por ancho de pulso (Pulse Width Modulation, PWM) de convertidores como4

I n tr oducc i n

fuente de voltaje trifsica (Alternating Current/Direct Current, AC/DC) empleando redes neuronales B-spline con entrenamiento en lnea [15]. Asimismo, la aplicacin para control de dispositivos FACTS se realiza mediante redes neuronales, emplendolas como parte integral del esquema de control [16-17]. Tambin se ha reportado la implementacin en hardware de redes neuronales para control de sistemas de potencia en laboratorio, empleando para ello como parte sustantiva los procesadores digitales de seales (Digital Signal Processors, DSPs), sustituyendo el empleo de reguladores automticos de voltaje [18]. Permitiendo tambin, la implementacin en hardware de ANNs en la deteccin de fallas en lneas de transmisin para proteccin en tiempo real [19]. En general por las investigaciones realizadas, se ha intensificado el desarrollo de modelos neuronales para mejorar el desempeo de los sistemas de potencia teniendo la posibilidad de considerar no linealidades y situaciones inciertas que no se contemplan con las tcnicas tradicionales. Extendiendo su aplicacin en el control de dispositivos FACTS permitiendo mejorar la estabilidad de los EPSs, considerando adems PSSs y realizando una comparacin global con los resultados obtenidos con tcnicas tradicionales, y en algunos casos la implementacin en hardware de las redes neuronales. En lo que respecta a implementaciones de dispositivos StatCom con sus diferentes estructuras y capacidades se puede encontrar un gran nmero de literatura, sin embargo, todos los esquemas de control se basan en tcnicas convencionales PI [20-25].

1.4

Contribuciones

En este trabajo se analizan dos clases de redes neuronales para su empleo en el modelado y control de sistemas elctricos de potencia; se detalla el diseo y se examinan resultados al aplicar modelos neuronales. Se obtiene un desempeo satisfactorio de los modelos propuestos y se constituyen como una herramienta prctica para su aplicacin. El desarrollo del estudio se enfoca principalmente hacia una posible implementacin fsica, generando un extenso marco de referencia para su ampliacin a otros dispositivos de control. Se realiza una discusin de las caractersticas y desempeo de los modelos neuronales empleados, que permite llegar a conclusiones importantes del empleo de tcnicas convencionales y algoritmos neuronales. Se utiliza un compensador esttico sncrono para controlar el voltaje en un nodo del EPS que permite evaluar el desempeo de los controladores neuronales propuestos. Para el desarrollo de los controladores neuronales se analiza el modelo dinmico del StatCom y se explica el procedimiento de diseo del algoritmo neuronal. Los resultados se comparan respecto a los controladores convencionales, mencionando sus diferencias desde el diseo hasta su aplicacin, y estableciendo consideraciones bsicas para su desarrollo e implementacin. A partir de este anlisis se observa el gran potencial de las redes neuronales para su aplicacin en sistemas de control, con un entrenamiento continuo en lnea y en tiempo real, debido a su estructura simple y de fcil manejo.

C a p t u l o 1

5

Se disean controladores neuronales para regular un dispositivo StatCom en un sistema de potencia multimquinas que proporcione robustez, bajo costo computacional, efectividad y facilidad en la implementacin para obtener el punto de ajuste deseado. Permitiendo de forma natural, una interaccin positiva entre el StatCom y los PSSs instalados en el sistema mejorando el perfil de voltaje en nodos vecinos y la estabilidad transitoria de la red elctrica. El empleo de redes neuronales B-spline hace posible todo lo anterior eliminando limitantes de las tcnicas convencionales de control, al considerar las no linealidades de la red elctrica y dinmicas sin modelar, adems de poder agregar conocimientos del sistema real en el procedimiento de diseo del modelo. Se demuestra la efectividad del controlador neuronal propuesto mediante sistemas de potencia multimquinas donde se tienen instalados PSSs previamente sintonizados, posteriormente se incluye un dispositivo StatCom en la red analizando su evolucin y comparando los resultados con el controlador convencional PI. Con el objetivo de mostrar la parte prctica del controlador neuronal B-spline se realiza la implementacin en tiempo real con un entrenamiento continuo en lnea, de dos sistemas de menor dimensin y complejidad que los EPSs, sin embargo, con los resultados obtenidos se exhibe la aplicabilidad del modelo propuesto. Estos sistemas son: el control de velocidad de un motor de corriente continua y el control de voltaje en un nodo de una red elctrica mediante un dispositivo StatCom en laboratorio.

1.5

Estructura del trabajo

Este trabajo se desarrolla considerando cuatro partes. En la primera parte, captulo 2, se realiza una introduccin a las redes de neuronas artificiales mencionando su naturaleza y la semejanza con el elemento funcional bsico del sistema nervioso de los seres humanos, la neurona. Analizando su principio de funcionamiento con sus principales caractersticas y alcances describiendo el procedimiento de diseo para la aplicacin de est tcnica, enfatizando sus dos modos de operacin: el de aprendizaje o entrenamiento y el de ejecucin o recuerdo. Mostrando las ventajas y simplicidad que proporciona el empleo de los modelos neuronales en la etapa de diseo, con la posibilidad de agregar informacin a priori que se tenga de la aplicacin en particular. Se estudia una clase particular de redes neuronales denominadas Bspline detallando una parte fundamental de su buen desempeo, las funciones base. Al definirlas se pueden establecer algunas de las caractersticas atractivas de ste enfoque, debido a que permiten acotar las entradas del sistema. Con su correcta definicin se consigue construir un modelo estable, esto se justifica mediante un anlisis de estabilidad y convergencia del algoritmo y su regla de aprendizaje, por la importancia que tienen esta clase de redes neuronales en este trabajo, se exponen los principales resultados de los autores M. Brown and C. Harris en

6

I n tr oducc i n

este tema en el apndice A, para ms detalles vase [26]. Se explica la regla de aprendizaje que se utiliza para el entrenamiento bajo la consideracin de que el entrenamiento es continuo y en lnea. Discutiendo que una de las caractersticas que se busca con esta tcnica es permitir que el algoritmo se adapte al problema en particular a travs del entrenamiento, permitiendo de igual manera su generalizacin para diversos escenarios que se presenten en la aplicacin. Para concluir con el desarrollo y consideraciones bsicas generales, se explican dos ejemplos del modelado con redes neuronales. En los dos casos se presentan diferentes modelos neuronales. Sin embargo, el procedimiento de diseo es de caractersticas muy semejantes, permitiendo establecer reglas bsicas en este proceso. De la misma forma el procedimiento de entrenamiento se basa en una seal de error que permite determinar los parmetros ptimos de las redes neuronales empleadas, explicando cada una de las reglas de aprendizaje que se utilizan para cada ejemplo. En la segunda parte del trabajo, captulo 3, se aplican las redes neuronales al control de voltaje en sistemas elctricos de potencia. Los sistemas que se presentan tienen la inclusin de un StatCom. Por tal motivo, se define el modelo de la red elctrica con el dispositivo para propsito de anlisis dinmico. Se comienza con un sistema bsico denominado mquina barra infinita, que permite aplicar el control predictivo no lineal. Asimismo, se establece el algoritmo de este tipo de control que se basa en un modelo neuronal que realiza la tarea de determinar predicciones de la salida del sistema. La ley de control se define por medio de una funcin objetivo a minimizar y se considera el algoritmo Levenberg Marquardt, (captulo 2) para realizar esta labor. Establecidos los modelos matemticos del sistema y el algoritmo de control, se presentan dos aplicaciones: el control de voltaje del sistema mquina barra infinita y un sistema de 3 mquinas y 9 nodos, ambos con un StatCom instalado en un nodo. Se expone el modelo de una red elctrica multimquinas con el dispositivo. Se explica el procedimiento de diseo para los modelos neuronales de los sistemas, considerando su etapa de entrenamiento y ejecucin. Se detallan los resultados obtenidos al aplicar el algoritmo de control ante diferentes escenarios del sistema, estableciendo un control robusto. En la tercera parte, captulo 4, se realiza el control neuronal de voltaje en sistemas de potencia multimquinas. A diferencia del captulo 3, para este control se emplean las redes neuronales Bspline, que presentan caractersticas y perspectivas importantes para su implementacin en lnea. Para ejemplificar el empleo de las B-spline se proponen como controladores de un dispositivo StatCom en sistemas multimquinas. Los resultados que se obtienen permiten establecer criterios de diseo e implementacin, exhibiendo ventajas del empleo de estos modelos para las tareas de control respecto al convencional PI. Los resultados de control de voltaje y su impacto en la estabilidad transitoria del sistema se comparan con los obtenidos con el controlador convencional PI, demostrando su simplicidad y desempeo ptimo adaptndoseC a p t u l o 1 7

adecuadamente a los diferentes escenarios a los que se ve sometida la red elctrica. El controlador neuronal se adapta de forma natural al sistema de potencia con PSSs previamente instalados, mejorando el desempeo del EPS. Para el captulo 5 se exhibe la aplicacin del control neuronal B-spline en tiempo real para dos sistemas, si bien no son de la misma dimensin y complejidad de los sistemas analizados en los captulos 3 y 4, permiten conocer la aplicabilidad del modelo neuronal propuesto. Por lo tanto, se muestran los resultados al implementar: un motor de corriente directa y un dispositivo StatCom en laboratorio. Las grficas que se presentan son mediciones de las diferentes variables de los sistemas que ejemplifican los resultados obtenidos en laboratorio demostrando la aplicabilidad de la estrategia de control propuesta.

1.6[1]

ReferenciasJames A. Momoh, Mohamed E. El-Hawary. Electric Systems, Dynamics, and Stability with Artificial Intelligence Applications, Marcel Dekker, Inc., 2000. Venayagamoorthy, G.K., Harley, R.G., A continually online trained neurocontroller for excitation and turbine control of a turbogenerator, IEEE Trans. on Energy Conversion, vol. 16, No. 3, pp. 261-269, 2001. Jung-Wook Park, Harley, R.G., Venayagamoorthy, G.K., Adaptive-critic-based optimal neurocontrol for synchronous generators in a power system using MLP/RBF neural networks, IEEE Trans. on Industry Applications, vol. 39, No. 5, pp. 1529-1540, 2003. Quanmin Zhu and Lingzhong Guo, Stable Adaptive Neurocontrol for Nonlinear Discrete-Time Systems, IEEE Trans. on Neural Networks, vol. 15, No. 3, pp. 653-662, 2004. Tsu-Tian Lee, Sisil Kumarawadu, and Jau-Woei Perng, Direct-Adaptive Neurocontrol of Robots with Unknown Nonlinearities and Velocity Feedback, IEEE International Conference on Systems, Man and Cybernetics, vol. 3, pp. 2073-2077, 2005. Shamsollahi, P., Malik, O.P., Direct neural adaptive control applied to synchronous generator, IEEE Trans. on Energy Conversion, vol. 14, No. 4, pp. 1341-1346, 1999. Segal, R., Kothari, M.L., Madnaui, S., Radial basis function (RBF) network adaptive power system stabilizer, IEEE Trans. on Power Systems, vol. 15, No. 2, pp. 722-727, 2000.

[2]

[3]

[4]

[5]

[6]

[7]

8

I n tr oducc i n

[8]

C. M. Lim and Q. Li, An enhanced adaptive neural network control scheme for power systems, IEEE Trans. on Energy Conversion, vol. 12, No. 2, pp. 166-174, 1997. Dash, P.K., Mishra, S., Panda, G., A radial basis function neural network controller for UPFC, IEEE Trans. on Power Systems, vol. 15, No. 4, pp. 1293-1299, 2000. Zebirate, S., Chaker, A., Feliachi, A., Neural network control of the unified power flow controller, IEEE Power Engineering Society General Meeting, vol. 1, pp. 536-541, 2004. Changaroon, B., Srivastava, S.C., Thukaram, D., A neural network based power system stabilizer suitable for on-line training-a practical case study for EGAT system, IEEE Trans. on Energy Conversion, vol. 15, No. 1, pp. 103-109, 2000. Y. Y. Hsu and C. R. Chen, Tuning of power system stabilizers using an artificial neural network, IEEE Trans. on Energy Conversion, vol. 6, No. 4, pp. 612-617, 1991. Y. Zhang, O. P. Malik, and G. P. Chen, Artificial neural network power system stabilizers in multimachine power system environment, IEEE Trans. on Energy Conversion, vol. 10, No. 1, pp. 147-155, 1995. S. Cheng, R. Zhou, and L. Guan, An on-line self-learning power system stabilizer using a neural network method, IEEE Trans. on Power Systems, vol. 12, No. 2, pp. 926-931, 1997. K.W.E. Cheng, H.Y. Wang and D. Sutanto, Adaptive directive neural network control for three-phase AC/DC PWM converter, IEE Proceedings Electric Power Applications, vol. 148, No. 5, pp. 425-430, 2001. Gwang Won Kim, Lee, K.Y., Coordination control of ULTC transformer and STATCOM based on an artificial neural network, IEEE Trans. on Power Systems, vol. 20, No. 2, pp. 580-586, 2005. Chen, D., Mohler, R., Neural-net based control structure with FACTS devices, Proceedings of the 39th IEEE Conference on Decision and Control, vol. 4, pp. 30693074, 2000. Venayagamoorthy, G.K., Harley, R.G., Wunsch, D.C., Implementation of adaptive criticbased neurocontrollers for turbogenerators in a multimachine power system, IEEE Trans. on Neural Networks, vol. 14, No. 5, pp. 1047-1064, 2003.C a p t u l o 1 9

[9]

[10]

[11]

[12]

[13]

[14]

[15]

[16]

[17]

[18]

[19]

Venkatesan, R., Balamurugan, B., A real-time hardware fault detector using an artificial neural network for distance protection, IEEE Trans. on Power Delivery, vol. 16, No. 1, pp. 75-82, 2001. Lehn, P.W., Iravani, M.R., Experimental evaluation of STATCOM closed loop dynamics, IEEE Trans. on Power Delivery, vol. 13, No. 4, pp. 1378-1384, 1998. Yang, Z., Shen, C., Zhang, L., Crow, M.L., Atcitty, S., Integration of a StatCom and battery energy storage, IEEE Trans. on Power Systems, vol. 16, No. 2, pp. 254-260, 2001. Masdi, H., Mariun, N., Bashi, S.M., Mohamed, A., Yusuf, S., Design of a Prototype DStatcom using DSP Controller for Voltage Sag Mitigation, International Conference on Power Electronics and Drives Systems, 2005. vol. 1, pp. 569-574. Li Chun, Jiang Qirong, Xu Jianxin, Investigation of voltage regulation stability of static synchronous compensator in power system, IEEE Power Engineering Society Winter Meeting, 2000, vol. 4, pp. 2642-2647. Han, C., Yang, Z., Chen, B., Song, W., Huang, A.Q., Edris, A.-A., Ingram, M., Atcitty, System integration and demonstration of a 4.5 MVA STATCOM based on emitter turnoff (ETO) thyristor and cascade multilevel converter, 32nd Annual Conference of IEEE Industrial Electronics Society, pp. 1329-1334, 2005. Chun Li, Zhonghong Wang, Xiaojun Ma, Lincheng Xiu., Physical experiments on a /spl plusmn/10 kVAr STATCOM model, IEEE Power Engineering Society 1999 Winter Meeting, vol. 2, pp. 1184-1189. Brown, M., and Harris, C., Neurofuzzy adaptive modeling and control, Prentice Hall, 1994.

[20]

[21]

[22]

[23]

[24]

[25]

[26]

10

! Dbqjuvmp!3

Jouspevddjpo!b!mbt! Sfeft!Ofvspobmft!

!

!2.1. IntroduccinDebido a que las computadoras modernas son muy poderosas, los cientficos e investigadores continan diversificando su empleo, para tareas que son relativamente simples para los humanos. Basado en ejemplos, junto con algunas retroalimentaciones de un maestro, se aprende fcilmente a reconocer la letra A o distinguir un gato de un pjaro. Ms experiencia permite refinar las respuestas y mejorar el desempeo. Este es un ejemplo tpico que ilustra una tarea para la cual la solucin por computadora puede ser difcil. Tradicionalmente, la computadora digital basada en lgica secuencial tiene excelente desempeo en muchas reas, aunque ha sido menos exitosa para otras. El desarrollo de las redes de neuronas artificiales comenz aproximadamente en los aos 50s, motivado por el deseo de entender el cerebro y emular algunas de sus actividades. Se descubri que la codificacin en forma de pulsos digitales con cierta frecuencia proporciona calidad, seguridad y simplicidad en la transmisin de informacin. Los tres conceptos clave de los sistemas nerviosos, que se pretende emular en los artificiales, son: paralelismo de clculo, memoria distribuida y adaptabilidad al entorno [1]. De esta manera, se puede hablar de las ANNs como sistemas paralelos, distribuidos y adaptativos. Estas redes se adaptan fcilmente al entorno modificando su sinapsis, y aprenden de la experiencia, con la posibilidad de generalizar conceptos a partir de casos particulares. En el campo de las redes neuronales se denomina a esta propiedad generalizacin a partir de ejemplos. Las caractersticas de las redes neuronales

biolgicas que sirven como inspiracin para las redes de neuronas artificiales se exhiben en la Fig. 2.1. Las computadoras digitales de alta velocidad hacen factible la simulacin del proceso neuronal. Las redes de neuronas artificiales son modelos computacionales en paralelo que comprenden unidades de procesamiento adaptable interconectadas. Estas redes son implementaciones en paralelo de sistemas dinmicos o estticos no lineales. Una caracterstica muy importante de estas redes es su naturaleza adaptativa, donde aprenden mediante ejemplos reemplazando la programacin en la solucin de problemas. Esta caracterstica hace de tales modelos computacionales adecuados en dominios de aplicacin donde se tiene poco o incompleto entendimiento del problema a resolver, pero donde se tienen disponibles datos de entrenamiento. Otra caracterstica importante es la arquitectura paralela intrnseca que permite un rpido clculo de la solucin cuando las redes se implementan en computadoras digitales en paralelo o, en su caso, cuando se implementan en hardware especializado. La Neurona Artificial es la unidad bsica para la construccin de bloques de procesamiento de una red neuronal. Es necesario entender las capacidades computacionales de stas unidades de procesamiento como un prerrequisito para entender el funcionamiento de una red.Soma Sinapsis Axn

Dendritas

Neuronas de segundo orden

Fig. 2.1. Estructura tpica de una neurona biolgica.

2.2. Redes Neuronales BiolgicasLa neurona es la unidad funcional bsica del sistema nervioso. En la Fig. 2.1 se observa una neurona tpica (del asta anterior de la mdula espinal). Formada por tres partes principales: el soma, que es el cuerpo principal de la neurona; un solo axn, que parte del soma y se incorpora a un nervio perifrico que sale de la mdula espinal y las dendritas, que son numerosas prolongaciones ramificadas del soma, que se extienden hasta 1 mm en las reas medulares12

I n tr oducc i n a las rede s neu ro na le s

circundantes. Las seales de entrada (aferentes) llegan a la neurona a travs de las sinapsis que establecen, sobre todo, las dendritas, aunque tambin el cuerpo celular. El nmero de conexiones sinpticas que mantienen esas fibras de entrada oscila entre unos cientos y doscientos mil. Por el contrario, la seal de salida (eferente) se transmite por el nico axn de la neurona. Dicho axn tiene muchas ramas separadas destinadas a otras partes del sistema nervioso o a la periferia del cuerpo. Un rasgo especial de la mayora de las sinapsis es que la seal se transmite de ordinario solamente en la direccin hacia delante (del axn a las dendritas). Adems las neuronas se disponen en un gran nmero de redes nerviosas con distinta organizacin que determinan las funciones del sistema nervioso. Una de las funciones ms importantes del sistema nervioso consiste en procesar la informacin aferente para elaborar respuestas mentales y motoras adecuadas. Solo una pequea parte de la informacin sensorial importante desencadena una respuesta motora inmediata. Gran parte de los datos restantes se almacena para usarlos ms tarde en la regulacin de los actos motores y en los procesos mentales. El almacenamiento de informacin es el proceso que llamamos memoria. Cada vez que cierta clase de seales sensoriales atraviesan una serie de sinapsis, aumenta la capacidad de dichas sinapsis para transmitir las mismas seales la siguiente ocasin, proceso que se llama facilitacin. En el sistema nervioso central la informacin se transmite principalmente bajo la forma de potenciales de accin nervioso, que pasan uno tras otro por una serie de neuronas. Cada impulso puede adems ser bloqueado al transmitirse desde una neurona a la siguiente, cambiar, y en vez de ser nico convertirse en impulsos repetidos; o integrarse con los impulsos de otras neuronas para dar lugar a modelos complejos de impulsos en las neuronas sucesivas. Todas estas funciones se consideran funciones sinpticas de las neuronas. Sinapsis constituye el punto de unin entre una neurona y la siguiente, determina las direcciones de las seales nerviosas al propagarse por el sistema nervioso [1].

2.3. Redes de Neuronas ArtificialesUna red de neuronas artificiales es un sistema de procesamiento de informacin que tiene ciertas caractersticas de desempeo similar con las redes neuronales biolgicas. Las ANNs han sido desarrolladas como una generalizacin de modelos matemticos del reconocimiento humano o neuronas biolgicas, basadas en las siguientes consideraciones [2-4]: 1. El procesamiento de la informacin ocurre en muchos elementos sencillos denominados neuronas. 2. Las seales circulan entre neuronas a travs de ligas de conexin. 3. Cada una de las ligas de conexin tiene un peso asociado, que en una red neuronal tpica, amplifica la seal transmitida. 4. Cada neurona aplica una funcin de activacin (generalmente no-lineal) a su entrada (suma de seales de entrada ponderadas) para determinar su seal de salida.

C a p t u l o 2

13

Una red neuronal se caracteriza por: (1) su patrn de conexiones entre neuronas (arquitectura); (2) su mtodo de determinar los pesos en las conexiones (algoritmo de entrenamiento o aprendizaje); y (3) su funcin de activacin. Las ANNs consisten de un gran nmero de sencillos elementos de procesamiento llamadas neuronas, unidades, clulas o nodos. Cada una de las neuronas se conecta a otras neuronas por medio de ligas de comunicacin directas, cada una con un peso asociado. Cada neurona tiene un estado interno, llamado su activacin o nivel de actividad, que es una funcin de la entrada que recibe. Tpicamente, una neurona enva su activacin como una seal a diferentes neuronas. Un sistema neuronal se puede considerar que esta compuesto por los siguientes elementos esenciales: Un conjunto de procesadores elementales o neuronas artificiales. Un patrn de conectividad o arquitectura. Una dinmica de activaciones. Una regla o dinmica de aprendizaje. El entorno donde opera. En general, la respuesta de las neuronas biolgicas es de tipo no lineal, caracterstica que se emula en las artificiales. La formulacin de la neurona artificial como dispositivo no lineal constituye una de sus caractersticas ms destacables, y una de las que proporciona un mayor inters a las ANNs, pues el tratamiento de problemas no lineales no suele ser fcil de abordar mediante tcnicas convencionales.

2.3.1. Modelo General de las ANNs Se denomina procesador elemental o neurona a un dispositivo simple de clculo que, a partir de un vector de entrada procedente del exterior o de otras neuronas, proporciona una nica respuesta o salida. Los elementos que constituyen la neurona de etiqueta i, Fig. 2.2, son los siguientes: Conjunto de entradas, x j (t ). Pesos sinpticos de la neurona i, wij que representan la intensidad de interaccin entre cada neurona presinptica j y la neurona postsinptica i. Regla de propagacin ( wij , x j (t )), que proporciona el valor del potencial postsinpticohi (t ) = ( wij , x j (t )) de la neurona i en funcin de sus pesos y entradas.

Funcin de activacin f i (ai (t 1), hi (t )), que proporciona el estado de activacin actualai (t ) = f i (ai (t 1), hi (t )) de la neurona i, en funcin de su estado anterior ai (t 1) y de

su potencial postsinptico actual. Funcin de salida Fi (ai (t )), que proporciona la salida actual yi (t ) = Fi (ai (t )) de la neurona i en funcin de su estado de activacin.14

I n tr oducc i n a las rede s neu ro na le s

Sinapsis

hi =

ai =

yi =

Salida

yii y

Entradas

xj

wij

(wij , xj ) f (hi ) F(ai )Funcin de salida

Regla de propagacin Funcin de activacin

Fig. 2.2. Modelo genrico de neurona artificial.

De este modo, la operacin de la neurona i puede expresarse como yi (t ) = Fi ( f i [ai (t 1), i ( wij , x j (t ))])

(2.1)

Este modelo de neurona formal se inspira en la operacin de la biolgica, en el sentido de integrar una serie de entradas y proporcionar cierta respuesta, que se propaga por el axn. Las variables de entrada y salida pueden ser binarias (digitales) o continuas (analgicas), dependiendo del modelo y aplicacin. Con frecuencia se aade al conjunto de pesos de la neurona un parmetro adicional bi , que se denomina umbral, Fig. 2.3.Neurona ix1 x2

sinapsiswi1

cuerpo celular

xj Entradasxm

wi 2 wij

bi

f ()

axn

yi

wim yii = f

Salida

dendritas

1

(w xij

j

+ bi

)

umbral

Fig. 2.3. Modelo de neurona estndar.

2.3.2. Arquitecturas de Redes Neuronales Generalmente, las neuronas en la misma capa tienen idntico comportamiento. Los principales factores que determinan el comportamiento de una neurona son: la funcin de activacin y el patrn de los pesos en las conexiones sobre las cuales se enva y recibe la seal. El arreglo deC a p t u l o 2 15

neuronas en capas y los patrones de conexin dentro y entre capas se denomina arquitectura de la red. Muchas redes neuronales tienen una capa de entrada en la cual la activacin de cada unidad es igual a una seal de entrada externa. Las redes neuronales se pueden clasificar en unicapa o multicapa. Otra posible clasificacin es en estticas o dinmicas. Se puede definir el nmero de capas de la red como el nmero de capas de pesos interconectadas entre neuronas. Esto se motiva por el hecho de que los pesos en una red contienen informacin extremadamente importante. Se denomina arquitectura a la topologa, estructura o patrn de conexin de una red neuronal. En una ANN los nodos se conectan por medio de sinapsis, esta estructura de conexiones sinpticas determina el comportamiento de la red. En general, las neuronas se suelen agrupar en unidades estructurales que se denominan capas. Las neuronas de una capa pueden agruparse, a su vez, formando grupos neuronales (clusters). Se distinguen tres tipos de capas: a) de entrada, b) de salida, y c) ocultas: Una capa de entrada o sensorial est compuesta por neuronas que reciben datos o seales procedentes del entorno. Una capa de salida es aquella cuyas neuronas proporcionan la respuesta de la red neuronal. Una capa oculta es aquella que no tiene una conexin directa con el entorno.

2.3.3. Modos de Operacin de las ANNs Se distinguen dos modos de operacin en los sistemas neuronales: el modo de recuerdo o ejecucin, y el modo de aprendizaje o entrenamiento. Adems de la arquitectura, el mtodo de ajustar el valor de los pesos (aprendizaje o entrenamiento) es una importante caracterstica de las ANNs. Por conveniencia, se distinguen dos tipos de entrenamiento: supervisado y no supervisado [2-4]. En general existe una til correspondencia entre los tipos de entrenamiento y el tipo de problema que se quiere resolver. En la mayor parte de las ocasiones el aprendizaje consiste simplemente en determinar un conjunto de pesos sinpticos que permita a la red realizar correctamente el tipo de procesamiento deseado. Cuando se construye un sistema neuronal, se parte de un cierto modelo de neurona y de una determinada arquitectura de la red, estableciendo los pesos sinpticos iniciales como nulos o aleatorios. El proceso de aprendizaje es generalmente iterativo, actualizando los pesos una y otra vez, hasta que la red neuronal alcanza el desempeo deseado. Estos trminos describen la forma en que se forman las redes neuronales. El aprendizaje supervisado es el ms comn entre las redes neuronales (tanto el perceptrn de varios niveles como la funcin de base radial son sistemas de aprendizaje supervisado). Las tcnicas de aprendizaje supervisado se emplean para la prediccin, la clasificacin y los modelos16

I n tr oducc i n a las rede s neu ro na le s

de series temporales. Las tcnicas no supervisadas (Red de Kohonen) se utilizan para agrupar los casos similares. La distincin entre aprendizaje supervisado y no supervisado depende de la forma en la cual el algoritmo de entrenamiento emplea la informacin proporcionada del entorno (patrn-clase). El algoritmo supervisado asume la disponibilidad de un maestro o supervisor quien clasifica los ejemplos de entrenamiento en grupos, mientras el no supervisado no lo tiene. La red neuronal con entrenamiento supervisado compara sus predicciones con la respuesta objetivo y aprende de sus errores. En el aprendizaje no supervisado se debe identificar la informacin del entorno como parte de su proceso de entrenamiento. En general, la tarea del aprendizaje no supervisado es ms abstracta y menos definida. La red, por medio de la regla de aprendizaje, puede reconocer regularidades en el conjunto de entradas, extraer rasgos, o agrupar patrones segn su similitud. En el aprendizaje, el estudiante debe: enfocar su atencin; observar la regularidad en el medio; y realizar su hiptesis. Muchos de los algoritmos de aprendizaje (aunque no todos) se basan en mtodos numricos iterativos que tratan de minimizar una funcin de costo, lo que puede dar lugar en ocasiones a problemas de convergencia del algoritmo. La convergencia es una manera de comprobar si una determinada arquitectura, junto a su regla de aprendizaje, es capaz de resolver un problema. En el proceso de entrenamiento es importante distinguir entre el nivel de error alcanzado al final de la fase de aprendizaje para el conjunto de datos de entrenamiento, y el error que la red ya entrenada comete ante patrones no utilizados en el aprendizaje, lo cual mide la capacidad de generalizacin de la red. Muchas veces interesa ms una buena generalizacin que un error muy pequeo en la fase de entrenamiento.

2.4. Generalizacin de una ANNPor generalizacin se entiende la capacidad de la red de dar una respuesta correcta ante patrones que no han sido empleados en su entrenamiento. Existe un error de generalizacin, que se puede medir empleando un conjunto representativo de patrones diferentes a los utilizados en el entrenamiento. De esta manera, se puede entrenar una red neuronal haciendo uso de un conjunto de aprendizaje y comprobar su eficiencia real, o error de generalizacin, mediante un conjunto de pruebas. Al principio la red se adapta progresivamente al conjunto de aprendizaje, acomodndose al problema y mejorando la generalizacin. Sin embargo, puede suceder que el sistema se ajuste demasiado a las particularidades de los patrones empleados en el entrenamiento, aprendiendo incluso del ruido presente, por lo que crece el error que comete ante patrones diferentes a los empleados en el entrenamiento (error de generalizacin). La validacin cruzada consiste en entrenar y validar a la vez para detenerse en el punto ptimo; esta tcnica se utiliza ampliamente en la fase de desarrollo de una red neuronal supervisada.

C a p t u l o 2

17

Los modelos que implementan las redes neuronales son de elevada complejidad, por lo que pueden aprender (memorizar) casi cualquier cosa, motivo por el cual incurren fcilmente en sobre aprendizaje. Una buena consideracin es ajustar el tamao de la red a la complejidad del problema que se esta tratando, debiendo limitar en lo posible su tamao, evitando as la aparicin de sobreentrenamiento. Se ha demostrado que el nmero efectivo de parmetros es generalmente menor que el nmero de pesos [5]. se es el motivo por el que la parada temprana del aprendizaje evita el sobreentrenamiento, pues es equivalente a limitar el nmero de parmetros de la red (sin modificar para nada la arquitectura actual, es decir, el nmero de pesos). La capacidad de generalizacin de la red la determinan en buena medida las siguientes tres circunstancias: (1) la arquitectura de la red, (2) el nmero de ejemplos de entrenamiento, y (3) la complejidad del problema. En conclusin existen dos formas de luchar contra el fenmeno de sobreentrenamiento: la parada temprana y limitar el tamao de la arquitectura de la red.

2.5. Diseo de modelos neuronalesPara analizar el comportamiento y caractersticas generales del procedimiento para disear un modelo neuronal, se presenta en esta seccin un ejemplo de redes neuronales con su respectiva regla de aprendizaje, que establece una base para el desarrollo de otros algoritmos de aprendizaje y finalmente el control neuronal de sistemas elctricos de potencia.

2.5.1. Ejemplo 1 Se desea entrenar una red neuronal que modele un StatCom en estado estacionario, Fig. 2.4. El StatCom es un dispositivo conectado en derivacin que no emplea bancos de capacitores o reactores para producir potencia reactiva como es el caso de otros dispositivos del mismo gnero. El banco de capacitores se usa para mantener un voltaje constante de corriente directa para la operacin del inversor de voltaje. Este dispositivo de compensacin es muy adecuado para el control del voltaje, puesto que rpidamente puede inyectar o absorber potencia reactiva para estabilizar las variaciones de voltaje. La habilidad del StatCom para mantener un nivel de voltaje predeterminado por medio de compensacin de potencia reactiva ha mostrado mejorar la estabilidad transitoria y el amortiguamiento de oscilaciones [6]. Un diagrama simplificado del StatCom conectado a un nodo del EPS se muestra en la Fig. 2.4, los elementos esenciales del StatCom son: un transformador de acoplamiento que se encarga de servir de enlace entre el sistema de potencia y la fuente inversora de voltaje (Voltage Source Converter, VSC), un arreglo trifsico de transistores bipolares de puerta aislada (Insulated Gate Bipolar Transistor, IGBT) que genera la forma de onda de voltaje que se compara con el voltaje del sistema para

18

I n tr oducc i n a las rede s neu ro na le s

realizar el intercambio de potencia reactiva y un capacitor que sirve como una pequea fuente de DC para poder generar la forma de onda de AC, donde vDC es el voltaje en el capacitor.EPSTransformador Transformador de acoplamientoConvertidor

VSC

vCD vDCFig. 2.4. Diagrama simplificado de un StatCom.

La corriente reactiva que fluye hacia adentro o hacia fuera del compensador sncrono depende de la diferencia entre el voltaje del sistema de AC y el voltaje de salida en las terminales del StatCom. Cuando la amplitud de voltaje en las terminales de salida del StatCom es mayor que la amplitud del voltaje del sistema de AC, la corriente fluye del inversor del StatCom hacia el sistema; esto es, el inversor genera potencia reactiva (capacitiva) para el sistema de AC. Por otro lado, si la amplitud de voltaje de salida del StatCom disminuye por debajo del voltaje del sistema de AC, la corriente reactiva fluye del sistema de AC al inversor del StatCom; esto es, el inversor absorbe potencia reactiva (inductiva). Si el voltaje de salida es igual al voltaje del sistema de AC, la potencia intercambiada es cero. Algunas de las ventajas del empleo de compensacin en derivacin con control son las siguientes: La compensacin en derivacin proporciona control directo del voltaje; esto es de gran valor cuando existe poco soporte de reactivos en el rea de carga. Los reactores en derivacin se pueden requerir para la compensacin de cargas ligeras. Los dispositivos de compensacin en derivacin proporcionan control rpido de sobrevoltajes temporales. El modelo bsico en estado estacionario del StatCom incluye la representacin del mismo a travs de una rama en derivacin compuesta por una fuente ideal de voltaje. El StatCom se trata tpicamente de un controlador de potencia reactiva en derivacin, asumiendo que puede ajustar su potencia reactiva para controlar la magnitud de voltaje en sus terminales. Por lo tanto, si se asume que no entrega ni absorbe potencia activa al sistema [7], se puede agregar al modelo

C a p t u l o 2

19

un nodo ficticio de tipo PV , Fig. 2.5, en el que se asigne P = 0 y una magnitud de voltaje v fic = vdeseado . Para este sistema se crea una red neuronal que calcule las condiciones de la fuente convertidora de voltaje del StatCom vE y E para que maneje (absorba o entregue) una cantidad de potencia reactiva Qref , y cero activos, dada la magnitud y fase del voltaje en terminales del nodo de la red vk y k , al que se conecta el dispositivo. Es importante mencionar que la cercana del nodo ficticio respecto al nodo de la red depende de la impedancia del transformador de acoplamiento, rE + jxE . Es decir, mientras menor sea el valor de la impedancia ms cerca se encuentra el nodo ficticio al sistema. Este modelo desprecia las prdidas en las conexiones del transformador y las prdidas causadas por el inversor de voltaje.

SEP

EPS

v vtk t kiE

rE + xE RE + jjX E

vfic

vE ESTATCOM

StatCom

Fig. 2.5. Modelo en estado estacionario del StatCom.

De la Fig. 2.5 se puede obtener la ecuacin de la corriente que circula del k-simo nodo del sistema hacia el StatCom (el k-simo nodo representa el nodo del sistema donde se encuentra conectado el dispositivo) que es,v v iE = k E rE + jxE_ _

(2.2)

La potencia neta del StatCom se define comoS E = v E iE_ _

(2.3)

donde la potencia real y reactiva se obtienen de (2.3), resultandoS E = PE + jQE

(2.4)

20

I n tr oducc i n a las rede s neu ro na le s

Si se sustituye la ec. (2.2) en (2.3) se llega a _ _ v vE S E = vE t rE jxE _

(2.5)

Sustituyendo las magnitudes y ngulos de fase del voltaje en el nodo de la red y el nodo del StatCom se tiene v ( k ) vE ( E ) S E = vE E k rE jxE

(2.6)

Reduciendo (2.6) la ecuacin resultante esSE =2 vE vk ( E k ) vE rE jxE

(2.7)

Sustituyendo la forma rectangular de los voltajes, agrupando trminos comunes y considerando la ec. (2.4) se obtiene la potencia real y reactiva comoPE = rE vE (vk cos vE ) xE vE vk sin 2 rE2 + xE xE vE (vk cos vE ) + rE vE vk sin 2 rE2 + xE

(2.8)

QE =

(2.9)

donde = E k . Los datos entrada-salida para el entrenamiento de la red neuronal del ejemplo 1 se obtienen a partir de la solucin de las ecs. (2.8)-(2.9). Este conjunto de datos se determinan al dejar fija la magnitud del voltaje en terminales del nodo del EPS y hacer variar su fase, esto con el fin de estimar cmo se debe modificar el voltaje de la VSC, de modo que la QE que maneja la fuente sea constante ( QE = Qref ), siendo la potencia real del StatCom cero,PE = 0 . En consecuencia, se propone que la red neuronal tenga dos entradas: la primera es la

potencia reactiva de referencia del StatCom ( QE = Qref ), y la segunda la fase del voltaje en el nodo del EPS donde se conecta el dispositivo de compensacin. Asimismo, se tienen dos salidas: la magnitud y fase del voltaje en el nodo del StatCom, que permitan mantener la magnitud de voltaje en el nodo del EPS en el valor deseado, en este caso 1.018 en por unidad (pu). Al analizar el rango de [-0.4, 0.4] pu para la potencia reactiva que aporte o absorba el dispositivo de compensacin, se considera que los datos adecuados para entrenar la redC a p t u l o 2 21

neuronal al resolver las ecs (2.8) y (2.9), se resumen en la Tabla 2.1, y son suficientes para cubrir el rango total.Tabla 2.1. Valores para el entrenamiento de la red neuronal, ejemplo 1.vk

Entradas para la ANNQref

Salidas de la ANN (objetivos)vE

Valor fijo pu 1.018

k

E

pu 0.4 0 -0.1

rad [0.0175, 0.0698] [0.0175, 0.0698] [0.0175, 0.0698]

pu 1.0452 1.0180 1.0109

rad [0.0103, 0.0627] [0.0175, 0.0698] [0.0193, 0.0716]

Una vez definido el nmero de entradas y salidas de la red neuronal, solo se necesita definir el nmero de capas ocultas (si es necesario) y el nmero de neuronas por capa para tener completamente definida la estructura de la ANN. El procedimiento que se emplea para generar la estructura adecuada de la red es tomando un modelo compacto de neuronas, analizando su respuesta y finalmente agregar neuronas hasta alcanzar un buen desempeo. Para este caso se propone emplear una red neuronal del tipo perceptrn multicapa que tiene una arquitectura constituida por tres capas, una capa de entrada, una oculta y una de salida como se muestra en la Fig. 2.6. En este modelo se propone emplear dos funciones de activacin, una sigmoide logartmica para la capa oculta y otra lineal de salida.

w1,1

b1 1

a1wL1,1 wL2,1

x1w3,1 w1, 2

w2,1

b12

1 y1

w2, 21 b2

a2

wL1, 2

x2

wL1,3

wL2, 2wL2,3

2 b2

2 y2

w3, 2

1 b3

a3

Fig. 2.6. Estructura de la red neuronal propuesta para el ejemplo 1.

La salida para cada una de las neuronas de la red neuronal se define como: 1) Para la i-sima neurona de la capa oculta n ai = f 1 wij x j + bi1 j =1 22

(2.10)

I n tr oducc i n a las rede s neu ro na le s

2) Para la i-sima neurona de la capa de salida n yi = f 2 wLij a j + bi2 j =1

(2.11)

donde n es el nmero de entradas a la neurona; f 1 (.) es la funcin sigmoide logartmica; f 2 (.) es la funcin lineal. El algoritmo de aprendizaje empleado en este ejemplo es el denominado de retropropagacin. Este algoritmo es una generalizacin de la regla de aprendizaje Widrow-Hoff para redes multicapa y funciones de transferencia diferenciables no lineales. El trmino retropropagacin se refiere a la manera de determinar el gradiente para la red multicapa no lineal. Existen algunas variaciones en el algoritmo bsico que se basan en otras tcnicas de optimizacin estndar, en este ejemplo se utiliza el denominado Levenberg-Marquardt. Este algoritmo es similar al mtodo quasi-Newton, pero sin tener que calcular la matriz Hessiana. Cuando la funcin de desempeo tiene la forma de una suma de cuadrados, entonces la matriz Hessiana se puede aproximar como [1-2, 8], H = JT J y el gradiente se puede calcular de la forma, g = JT e (2.13) (2.12)

donde J es el jacobiano, que contiene la primer derivada de los errores de la red, respecto a los pesos ( wij ) y al umbral ( bi ), y e es el vector de errores de la red. La matriz jacobiana se calcula a travs de tcnica de retropropagacin estndar que es menos complejo que calcular la matriz Hessiana. El algoritmo Levenberg-Marquardt emplea esta aproximacin para la matriz Hessiana y se obtiene la siguiente actualizacin, t +1 = t [ J T J + I ] 1 J T e (2.14)

siendo t es el vector de pesos y umbrales actuales. Cuando el trmino es cero, la ec. (2.14) es el mtodo de Newton. En este caso disminuye despus de cada paso exitoso y se incrementa nicamente cuando tentativamente un paso incrementa la funcin de desempeo. Una vez definida la estructura de la red y la regla de aprendizaje ec. (2.14), se procede a entrenar el modelo neuronal tomando los valores para las entradas y los valores de las salidas (objetivos)

C a p t u l o 2

23

definidos en la Tabla 2.1, obteniendo as los valores ptimos de la ANN. El desempeo de la regla de aprendizaje durante el entrenamiento se aprecia en la Fig. 2.7, quedando en evidencia el buen comportamiento de la red con la estructura seleccionada y los datos de entrada-salida.

Desempeo 9.99962e-15, meta 1e-14100

10

-2

Meta Entrenamiento

10

-4

MSE

10

-6

10

-8

10

-10

10

-12

10

-14

0

1000

2000

3000

4000 5000 9273 Epochs

6000

7000

8000

9000

iteraciones

Fig. 2.7. Evolucin del entrenamiento de la red neuronal propuesta para el ejemplo 1 con una meta de 1e-14.

Como se puede apreciar, el desempeo deseado para la red neuronal se alcanza aproximadamente en 9273 iteraciones llegando el error a un valor de 9.99e-15, definido entre la diferencia de los valores objetivos (Tabla 2.1) y la salida de la red ec. (2.11), empleando la regla de aprendizaje definida por la ec. (2.14). La red neuronal ya entrenada es capaz de determinar el valor de salida para algn par de valores que se le asignen al vector de entrada. En la Tabla 2.2, se muestra el desempeo de la red neuronal propuesta para el ejemplo 1, con diferentes entradas aplicadas. Observndose claramente que los valores estimados que se obtienen a la salida son iguales o muy cercanos a los esperados por el sistema real. Los valores empleados para las entradas no se emplearon para el entrenamiento, adems de observar el comportamiento del modelo neuronal con valores fuera del rango establecido tanto para la potencia reactiva Qref como para el ngulo k en el entrenamiento. Los valores de la Tabla 2.2 (parte sombreada), muestran un error mayor a los obtenidos con valores dentro del rango (primeros cuatro valores), sin embargo, el error es muy pequeo y no presenta una diferencia considerable respecto a los valores esperados. La Tabla 2.3, presenta los valores ptimos obtenidos para los pesos y el umbral de la red neuronal entrenada para el ejemplo 1. Como se puede observar, algunos valores de los pesos son cero, esto indica que esas conexiones entre neuronas se pueden eliminar sin afectar el desempeo global de la red neuronal. Se tiene como consecuencia un menor nmero de operaciones para calcular la salida de la red, as como simplificar la complejidad del modelo neuronal.

24

I n tr oducc i n a las rede s neu ro na le s Tabla 2.2. Desempeo de la red neuronal entrenada ante diferentes entradas para el ejemplo 1.vk

EntradasQref

Valor fijok

Salidas de la ANN ec. (2.25)vE

Salidas esperadasvE

E

E

pu 1.018

pu -0.1 -0.4 0.2 0.3 -0.3 -0.1 -0.5

rad 0.0698 0.0175 0.0244 0.0349 0.5 0.2 0.18

pu 1.0109 0.9892 1.0318 1.0386 0.9966 1.0109 0.9818

rad 0.0716 0.0250 0.0208 0.0295 0.5008 0.2017 0.1893

pu 1.0109 0.9892 1.0318 1.0386 0.9965 1.0109 0.9817

rad 0.0716 0.0250 0.0208 0.0295 0.5056 0.2018 0.1895

Tabla 2.3. Pesos sinpticos y valores de umbral determinados por la regla de aprendizaje para el ejemplo 1. Meta 1e-14 Capa de entrada Pesos y umbral Capa de salida

w1,1 w1, 2 w2 ,1 w2 , 2 w3,1 w3, 21 b1 1 b2

0.0015 -2.4377 0.0005 -0.8714 0.2180 0.0000 -5.0567 0.1227 1.4820

wL1,1 wL1, 2 wL1,3 wL 2 ,1 wL2 , 2 wL 2 ,3 b122 b2

0.0000 0.0000 2.1296 -1.0920 -4.5292 -0.5359 -0.7173 2.8469

b

1 3

Para desarrollar el modelo neuronal se utiliz el Neural Network Toolbox de Matlab.

2.6. Redes neuronales B-splineUna cualidad de las redes neuronales es que son un aproximador universal, esto implica que se pueden entrenar para modelar funciones lineales o no-lineales con el grado de precisin que se requiera. Las reas de aplicacin de las redes neuronales son muy extensas comenzando con el modelado de sistemas de diferente naturaleza, pasando por el control de dichos sistemasC a p t u l o 2 25

pudiendo ser SISO o MIMO, hasta llegar en los ltimos aos su empleo en aplicaciones de la electrnica de potencia [9-10]. En general, una de las principales ventajas del uso de redes neuronales en control es su implementacin, debido a que permiten reducir la complejidad y costo computacional de algunos controladores no lineales y mejoran el desempeo de los controladores diseados con tcnicas convencionales. En el caso particular de las B-spline, son un tipo particular de redes neuronales que permiten modelar y controlar sistemas en lnea con una gran simplicidad en los clculos de la seal de control. Con el entrenamiento de la ANN en lnea, la ley de control se adapta en cada momento. A diferencia del entrenamiento de una red fuera de lnea, que presenta desventajas debido a que se debe realizar previamente un entrenamiento y, posteriormente cuando se implementa, si se modifica la condicin de operacin, llevar a cabo otro entrenamiento (en lnea) [10]. Por otro lado, las tcnicas convencionales de redes neuronales en aplicaciones de identificacin y control requieren establecer en ocasiones una estructura multicapa de neuronas, Fig. 2.8, lo que incrementa la complejidad; en contraparte, las redes B-spline eliminan esta limitante con su estructura de tres capas, Fig. 2.9, convirtindolas en una alternativa con perspectivas importantes. Una vez que se fijan las funciones base, el entrenamiento de estos sistemas es de convergencia cuadrtica, si el criterio de error es una funcin cuadrtica. Es decir, su estructura global tiene buen desempeo en trminos de convergencia y anlisis de estabilidad. Existe una gran diversidad de funciones base, una de ellas es la funcin de base radial [11]. Para esta tcnica es difcil definir lo correspondiente a su centro y al contorno de la funcin base. Una posibilidad es definir la funcin base como una funcin spline cbica (tambin conocida

iw1,1

x1

1,1

1

lw2,1

1,1

1

lw3, 2

1,1

1

y1

x2

2

2

2

y2

. . .xniw1,1s1 , n

. . .sl12 1 lw2,1 s , s

. . .s2 mlw3, 2s3 , s2

. . .s3 q

. . . ys 33

Fig. 2.8. Representacin de una red neuronal de tres capas.

como tcnica spline adaptativa de mltiple regresin) [12]. Esta tcnica tiene como desventaja el empleo de algoritmos especiales para determinar los valores ptimos de los vectores de puntos de control [11]. Otra opcin es el empleo de las funciones B-spline como funciones26

I n tr oducc i n a las rede s neu ro na le s

base. Estas producen una representacin polinomial para determinar su forma estableciendo primeramente el vector de puntos de control, lo que representa una gran ventaja de este tipo de funciones respecto a la diversidad de funciones base existente.

x (t )

a1

a2a3 a4

w1 w2 w3 w4 y (t )Salida de la ANN

w p2 a p2 a p 1ap

..

w p 1wpVector de pesos

Espacio de entrada normalizado

Funciones base

Fig. 2.9. Representacin esquemtica de una red B-spline.

2.6.1. Modelo neuronal B-spline A semejanza de las redes neuronales convencionales (perceptrn, perceptrn multicapa, Adalina, BK, etc.) se requiere definir su estructura, en este caso compuesta por tres capas, que son: 1) un espacio l-dimensional de entradas normalizado; 2) un conjunto de funciones base p ; 3) la salida de la red, Fig. 2.9. Uno de los elementos medulares a definir en la estructura de estas redes son las funciones base, que se definen a partir de un conjunto de vectores con puntos de control (knot vector), Fig. 2.10, que pueden incorporar conocimiento previo de la planta por parte del diseador. Las funciones base B-spline se obtienen utilizando una relacin recurrente derivada de [13-14], son numricamente estables, computacionalmente eficientes, y pueden tratar con cualquier distribucin estratgica de puntos de control. Los vectores de puntos de control se deben especificar para cada uno de los ejes de entrada, debido a que se tiene la posibilidad de trabajar con funciones base monovariable o funciones base multivariable. Estos valores determinan el tamao y la forma de las funciones base y se establecen por el usuario (si se tiene un conocimiento previo del sistema). En la Fig. 2.11, se muestra la definicin de los puntos de control para el caso de una funcin base multivariable de dos dimensiones. Como se puede ver en las Figs. 2.10-2.11, los vectores se componen deC a p t u l o 2 27

x1min

x1max

1, 2

1, 1Puntos exteriores

1, 0

1,1

1, 2 1,3 1, 4Puntos interiores

1,5

1, 6 1, 7 1,8Puntos exteriores

Fig. 2.10. Vector de puntos de control para un espacio de entrada unidimensional ( l = 1 ), ri = 5 y i = 3 .

puntos interiores y exteriores [15]. Los puntos interiores, i , j , ( j = 1, . . ., ri , i = 1, . . ., l ) cumplen con la siguiente relacin,ximin < i ,1 i , 2 ... i ,ri < ximax

(2.15)

donde ximin y ximax definen los valores mnimos y mximos de la i-sima entrada, respectivamente.

Puntos exteriores Puntos interiores Puntos exteriores

2 , 6 2 , 5 2 , 4 2 , 3x2

2, 2 2,1

2, 2 2, 1 2, 0

1, 1

1,0

1,1

1, 2 x1

1,3

1, 4

Puntos exteriores

Puntos interiores

Puntos exteriores

Fig. 2.11. Puntos de control de dos dimensiones ( l = 2 ), donde el rea sombreada representa el espacio de entrada. Puntos exteriores equidistantes para el eje 1 y coincidentes para el segundo.

Para seleccionar los puntos exteriores se tienen dos posibilidades, la primera es considerar los puntos exteriores igual al valor final, y la segunda es seleccionarlos en intervalos equidistantes al punto final, ambas estrategias se aprecian en la Fig. 2.11. Es decir, el conjunto i de puntos exteriores se relacionan conforme a,i , ( 1) ... i , 0 = ximin ,i

ximax = i ,ri +1 ... i ,ri +i

(2.16)

28

I n tr oducc i n a las rede s neu ro na le s

El espacio de entrada de la red se define en el dominio establecido por los valores mnimos ymin max mximos, [x1min , x1max ]K [xn , xn ] , por lo tanto los puntos exteriores sirven nicamente

para definir la funcin base y los extremos del espacio de entrada. El espacio que existe entre cada uno de los puntos del vector se denomina intervalo, donde el j -simo intervalo de una variable en el i-simo eje se denota por I i , j y se define como,

I i, j =

[ [

i, j 1,i, j

) i, j 1,i, j ]

para j =1K, ri , sij = ri +1

(2.17)

2.6.2. Funciones base monovariable A partir de los puntos de control que se definen por el diseador, la j -simo funcin base de orden K monovariable se denota por N Kj (.), y se define por los siguientes trminos de recurrencia [15]: x j K j N K ( x) = jK j 1 j 1 j x j N K 1 ( x) + N K 1 ( x) j K +1 j

(2.18) 1 if x I j N1j ( x) = 0 otro caso

donde j es el j-simo punto de control e I j = [ j 1 , j ) es el j-simo intervalo. Una vez definido el vector de puntos de control y empleando la ec. (2.18), se crean las funciones base monovariable, un ejemplo de ello son las funciones de orden K = 1, , 4, que se aprecian en la Fig. 2.12; se puede ver que la funcin se vuelve ms suave conforme se incrementa su orden.

2.6.3. Funciones base multivariable Una funcin base multivariable se forma tomando el producto tensorial de l funciones base monovariable, donde una y solamente una funcin base monovariable se define en cada eje de entrada. Debido a que las funciones base multivariable se forman a partir de las funciones base monovariable, ec. (2.18), conservan de forma natural todas sus propiedades y cualidades. La jj sima funcin B-spline multivariable N K se genera a partir de l funciones base monovariable j N K ,i ( xi ) , (i = 1, K , l ) :

C a p t u l o 2

29

j j N K (x ) = N K ,i ( xi ) i =1

l

(2.19)

donde cada funcin multivariable se calcula empleando un conjunto diferente de funciones base monovariable, y K es un vector de enteros l -dimensional que contiene el orden de cada una de las funciones base de una variable, K i . Por lo tanto, el orden de las funciones base monovariable determina la suavidad de la funcin multivariable y en consecuencia la salida de la red. A p