Optimización multivariable sen restricións · Optimización multivariable sen restricións 3...

34
VICERREITORÍA DE ESTUDANTES, CULTURA E FORMACIÓN CONTINUA Enxeñaría Química Simulación e Optimización de Procesos Químicos Marta Carballa Arcos Departamento de Enxeñaría Química Escola Técnica Superior de Enxeñaría (ETSE) 3 Optimización multivariable sen restricións

Transcript of Optimización multivariable sen restricións · Optimización multivariable sen restricións 3...

Vicerreitoría de estudantes, cultura e formación continua

Unha colección orientada a editar materiais docentes de calidade e pensada para apoiar o traballo do profesorado e do alumnado de todas as materias e titulacións da universidade

Enxe

ñaría

Quí

mic

a

Simulación e Optimización de Procesos Químicos

Marta Carballa ArcosDepartamento de Enxeñaría Química

Escola Técnica Superior de Enxeñaría (ETSE)

3

Optimización multivariable sen restricións

97

88

49

88

79

00

1

ISBN 978-84-9887-900-1

Optimización multivariable sen restricións

3

Marta Carballa ArcosDepartamento de Enxeñaría Química

Escola Técnica Superior de Enxeñaría (ETSE)

ADVERTENCIA LEGAL: reservados todos os dereitos. Queda prohibida a duplicación, total ou parcial desta obra, en calquera forma ou por calquera medio (elec-trónico, mecánico, gravación, fotocopia ou outros) sen

consentimento expreso por escrito dos editores.

Copyright © Universidade de Santiago de Compostela, 2012

DeseñoUnidixital

EditaVicerreitoría de Estudantes,

Cultura e Formación Continua da Universidade de Santiago de Compostela

Servizo de Publicaciónsda Universidade de Santiago de Compostela

ImprimeUnidixital

Servizo de Edición Dixital da Universidade de Santiago de Compostela

Dep. Legal: C 1129-2012 ISBN 978-84-9887-900-1

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 3

MATERIA: Simulación e Optimización de Procesos Químicos TITULACIÓN: Enxeñaría Química PROGRAMA XERAL DO CURSO Localización da presente unidade didáctica Bloque I. Optimización de procesos químicos Unidade I. Introdución á optimización

Funcións obxectivo Funcións continuas e descontinuas Funcións unimodais e multimodais Convexidade e non convexidade Clasificación de algoritmos de programación Métodos analíticos de busca de puntos óptimos

Unidade II. Optimización univariable sen restricións Determinación dunha rexión óptima

Métodos uniformes Métodos secuenciais

Determinación de puntos próximos ó óptimo Métodos directos (D.S.C., Powell e D.S.C.-Powell) Métodos indirectos (Newton-Radhson e secante)

Comparación dos métodos Unidade III. Optimización multivariable sen restricións

Métodos directos Método do seccionamento Método símplex secuencial Método de Hooke-Jeeves Método de Nelder-Mead

Métodos indirectos Métodos do gradiente (simple, Cauchy, Fletcher-Reeves) Método de Newton Métodos Quasi-Newton (D.F.P., B.F.G.S.)

Criterios de selección de métodos Unidade IV. Optimización con restricións

Programación lineal Método gráfico Algoritmo símplex Análise de sensibilidade Problemas de transporte e transporte con transbordo Problemas de asignación

Programación non lineal Método do gradiente reducido xeneralizado

Unidade V. Introdución á análise de redes Algoritmo do camiño máis curto (algoritmo Dijkstra) Algoritmo de fluxo máximo (algoritmo Ford-Fulkerson) Algoritmo da árbore de expansión mínima Algoritmos de planificación de proxectos (estratexias CPM e PERT)

Unidade VI. Optimización de procesos estocásticos Cadeas de Markov

4- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

Teoría de Chapman – Kolmogorov Cadeas absorbentes Probabilidades estacionarias Procesos de decisión Markovianos

Unidade VII. Programación dinámica Principio de optimalidade de Bellman Programación dinámica determinística Programación dinámica probabilística

Bloque II. Análise e simulación de procesos Unidade VIII. Introdución e principios da análise e simulación de procesos

Modelos Estratexia secuencial modular versus estratexia modular simultánea

Unidade IX. Representación da estrutura de sistemas Tipos de variables, graos de liberdade Diagramas de fluxo de información Algoritmos de selección de variables en unidades individuais e procesos

Unidade X. Matrices booleanas Sistema e subsistemas Estratexia de descomposición Métodos de partición e rotura Algoritmos de converxencia

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 5

ÍNDICE Presentación ....................................................................................... 7 Os obxectivos ..................................................................................... 7 A metodoloxía ..................................................................................... 8 Os contidos ......................................................................................... 8 1. Métodos de busca directa .............................................. 10 1.1. Método do seccionamento ............................. 10 1.2. Método símplex secuencial ............................ 11 1.2.1. Regras do símplex secuencial .......... 11 1.2.2. Procedemento matemático ............... 12 1.2.3. Precisión ............................................ 13 1.3. Método de Hooke-Jeeves ............................... 13 1.3.1. Movementos exploratorios ................ 13 1.3.2. Movementos de aceleración ............. 14 1.3.3. Criterio de finalización ....................... 14 1.4. Método de Nelder-Mead ................................. 14 1.4.1. Procedemento matemático ............... 14 1.4.2. Criterio de finalización ....................... 15 2. Métodos de busca indirecta ........................................... 16 2.1. Métodos do gradiente ..................................... 16 2.1.1. Método do gradiente simple .............. 16 2.1.2. Método de Cauchy ............................ 16 2.1.3. Método de Fletcher-Reeves .............. 16 2.2. Método de Newton .......................................... 17 2.3. Métodos Quasi-Newton .................................. 17 2.3.1. Método D.F.P. ................................... 17 2.3.2. Método B.F.G.S. ................................ 18 3. Criterios de selección de métodos ................................. 18 Actividades propostas ..................................................................... 19 Avaliación da UD ……… .................................................................... 19 Anexos ..................................................................... 20 Anexo 1 ..................................................................... 20 Anexo 2 ..................................................................... 21 Anexo 3 ..................................................................... 22 Anexo 4 ..................................................................... 24 Anexo 5 ..................................................................... 26 Anexo 6 ..................................................................... 27 Anexo 7 ..................................................................... 27 Anexo 8 ..................................................................... 28 Anexo 9 ..................................................................... 28 Anexo 10 ..................................................................... 30 Bibliografía ..................................................................... 31

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 7

PRESENTACIÓN Esta Unidade Didáctica (en diante UD) pertence ó bloque I da materia troncal “Simulación e Optimización de Procesos Químicos” de 5º de Enxeñaría Química. No bloque I abórdase a optimización de procesos químicos e nesta UD tratarase a optimización de procesos químicos de dúas ou máis variables (optimización multivariable) nos que non existan restricións.

Aínda que na realidade a maioría dos procesos industriais están sometidos a certas restricións (de recursos limitados, de produtividade mínima, etc.), unha simplificación inicial para abordar a optimización destes procesos é eliminar estas restricións. Por outra banda, hai moi poucos procesos que estean controlados por unha única variable (presión, temperatura, caudal, etc.), e polo tanto, a optimización multivariable é o caso máis común.

Nesta UD preséntanse os algoritmos matemáticos máis importantes para a optimización dunha función multivariable (función obxectivo, F.O.), incluíndo tanto aqueles métodos baseados en valores da propia F.O. (métodos directos) como os métodos que utilizan a primeira e/ou segunda derivada da F.O. ou matrices inversas (métodos indirectos). A UD está enfocada ó emprego práctico dos conceptos e métodos que servirán non só para esta materia senón tamén para a súa aplicación noutras disciplinas da titulación, e no desenvolvemento profesional do alumno como enxeñeiro químico.

A duración estimada é de 7 horas (7 sesións de 1 hora), 5 horas de teoría e 2 horas de seminario.

OS OBXECTIVOS Nesta UD preténdese infundir ó alumno, ademais dunha serie de coñecementos e capacidades para formular problemas de optimización de procesos químicos, os seguintes obxectivos específicos:

• Obxectivo 1. Coñecer os diferentes algoritmos matemáticos de optimización multivariable sen restricións.

• Obxectivo 2. Aplicar correctamente un algoritmo de optimización

multivariable.

• Obxectivo 3. Adquirir as ferramentas necesarias para seleccionar o algoritmo de optimización máis axeitado para a resolución dun problema determinado.

• Obxectivo 4. Relacionar coñecementos e ferramentas estudados de forma individualizada noutras materias coa optimización de procesos químicos.

8- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

OS PRINCIPIOS METODOLÓXICOS Os contidos da UD impartiranse mediante:

• Clases expositivas: leccións maxistrais expositivo-interrogativas. A explicación dos contidos será con enfoque completamente “práctico-aplicado”, e apoiarase en presentacións audiovisuais. Dado o carácter práctico da unidade, estimularase aos alumnos para que participen activamente nas clases.

• Seminarios: leccións interactivas nas que se resolverán algúns problemas dos boletíns (os máis representativos ou nos que os alumnos presenten dúbidas). O alumnado deberá traballar os boletíns de problemas antes do seminario, de tal xeito que neste se aclaren todas as dúbidas xurdidas durante a resolución. Estes seminarios serán moi útiles para intentar ver o grao de asimilación da materia por parte do alumnado. Nalgún seminario solicitarase a entrega dun problema do boletín, que será utilizado para a avaliación continua do alumnado.

Ademais, o alumnado disporá dunha serie de ferramentas de apoio para

o correcto seguimento da unidade didáctica: • Materiais en liña: disporase dunha plataforma web onde se subirá

todo o material empregado nas clases e seminarios (diapositivas, boletíns de problemas, casos prácticos resoltos).

• Horas de titoría: nas que o profesor solucionará dúbidas puntuais de forma individualizada.

De entrada non existe ningún prerrequisito para poder cursar esta UD.

Con todo, dado que no proceso de resolución dos problemas se fai uso de derivadas, cálculo matricial e resolución de sistemas de ecuacións, considérase recomendable que o estudante repase estes conceptos matemáticos. Ademais, como a resolución manual dalgúns algoritmos é bastante complexa, farase uso do software Excel, e polo tanto, é recomendable o manexo deste software por parte do alumnado.

Aínda que non se levará a cabo un control exhaustivo da asistencia, si que se considera indispensable a asistencia a clase e a realización dos problemas dos boletíns para a total comprensión dos distintos conceptos por parte do alumnado. OS CONTIDOS BÁSICOS Nesta UD imos ver a optimización de funcións multivariable sen restricións. Os métodos para resolver este tipo de problemas clasifícanse en dous grandes grupos (Figura 1):

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 9

• Métodos de busca directa (métodos directos): son os que avalían a F.O. directamente.

• Métodos de busca indirecta (métodos indirectos): son os que avalían ó menos a primeira derivada da F.O.

Figura 1. Esquema dos métodos de optimización multivariable sen

restricións.

Dentro dos métodos de busca directa, imos ver: • Método do seccionamento: transforma o problema multivariable nun

problema univariable, xa que se basea na realización de buscas paralelas ós eixos.

• Método símplex secuencial: algoritmo que optimiza a dirección de busca.

• Método de Hooke-Jeeves: algoritmo que optimiza a distancia de busca.

• Método de Nelder-Mead (poliedro flexible): algoritmo que optimiza a dirección e a distancia de busca.

Optimización multivariable

sen restricións

Métodos directos

Método do seccionamento

Método simplex

secuencial

Método de Hooke-Jeeves

Método de Nelder-Mead

Métodos indirectos

Métodos do gradiente

Método do gradiente siimple

Método de Cauchy

Método de Fletcher-Reeves

Método de Newton

Métodos Quasi-Newton

Método D.F.P.

Método B.F.G.S

10- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

Dentro dos métodos de busca indirecta, imos ver: • Métodos do gradiente: grupo de métodos que utiliza o gradiente da

función obxectivo como dirección de busca. Dentro deste grupo de métodos, estudarase o método do gradiente simple (distancia de busca constante), método de Cauchy (distancia de busca variable) e o método de Fletcher-Reeves ou gradiente conxugado.

• Método de Newton: algoritmo que utiliza matrices inversas.

• Métodos Quasi-Newton: algoritmos derivados do método de Newton que evitan o uso de matrices inversas.

1. Métodos de busca directa (ou métodos directos) Os métodos directos son aqueles que utilizan os valores da propia F.O. no proceso de optimización. A condición necesaria para a aplicación destes métodos é que a F.O. sexa continua.

1.1. Método do seccionamento

Nesta sección explícase o método do seccionamento e aplícase á resolución dun caso práctico (Anexo 1). O método do seccionamento transforma o problema multivariable nun problema univariable, xa que se basea na realización de buscas paralelas ós eixos (optimización dunha variable en cada iteración).

Como datos de partida necesítanse un punto inicial (x0) e un paso (δ) e o procedemento a seguir consiste nas seguintes etapas:

• Definir as variables independentes. Formular o problema de

optimización.

• Fixar todas as variables independentes, agás 1.

• Aplicar un método de optimización univariable (UD II) para optimizar a variable non fixada.

• Comprobar precisión.

• Fixar o óptimo nesa variable e repetir o proceso coas variables restantes.

• Repetir proceso ata que se cumpra a precisión requirida en tódalas variables.

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 11

1.2. Método símplex secuencial

Nesta sección explícase o método símplex secuencial e aplícase á resolución dun caso práctico (Anexo 2). O método símplex secuencial optimiza a dirección de busca mediante o trazado dun poliedro regular (símplex) de n+1 puntos/vértices, sendo “n” o número de variables independentes (ou dimensións). Pero non optimiza a distancia, xa que este poliedro vaise manter constante ó longo de todo o algoritmo.

Este método baséase no movemento do símplex no espazo cara ó óptimo de acordo á seguinte regra: xeración dun novo símplex mediante a proxección do peor dos vértices a través do punto centroide que se calcula co resto dos vértices (excepto o peor) do símplex anterior.

Un parámetro importante é o tamaño do símplex (α), xa que se empezamos cun tamaño moi pequeno, imos ir moi lentos, e se empezamos cun tamaño moi grande, imos ter que cambiar de tamaño de símplex varias veces.

1.2.1. Regras do símplex secuencial

Regra 1. “A cabalo do óptimo”

Se o peor punto para eliminar é o punto xerado a partir do símplex

anterior (é dicir, é o punto reflectido), entón non se elimina o peor punto senón o segundo peor.

Regra 2. “Ciclación” Cando temos un punto común en moitos símplex, isto quere dicir

que estamos a dar voltas ó redor do símplex. Esta regra di que: se temos un punto que aparece repetido máis de M veces, ou ben é o punto óptimo ou estamos nas súas proximidades. Neste último caso, se non alcanzamos a precisión requirida, comézase outra vez o proceso (xeración doutro símplex) considerando como punto inicial o punto “repetido” M veces do símplex anterior (o mellor punto) e cun tamaño de símplex (α) menor. Para o cálculo de M utilízase a seguinte ecuación: M = 1.65·n + 0.05·n2,onde “n” é o número de dimensións ou variables independentes. O valor de M obtido aproximarase ó enteiro superior máis próximo.

Regra 3. “Criterio de finalización” En xeral, o algoritmo termina cando o tamaño do símplex é moi

pequeno ou cando se acadou a precisión requirida. En calquera caso, é necesario especificar o criterio de finalización.

12- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

1.2.2. Procedemento matemático

Como datos de partida necesítanse un punto inicial (x0) e o tamaño do símplex (α) e o procedemento matemático consiste só en 2 tipos de cálculo:

• Construción do símplex inicial.

• Cálculo do punto reflectido e xeración do novo símplex.

Para construír o símplex inicial, calcúlanse primeiro os incrementos

∂1 e ∂2, que dependen do número de variables independentes (n) e do tamaño do símplex (α).

( ) α⋅⎥⎦

⎤⎢⎣

⋅−++

=∂2

11 5,0

1 nnn

( ) α⋅⎥⎦

⎤⎢⎣

⋅−+

=∂2

11 5,0

2 nn

Coñecidos ∂1 e ∂2, xa se poden calcular os diferentes vértices do

símplex da seguinte forma:

xi,j = x0,j±∂1 i = j xi,j = x0,j±∂2 j ≠ i

onde i (puntos/vértices do símplex) = 0........n, j (variables) = 1......n

Exemplo. Construción do símplex inicial para un problema de 2 variables.

Puntos/Variables x1 x2 Observacións

0 x0,1 x0,2 Punto inicial coñecido

1 x1,1 x1,2 x1,1 = x0,1 ± ∂1 x1,2 = x0,2 ± ∂2

2 x2,1 x2,2 x2,1 = x0,1 ± ∂2 x2,2 = x0,2 ± ∂1

Neste caso, non é necesario avaliar o signo (+/-) do incremento

porque imos optimizar a distancia. Se empezamos na dirección “incorrecta”, o propio algoritmo levaranos á dirección correcta.

Para construír o novo símplex, elimínase o peor punto/vértice (xP) e trázase o novo símplex cos “n” puntos restantes (xi) e o punto reflectido (xR), que se calcula coa seguinte ecuación:

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 13

P

n

Pii

iPCR xxn

xxx −⋅=−= ∑≠=0

2·2

onde xC é o punto centroide que se calcula a partir de todos os vértices do simplex, excepto o peor.

∑≠=

⋅=n

Pii

iC xn

x0

1

1.2.3. Precisión

A precisión do método calcúlase a partir dos valores da F.O. nos vértices do último símplex construído.

( ) ( )

n

xfxf21

n

Pi0i

2Ci

⎟⎟⎟

⎜⎜⎜

⎛−∑

≠=

1.3. Método de Hooke-Jeeves Nesta sección explícase o método de Hooke-Jeeves e aplícase á resolución dun caso práctico (Anexo 3). Este método optimiza a distancia de busca, pero non a dirección, e consta de dúas etapas:

• Movementos exploratorios: nesta etapa avalíase o comportamento local da F.O. a partir dun punto base inicial e analizando cada variable por separado (one-variable-at-a-time).

• Movementos de aceleración: esta etapa utiliza a información xerada na etapa anterior para “acelerar/saltar” no espazo de busca e calcular o punto base da fase/iteración seguinte.

1.3.1. Movementos exploratorios

Como datos de partida necesítanse un punto base inicial (x0) e un incremento (δ) e avalíase o comportamento local da función analizando cada variable por separado: xi,j = xi-1,j ± ∂ i = j

xi,j = xi-1,j j ≠ i onde i (puntos) = 0........n, j (variables) = 1......n.

14- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

En cada punto xerado (xik, onde “i” indica o punto e “k” a fase

iteración) hai que avaliar a F.O. (f (xik)). Aplicamos o incremento cun signo

(+/-). Se f (xik) é mellor que f (xi-1

k), o signo aplicado é correcto, fixamos a variable analizada nese novo valor e pasamos a analizar a seguinte variable. En caso contrario, aplicamos o incremento co outro signo. Se f (xi

k) é mellor que f (xi-1

k), o signo aplicado é correcto, fixamos a variable analizada nese novo valor e pasamos a analizar a seguinte variable. En caso contrario, quedamos co valor do punto base e analizamos a seguinte variable. Repítese este proceso tantas veces coma variables teña a F.O.

1.3.2. Movementos de aceleración

Consiste en calcular o punto base da iteración seguinte da seguinte maneira: para N=1, x0,j

1 = 2·xn,j0 – x0,j

0, para N > 1,x0,jN = 2·xn,j

N-1 – xn,jN-2,

onde j = 1……..n son variables e xn,j é o mellor punto obtido nos movementos exploratorios.

1.3.3. Criterio de finalización

O método de Hooke-Jeeves pode rematar na etapa de movementos exploratorios, cando non se atopa ningún punto mellor que o punto base durante a exploración, ou na etapa de movementos de aceleración, cando no “salto” (cálculo do punto base da iteración seguinte) se obtén un punto no que o valor da F.O. empeora (peor que todos os puntos xerados nos movementos exploratorios). Unha vez finalizado o método, hai que calcular a precisión. Se se acada a precisión requirida, o problema está finalizado. En caso contrario, cóllese o mellor punto obtido ata o momento e empézase de novo o método co mesmo incremento ou outro máis pequeno.

1.4. Método de Nelder-Mead Nesta sección explícase o método de Nelder-Mead e aplícase á resolución dun caso práctico (Anexo 4). Este método é similar ó método símplex secuencial, pero optimiza tanto a dirección como a distancia de busca mediante a xeración de poliedros irregulares.

1.4.1. Procedemento matemático

Como datos de partida necesítanse un punto inicial (x0) e o tamaño do símplex (α) e o procedemento matemático consiste nas seguintes etapas:

• Construción do símplex inicial (idéntico ó método símplex, sección

1.2.2.).

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 15

• Identificar o peor punto (xP) e calcular o punto centroide (xC) e o punto reflectido (xR). Estes cálculos son idénticos ó método símplex (sección 1.2.2.).

• Xeración do novo símplex:

• Se o punto reflectido é mellor que todos os vértices/puntos do símplex, calcular o punto de expansión (xE). Se xE é mellor que xR, tomar xE como novo punto para o seguinte símplex xunto cos puntos non rexeitados do símplex anterior.

jCjRjE xxx ,,, 2 −⋅=

• Se o punto reflectido é peor que todos os vértices/puntos do símplex, calcular o punto contracto (xCO). Se xCO é mellor que xP, tomar xCO como novo punto para o seguinte símplex xunto cos puntos non rexeitados do simplex anterior. Se xCO é peor que xP, pasar á etapa de redución.

jPjCjCO xxx ,,, 5,05,0 ⋅+⋅=

• Se o punto reflectido é peor que todos os vértices/puntos do símplex, pero mellor que o peor vértice (é dicir, é o “segundo peor”), sustituir o peor vértice polo punto reflectido e calcular o punto contracto. Se xCO é mellor que xP, tomar xCO como novo punto para o seguinte símplex xunto cos puntos non rexeitados do símplex anterior. Se xCO é peor que xP, pasar á etapa de redución.

• Se non se cumpre ningún dos tres casos anteriores, tomar o punto reflectido como novo punto para o seguinte símplex xunto cos puntos non rexeitados do símplex anterior.

• Etapa de redución. Consiste en volver a empezar o método tomando como punto inicial o mellor punto obtido ata o momento e cun tamaño de símplex (α) máis pequeno.

1.4.2. Criterio de finalización O método remata cando cumpramos co criterio de precisión, que vén

dado pola seguinte ecuación:

[ ]0,51n

1i

2Ci )f(x)f(x·

1n1

⎥⎦

⎤⎢⎣

⎡−

+ ∑+

=

16- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

2. Métodos de busca indirecta (ou métodos indirectos) Os métodos indirectos son aqueles que utilizan a primeira e/ou segunda derivada da F.O. no proceso de optimización. Polo tanto, son aplicables a funcións derivables (polo menos deben ter a primeira derivada).

Todos os métodos indirectos teñen o mesmo método de busca, que vén dado pola seguinte ecuación: xn+1 = xn + αn·S (xn)

A diferenza está no cálculo do salto/paso (α), é dicir, de canto avanzamos (distancia), e da dirección de busca (S). Primeiro calcúlase a dirección de busca e logo o paso.

Como dato de partida, só precisan un punto inicial (x0) e o criterio de finalización é a condición necesaria de punto óptimo, é dicir, ∇f (x*) = 0.

2.1. Métodos do gradiente Os métodos do gradiente son métodos de 1º orde que se

caracterizan por utilizar o gradiente da F.O. como dirección de busca. 2.1.1. Método do gradiente simple Nesta sección explícase o método do gradiente simple e aplícase á

resolución dun caso práctico (Anexo 5). Este método caracterízase por ter un salto (α) que se mantén constante durante todo o método. Polo tanto, a ecuación para xerar novos puntos é a seguinte: xn+1 = xn - α·∇f (xn)

2.1.2. Método de Cauchy Nesta sección explícase o método de Cauchy (ou de

ascenso/descenso rápido) e aplícase á resolución dun caso práctico (Anexo 6). Este método é similar ó método do gradiente simple, coa diferenza de que imos calcular o salto (α) en cada un dos puntos (propiedade local do gradiente). Polo tanto, a ecuación para xerar novos puntos é a seguinte: xn+1 = xn - αn·∇f (xn)

2.1.3. Método de Fletcher-Reeves Nesta sección explícase o método de Fletcher-Reeves e aplícase á

resolución dun caso práctico (Anexo 7). O método de Fletcher-Reeves pertence ó grupo de métodos do gradiente conxugado que son converxentes cuadraticamente, é dicir, métodos que para funcións cuadráticas necesitan tantas iteracións como variables teña a F.O.

Neste método, a dirección de busca (S) vaise calcular a partir da función g, que vén dada por: g = ∇f(x)

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 17

Así, para n = 0 S0 = -g0 = -∇f(x0)

n ≥ 1 121

2

−⋅+−= n

n

nnn S

g

ggS

onde ∑= 2i

n xg é o sumatorio das coordenadas do vector g ó

cadrado. A ecuación para xerar novos puntos é a mesma que para o método

Cauchy: xn+1 = xn - αn·∇f (xn)

2.2. Método de Newton Nesta sección explícase o método de Newton e aplícase á

resolución dun caso práctico (Anexo 8). Este método aparece como resposta ás limitacións dos métodos do gradiente e implica o cálculo de matrices inversas. Pola contra, o salto é constante e igual a 1. Polo tanto, a ecuación para xerar novos puntos é:

( ) )()()(

)( 122

1 nnnn

nnn xfxfx

xfxfxx ∇⋅∇−=

∇∇

−=−+

Este método é moi potente para funcións cuadráticas, xa que cunha iteración é suficiente.

2.3. Métodos Quasi-Newton

Estes métodos reciben este nome porque derivan do método de Newton, pero evitan o cálculo de matrices inversas e de segundas derivadas. A ecuación de busca é a seguinte: xn+1 = xn - αn+1·Hn·∇y(xn), onde α é o paso e H é unha matriz.

Os dous métodos que imos ver (D.F.P. e B.F.G.S.) diferéncianse no método de cálculo de Hn e, ó igual que o método de Fletcher-Reeves, son converxentes cuadraticamente, é dicir, métodos que para funcións cuadráticas necesitan tantas iteracións como número de variables teña a F.O.

2.3.1. Método Davidon-Fletcher-Powel (D.F.P.) Nesta sección explícase o método D.F.P. e aplícase á resolución dun caso práctico (Anexo 9). Neste método, Hnvén dada pola seguinte ecuación: nnnn BAHH ++= −1 , onde H0 = I (matriz identidade) e An e Bn están definidas polas seguintes ecuacións:

18- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

( ) ( )( ) ( ) ( )( )11

11

−−

−−

∇−∇⋅−

−⋅−=

nnTnn

Tnnnnn

xyxyxxxxxxA

( ) ( )( ) ( ) ( )( )( ) ( )( ) ( ) ( )( )111

1111 )(−−−

−−−−

∇−∇⋅⋅∇−∇

⋅∇−∇⋅∇−∇⋅−=

nnnTnn

TnTnnnnnn

xyxyHxyxyHxyxyxyxyHB

2.3.2. Método Broyden-Fletcher-Goldfarb-Shanno (B.F.G.S.)

Nesta sección explícase o método B.F.G.S. e aplícase á resolución dun caso práctico (Anexo 10). Neste caso, Hn vén dada pola seguinte ecuación:

⎥⎥⎦

⎢⎢⎣

⎡⋅

⎥⎥⎦

⎢⎢⎣

⎡+

⎥⎥⎦

⎢⎢⎣

⎡ +−=+

nTn

Tnn

nTn

nnTn

nTn

nTnn

Tnnn

nnHHH

HHγδδδ

γδγγ

γδγδδγ

1

onde: H0 = I (matriz identidade) ∂n = xn+1 - xn

γn = ∇ y (xn+1) - ∇ y (xn) 3. Criterios de selección de métodos En xeral, os parámetros que miden a calidade dun método son: robustez (mide o éxito de atopar a solución óptima cunha determinada precisión), número de iteracións (un método é tanto mellor, cantas menos iteracións precise) e tempo de computación.

A selección do método vai depender do tipo de función que queiramos optimizar; non existe un método único que sexa óptimo para todas as funcións.

O método do seccionamento é o máis sinxelo, pero ten a desvantaxe de ser un método lento, xa que se necesita un número de iteracións considerable por variable para acadar precisións baixas.

Os cálculos do método símplex secuencial son sinxelos e con poucos parámetros, pero as variables deben estar na mesma escala e é un método lento. Pola contra, o método de Nelder-Mead é moito máis rápido, pero os cálculos son máis tediosos.

Dentro dos métodos indirectos, o método do gradiente simple vai sempre á mesma velocidade (α = cte). Isto soluciónase co método de Cauchy, aínda que o número de iteracións non é pequeno se estamos lonxe do óptimo. Porén, o método de Fletcher-Reeves presenta un bo comportamento tanto lonxe como cerca do óptimo. Os métodos de Newton e Quasi-Newton son moi potentes, pero cunha complexidade matemática importante (cálculo matricial).

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 19

ACTIVIDADES PROPOSTAS Distínguense dous tipos de actividades:

• Resolución dos exemplos propostos nos anexos (realizarase durante o horario lectivo).

• Resolución do boletín de problemas previamente á realización dos seminarios.

AVALIACIÓN DA UNIDADE DIDÁCTICA Realizarase dous tipos de avaliación da aprendizaxe do alumnado:

• Avaliación continua: por medio da participación activa nas clases expositivas e seminarios, así como da valoración das actividades entregadas nos seminarios. Insistirase en que non se penalizará a incorrecta resolución do problema, senón que se tratará de avaliar o esforzo realizado.

• Avaliación final conxunta da materia: a avaliación final consistirá nunha suma de valoracións parciais: exame (75%), traballo obrigatorio (15%) e participación en clase (10%).Para a consideración na nota final dos dous ítems últimos será necesario acadar como mínimo un 40% en cada un dos apartados (Optimización e Simulación) do exame. A materia considerarase superada cunha nota final mínima de 5.

A avaliación desta UD estará integrada no exame e na participación en

clase.

20- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

ANEXOS Anexo 1. Aplicación do método do seccionamento Os custos anuais de 3 máquinas (CA, CB e CC) que producen NA, NB e NC unidades ó ano, respectivamente, son: CA(€) = 1200 + 0,06·NA

1,1 CB(€) = 2000 + 0,02·NB

1,3 CC(€) = 600 + 0,002·NC

1,6

Se o número total de unidades producidas nun ano é 400, determinar a produción de cada máquina cunha precisión do 10% para que o custe total sexa mínimo. Solución. Trátase dun problema de 3 variables independentes (NA, NB e NC) onde temos que minimizar o custe total anual (CT = CA + CB + CC) tendo en conta (restrición, s.a. = sometido a) que o número total de unidades producidas nun ano é 400. Polo tanto, o plantexamento do problema sería:

F.O. Mín {3800 + 0,06·NA1,1 + 0,02·NB

1,3 + 0,002·NC1,6}

s.a. NA + NB + NC = 400

Utilízase a restrición de igualdade para converter o problema con restrición nun problema sen restrición (NC = 400 – NA – NB):

F.O. Mín {3800 + 0,06·NA

1,1 + 0,02·NB1,3 + 0,002·(400 – NA – NB)1,6}

Agora temos un problema de optimización sen restricións con dúas

variables independentes: NA e NB. Vaise resolver utilizando o método D.S.C. (UD II) para a optimización univariable, tomando como punto inicial x0 = [70, 100]T e un paso inicial de δ = 10.

NA NB CT

1ª iteración 70

100 3826,40 90 3826,23 70 3826,05 30 3826,47 50 3826,12 74 Precisión = 35% >10% X

2ª iteración

70

74

3826,07 60 3825,97 40 3825,88 0 3826,38 20 3825,98 40 Precisión = 75% >10% X

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 21

NA NB CT

3ª iteración 40 74

D.S.C. δ = 5 74 Precisión = 7% <10% �

4ª iteración 40

74

D.S.C. δ = 5 40 Precisión = 12,5% >10% X

5ª iteración 40

74

D.S.C. δ = 2 40 Precisión = 5% <10% �

A solución sería NA = 40, NB = 74 e NC = 286, dando lugar a un custe

total mínimo de 3825,88 €. Anexo 2. Aplicación do método símplex secuencial Localizar cunha precisión do 2% o máximo da función: y = 100 - (10 – x1)2 – (5 – x2)2, considerando como punto inicial x0 = [0,0]T e un tamaño de símplex α = 2. Solución. Datos de partida: x0 = [0,0]T

α = 2 Cálculo de M: n = 2 (x1 e x2)

M = 3,5 (parar cando un punto repetido 5 veces) Criterio de finalización: precisión = 2% (valor da función) Cálculo de ∂1 e ∂2: ∂1= 1,932

∂2 = 0,518 Desenvolvemento do método símplex secuencial:

Punto x1 x2 y SIMPLEX xP Observacións 0 0 0 -25,00 Punto inicial

1 1,932 0,518 14,81

2 0,518 1,932 0,67 0, 1, 2 0 3 2,449 2,449 36,48 1, 2, 3 2 4 3,864 1,035 46,63 1, 3, 4 1 5 4,381 2,967 64,30 3, 4, 5 3 6 5,796 1,553 70,44 4, 5, 6 4 7 6,313 3,485 84,11 5, 6, 7 5

22- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

Punto x1 x2 y SIMPLEX xP Observacións 8 7,727 2,071 86,25 6, 7, 8 6 9 8,245 4,002 95,92 7, 8, 9 7 10 9,659 2,588 94,07 8, 9, 10 8 11 10,177 4,520 99,74 9, 10, 11 10 Punto óptimo 12 8,763 5,934 97,60 9, 11, 12 9 13 10,695 6,452 97,41 11, 12, 13 12 2ª regra 14 12,109 5,038 95,55 11, 13, 14 13 2ª regra 15 11,591 3,106 93,88 11, 14, 15 FIN 11 repetido 5 veces xC 11,143 4,779 98,65 15

Comprobamos precisión: Pabsoluta = 1,64

Prelativa = 0,016 < 0,02 → FIN

A solución sería: x* = [10,177, 4,520]T y* = 99,74 ± 1,64

Anexo 3. Aplicación do método de Hooke-Jeeves Buscar cunha precisión do 5% o máximo da función y = 3 + 6x1 + 7x2 -7x1

2 + 2x1·x2 -16x2

2, tomando como punto base inicial x0 = [1,2,-0,2]T e un ∂ = 0,05. Solución. Datos de partida: x0 = [1,2,-0,2]T

∂ = 0,05 Desenvolvemento do método de Hooke-Jeeves:

Fase Punto x1 x2 y Observacións

0

x00 1,20 -0,20 -2,4000 Punto inicial

x10 1,25 -0,20 -2,9775 Empeora

x20 1,15 -0,20 -1,8575 Mellora

x30 1,15 -0,15 -1,1125 Mellora (mellor punto)

1

x01 1,10 -0,10 0,05 Melloramos: SEGUIR

x11 1,15 -0,10 -0,4475 Empeora

x21 1,05 -0,10 0,5125 Mellora

x31 1,05 -0,05 1,0875 Mellora (mellor punto)

2

x02 0,95 0,05 2,7875 Melloramos: SEGUIR

x12 0,90 0,05 3,13 Mellora

x22 0,90 0,10 3,45 Mellora (mellor punto)

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 23

Fase Punto x1 x2 y Observacións

3

x03 0,75 0,25 4,6875 Melloramos: SEGUIR

x13 0,70 0,25 4,87 Mellora (mellor punto)

x23 0,70 0,30 4,85 Empeora

x33 0,70 0,20 4,81 Empeora

4

x04 0,50 0,40 4,89 Melloramos: SEGUIR

x14 0,55 0,40 4,8625 Empeora

x24 0,45 0,40 4,8825 Empeora

x34 0,50 0,45 4,61 Empeora

x44 0,50 0,35 5,09 Mellora (mellor punto)

5 x05 0,30 0,45 4,35 Peor que todos: FIN

Comprobamos precisión: Pabsoluta = 0,74 Prelativa = 0,145 > 0,05 → SEGUIR Volver a empezar con outros datos de partida: x0 = [0,50, 0,35]

∂ = 0,05 Desenvolvemento do método de Hooke-Jeeves:

Fase Punto x1 x2 y Observacións

0

x00 0,50 0,35 5,0900 Punto inicial

x10 0,55 0,35 5,0575 Empeora

x20 0,45 0,35 5,0875 Empeora

x30 0,50 0,40 4,8900 Empeora

x40 0,50 0,30 5,2100 Mellora (mellor punto)

1

x01 0,50 0,25 5,2500 Melloramos: SEGUIR

x11 0,55 0,25 5,2075 Empeora

x21 0,45 0,25 5,2575 Mellora (mellor punto)

x31 0,45 0,30 5,2125 Empeora

x41 0,45 0,20 5,2225 Empeora

2 x02 0,40 0,20 5,2000 Peor que todos: FIN

Comprobamos precisión: Pabsoluta = 0,06 Prelativa = 0,011 < 0,05 → FIN A solución sería: x* = [0,45, 0,25]T y* = 5,26 ± 0,06

24- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

Anexo 4. Aplicación do método de Nelder-Mead Localizar cunha precisión do 2% o máximo da función: y = 100 - (10 – x1)2 – (5 – x2)2, considerando como punto inicial x0 = [0,0]T e un tamaño de símplexα = 2. Solución. Datos de partida: x0 = [0,0]T

α = 2 n = 2

Criterio de finalización: precisión = 2% (valor da función)

Cálculo de ∂1 e ∂2: ∂1= 1,932

∂2 = 0,518

Desenvolvemento do método de Nelder-Mead:

1ª iteración Punto x1 x2 y Observacións

0 0 0 -25,00 Peor 1 1,932 0,518 14,81 2 0,518 1,932 0,67 xC 1,225 1,225 8,74 xR 2,449 2,449 36,48 Mellor que todos xE 3,674 3,674 58,23 xE mellor que xR

2ª iteración Punto x1 x2 y Observacións

0 0,518 1,932 0,67 Peor 1 1,932 0,518 14,81 2 3,674 3,674 58,23 xC 2,803 2,096 39,77 xR 5,088 2,260 68,37 Mellor que todos xE 7,374 2,424 86,47 xE mellor que xR

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 25

3ª iteración Punto x1 x2 y Observacións

0 1,932 0,518 14,81 Peor 1 3,674 3,674 58,23 2 7,374 2,424 86,47 xC 5,524 3,049 76,16

Pabsoluta = 21,580 Prelativa = 0,250 > 0,02 → SEGUIR xR 9,116 5,581 98,88 Mellor que todos xE 12,708 8,112 82,98 xR mejor que xE

4ª iteración Punto x1 x2 y Observacións

0 3,674 3,674 58,23 Peor 1 7,374 2,424 86,47 2 9,116 5,581 98,88

Pabsoluta = 12,993 Prelativa = 0,131 > 0,02 → SEGUIR xC 8,245 4,002 95,92 xR 12,816 4,331 91,62 Non é peor que todos, excepto o peor

5ª iteración Punto x1 x2 y Observacións

0 7,374 2,424 86,47 Peor 1 9,116 5,581 98,88 2 12,816 4,331 91,62 xC 10,966 4,956 99,06

Pabsoluta = 4,877 Prelativa = 0,053 > 0,02 → SEGUIR xR 14,558 7,487 73,04 Peor que todos xCO 9,170 3,690 97,59 xCO mellor que xP

26- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

6ª iteración Punto x1 x2 y Observacións

0 12,816 4,331 91,62 Peor 1 9,116 5,581 98,88 2 9,170 3,690 97,59 xC 9,143 4,635 99,13

Pabsoluta = 2,557 Prelativa = 0,026 > 0,02 → SEGUIR xR 5,470 4,940 79,48 Peor que todos xCO 10,979 4,483 98,77 xCO mellor que xP

7ª iteración Punto x1 x2 y Observacións

0 9,170 3,690 97,59 Peor 1 9,116 5,581 98,88 2 10,979 4,483 98,77 xC 10,048 5,032 100,00

Pabsoluta = 0,972 Prelativa = 0,010< 0,02 →FIN

A solución sería: x* = [9,116, 5,581]T y* = 98,88 ± 0,97

Anexo 5. Aplicación do método do gradiente simple Localizar o mínimo da seguinte función: y = 8x1

2 + 4x1x2 + 5x22,

considerando como punto inicial x0 = [10,10]T. Solución. Datos de partida: x0 = [10,10]T Criterio de finalización: ∇y(x*) = 0 Desenvolvemento do método do gradiente simple:

Puntos x1 x2 y y'x1 y'x2 α x0 10 10 1700 200 140 0,056 x1 -1,20 2,16 24,48 -10,56 16,80 x2 -0,61 1,22 7,43 -4,86 9,76 x3 -0,34 0,67 2,26 -2,69 5,38 x4 -0,19 0,37 0,69 -1,49 2,97

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 27

Puntos x1 x2 y y'x1 y'x2 α x5 -0,10 0,21 0,21 -0,82 1,64 x6 -0,06 0,11 0,06 -0,45 0,91 x7 -0,03 0,06 0,02 -0,25 0,50 x8 -0,02 0,03 0,01 -0,14 0,28 x9 -0,01 0,02 0,00 -0,08 0,15 x10 -0,01 0,01 0,00 -0,04≈ 0 0,08≈ 0 FIN

Cálculo de α: x1 = [10 – 200·α, 10 – 140·α]

y(x1) = 530000·α2 – 59600·α + 1700 y’α = 0 →α = 0,056

A solución sería: x* = [-0,01, 0,01]T y* = 0

Anexo 6. Aplicación do método de Cauchy Localizar o mínimo da seguinte función: y = 8x1

2 + 4x1x2 + 5x22,

considerando como punto inicial x0 = [10,10]T. Solución. Datos de partida: x0 = [10,10]T Criterio de finalización: ∇y(x*) = 0 Desenvolvemento do método de Cauchy:

Puntos x1 x2 y y'x1 y'x2 α* x0 10 10 1700 200 140 0,056 x1 -1,20 2,16 24,48 -10,56 16,80 0,123 x2 0,10 0,09 0,16 1,96 1,33 0,056 x3 -0,01 0,02 0,00 -0,09 0,15 0,120 x4 0,00 0,00 0,00 0,02 ≈ 0 0,02 ≈ 0 FIN

*O cálculo de α faise igual que no método do gradiente simple.

A solución sería: x* = [0, 0]T y* = 0 Anexo 7. Aplicación do método de Fletcher-Reeves Localizar o mínimo da seguinte función: y = 4x1

2 + 3x22 - 4x1x2 + x1,

considerando como punto inicial x0 = [0,0]T.

28- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

Solución.

Datos de partida: x0 = [0,0]T Criterio de finalización: Función cuadrática con 2 variables: 2

iteracións

Desenvolvemento do método de Fletcher-Reeves:

Puntos x1 x2 y y' (x1) y' (x2) S (x1) S (x2) α* x0 0 0 0 1 0 -1 0 1/8 x1 -1/8 0 -1/16 0 1/2 -1/4 -1/2 1/4 x2 -3/16 -1/8 -3/32 0 0 FIN

*O cálculo de α faise igual que no método do gradiente simple.

A solución sería: x* = [-3/16, -1/8]T y* = -3/32 Anexo 8. Aplicación do método de Newton Localizar o mínimo da seguinte función: y = 8x1

2 + 4x1x2 + 5x22,

considerando como punto inicial x0 = [10,10]T. Solución. Datos de partida: x0 = [10, 10]T Criterio de finalización: Función cuadrática: 1 iteración Desenvolvemento do método de Newton:

∇y(x) = [16x1 + 4x2, 4x1 + 10x2]

∇2y(x) = 16 44 10

(∇2y(x))-1 = 10/144 4/1444/144 16/144

x1 = [0, 0]T ∇y(x1) = 0→ FIN

A solución sería: x* = [0, 0]T y* = 0 Anexo 9. Aplicación do método D.F.P. Localizar o mínimo da seguinte función: y = 5x1

2 + 2x22 +2x3

2 + 2x1x2 + 2x2x3 -2x1x3 – 6x3, considerando como punto inicial x0 = [0,0,0]T.

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 29

Solución. Datos de partida: x0 = [0,0, 0]T Criterio de finalización: Función cuadrática con 3 variables: 3 iteracións Desenvolvemento do método de D.F.P.:

∇y(x) =

⎥⎥⎥

⎢⎢⎢

−++−++−+

64222422210

321

321

321

xxxxxxxxx

∇y(x0) = [0, 0, -6]T ≠ 0 → SEGUIR

1ª iteración.

x1 = x0 - α1·H0·∇y(x0)

H0 =

100010001

α1 = ¼

x1 = [0, 0, 3/2]T ∇y(x1) = [-3, 3, 0]T ≠ 0 → SEGUIR

2ª iteración. x2 = x1 - α2·H1·∇y(x1)

H1 = H0 + A1 + B1

H1 =

100010001

+

1/400000000

+

2/31/31/31/31/61/6

1/31/61/6

−−−−

H1 =

7/121/31/31/35/61/6

1/31/65/6

−−

α2 = ½

x2 = [1, -1, 5/2]T ∇y(x2) = [3, 3, 0]T ≠ 0 → SEGUIR

30- UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións

3ª iteración.

x3 = x2 - α3·H2·∇y(x2)

H2 = H1 + A2 + B2

H2 =

7/121/31/31/35/61/6

1/31/65/6

−− +

1/61/61/61/61/61/6

1/61/61/6

−−−

−+

2/151/151/31/151/301/61/31/65/6

−−−−−−−−−

=

37/6017/301/617/3029/301/6-1/61/6-1/6

−−

α3 = 5/12

x3 = [1, -2, 3]T ∇y(x3) = [0, 0, 0]T = 0 → FIN

A solución sería: x* = [1, -2, 3]T y* = 15

Anexo 10. Aplicación do método B.F.G.S. Localizar o mínimo da seguinte función: y = 5x1

2 + 2x22 +2x3

2 + 2x1x2 + 2x2x3 -2x1x3 – 6x3, considerando como punto inicial x0 = [0,0,0]T. Solución. Datos de partida: x0 = [0,0, 0]T Criterio de finalización: Función cuadrática con 3 variables: 3 iteracións Desenvolvemento do método de D.F.P.:

∇y(x) =

⎥⎥⎥

⎢⎢⎢

−++−++−+

64222422210

321

321

321

xxxxxxxxx

∇y(x0) = [0, 0, -6]T ≠ 0 → SEGUIR

1ª iteración (igual que método D.F.P.)

x1 = [0, 0, 3/2]T ∇y(x1) = [-3, 3, 0]T ≠ 0 → SEGUIR

2ª iteración.

UNIDADE DIDÁCTICA III. Optimización multivariable sen restricións - 31

x2 = x1 - α2·H1·∇y(x1)

∂0 = [0, 0, 3/2]T

γ0 = [-3, 3, 6]T

H1 =

1/21/21/21/210

1/201

−−

α2 = 1/3

x2 = [1, -1, 5/2]T ∇y(x2) = [3, 3, 0]T ≠ 0 → SEGUIR

3ª iteración. x3 = x2 - α3·H2·∇y(x2)

∂1 = [1, -1, 1]T

γ1 = [6, 0, 0]T

H2 =

1/210120

000

−−

α3 = 1/6

x3 = [1, -2, 3]T ∇y(x3) = [0, 0, 0]T = 0 → FIN

A solución sería: x* = [1, -2, 3]T y* = 15 BIBLIOGRAFÍA Non existe un único libro que cubra tódolos aspectos da UD que se poida recomendar como libro básico ou de texto. PIKE,Ralph W. (1986): Optimization for Engineering Systems. Ed. Van

Nostrand Reinhold, Nueva York. REKLAIKTIS, G.V., RAVINDRAN, A., RAGSDELL, K.M.(1983): Engineering

optimization. J. Wiley & Sons

Vicerreitoría de estudantes, cultura e formación continua

Unha colección orientada a editar materiais docentes de calidade e pensada para apoiar o traballo do profesorado e do alumnado de todas as materias e titulacións da universidade

Enxe

ñaría

Quí

mic

a

Simulación e Optimización de Procesos Químicos

Marta Carballa ArcosDepartamento de Enxeñaría Química

Escola Técnica Superior de Enxeñaría (ETSE)

3

Optimización multivariable sen restricións

97

88

49

88

79

00

1

ISBN 978-84-9887-900-1