Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que...

24
Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes para la existencia de máximos y mínimos globales y son aplicables tanto en la optimización clásica como en la programación lineal. Teorema 17.1 (Teorema de Weierstrass) Si la función objetivo es una función continua y el conjunto facti- ble es cerrado y acotado, entonces existen un mínimo y un máximo globales. Teorema 17.2 (Teorema local-global bajo convexidad) Si el conjunto factible es un conjunto convexo y la función objetivo es una función convexa en caso de que exista un mínimo éste es un mínimo global (si la función objetivo es cóncava en caso de que exista un máximo éste es global). Más aún, si la función objetivo es estrictamente convexa y tiene un mínimo este mínimo es único y de carácter estricto. La optimización convexa trata el problema general de minimizar una función objetivo convexa sobre un conjunto factible convexo. En este caso, la condición de convexidad permite que baste con encontrar un mínimo local para tener un mínimo global. La versión del teorema local-global bajo concavidad garantiza que en caso de que exista un máximo éste es un máximo global. 17.1. Programación no lineal sin restricciones. El primer caso que vamos a estudiar es la optimización sin restricciones, en la que el conjunto factible F coincide con el dominio de la función D (F = D). En este caso, si la función es diferenciable y convexa tenemos una caracterización de sus mínimos. 461

Transcript of Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que...

Page 1: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Tema 17

Optimización Clásica

Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones

suficientes para la existencia de máximos y mínimos globales y son aplicables tanto en la optimización

clásica como en la programación lineal.

Teorema 17.1 (Teorema de Weierstrass) Si la función objetivo es una función continua y el conjunto facti-

ble es cerrado y acotado, entonces existen un mínimo y un máximo globales. ♣

Teorema 17.2 (Teorema local-global bajo convexidad) Si el conjunto factible es un conjunto convexo y la

función objetivo es una función convexa en caso de que exista un mínimo éste es un mínimo global (si la

función objetivo es cóncava en caso de que exista un máximo éste es global).

Más aún, si la función objetivo es estrictamente convexa y tiene un mínimo este mínimo es único y de

carácter estricto. ♣

La optimización convexa trata el problema general de minimizar una función objetivo convexa sobre

un conjunto factible convexo. En este caso, la condición de convexidad permite que baste con encontrar un

mínimo local para tener un mínimo global. La versión del teorema local-global bajo concavidad garantiza

que en caso de que exista un máximo éste es un máximo global.

17.1. Programación no lineal sin restricciones.

El primer caso que vamos a estudiar es la optimización sin restricciones, en la que el conjunto factible

F coincide con el dominio de la función D (F = D). En este caso, si la función es diferenciable y convexa

tenemos una caracterización de sus mínimos.

461

Page 2: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

Proposición 17.3 (mínimos de funciones convexas) Sea f : G ⊆ Rn→ R diferenciable y convexa en G,

con G convexo.

a) x0 ∈ G es un mínimo (global) si y solo D f (x0)(x − x0) ≥ 0.

b) x0 ∈ int(G) es un mínimo (global) si y solo D f (x0) = 0 (∇ f (x0) = θ). ♣

Un punto del interior del conjunto factible, x0 ∈ int(G), en el que el gradiente de la función objetivo es

cero recibe el nombre de punto crítico.

Definición 17.4 Sea f : D ⊆ Rn−→R diferenciable en x0 ∈ int(D).

x0 es un punto crítico o estacionario de f si D f (x0) = 0 (∇ f (x0) = θ). ♣

Nota Si (x0, y0) es un punto crítico de f (x, y) el plano tangente a la superficie z = f (x, y) es paralelo al

plano XY . ♣

La proposición 17.3 garantiza que para las funciones convexas diferenciables todos los puntos críticos

son mínimos (globales). En el caso de las funciones cóncavas diferenciables todos los puntos críticos son

máximos (globales). En el caso general los puntos críticos son los únicos puntos del interior de un conjunto

que pueden ser óptimos locales de la función.

Proposición 17.5 (Condición necesaria de óptimo local de primer orden) Sea f : D ⊆ Rn−→R diferen-

ciable en x0 ∈ int(D).

Si x0 es un óptimo local de f entonces x0 es un punto crítico de f (∇ f (x0) = θ). ♣

Un óptimo local siempre es un punto crítico, pero no todo punto crítico es un óptimo local. Cuando un

punto crítico no es un máximo relativo ni un mínimo relativo tenemos un punto de silla.

Definición 17.6 Sea f : D ⊆ Rn−→R diferenciable en x0 ∈ int(D).

x0 es un punto de silla de f si es un punto crítico y ∀U(x0) ⊆ D

∃ x1, x2 ∈ U(x0) tales que: f (x1) > f (x0) y f (x2) < f (x0). ♣

Proposición 17.7 (Condición necesaria de óptimo local de segundo orden) Sea f : D ⊆ Rn−→R, dos

veces diferenciable con continuidad en un punto crítico, x0 ∈ int(D)

Si x0 es un mínimo relativo, entonces q es semidefinida positiva.

Si x0 es un máximo relativo, entonces q es semidefinida negativa.

Proyecto MATECO 2.1 Página 462

Page 3: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

Nota Esta condición es necesaria pero no suficiente, por ejemplo, f (x, y) = x2y tiene un punto de silla

en (0, 0) y su matriz hessiana en el punto es nula y, por consiguiente, es tanto semidefinida positiva como

semidefinida negativa. ♣

Proposición 17.8 (Condición suficiente de óptimo local de segundo orden) Sean f : D ⊆ Rn−→R dos

veces diferenciable en un punto crítico, x0 ∈ int(D).

Si H f (x0) es definida positiva x0 es un mínimo local estricto.

Si H f (x0) es definida negativa x0 es un máximo local estricto.

Si H f (x0) es indefinida x0 es un punto de silla.

Si H f (x0) es semidefinida positiva x0 es un mínimo local o un punto de silla.

Si H f (x0) es semidefinida negativa x0 es un máximo local o un punto de silla. ♣

Nota Si H f (x) existe y es semidefinida positiva en un entorno de x0 es un mínimo local y si existe y

es semidefinida positiva en todo el conjunto factible x0 es un mínimo global. Si existe y es semidefinida

negativa en un entorno de x0 es un máximo local y si es semidefinida negativa en todo el conjunto factible

es un máximo global (por la convexidad y concavidad de la función objetivo). ♣

Nota Por abuso de notación para hablar del signo de la forma cuadrática asociada a la matriz hessiana de

f en x, q(h) = ht H f (x) h (h ∈ Rn), hablamos del signo de esta matriz hessiana. ♣

Nota El teorema de Weierstrass garantiza que si D es compacto y f es continua en D entonces f alcanza

su máximo/mínimo absoluto en D (teorema 17.1).

Si f es diferenciable en int(D) los alcanza o bien en un máximo/mínimo relativo del interior (punto

crítico de f ), o bien en la frontera. ♣

Ejemplo 17.9 Estudiar los extremos relativos de la función

f (x, y) = 40x − 7x2 + 20y − 4y2 − 4xy − 120.

Solución

Paso 1 Obtenemos los puntos críticos imponiendo ∇ f (x, y) = 0:∂ f∂x

(x, y) = 0 ⇒ 40 − 14x − 4y = 0

∂ f∂y

(x, y) = 0 ⇒ 20 − 8y − 4x = 0

Página 463 Proyecto MATECO 2.1

Page 4: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

Despejamos y de la primera ecuación, obteniendo y = 40−14x4 (∗).

Sustituimos y en la segunda ecuación y despejamos x, obteniendo x = 52 .

Sustituimos el valor de x en (∗), obteniendo y = 54 .

* Por tanto, el único punto crítico es (52 ,

54 ).

Paso 2 Estudiamos las condiciones de segundo orden calculando la matriz hessiana de f :

H f (x, y) =

∂2 f∂ x2 (x, y)

∂2 f∂ y∂ x

(x, y)

∂2 f∂ x∂ y

(x, y)∂2 f∂ y2 (x, y)

=

−14 −4

−4 −8

Como la matriz no depende del punto y es definida negativa, ya que los menores principales de la matriz

son D1 = −14 y D2 = 96, la función es concava y tenemos un máximo global estricto (en general depende

del punto y es necesario sustituir el punto crítico para estudiar el signo de la forma cuadrática, obteniéndose

resultados locales).

Ejercicio 17.10 Determinar si el punto (0, 0) es un óptimo de las siguientes funciones y, en su caso, si es

un óptimo local o global.

(a) f (x, y) = 2x3 − 2x2 − y2 (b) f (x, y) = x4 − 2x2y + y2.

Ejercicio 17.11 Calcular y clasificar los puntos estacionarios de las siguientes funciones:

(a) f(x, y) = 2x + 4y − x2 − y2 − 3 (b) f(x, y) = x3 + y3 − 3xy

(c) f(x, y) = x2 + 2xy + 2y2 (d) f(x, y) = (x − y)(1 − xy)

(e) f(x, y) = 2x2 + y2 + 6xy + 10x − 6y + 5 (f) f(x, y) = 2xy − 2x2 − y2 + 8x − 2y

(g) f(x, y) = x2 − x2y + 2y2 (h) f(x, y) = x3 + 3xy2 − 15x − 12y

(i) f(x, y) = 100x + 150y − 40lnx − 20lny − 20x2 − 35y2 con x, y ≥ 0

(j) f(x, y) = 30x12 y

13 − 15x − 10y con x, y ≥ 0

(k) f(x, y, z) = 16x + 12y + 20z − x2 − 2y2 − 3z2 − 2xz − 25 con x, y, z ≥ 0

Ejemplo 17.12 Hallar los valores de a y b para que la función f (x, y) = ax3 + 3bxy2 − 15a2x − 12y tenga

un mínimo local en el punto (2, 1)

Solución

Para que el punto (2, 1) sea un punto crítico se tiene que cumplir ∇ f (2, 1) = θ:∂ f∂x

(2, 1) = 0 ⇒ 3ax2 + 3by2 − 15a2|(2,1) = 0 ⇒ 12a + 3b − 15a2 = 0

∂ f∂y

(2, 1) = 0 ⇒ 6bxy − 12|(2,1) = 0 ⇒ 12b − 12 = 0

Proyecto MATECO 2.1 Página 464

Page 5: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

1. Despejamos b de la segunda ecuación, obteniendo b = 1.

2. Sustituimos b en la primera ecuación, obteniendo 12a + 3 − 15a2 = 0, es decir, 5a2 − 4a − 1 = 0, con

lo que los posibles valores de a son:

a =4 ±√

16 + 2010

=

1

−15

La matriz hessiana de f en el punto crítico (2, 1) es

H f (2, 1) =

∂2 f∂ x2 (2, 1) ∂2 f

∂ y∂ x (2, 1)∂2 f∂ x∂ y (2, 1) ∂2 f

∂ y2 (2, 1)

=

6ax 6by

6by 6bx

∣∣∣∣∣∣∣∣(2,1)

=

12a 6b

6b 12b

Como los menores principales de esta matriz son D1 = 12a y D2 = 144ab − 36b2, la forma cuadrática

asociada al hessiano en (2, 1) es:

definida positiva para a = 1 y b = 1 (D1 = 12 y D2 = 108)

indefinida para a = −15 y b = 1 (D1 = −12

5 y D2 = −3245 ).

Por tanto, para que la función tenga un mínimo local en el punto (2, 1) tiene que cumplirse a = 1 y

b = 1. ♣

Ejemplo 17.13 Sean f : R2→ R una función diferenciable dos veces con continuidad y (x0, y0) un punto

crítico suyo (en el cuál se anulan las derivadas parciales de primer orden). Se sabe:

∂2 f∂x2 (x0, y0) =

∂2 f∂y2 (x0, y0) = a, con a , 0,

∂2 f∂x∂y

(x0, y0) =∂2 f∂y∂x

(x0, y0) = 0

Estudiar el carácter como extremo relativo del punto (x0, y0) según los valores de a.

Solución La matriz hessiana de f en el punto crítico (x0, y0) es

H f (x0, y0) =

∂2 f∂ x2 (x0, y0)

∂2 f∂ y∂ x

(x0, y0)

∂2 f∂ x∂ y

(x0, y0)∂2 f∂ y2 (x0, y0)

=

a 0

0 a

Como los menores principales de esta matriz son D1 = a y D2 = a2, la forma cuadrática asociada al hessiano

en (x0, y0) es definida positiva para a > 0 y definida negativa para a < 0(podemos razonar también sobre los

autovalores ya que tiene como autovalor doble λ = a). Por tanto:

Página 465 Proyecto MATECO 2.1

Page 6: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

para a > 0 tenemos un mínimo local estricto,

para a < 0 tenemos un máximo local estricto. ♣

Ejercicio 17.14 Dada la función f (x, y) = ax2 + 2xy + by2 + x + y + 1 con a, b ∈ R tales que ab , 1 y

a , 0, discútanse los extremos de f según los valores de los parámetros a y b.

Nota (Métodos numéricos para el cálculo de óptimos)

Un vector d ∈ Rn es una dirección de descenso de la función en el punto x ∈ Rn si para todo λ ∈ R

arbitrariamente pequeño f (x +λd) < f (x) y es una dirección de ascenso si para todo λ ∈ R arbitrariamente

pequeño f (x + λd) > f (x).

Para determinar un óptimo nos movemos desde un punto xk a un punto xk+1 = xk + λkdk siguiendo una

dirección de ascenso o descenso, según sea un problema de maximización o minimización.

En el algoritmo del gradiente partimos de un punto inicial, desde el que tomamos como dirección de

ascenso el vector gradiente y de descenso la dirección opuesta al gradiente. La longitud del paso λk la

determinamos maximizando o minimizando el valor de la función, según sea un problema de maximización

o minimización (optλ

f (xk + λdk)).

El proceso se termina según un criterio de parada y entre los más usados están

||∇ f (xk)|| < ε | f (xk+1) − f (xk)| < ε |xk+1 − xk| < ε

donde ε recibe el nombre de tolerancia. ♣

17.2. Programación no lineal con restricciones de igualdad.

Definición 17.15 Sean f , gi : D ⊆ Rn−→R, ci ∈ R, x0 ∈ D tal que gi(x0) = ci, i = 1, . . . ,m < n

(a veces denotamos g = (g1, . . . , gm) y c = (c1, . . . , cm)).

Consideramos el problema de optimización:

(?) max /mın f (x1, . . . , xn)

s.a. g1(x1, . . . , xn) = c1

...

gm(x1, . . . , xn) = cm

Proyecto MATECO 2.1 Página 466

Page 7: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

en el cual la función f (x) recibe el nombre de función objetivo y las restricciones gi(x) = ci (i = 1, . . . ,m)

el de ecuaciones de ligadura. El conjunto factible es el de conjunto de puntos del dominio que verifican

las ecuaciones de ligadura

F = {x ∈ D/gi(x) = ci ∀i : 1 ≤ i ≤ m}

En este caso cada óptimo del problema (?) recibe el nombre de óptimo condicionado y pueden ser tanto

máximos condicionados como mínimos condicionados (pueden ser de carácter local o global). ♣

El problema (?) consiste en encontrar el punto o los puntos del conjunto factible en los que la función

objetivo alcanza su valor máximo/mínimo y en general se buscan óptimos absolutos condicionados. Las

restricciones de tipo igualdad reducen las dimensiones del espacio donde el programa está definido y si es

posible despejar m variables en función de las otras mediante las m restricciones el problema (?) se reduce

a un problema de optimización de una función de n − m variables sin restricciones.

Nota (Eliminación de variables) Si podemos escribir el problema (?) como

opt f (h(xm+1, . . . , xn), xm+1, . . . , xn)

entonces si x0 ∈ A es un mínimo del problema reducido entonces (h(x0), x0) ∈ F es un mínimo del pro-

blema original (?) y con el mismo carácter local o global, siendo la situación análoga para máximos. Esto

no siempre es posible y sólo lo podemos hacer si existe h : A ⊆ Rn−m → Rm continua verificando que

(x1, . . . , xm) = h(xm+1, . . . , xn) ∀ (x1, . . . , xn) ∈ F ♣

Ejemplo 17.16 La producción de un determinado producto depende del capital, K, y trabajo, L utilizados

en su producción según la función f (K, L) = 3K1/2L1/2 y con unos costes unitarios de capital y trabajo

de 6 y 3 u.m. respectivamente. Determinar las cantidades de capital y trabajo necesarias para obtener la

máxima producción si se dispone de 30 u.m.

Solución

max 3K1/2L1/2

s.a: 6K + 3L = 30

(K > 0, L > 0)

Despejamos K en la restricción en función de L

K = 5 −12

L

Página 467 Proyecto MATECO 2.1

Page 8: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

Sustituimos en la función objetivo y resolvemos el problema sin restricciones

max3(5 −

12

L)1/2

L1/2

Al ser L = 5 un máximo global del problema reducido entonces K = 5/2 y L = 5 proporcionan un

máximo global del problema original. ♣

Otra posibilidad es la resolución gráfica mediante la representación de las curvas de nivel de la función

objetivo. En este caso, para problemas de minimización determinamos el punto de la restricción por el que

pasa la curva de nivel de menor valor y para problemas de maximización el punto de la restricción por el

que pasa la curva de nivel de mayor valor (de nuevo esto no siempre es posible y seguimos necesitando un

método más general).

El método general que vamos a ver recibe el nombre de método de los multiplicadores de Lagrange

y sólo necesitamos que la función sea diferenciable con continuidad. Este método convierte el problema

(?) en un problema sin restricciones en el que a las variables originales añadimos tantas variables como

restricciones. Aunque tenemos un número mayor de variables, el método de los multiplicadores de Lagrange

tiene la ventaja de permitir analizar la sensibilidad de los óptimos a variaciones en las restricciones que

puedan hacer que los óptimos dejen de ser óptimos. En primer lugar, vamos a definir y analizar la función

lagrangiana asociada al problema (?), que nos va a permitir determinar los candidatos a óptimos.

Proposición 17.17 Sean f , gi : D ⊆ Rn−→R de clase C1 en int(D), ci ∈ R, (i = 1, . . . ,m < n)

La función lagrangiana asociada al problema (?), L(x, λ), es:

L(x1, . . . , xn, λ1, . . . , λm) = f (x1, . . . , xn) − λ1[g1(x1, . . . , xn) − c1

]− · · · − λm

[gm(x1, . . . , xn) − cm

]donde λ1, . . . , λm ∈ R reciben el nombre de multiplicadores de Lagrange.

Esta función verifica

∇L(x, λ) =

∂ f∂x1

(x) − λ1∂g1(x)∂x1− · · · − λm

∂gm∂x1

(x)...

∂ f∂xn

(x) − λ1∂g1(x)∂xn− · · · − λm

∂gm∂xn

(x)

c1 − g1(x)...

cm − gm(x)

Si x es un punto factible del problema condicionado entonces L(x, λ) = f (x).

Proyecto MATECO 2.1 Página 468

Page 9: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

∇L(x, λ) = 0 si y sólo si x es un punto factible del problema condicionado y además

∇ f (x) = λ1∇g1(x) + · · · + λm∇gm(x) ♣

Teorema 17.18 Teorema de los multiplicadores de Lagrange (Condición necesaria de óptimo local condi-

cionado de primer orden) Sean f , gi : D ⊆ Rn−→R de clase C1 en int(D) (i = 1, . . . ,m < n) y x0 ∈ int(D)

del conjunto factible del problema (?) tal que ∇g1(x0), . . . ,∇gm(x0) son linealmente independientes (condi-

ción de regularidad).

Si x0 es un óptimo local condicionado para el problema entonces existen λ∗1, . . . , λ∗m ∈ R tales que

(x0, λ∗), con λ∗ = (λ∗1, . . . , λ

∗m), es un punto crítico de la función lagrangiana asociada al problema o

equivalentemente

∇ f (x) = λ1∇g1(x) + · · · + λm∇gm(x) ♣

Nota Si en un óptimo los gradientes de las restricciones no son linealmente independientes puede no ser

un punto crítico de la función lagrangiana y no tiene por qué aparecer entre los candidatos a óptimo. ♣

Ejemplo 17.19 (Importancia de la condición de regularidad)

min x2 + y2 + z2

s.a: (1 − x)3 − y = 0

y = 0

Solución

La función lagrangiana asociada a este problema no tiene puntos críticos:

L(x, y, z, λ1, λ2) = x2 + y2 + z2 − λ1((1 − x)3 − y) − λ2y

L′x = 2x + λ13(1 − x)2 = 0

L′y = 2y + λ1 − λ2 = 0

L′z = 2z = 0

L′λ1= ((1 − x)3 − y) = 0

L′λ2= y = 0

x = 1 y = 0 z = 0

2 − λ13(1 − 1)2 = 0

2 = 0 absurdo

Tenemos que buscar puntos en los que los gradientes sean linealmente dependientes

∇g1(x, y, z) =(3(1 − x)2,−1, 0

)∇g2(x, y, z) = (0, 1, 0)

Página 469 Proyecto MATECO 2.1

Page 10: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

Como para x = 1 los gradientes son linealmente dependientes analizamos esta posibilidad. El conjunto

factible es

F = {(1, 0, z) | z ∈ R}

y en él f (1, 0, z) = z2 con mínimo en z = 0, por lo que el punto (1,0,0) es el mínimo global del problema. ♣

Nota El teorema de Weierstrass garantiza que si F es compacto y f es continua en F entonces f alcanza

su máximo y mínimo absolutos en F. Si el dominio D es abierto y f es diferenciable en D entonces los

extremos absolutos condicionados están entre los puntos críticos de la función lagrangiana o son puntos del

conjunto factible en los que los gradientes de las restricciones son linealmente dependientes. ♣

Nota Si la función objetivo está definidas en un abierto convexo el estudio de su concavidad y convexidad

puede permitirnos aplicar el teorema local-global de forma que óptimos locales se transformen en óptimos

globales. Si la función es de clase C1 y es cóncava o convexa en el conjunto factible podemos aplicar

el teorema local-global y cualquier punto que satisfaga las condiciones necesarias de primer orden es un

óptimo local y, por tanto, global (si la función es convexa todo mínimo local es un mínimo global y si la

función es cóncava todo máximo local es un máximo global). ♣

No siempre es fácil estudiar si la función es cóncava o convexa en el conjunto factible y puede ser más

fácil estudiar es si la función objetivo es cóncava o convexa en su dominio. Distinguiremos dos casos, en

el primero las restricciones son lineales y tenemos garantizado que todo óptimo local es un óptimo global.

En el segundo caso alguna de las restricciones es no lineal y se necesitan condiciones adicionales sobre

la concavidad y convexidad de las funciones que definen estas restricciones para que un óptimo local se

transforme en global. En este caso, las restricciones no lineales no influyen en el carácter del óptimo , ya

que las funciones correspondientes son tanto cóncavas como convexas. ♣

Proposición 17.20 (Condiciones de optimalidad global bajo restricciones de igualdad lineales) Sean f :

D ⊆ Rn−→R de clase C1 en int(D) con D convexo, gi : D ⊆ Rn

−→R (i = 1, . . . ,m < n) funciones

lineales y bi ∈ R (i = 1, . . . ,m < n).

Si f es convexa en D entonces cualquier punto que satisfaga las condiciones necesarias de primer

orden es un mínimo local y, por tanto, global.

Si f es cóncava en D entonces cualquier punto que satisfaga las condiciones necesarias de primer

orden es un máximo local y, por tanto, global. ♣

Proposición 17.21 (Condiciones de optimalidad global bajo restricciones de igualdad generales) Sean

f , gi : D ⊆ Rn−→R de clase C1 definidas en un abierto convexo D de Rn.

Proyecto MATECO 2.1 Página 470

Page 11: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

Si x0 ∈ F es un punto que verifica las condiciones necesarias de primer orden con vector de multiplica-

dores λ∗ = (λ∗1, . . . , λ∗m) y separamos los multiplicadores en negativos y positivos se verifica

• f convexa en D

gi convexa en D ∀i/λ∗i < 0

g j cóncava en D ∀ j/λ∗j > 0

⇒ x0 mínimo global condicionado

• f cóncava en D

gi cóncava en D ∀i/λ∗i < 0

g j convexa en D ∀ j/λ∗j > 0

⇒ x0 máximo global condicionado

Ejemplo 17.22 La producción de un determinado producto depende del capital, K, y trabajo, L utilizados

en la producción según la función f (K, L) = 3K1/2L1/2. Los costes unitarios de capital y trabajo son de cK

y cL u.m. respectivamente.

a) (Producción dada minimizando los recursos empleados) Determinar las cantidades de capital y trabajo

necesarias para producir Q unidades de producto si se pretende minimizar el coste. >Cuál debería ser

el precio mínimo de venta del producto para que resultase rentable incrementar la producción?

min cKK + cLL

s.a. 3K1/2L1/2 = Q

(K > 0, L > 0)

b) (Máxima producción para unas disponibilidades dadas) Determinar las cantidades de capital y trabajo

necesarias para obtener la máxima producción si se dispone de k u.m. >Cómo afectan las variaciones

en la cantidad de recursos disponibles a la producción?

max 3K1/2L1/2

s.a: cKK + cLL = k

(K > 0, L > 0)

Solución

Apartado a

min cKK + cLL

s.a: 3K1/2L1/2 = Q

Página 471 Proyecto MATECO 2.1

Page 12: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

Todos los puntos del conjunto factible cumplen las condiciones de regularidad (al ser una única restric-

ción su gradiente es linealmente independiente si no es cero)

∇g(K, L) =

(32

K−1/2L1/2,32

K1/2L−1/2), (0, 0)

Posibles óptimos: ∇L(K, L, λ) = 0

K =Q3

(cL

cK

)1/2

L =Q3

(cK

cL

)1/2

λ =23

(cLcK)1/2

La matriz hessiana de la función lagrangiana obtenida tomando como variables sólo las variables ori-

ginales es:

HxL(K, L, λ) =

34λK−3/2L1/2 −3

4λK−1/2L−1/2

−34λK−1/2L−1/2 3

4λK1/2L−3/2

Vamos a clasificarla restringida al subespacio tangente a las restricciones en el punto crítico pero sólo

vamosa obtener un resultado local:

HxL =

0 cK cL

cK34λK−3/2L1/2 −3

4λK−1/2L−1/2

cL −34λK−1/2L−1/2 +3

4λK1/2L−3/2

Como |HL| es negativo y tiene el signo de (−1)m la forma cuadrática restringida es definida positiva y,

por tanto, es un mínimo local estricto.

Para estudiar su optimalidad global consideramos que la matriz hessiana de la función lagrangiana

obtenida tomando como variables sólo las variables originales es semidefinida positiva (D1 > 0, D2 = 0),

lo que, en principio, no es suficiente para afirmar que es un mínimo. Sin embargo, como la función es lineal

el carácter del óptimo depende de la concavidad o convexidad de las restricciones.

En este caso la matriz hessiana de la restriccíon f (K, L) − Q

H f (K, L) =

− 3√

L4K3/2

34√

K√

L3

4√

K√

L− 3√

K4L3/2

es semidefinida negativa en todo el dominio y, por tanto, la restriccíon es cóncava

Como la función objetivo es convexa, el multiplicador es positivo (λ > 0) y la restricción cóncava el

punto crítico es un mínimo global.

Además, como el multiplicador es positivo un aumento de la producción implicaría un aumento de los

costes de λ = 23 (cLcK)1/2 por unidad producida por encima de la producción óptima. Para compensar este

coste el precio de venta debe ser mayor que este valor.

Proyecto MATECO 2.1 Página 472

Page 13: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

Apartado b

max 3K1/2L1/2

s.a: cKK + cLL = k

L(K, L, λ) = 3K1/2L1/2 − λ (cKK + cLL − k)

Todos los puntos del conjunto factible cumplen las condiciones de regularidad (si no hay costes de

capital o trabajo el problema no tiene sentido)

∇g(K, L) = (ck, cL) , (0, 0)

∂L

∂K(K, L, λ) =

32

K−1/2L1/2 − cKλ = 0

∂L

∂L(K, L, λ) =

32

K1/2L−1/2 − cLλ = 0

∂L

∂λ(K, L, λ) = cKK + cLL − k = 0

−→

K = k

2cK

L = k2cL

λ = 32√

cK√

cL

La matriz hessiana de la función lagrangiana obtenida tomando como variables sólo las variables ori-

ginales es:

HxL(K, L, λ) =

− 3√

L4K3/2

34√

K√

L3

4√

K√

L− 3√

K4L3/2

Vamos a clasificarla restringida al subespacio tangente a las restricciones en el punto crítico pero sólo

vamosa obtener un resultado local:

HxL =

0 cK cL

cK − 3√

L4K3/2

34√

K√

L

cL3

4√

K√

L− 3√

K4L3/2

Como |HL| es positivo y tiene el signo de (−1)m+1 la forma cuadrática restringida es definida negativa

y, por tanto, es un máximo local estricto.

Para estudiar su optimalidad global consideramos que la matriz hessiana de la función lagrangiana

obtenida tomando como variables sólo las variables originales es semidefinida negativa (D1 < 0, D2 = 0),

lo que, en principio, no es suficiente para afirmar que es un máximo. Sin embargo, como las restricciones

son lineales, la matriz hessiana de f coincide con la matriz hessiana obtenida tomando como variables sólo

las variables originales. En este caso es semidefinida negativa en todo el dominio y, por tanto, cóncava.

Página 473 Proyecto MATECO 2.1

Page 14: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

La proposición 17.20 garantiza que es un máximo global. Además, como el multiplicador es positivo un

aumento de los recursos disponibles implicaría un aumento de la producción. ♣

Nota (Interpretación de los multiplicadores de Lagrange) Si x0 es un óptimo local condicionado de la

función bajo las restricciones gi(x) = ci 1 ≤ i ≤ m y estas restricciones cambian, también cambian el

óptimo local y el valor máximo/mínimo de la función. Si el vector de multiplicadores es λ∗ = (λ∗1, . . . , λ∗m),

cada λi corresponde a la tasa de variación del valor óptimo de la función respecto al cambio en la constante

ci. Por tanto, cuando una restricción determina la cantidad utilizada de un recurso concreto y el término

independiente de las restricciones es la cantidad de recurso disponible, el multiplicador correspondiente

aproxima el cambio en el valor óptimo de la función objetivo al incrementar en una unidad la cantidad

de recurso utilizada. Cuando la función a optimizar está dada en unidades monetarias el multiplicador

representa la cantidad que estaríamos dispuestos a pagar por una unidad más de recurso, por lo que a veces

recibe el nombre de precio sombra o precio marginal. ♣

Las condiciones de optimalidad de segundo orden se basan en reducir el estudio de la forma de la

función al estudio de la forma de la función en el subespacio tangente a las restricciones

T (x0) = {h ∈ Rn /∇gi(x0) · h = 0 ∀ i = 1, · · · ,m}

ya que si x0 es un óptimo local condicionado para el problema (?) entonces cualquier punto factible de su

entorno está en la intersección de las restricciones y, por tanto, el vector que lo une a x0 es ortogonal a todos

los vectores gradientes de las funciones que definen estas restricciones (∇gi(x0) ∀ i = 1, · · · ,m).

Reciben el nombre de condiciones de segundo orden porque sólo consideramos funciones de clase C2

en el interior de su dominio El punto a analizar será un punto crítico de la función lagrangiana asociada al

problema que verifique las condiciones de regularidad y, para este punto, consideramos la matriz hessiana de

la función lagrangiana obtenida tomando como variables sólo las variables originales y la forma cuadrática

asociada a esta matriz restringida al subespacio tangente a las restricciones

q|T (h) = ht HxL(x0, λ∗) h ∀ h ∈ T (x0) ♣

Proposición 17.23 (Condición suficiente de óptimo local condicionado) Sean f , gi : D ⊆ Rn−→R de

clase C2 en int(D) (i = 1, . . . ,m < n), x0 ∈ int(D) un punto crítico de la función lagrangiana asociada al

problema perteneciente al conjunto factible y q|T la forma cuadrática asociada a la matriz hessiana de la

función lagrangiana obtenida tomando como variables sólo las variables originales restringida al espacio

tangente a las restricciones en x0.

Si q|T es definida positiva x0 es un máximo relativo condicionado.

Proyecto MATECO 2.1 Página 474

Page 15: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

Si q|T es definida negativa x0 es un mínimo relativo condicionado. ♣

Nota Las condiciones necesarias de 1er y 2o orden son necesarias pero no suficientes. Por ejemplo la

función f (x, y) = x3 +y3 restringida a x−y = 0 tiene un punto de silla en (0,0) y cumple ambas condiciones.

Ejercicio 17.24 Hallar, bajo la restricción que se indica, los máximos y mínimos de f : R2−→R definida

por:

(a) f(x, y, z) = x − 2y + 2z restringida a x2 + y2 + z2 = 9

(b) f(x, y) = 8x2 − xy + 12y2 restringida a x + y = 42 (x, y ≥ 0)

(c) f(x, y) = x2y2 restringida a x2 + y2 = 1 (x, y ≥ 0)

(d) f(x, y) = −x + (y − 1)2 + 10 restringida a x2 + (y − 1)2 = 9 (x, y ≥ 0)

(e) f(x, y) = xy restringida a 3x + 2y = 120 (x, y ≥ 0)

(f) f(x, y) = 2xy + 6y restringida a 2x + 3y = 60 (x, y ≥ 0)

(g) f(x, y) = xy restringida a x + y = k (k ∈ R)

Ejercicio 17.25 Determinar tres números positivos x, y, z tales que:

(a) xyz es máximo sujeto a x + y + z = 18

(b) x + y + z es mínimo sujeto a xyz = 27

Ejercicio 17.26 >Para qué valores de b el punto (1, 1,−1) es un mínimo de la función f (x, y, z) = x2 + y2 +

bxy + x + y + 2z restringida a x2 + y2 − z2 = 1?. >Y para qué valores de b es un máximo?.

17.3. Programaciónno lineal con restricciones de desigualdad

Cuando la optimización de una función se sujeta a un conjunto de restricciones formado por desigual-

dades las restricciones introducen nuevas fronteras en el conjunto de soluciones factibles del problema sin

restricciones. Cuando el nuevo conjunto factible es compacto si la función es continua podemos aplicar

el teorema de Weierstrass para asegurar la existencia de máximo y mínimo globales. Si el nuevo conjunto

factible es convexo y la función objetivo cóncava o convexa podemos aplicar el teorema local-global para

máximos y mínimos respectivamente.

Ejemplo 17.27opt (x − 3)2 + (y − 2)2

s.a. x + y ≤ 7

x, y ≥ 0

Página 475 Proyecto MATECO 2.1

Page 16: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

En este problema el dominio es un conjunto compacto y la función objetivo es continua y, por tanto, el

problema tiene máximo y mínimo globales (teorema de Weierstrass). El conjunto factible es un conjunto

convexo y la función objetivo es estrictamente convexa habrá un único mínimo local que será global (la

matriz hessiana de la función objetivo es definida positiva siempre).

Como la función objetivo es diferenciable, los posibles óptimos interiores al dominio cumplen la con-

dición necesaria de óptimo local (su gradiente es cero) y el resto de candidatos a óptimos estarán en la

frontera del conjunto factible. Además de los posibles óptimos en los vértices, en esta frontera los posibles

óptimos interiores a cada frontera dada por una restricción son óptimos condicionados a esta restric-

ción tomada como restricción de igualdad (cumplen la condición necesaria de óptimo condicionado y el

gradiente de la correspondiente lagrangiana es cero). En nuestro caso, los candidatos a óptimo son (los

cálculos se dejan como ejercicio)

1. Óptimos interiores al dominio: (3,2) con f (3, 2) = 0

2. Óptimos interiores a las restricciones (uno por cada restricción): (4,3) con f (4, 3) = 2, (0,2) con

f (0, 2) = 9 y (3,0) con f (3, 0) = 4.

3. Óptimos en los vértices del dominio (0,0) con f (0, 0) = 13, (0,7) con f (0, 7) = 34 y (7,0) con

f (7, 0) = 20.

Entre estos puntos el que tenga la imagen mayor será el máximo global y el que la tenga menor el mínimo

global. Por tanto (3,2) es el mínimo global y el valor mínimo es 0 y (0,7) es el máximo global y el valor

máximo es 34 (obsérvese que al ser la función objetivo convexa teníamos garantizado por el teorema local-

global que el óptimo interior al dominio era un mínimo global). ♣

Para determinar los candidatos a óptimos locales vamos a ver una generalización del método de los

multiplicadores de Lagrange que establece condiciones necesarias para que la solución de un problema de

programación matemática sea óptima. Estas condiciones son las condiciones de Karush-Kuhn-Tucker y son

también conocidas como condiciones de Kuhn-Tucker (condiciones KKT o KT). En determinados casos

y bajo ciertas hipótesis también son suficientes para que los candidatos a óptimos locales sean óptimos

globales.

Nota La formulación general del problema con una función objetivo f : D ⊆ Rn→ R y b ∈ Rm es

opt f (x1, · · · , xn)

s.a. li(x1, · · · , xn) ≤ bi ∀ i = 1, · · · , r

hi(x1, · · · , xn) ≥ bi ∀ i = r + 1, · · · ,m

Proyecto MATECO 2.1 Página 476

Page 17: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

En general, tenemos restricciones dadas por desigualdades menor o igual y por desigualdades mayor o

igual. En la formulación que vamos a utilizar consideramos todas las desigualdades menor o igual, para lo

que multiplicamos las que estén en sentido contrario por -1 y el problema queda

(?) opt f (x1, · · · , xn)

s.a. gi(x1, · · · , xn) ≤ ci i = 1, . . . ,m

En este problema se dice que una solución factible x0 = (x1, · · · , xn) satura la restricción i-ésima o que es

activa en x0 si se verifica con igualdad (gi(x0) = ci). Si no se verifica con igualdad diremos que no satura la

restricción o que la restricción es inactiva (gi(x0) < bi). ♣

Antes de proceder a la resolución de un problema es importante estudiar tanto la compacidad del con-

junto factible como la convexidad del dominio. Así, si el conjunto factible es compacto la continuidad de

la función objetivo permite deducir que el problema tiene máximo global y mínimo global. Si el dominio

es un conjunto convexo la convexidad o concavidad de la función objetivo permite aplicar el teorema local-

global, de forma que todo mínimo local sea un mínimo global si la función es convexa y que todo máximo

local sea un máximo global si la función es cóncava.

Las condiciones de Kuhn-Tucker son condiciones sobre los multiplicadores de Lagrange λ1, . . . , λm

correspondientes a la función lagrangiana asociada al problema necesarias para que la solución de un pro-

blema de programación matemática sea óptima y tienen la ventaja de ser distintas para máximos y mínimos.

Estas condiciones dependen del signo de los multiplicadores, que en este caso también reciben el nombre

de multiplicadores de Kuhn-Tucker, y es necesario resaltar que estos dependen de la formulación del pro-

blema. Por tanto, supondremos siempre que el problema está formulado sólo con desigualdades menor o

igual (si no, las condiciones sobre los signos de los multiplicadores cambian):

L(x1, . . . , xn, λ1, . . . , λm) = f (x1, . . . , xn) − λ1[g1(x1, . . . , xn) − c1

]− · · · − λm

[gm(x1, . . . , xn) − cm

]Proposición 17.28 (Condiciones de Kuhn-Tucker) Sean f , gi (i = 1, . . . ,m) funciones diferenciables y sea

x0 un punto factible en el cual las restricciones activas cumplen las condiciones de regularidad.

Si x0 es un óptimo del problema (?) entonces existen unos escalares λ1, . . . , λm tales que

• El gradiente de la función objetivo en x0 es combinación lineal de los gradientes de las restricciones

activas

∇ f (x0) = λ1∇g1(x0) + · · · + λm∇gm(x0)

• Los multiplicadores asociados a las restricciones no activas en x0 son nulos

λi(gi(x0) − ci) = 0 ∀ i = 1, · · · ,m

Página 477 Proyecto MATECO 2.1

Page 18: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

• El punto x0 pertenece al conjunto de soluciones factibles del problema (cumple todas las restriccio-

nes)

gi(x1, · · · , xn) ≤ ci ∀ i = 1, · · · ,m

• En un máximo todos los multiplicadores son positivos y en un mínimo negativos.

λi ≤ 0 ∀ i = 1, · · · ,m (mın); λi ≥ 0 ∀ i = 1, · · · ,m (max)

Nota Geométricamente las condiciones KT indican que en un posible máximo el gradiente de la función

objetivo es combinación lineal positiva de los gradientes de las restricciones activas al quedar dentro del

cono convexo generado por los gradientes de las restricciones activas. Análogamente, indican que en un

posible mínimo el gradiente de la función objetivo es combinación lineal negativa de los gradientes de las

restricciones activas al quedar en la parte opuesta del cono convexo generado por los gradientes de las

restricciones activas. ♣

Las condiciones KT son condiciones necesarias de optimalidad local, de forma que todo máximo local

satisface las condiciones KT para máximo y todo mínimo local satisface las condiciones KT para mínimo.

Por tanto, si un punto no satisface las condiciones KT para máximo no es un máximo local y si no satisface

las condiciones KT para mínimo no es un mínimo local. Además, bajo hipótesis de concavidad o convexidad

son condiciones suficientes para que los candidatos a óptimos locales sean óptimos globales (si es concava

los máximos locales serán globales y si es convexa los mínimos locales serán globales).

Proposición 17.29 (Condiciones suficientes de optimalidad global bajo restricciones de desigualdad con

convexidad/concavidad) Sean f , gi : D ⊆ Rn−→R, ci ∈ R, (i = 1, . . . ,m <) funciones C1 en int(D)

tales que la región factible del problema (?), F = {x ∈ D/gi(x) ≤ ci, ∀ i = 1, . . . ,m}, es un conjunto

convexo.

Si f es una función convexa en F cualquier punto que cumpla las condiciones de Kuhn-Tucker para

mínimos es un mínimo global del problema (?).

Si f es una función cóncava en F cualquier punto que cumpla las condiciones de Kuhn-Tucker para

máximos es un máximo global del problema (?). ♣

Nota (Interpretación de los multiplicadores de Kuhn-Tucker) Al igual que sucede con los óptimos locales

condicionado por restricciones de igualdad, cuando las restricciones cambian puede cambiar el óptimo local

y el valor óptimo de la función. En nuestro caso, una desigualdades del tipo menor o igual limita el dominio

Proyecto MATECO 2.1 Página 478

Page 19: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

y si hay un incremento en el valor del término independiente se produce un incremento del dominio y,

por tanto, puede haber puntos que mejoren los óptimos ya obtenidos. Por el contrario, una disminución en

el valor del término independiente disminuye el dominio y podemos perder los óptimos obtenidos. Cada

multiplicador corresponde a la tasa de variación del valor óptimo de la función respecto al cambio en

el término independiente y si se trata de máximos, los multiplicadores serán positivos o nulos y el valor

máximo será mayor. En cambio, en el caso de mínimos los multiplicadores serán negativos o nulos y el

valor mínimo será menor. Obsérvese que cuando una restricción no es activa el multiplicador asociado es

cero y una variación en el término independiente no afecta al valor óptimo de la función objetivo.

Al igual que sucede con los problemas condicionado por restricciones de igualdad, cuando una restric-

ción determina la cantidad utilizada de un recurso concreto y el término independiente de las restricciones

es la cantidad de recurso disponible, el multiplicador correspondiente aproxima el cambio en el valor ópti-

mo de la función objetivo al incrementar en una unidad la cantidad de recurso utilizada. Cuando la función

a optimizar está dada en unidades monetarias el multiplicador representa la cantidad que estaríamos dis-

puestos a pagar por una unidad más de recurso, por lo que también a veces recibe el nombre de precio

sombra o precio marginal. Obsérvese que si un recurso no se agota en el óptimo el multiplicador es cero

y no estaríamos dispuestos a pagar nada por obtener más cantidad de recurso. ♣

Al igual que en los problemas con restricciones de igualdad, las condiciones de optimalidad de segun-

do orden se basan en reducir el estudio de la forma de la función en el subespacio tangente a las restriccio-

nes. En este caso consideramos sólo las restricciones que estén activas (denotamos por I = {i/gi(x0) = ci}

el conjunto de restricciones activas en x0)

T (x0) = {h ∈ Rn /∇gi(x0) · h = 0 ∀ i ∈ I.}

Para ello, al igual que en los problemas con restricciones de igualdad, analizamos la matriz hessiana

de la función lagrangiana obtenida tomando como variables sólo las variables originales y su restricción al

correspondiente subespacio tangente a las restricciones activas:

q|T (h) = ht HxL(x0, λ∗) h ∀ h ∈ T (x0)

Proposición 17.30 (Condiciones suficientes de segundo orden para optimalidad local bajo restricciones

de igualdad) Sean f , gi : D ⊆ Rn−→R (i = 1, . . . ,m) funciones de clase C2, x0 una solución factible

verificando las condiciones de regularidad con (x0, λ∗) verificando las condiciones de Kuhn-Tucker y seaa

HxL(x0, λ∗) la matriz hessiana de la función lagrangiana obtenida tomando como variables sólo las varia-

bles originales.

Página 479 Proyecto MATECO 2.1

Page 20: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

Si HxL(x0, λ∗) restringida al espacio tangente a las restricciones activas en x0, T (x0), es definida

positiva entonces x0 es un mínimo condicionado estricto.

Si HxL(x0, λ∗) restringida al espacio tangente a las restricciones activas en x0, T (x0), es definida

negativa entonces x0 es un máximo condicionado estricto. ♣

Nota Para clasificar la matriz hessiana restringida al espacio tangente a las restricciones activas podemos

utilizar los mismos criterios que en el caso de óptimos condicionados por restricciones de igualdad. ♣

Ejercicio 17.31 Resolver los siguientes problemas:

(a)

mın x2 + 2y2

s.a. x + 2y ≤ −3

x − 2y ≤ 2

x ≥ −2

(b)

opt (x1 + 1)2 + (x2 + 1)2

s.a. x21 + x2

2 ≤ 2

x2 ≤ 1

Proyecto MATECO 2.1 Página 480

Page 21: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

Ejercicios del tema.

Ejercicio 17.32 Calcular los mínimos, máximos y puntos de silla (si los hay) de las siguientes funciones:

(a) f (x) = x2 + 2 (b) f (x) =√

1 + x

(c) f (x) = x(x − 3)2 (d) f (x) = ln(1 + x)

(e) f (x) = x3 − 3x + 2 con x ≥ 0 (f) f (x) = sen(x) con 0 ≤ x ≤ 2π

(g) f (x, y) = x2 + xy + 2y2 (h) f (x, y) = 3xy + x2y + xy2

(i) f (x, y) = 4x + 9

y + 1 + y + x (j) f (x, y) = (y − x2)(y + 2x2)

(k) f (x, y) = x2 − x(y2 − 4y) (l) f (x, y) = x2y2

(m) f (x, y) = (x2 − 4x)y − y2 (n) f (x, y, z) = 6xz3 − yz

(ñ) f (x, y, z) = xy + yz + xz (o) f (x, y, z) = x2 + y2 − 3x − 3xz + 3z2

(p) f (x, y, z) = 16x + 12y + 20z − x2 − 2y2 − 3z2 − 2xz − 25 con x, y, z ≥ 0

Ejercicio 17.33 Dada la función f (x, y) = ax2 + 2xy + by2 + x + y + 1 con a, b ∈ R tales que ab , 1 y

a , 0, discútanse los extremos de f según los valores de los parámetros a y b.

Ejercicio 17.34 Determinar si el punto (0, 0) es un punto óptimo de f (x, y) = 2x3−2x2−y2. >Es un óptimo

local o global?. Igual para la función f (x, y) = x4 − 2x2y + y2.

Ejercicio 17.35 Encontrar, si es posible y suponiendo que las variables son continuas, los óptimos globales

de los problemas de PNL sin restricciones que se plantearon en los ejercicios del tema 16 (problema 16.26,

problema 16.27, problema16.36, problema 16.37, problema 16.44 y problema 16.47).

Ejercicio 17.36 Resolver los siguientes problemas:

a) mın(2x1 + 3x2), s.a. x21 + 3

2 x22 = 6.

b) max(x21 + x2

2 − x23), s.a. {x1 + x2 = 1, x1 − x2 + x3 = 3}.

c) mın(x21 + x2

2 + x23), s.a. x1 = 3.

d) mın(x21 + x2

2 + x23), s.a. x1 + x2 + x3 = 3.

e) mın(x21 + x2

2 + x23), s.a. {x1 = 3, x1 + x2 + x3 = 3}.

f) opt (−x21 − 4x2

2 − 16x23), s.a. x1 − 1 = 0.

g) opt (−x21 − 4x2

2 − 16x23), s.a. x1x2 − 1 = 0.

Página 481 Proyecto MATECO 2.1

Page 22: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

Bloque V. PROGRAMACIÓN MATEMÁTICA

h) max(x21 + x2), s.a. x2

1 + x22 = 1.

i) mın 3 + x21 + 2x2

2 + 4x2 − 2x1 + (x3 − 2)2, s.a. 2x1 + 4x2 + x3 = 0.

j) opt x1x2 + x23, s.a. 2x1 − x2 + x3 = 0.

k) opt (1 + x21)x2, s.a. x2 − x2

1 = 3.

Ejercicio 17.37 Una fábrica produce un único bien a partir de tres factores, siendo fijos tanto el precio de

venta del producto, como los precios de compra de los factores. El beneficio obtenido por dicha empresa es

(en miles de euros):

B(x1, x2, x3) = x31 −

12

x22 + x3 + 10

donde x1, x2, x3 es el número de toneladas de las tres materias primas utilizadas en el proceso de produc-

ción. La empresa tiene un contrato con un proveedor que le obliga a consumir exactamente 2 toneladas de

la primera materia y a que las cantidades consumidas de las otras dos sean iguales.

a) Calcular las cantidades de materias primas que debe comprar la empresa para maximimizar sus bene-

ficios si se cumplen las condiciones del contrato.

b) Si el proveedor admitiese suministrar más cantidad de la primera materia prima a un coste negociables

de p1 (miles de euros) por tonelada, calcular el valor máximo de p1 que el empresario estaría dispuesto

a pagar para que le fuese rentable recibir una tonelada más.

Ejercicio 17.38 Resolver, si es posible y suponiendo que las variables son continuas, los problemas de PNL

con restricciones de igualdad que se plantearon en los ejercicios del tema 16 (problema 16.29, problema

16.32 y problema 16.46).

Ejercicio 17.39 Encontrar el valor de β para que el punto x∗1 = 1, x∗2 = 2 sea óptimo del siguiente problema

mediante las condiciones de Kuhn-Tucker y comprobarlo gráficamente

max 2x1 + βx2, s.a.{x21 + x2

2 ≤ 5, x1 − x2 ≤ 2}

Ejercicio 17.40 Resolver los siguientes problemas:

a) max x1 + x2, s.a. x21 + x2

2 ≤ 1.

b) max (x1 + 1)2 + (x2 + 1)2, s.a. {x21 + x2

2 ≤ 2, x2 ≤ 1}.

Proyecto MATECO 2.1 Página 482

Page 23: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes

TEMA 17. OPTIMIZACIÓN CLÁSICA

c) mın −x1 − x2 + 12 x2

1 + x22 − x1x2, s.a. {x1 + x2 ≤ 3, −2x2 − 3x2 ≤ −6, x1 ≥ 0, x2 ≥ 0}.

d) max x21 + x2

2, s.a. {2x1 − x2 ≤ 1, x1 + x2 ≤ 1}.

e) mın x21 + x2

2, s.a. {2x1 − x2 ≤ 5, x1 + x2 ≥ 3}.

f) max x31 + 2x1x2, s.a. {x1 − x2 ≤ 0, x1 ≥ 0, x2 ≥ 0}.

g) max x1 − x2, s.a. {x1 + x22 ≤ 3, x1 ≥ 0}.

h) max 2x21 + x2

2, s.a. x1 ≥ 1.

i) mın 9x21 + x2

2, s.a. {x21 + (x2 − 2)2 ≤ 1, x1 ≥ 0, x2 ≥ 0}.

>En cuanto varía el valor de la función objetivo en los ejercicios c), d) y e) si el término independiente

de la primera restricción aumenta en 0.2 unidades y disminuye en 0.1 el de la segunda restricción? >Cuál

sería el nuevo valor de la función objetivo?

Ejercicio 17.41 Una empresa desea minimizar sus costes totales, con la condición de que los ingresos

obtenidos por la venta de las cantidades x1 y x2 de los dos productos que fabrica superen un cierto umbral

mínimo de 3 unidades. Sabiendo que los costes unitarios de fabricación de cada bien son funciones lineales

de los outputs producidos de la forma c1 = x1 y c2 = 2x2, se vende todo lo que se produce y los precios son

respectivamente p1 = 1 y p2 = 3. Formular el problema matemático y resolverlo mediante las condiciones

de Kuhn-Tucker. Además, estudiar cómo varía el coste óptimo con respecto a la situación anterior si como

mínimo se ingresan 2,8 u.m. ¿Y si como mínimo se desea ahora ingresar 3,1 u.m.?.

Ejercicio 17.42 Resolver, si es posible y suponiendo que las variables son continuas, los problemas de

PNL con restricciones de desigualdad que se plantearon en los ejercicios del tema 16 (problema 16.30,

problema 16.33 y problema 16.38).

Página 483 Proyecto MATECO 2.1

Page 24: Tema 17 Optimización Clásica - personal.us.es · Tema 17 Optimización Clásica Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones suficientes