Unidad 6 metodos

16
Unidad 6 Solución de sistemas de ecuaciones no lineales Puesto que, como se acaba de señalar, los métodos que abordaremos serán de tipo iterativo y en ellos se generara una sucesión de vectores que, en el mejor de los casos, se vayan aproximando hacia un vector solución, conviene comenzar recordando algunos conceptos sobre sucesiones. En este sentido, en primer lugar, nos ubicaremos en conjuntos sobre los que se haya de nido una forma de medir la distancia entre sus elementos (esto es en un espacio métrico (E, d)). En este espacio métrico comenzamos recordando la siguiente de nición: Dada una sucesión infinita de elementos {xi}∞i=1del espacio métrico (E, d) se dice que la sucesión es convergente hacia el elemento x∗∈E, si para cualquier valor ε > 0 siempre se puede encontrar un numero natural N tal que para todo ´índice n > N se verifica que d(xn, x) < ε. Al elemento xanterior se le denomina, si existe, límite de la sucesión {xi}∞i=1 Dada una sucesión infinita de elementos {xi}∞i=1 del espacio métrico (E, d) se dice que la sucesión es una sucesión de Cauchy, si para cualquier valor ε > 0 siempre se puede encontrar un número natural N tal que para todo par de ´índices n > N y m > N se verifica que d(xn, xm) < ε.

Transcript of Unidad 6 metodos

Page 1: Unidad 6 metodos

Unidad 6

Solución de sistemas de ecuaciones no lineales

Puesto que, como se acaba de señalar, los métodos que abordaremos serán de tipo iterativo

y en ellos se generara una sucesión de vectores que, en el mejor de los casos, se vayan

aproximando hacia un vector solución, conviene comenzar recordando algunos conceptos

sobre sucesiones. En este sentido, en primer lugar, nos ubicaremos en conjuntos sobre los

que se haya de finido una forma de medir la distancia entre sus elementos (esto es en un

espacio métrico (E, d)). En este espacio métrico comenzamos recordando la siguiente de

finición:

Dada una sucesión infinita de elementos {xi}∞i=1del espacio métrico (E, d) se dice que la

sucesión es convergente hacia el elemento x∗∈E, si para cualquier valor ε > 0 siempre se

puede encontrar un numero natural N tal que para todo ´índice n > N se verifica que d(xn,

x∗) < ε. Al elemento x∗ anterior se le denomina, si existe, límite de la sucesión {xi}∞i=1

Dada una sucesión infinita de elementos {xi}∞i=1 del espacio métrico (E, d) se dice que la

sucesión es una sucesión de Cauchy, si para cualquier valor ε > 0 siempre se puede

encontrar un número natural N tal que para todo par de ´índices n > N y m > N se verifica

que d(xn, xm) < ε.

Page 2: Unidad 6 metodos

Método de Jacobi

En análisis numérico el método de Jacobi es un método iterativo, usado para resolver

sistemas de ecuaciones lineales del tipo . El algoritmo toma su nombre del

matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar

fórmulas como iteración de punto fijo.

La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente:

donde

, es una matriz diagonal.

, es una matriz triangular inferior.

, es una matriz triangular superior.

Partiendo de , podemos reescribir dicha ecuación como:

Luego,

Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede ser

expresado de la forma:

donde es el contador de iteración, Finalmente tenemos:

Cabe destacar que al calcular xi(k+1)

se necesitan todos los elementos en x(k)

, excepto el que

tenga el mismo i. Por eso, al contrario que en el método Gauss-Seidel, no se puede

sobreescribir xi(k)

con xi(k+1)

, ya que su valor será necesario para el resto de los cálculos. Esta

es la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad

mínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar un

copiado explícito

Page 3: Unidad 6 metodos

Convergencia

es la condición necesaria y suficiente para la convergencia, siendo R = L + U. No es

necesario que los elementos de la diagonal en la matriz sean mayores (en magnitud) que los

otros elementos (la matriz es diagonalmente dominante), pero en el caso de serlo, la matriz

converge

Algoritmo

El método de Jacobi se puede escribir en forma de algoritmo de la siguiente manera:

Algoritmo Método de Jacobi

función Jacobi ( , )

// es una aproximación inicial a la solución//

para hasta convergencia hacer

para hasta hacer

para hasta hacer

si entonces

fin para

fin para comprobar si se alcanza convergencia

fin para

Page 4: Unidad 6 metodos

Ejemplo

Un sistema linear de la forma con una estimación inicial esta dado por

Usamos la ecuación , descrita anteriormente, para estimar

. Primero, reescribimos la ecuación de una manera mas conveniente

, donde y . vea que

donde y son las partes inferior y superior de . de los valores

conocidos.

determinamos como

C es encontrada como

con T y C calculadas, estimaremos como :

siguientes iteraciones.

Page 5: Unidad 6 metodos

este proceso se repetirá hasta que converja (i.e., hasta que es menor). la

solución después de 25 iteraciones es:

Método de Gauss-Seidel

En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para

resolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticos

alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método de

Jacobi.

Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que

produzca una matriz (cuadrada, naturalmente pues para que exista solución única, el

sistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los elementos de

su diagonal no-nulos, la convergencia del método solo se garantiza si la matriz es

diagonalmente dominante o si es simétrica y, a la vez, definida positiva.

Descripción

Es un método iterativo, lo que significa que se parte de una aproximación inicial y se repite

el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera.

Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial:

donde:

Page 6: Unidad 6 metodos

}El método de iteración Gauss-Seidel se computa, para la iteración :

donde

definimos

y

,

donde los coeficientes de la matriz N se definen como si , si

.

Considerando el sistema con la condición de que .

Entonces podemos escribir la fórmula de iteración del método

(*)

La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las

aproximaciones no se utilizan hasta completar las iteraciones

Convergencia

Teorema: Suponga una matriz es una matriz no singular que cumple la condición de

ó . Entonces el método de Gauss-Seidel converge a una solución del sistema de

ecuaciones, y la convergencia es por lo menos tan rápida como la convergencia del

método de Jacobi.

Para ver los casos en que converge el método primero mostraremos que se puede escribir

de la siguiente forma:

Page 7: Unidad 6 metodos

(**)

(el término es la aproximación obtenida después de la k-ésima iteración) este modo de

escribir la iteración es la forma general de un método iterativo estacionario.

Primeramente debemos demostrar que el problema lineal que queremos resolver

se puede representar en la forma (**), por este motivo debemos tratar de escribir la matriz

A como la suma de una matriz triangular inferior, una diagonal y una triangular superior

A=(L+D+U), D=diag( ). Haciendo los despejes necesarios escribimos el método de esta

forma

por lo tanto M=-(L+D)-1

U y c=(L+D)-1

b

Ahora podemos ver que la relación entre los errores, el cuál se puede calcular al substraer

x=Bx+c de (**)

Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a los

vectores propios , i= 1,..., n, los cuales son linealmente independientes, entonces

podemos escribir el error inicial

(***)

Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1, ..., n. De este hecho se desprende

el siguiente teorema:

Teorema: Una condición suficiente y necesaria para que un método iterativo

estacionario converja para una aproximación arbitraria x^{(0)} es que

donde ρ(M) es el radio espectral de M.

Page 8: Unidad 6 metodos

Explicación

Se elige una aproximación inicial para .

Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso se repite

hasta que sea lo suficientemente cercano a , donde k representa el número de

pasos en la iteración.Se tiene que despejar de la ecuacion una de variable distinta y

determinante.Si al sumar los coeficientes de las variables divididos entre si da 1 y -1 es más

probable que el despeje funcione. Y se debe de despejar en cada ecuacion una variable

distinta, una forma de encontrar que variable despejar es despejando la variable que tenga

el mayor coeficiente.

Ejemplos:

3x-y+z=1

x-5y+z=8

x-y+4z=11

Despejes:

x=(1+y-z)/3 y=(8-x-z)/-5 z=(11-x+y)/4

Despues se necesita iniciar con las iteraciones,el valor inicial no es importante lo

importante es usar las iteraciones necesarias, para darte cuenta cuantas iteraciones son

necesarias necesitas observar cuando los decimales se estabilicen en dos decimales pero se

tiene que tener en cuenta que se tiene que seguir con las iteraciones aunque una de las

variables sea estable si las démas no han llegado al valor buscado. Se sustituye los valores

en los despejes, usando para cada despeje el nuevo valor encontrado.

k x Y z

0 0 0 0

1 0.333 -1.600 2.750

2 -1.117 -0.983 2.267

3 -0.750 -1.370 2.783

4 -1.051 -1.193 2.595

... ... ... ...

10 -0.982 -1.259 2.679

11 -0.979 -1.261 2.681

12 -0.980 -1.260 2.680

13 -0.980 -1.260 2.680

-0.980 -1.260 2.680

Page 9: Unidad 6 metodos

Método de Newton

En análisis numérico, el método de Newton (conocido también como el método de

Newton-Raphson o el método de Newton-Fourier) es un algoritmo eficiente para

encontrar aproximaciones de los ceros o raíces de una función real. También puede ser

usado para encontrar el máximo o mínimo de una función, encontrando los ceros de su

primera derivada.

Descripción del método

El método de Newton-Raphson es un método abierto,

en el sentido de que su convergencia global no está

garantizada. La única manera de alcanzar la

convergencia es seleccionar un valor inicial lo

suficientemente cercano a la raíz buscada. Así, se ha

de comenzar la iteración con un valor razonablemente

cercano al cero (denominado punto de arranque o

valor supuesto). La relativa cercanía del punto inicial a

la raíz depende mucho de la naturaleza de la propia

función; si ésta presenta múltiples puntos de inflexión

o pendientes grandes en el entorno de la raíz, entonces

las probabilidades de que el algoritmo diverja

aumentan, lo cual exige seleccionar un valor supuesto

cercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la recta

tangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método,

una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteraciones

hasta que el método haya convergido lo suficiente. f'(x)= 0 Sea f : [a, b] -> R función

derivable definida en el intervalo real [a, b]. Empezamos con un valor inicial x0 y definimos

para cada número natural n

Donde f ' denota la derivada de f.

Nótese que el método descrito es de aplicación exclusiva para funciones de una sola

variable con forma analítica o implícita conocible. Existen variantes del método aplicables

a sistemas discretos que permiten estimar las raíces de la tendencia, así como algoritmos

que extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etc.

Page 10: Unidad 6 metodos

Obtención del Algoritmo

Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de

Newton-Raphson.

La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo al

desarrollo geométrico del método de la secante, podría pensarse en que si los puntos de

iteración están lo suficientemente cerca (a una distancia infinitesimal), entonces la secante

se sustituye por la tangente a la curva en el punto. Así pues, si por un punto de iteración

trazamos la tangente a la curva, por extensión con el método de la secante, el nuevo punto

de iteración se tomará como la abscisa en el origen de la tangente (punto de corte de la

tangente con el eje X). Esto es equivalente a linealizar la función, es decir, f se reemplaza

por una recta tal que contiene al punto ( , ( )) y cuya pendiente coincide con la

derivada de la función en el punto, . La nueva aproximación a la raíz, , se logra

la intersección de la función lineal con el eje X de abscisas. Matemáticamente:

En la ilustración adjunta del método de Newton se puede ver que es una mejor

aproximación que para el cero (x) de la función f.

Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en serie de

Taylor, para un entorno del punto :

Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en :

Si además se acepta que tiende a la raíz, se ha de cumplir que , luego,

sustituyendo en la expresión anterior, obtenemos el algoritmo.

Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse como

un método de iteración de punto fijo. Así, dada la ecuación , se puede

considerar el siguiente método de iteración de punto fijo:

Page 11: Unidad 6 metodos

Se escoge h (x) de manera que g'(r)=0 (r es la raíz buscada). Dado que g'(r) es:

Entonces:

Como h (x) no tiene que ser única, se escoge de la forma más sencilla:

Por tanto, imponiendo subíndices:

Expresión que coincide con la del algoritmo de Newton-Raphson

Convergencia del Método

El orden de convergencia de este método es, por lo menos, cuadrático. Sin embargo, si la

raíz buscada es de multiplicidad algebraica mayor a uno (i.e, una raíz doble, triple, ...), el

método de Newton-Raphson pierde su convergencia cuadrática y pasa a ser lineal de

constante asintótica de convergencia 1-1/m, con m la multiplicidad de la raíz.

Existen numerosas formas de evitar este problema, como pudieran ser los métodos de

aceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen. Derivados de

Newton-Raphson destacan el método de Ralston-Rabinowitz, que restaura la convergencia

cuadrática sin más que modificar el algoritmo a:

Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cual

no siempre es posible. Por ello también se puede modificar el algoritmo tomando una

función auxiliar g(x) = f(x)/f'(x), resultando:

Page 12: Unidad 6 metodos

Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g'(x) si

f(x) no es fácilmente derivable.

Por otro lado, la convergencia del método se demuestra cuadrática para el caso más

habitual en base a tratar el método como uno de punto fijo: si g '(r)=0, y g''(r) es distinto de

0, entonces la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades de

estos métodos.

Nótese de todas formas que el método de Newton-Raphson es un método abierto: la

convergencia no está garantizada por un teorema de convergencia global como podría

estarlo en los métodos de falsa posición o de bisección. Así, es necesario partir de una

aproximación inicial próxima a la raíz buscada para que el método converja y cumpla el

teorema de convergencia local.

Teorema de Convergencia Local del Método de Newton

Sea . Si , y , entonces existe un r>0 tal

que si , entonces la sucesión xn con verifica que:

para todo n y xn tiende a p cuando n tiende a infinito.

Si además , entonces la convergencia es cuadrática.

Teorema de Convergencia Global del Método de Newton

Sea verificando1 :

1.

2. para todo

3. para todo

4.

Entonces existe un único tal que por lo que la sucesión converge a s.

Page 13: Unidad 6 metodos

Estimación del Error

Se puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática: si

es raíz, entonces:

para una cierta constante . Esto significa que si en algún momento el error es menor o

igual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimales

exactos. En la práctica puede servir para hacer una estimación aproximada del error:

Error relativo entre dos aproximaciones sucesivas:

Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto.

Se detiene el proceso iterativo cuando este error relativo es aproximadamente menor que

una cantidad fijada previamente.

Ejemplo

Consideremos el problema de encontrar un número positivo x tal que cos(x) = x3.

Podríamos tratar de encontrar el cero de f(x) = cos(x) - x3.

Sabemos que f '(x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x

3 > 1 para x>1,

deducimos que nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicial

x0 = 0,5

Los dígitos correctos están subrayados. En particular, x6 es correcto para el número de

decimales pedidos. Podemos ver que el número de dígitos correctos después de la coma se

incrementa desde 2 (para x3) a 5 y 10, ilustando la convergencia cuadrática.

Page 14: Unidad 6 metodos

Aplicación de las matrices y los determinantes a los

sistemas de ecuaciones lineales

Un sistema de ecuaciones lineales (s.e.l.) es un conjunto de m ecuaciones con n incógnitas

de la forma:

donde aij son los coeficientes, xi las incógnitas y bi son los términos independientes.

Representación matricial de un s.e.l.

El anterior sistema se puede expresar en forma matricial, usando el producto de matrices de

la forma:

De modo simplificado suele escribirse Am,n · Xn,1 = Bm,1 , donde la matriz A de orden m x n

se denomina matriz de coeficientes.

También usaremos la matriz ampliada, que representaremos por A', que es la matriz de

coeficientes a la cual le hemos añadido la columna del término independiente:

Page 15: Unidad 6 metodos

Discusión de un s.e.l.: Teorema de Rouché-Fröbenius

Dado un sistema de ecuaciones con matriz de coeficientes A, matriz ampliada A' y rangos

respectivos r y r' se verifican:

1. El sistema de ecuaciones es compatible cuando rango(A) = rango(A')

2. En caso de compatibilidad existen dos posibilidades:

Si r = r' = n (nº de incógnitas) Sistema compatible determinado (una única solución)

Si r = r' < n (nº de incógnitas) Sistema compatible indeterminado (infinitas soluciones)

Al valor n - r se le llama grado de libertad del sistema.

Resolución de un s.e.l.

a) Regla de Cramer

Es aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y es

compatible determinado (a un s.e.l. qu cumple estas condiciones se le llama un sistema de

Cramer).

El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinate

de la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiar

la columna i del determinante anterior por la columna de los términos independientes.

Page 16: Unidad 6 metodos

INTITUTO TECNOLOGICO SUPERIOR DE

MACUSPANA

MATERIA: METODOS MUNERICOS

UNIDAD V

MAESTRO: ABRAHAM LINCOLN MARTINE

RUIZ

ALUMNO: OSCAR DE JESUS LOPEZ

MARTINEZ

CARRERA: ING. CIVIL