Sistema de ecuaciones lineales

22

Transcript of Sistema de ecuaciones lineales

Page 1: Sistema de ecuaciones lineales
Page 2: Sistema de ecuaciones lineales

Solución de Sistemas de

Ecuaciones Lineales

BARQUISIMETO, JUNIO DE 2013

UNIVERSIDAD FERMIN TORO

VICE RECTORADO ACADEMICO

ESCUELA DE ELECTRICA

INTEGRANTE: YELIMAR YEPEZ

TUTOR: DOMINGO MÉNDEZ

Page 3: Sistema de ecuaciones lineales

El proceso de eliminación de Gaussisana o de Gauss,

consiste en realizar transformaciones elementales en el

sistema inicial (intercambio de filas, intercambio de columnas,

multiplicación de filas o columnas por constantes,

operaciones con filas o columnas, . . . ), destinadas a

transformarlo en un sistema triangular superior, que se

resolvera por remonte. Además, la matriz de partida tiene el

mismo determinante que la matriz de llegada, cuyo

determinante es el producto de los coeficientes diagonales de

la matriz.

Page 4: Sistema de ecuaciones lineales

Uno de los problemas de la eliminación Gaussiana es que se

debe dividir entre el pivote; si este es un número muy

pequeño, entonces un error de redondeo puede arrojar serias

dudas sobre la respuesta final.

En forma general este método propone la eliminación

progresiva de variables en el sistema de ecuaciones, hasta

tener sólo una ecuación con una incógnita. Una vez resuelta

esta, se procede por sustitución regresiva hasta obtener los

valores de todas las variables.

Page 5: Sistema de ecuaciones lineales

El proceso de eliminación de Gauss - Jordán consiste en

realizar transformaciones elementales en el sistema inicial,

destinadas a transformarlo en un sistema diagonal. El

número de operaciones elementales de este método, es

superior al del método de Gauss (alrededor de un 50% más).

Page 6: Sistema de ecuaciones lineales

Sin embargo, a la hora de resolver el sistema de llegada

por remonte, el número de operaciones es menor, motivo

por el cual, el método de Gauss - Jordán es un método

computacionalmente bueno cuando se tiene que resolver

varios sistemas con la misma matriz A y resolverlos

simultáneamente, utilizando el algoritmo de Gauss-Jordán.

Page 7: Sistema de ecuaciones lineales

En base a lo anteriormente expuesto, solo se haria un

proceso de eliminación en la matriz y la resolución de un

sistema con esta matriz es muy fácil. Un ejemplo en el que

se suele usar Gauss - Jordán es en el cálculo de la matriz

inversa, ya que calcular la inversa de A, es calcular N

sistemas con la misma matriz.

Page 8: Sistema de ecuaciones lineales

El método de Descomposición LU se basa en demostrar

que una matriz A se puede factorizar como el producto de

una matriz triangular inferior L con una matriz triangular

superior U, donde en el paso de eliminación sólo se

involucran operaciones sobre los coeficientes de la matriz,

permitiendo así evaluar los términos independientes bi de

manera eficiente.

Page 9: Sistema de ecuaciones lineales

La implementación del algoritmo de la descomposición

LU tiene sus variantes en cuanto a los valores iniciales de la

diagonal que tomen las matrices L y U, es decir, si los

valores de la diagonal de la matriz L tiene números 1,

formalmente esto se refiere a la Descomposición de Doolitle.

Pero si los valores de la diagonal de la matriz U tiene

números 1, formalmente esto se refiere a la Descomposición

de Crout

Page 10: Sistema de ecuaciones lineales

Una matriz simétrica es aquella donde Aij = Aji para toda i

y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren

comúnmente en problemas de ambos contextos: el

matemático y el de ingeniería.

Ellos ofrecen ventajas computacionales ya que sólo se

necesita la mitad de almacenamiento y, en la mayoría de los

casos, sólo se requiere la mitad del tiempo de cálculo para su

solución.

Page 11: Sistema de ecuaciones lineales

Al contrario de la Descomposición LU, no requiere de

pivoteo. El método de Factorización de Cholesky se basa en

demostrar que si una matriz A es simétrica y definida

positiva en lugar de factorizarse como LU, puede ser

factorizada como el producto de una matriz triangular

inferior y la traspuesta de la matriz triangular inferior, es

decir los factores triangulares resultantes son la traspuesta

de cada uno.

A = L . LT

Page 12: Sistema de ecuaciones lineales

Anteriormente se analizo la factorización LU de una

matriz el cual conduce a un método muy eficiente para

resolver un sistema lineal.

Otro método de factorización de una A, llamada

factorización QR de A. Esta factorización se usa ampliamente

en los programas de computadora para determinar valores

propios de una matriz, para resolver sistemas lineales y para

determinar aproximaciones por mínimos cuadrados

Page 13: Sistema de ecuaciones lineales

En muchas aplicaciones el número de filas (M) de una

matriz de coeficientes Amxn puede ser 3 al número de

columnas (N). La Factorización QR consiste en descomponer

la matriz Amxn en el producto de dos matrices:

Una matriz Ortogonal: Qmxn ® QT. Q = INxN

Una matriz Triangular Superior: U = RNxN

Para encontrar las matrices Q y R se utiliza un método

basado en Transformaciones Sucesivas de Householder.

Page 14: Sistema de ecuaciones lineales

El método de Gauss y sus variantes son conocidos como

métodos directos para resolver el problema inicial Ax = b. Se

ejecutan a través de un número finito de pasos y generan una

solución x que sería exacta sino fuera por los errores de

redondeo. En contraste, un método iterativo da lugar a una

sucesión de vectores que idealmente converge a la solución. El

cálculo se detiene cuando se cuenta con una solución

aproximada con cierto grado de precisión especificado de

antemano o después de cierto número de iteraciones. Los

métodos indirectos son casi siempre iterativos.

Page 15: Sistema de ecuaciones lineales

Un método iterado de resolución del sistema Ax = b es aquel

que genera, a partir de un vector inicial x0, una sucesión de

vectores x1, x2, . . . xn.. "Un método iterado se dirá que es

consistente con el sistema Ax = b, si el límite x de la sucesión

(xn), en caso de existir, es solución del sistema. Se dirá que el

método es convergente si la sucesión generada por cualquier

vector inicial x0 es convergente a la solución del sistema".

Es evidente que si un método es convergente es consistente,

sin embargo, el recíproco no es cierto.

Page 16: Sistema de ecuaciones lineales

El Método de Gauss Seidel emplea valores iniciales y

después itera para obtener estimaciones refinadas de la

solución; es particularmente adecuado para un gran

número de ecuaciones, lo cual en cierto modo lo hace un

método más comúnmente usado. La fórmula utilizada para

hallar los xi viene dada por el despeje de cada una de las xi

en cada una de las ecuaciones y se les da un valor inicial a

cada xi de cero.

Page 17: Sistema de ecuaciones lineales

En el método de Gauss-Seidel los valores actualizados de

xi sustituyen de inmediato a los valores anteriores, mientras

que en el método de Jacobi todas las componentes nuevas

del vector se calculan antes de llevar a cabo la sustitución.

Por contra, en el método de Gauss-Seidel los cálculos deben

llevarse a cabo por orden, ya que el nuevo valor xi depende

de los valores actualizados de x1, x2, ..., x i-1.

Page 18: Sistema de ecuaciones lineales

La desventaja del método de Gauss-Seidel es que no

siempre converge a la solución exacta o algunas veces los

hace de manera muy lenta. Únicamente es confiable para

aquellos sistemas dominantes diagonalmente.

Page 19: Sistema de ecuaciones lineales

El Método de Jacobi transforma una matriz simétrica en

una matriz diagonal al eliminar de forma simétrica los

elementos que están fuera de la diagonal.

Desafortunadamente, el método requiere un número

infinito de operaciones, ya que la eliminación de cada

elemento no cero a menudo crea un nuevo valor no cero en

el elemento cero anterior.

Page 20: Sistema de ecuaciones lineales

Si A es diagonalmente dominante, entonces la sucesión

que resulta de la iteración de Jacobi converge a la solución

de Ax = b para cualquier vector inicial Xo. Partimos de una

aproximación inicial Xo para las soluciones Xi al sistema de

ecuaciones y sustituimos estos valores en la ecuación.

Page 21: Sistema de ecuaciones lineales

Que es la expresión que proporciona las nuevas

componentes del vector x(k) en función de vector anterior

x(k-1) en la iteración de Jacobi, en su respectivo algoritmo;

donde el a el método de Jacobi más que usar el último valor

disponible de , con base en un conjunto de las x anteriores

(). De esta forma, como se generan nuevos valores, no se

usan en forma inmediata sino que se retienen para la

siguiente iteración.

Page 22: Sistema de ecuaciones lineales