Resumen (angel.d.garcia.p)
-
Upload
angel-d-garcia-p -
Category
Education
-
view
218 -
download
1
Transcript of Resumen (angel.d.garcia.p)
UNIVERSIDAD FERMÍN TORO
VICERECTORADO ACADÉMICO
SISTEMA DE APRENDIZAJE INTERACTIVO A DISTANCIA
CABUDARE
Resumen
Alumno: Angel D. García P.
CI: 20.501.660
Sección: SAIA-B
Profesor: Domingo Méndez
Métodos De Eliminación Gaussiana
El método de Gauss consiste en transformar un sistema de ecuaciones en otro
equivalente de forma que éste sea escalonado.
Obtenemos sistemas equivalentes por eliminación de ecuaciones dependientes. Si:
- Todos los coeficientes son ceros.
- Dos filas son iguales.
- Una fila es proporcional a otra.
- Una fila es combinación lineal de otras.
Ejemplo:
Indique porque las siguientes matrices no son escalonadas
Método de Gauss-Jordan
EL método de Gauss-Jordan, o algoritmo Gauss-Jordan nos sirve para lo siguiente: Si
tenemos un sistema de ecuaciones de la forma que aparece más adelante, para resolverlo, es
decir, decir cuáles son su solución o soluciones o si no tiene ninguna, podemos transformarlo
mediante operaciones elementales en uno más sencillo para resolver. Efectivamente el
algoritmo de Gauss-Jordan o método de escalonamiento nos transforma cualquier matriz en
una escalonada reducida única y que es la forma más sencilla de solucionar.
Ejemplo:
Sea A·X = B un sistema de m ecuaciones lineales con n incógnitas (sobre un cuerpo en
general), siendo m y n naturales (no nulos):
A·X = B es compatible si, y sólo si, rango( A ) = rango ( A | B ).
A·X = B es compatible determinado si, y sólo si, rango( A ) = n = rango( A | B ).
DESCOMPOSICIÓN LU
El paso de la eliminación que consume tiempo se puede reformular de tal manera que
involucre sólo operaciones sobre los coeficientes de [A].
Conveniente para situaciones donde se tienen que evaluar varias veces el vector [b],
para un mismo valor de [A].
El método de eliminación de Gauss se puede implementar como una descomposición
LU.
LU proporciona un medio eficiente para calcular la matriz inversa.
Ejemplo:
Descripción para resolver en dos pasos:
Descomposición LU: La matriz a ser factoriza o "descompone" en matrices triangular
inferior (L), y superior (U).
Factorización de Cholesky
Una matriz simétrica definida positiva puede ser descompuesta como el producto de
una matriz triangular inferior y la traspuesta de la matriz triangular inferior. La matriz
triangular inferior es el triángulo de Cholesky de la matriz original positiva definida. El
resultado de Cholesky ha sido extendido a matrices con entradas complejas. Es una manera
de resolver sistemas de ecuaciones matriciales y se deriva de la factorización LU con una
pequeña variación.
Cuando se tiene una matriz a coeficientes reales, simétrica y definida positiva, entonces
se dispone de una factorización de tipo LU especial, donde U = LT. El método de Cholesky
es el que aprovecha la ventaja de la simetría de A para encontrar una matriz L tal que A = L
LT. Esta descomposición es única.
Si A = L LT, el sistema original A x = b se puede escribir como:
Método de Jacobi:
En análisis numérico el método de Jacobi es un método iterativo, usado para resolver
sistemas de ecuaciones lineales del tipo . El algoritmo toma su nombre del
matemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usar fórmulas
como iteración de punto fijo.
La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente:
Donde:
, es una matriz diagonal.
, es una matriz triangular inferior.
, es una matriz triangular superior.
Método de Gauss-Seidel
Es un utilizado para resolver sistemas de ecuaciones lineales. Aunque este método
puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz
(cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas
ecuaciones como incógnitas) de coeficientes con los elementos de su diagonal no-nulos, la
convergencia del método solo se garantiza si la matriz es diagonalmente dominante o si es
simétrica y, a la vez, definida positiva.
lo que significa que se parte de una aproximación inicial y se repite el proceso hasta
llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la
solución a un sistema de ecuaciones lineales, en notación matricial:
donde: