Aplicaciones de los sistemas de ecuaciones líneas

25
UNIVERSIDAD FERMIN TORO VICERRECTORADO ACADEMICO DECANATO DE INGENIERIA ESCUELA DE INGENIERIA ELECTRICA Algebr a

description

 

Transcript of Aplicaciones de los sistemas de ecuaciones líneas

Page 1: Aplicaciones de los sistemas de ecuaciones líneas

UNIVERSIDAD FERMIN TORO

VICERRECTORADO ACADEMICO

DECANATO DE INGENIERIA

ESCUELA DE INGENIERIA ELECTRICA

Algebra

Integrantes:

López Edward CI: 25139374 Joseph Barios

CI:

Page 2: Aplicaciones de los sistemas de ecuaciones líneas

Aplicaciones de los sistemas de ecuaciones líneas

-En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente:

-El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.

-El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico.

Sistemas lineales reales

-En esta sección se analizan las propiedades de los sistemas de ecuaciones lineales sobre el cuerpo , es decir, los sistemas lineales en los cuales los coeficientes de las ecuaciones son números.

Representación gráfica

-Un sistema con   incógnitas se puede representar en el n-espacio correspondiente.

-En los sistemas con 2 incógnitas, el universo de nuestro sistema será el plano bidimensional, mientras que cada una de las ecuaciones será representada por una recta, si es lineal, o por una curva, si no lo es. La solución será el punto (o línea) donde se intersequen todas las rectas y curvas que representan a las ecuaciones. Si no existe ningún punto en el que se intersequen al mismo tiempo todas las líneas, el sistema es incompatible, o lo que es lo mismo, no tiene solución.

-En el caso de un sistema con 3 incógnitas, el universo será el espacio tridimensional, siendo cada ecuación un plano dentro del mismo. Si todos los planos intersecan en un único punto, las coordenadas de este serán la solución al sistema. Si, por el contrario, la intersección de todos ellos es una recta o incluso un plano, el sistema tendrá infinitas soluciones, que serán las coordenadas de los puntos que forman dicha línea o superficie.

Para sistemas de 4 ó más incógnitas, la representación gráfica no existe, por lo que dichos problemas no se enfocan desde esta óptica.

Tipos de sistemas

Page 3: Aplicaciones de los sistemas de ecuaciones líneas

-Los sistemas de ecuaciones se pueden clasificar según el número de soluciones que pueden presentar. De acuerdo con ese caso se pueden presentar los siguientes casos:

Sistema incompatible si no tiene solución. Sistema compatible si tiene solución, en este caso además puede distinguirse entre:

Sistema compatible determinado cuando tiene una única solución. Sistema compatible indeterminado cuando admite un conjunto infinito de

soluciones.-Quedando así la clasificación:

-Los sistemas incompatibles geométricamente se caracterizan por (hiper)planos o rectas que se cruzan sin cortarse. Los sistemas compatibles determinados se caracterizan por un conjunto de (hiper)planos o rectas que se cortan en un único punto. Los sistemas compatibles indeterminados se caracterizan por (hiper)planos que se cortan a lo largo de una recta [o más generalmente un hiperplano de dimensión menor]. Desde un punto de vista algebraico los sistemas compatibles determinados se caracterizan porque el determinante de la matriz es diferente de cero:

Sistemas compatibles indeterminados-Un sistema sobre un cuerpo K es compatible indeterminado cuando posee un número infinito de soluciones. Por ejemplo, el siguiente sistema:

-Tanto la primera como la segunda ecuación se corresponden con la recta cuya pendiente es   y que pasa por el punto , por lo que ambas intersecan en todos los puntos de dicha recta. El sistema es compatible por haber solución o intersección entre las rectas, pero es indeterminado al ocurrir esto en infinitos puntos.

En este tipo de sistemas, la solución genérica consiste en expresar una o más variables como función matemática del resto. En los sistemas lineales compatibles indeterminados, al menos una de sus ecuaciones se puede hallar como combinación lineal del resto, es decir, es linealmente dependiente.

Page 4: Aplicaciones de los sistemas de ecuaciones líneas

Una condición necesaria para que un sistema sea compatible indeterminado es que el determinante de la matriz del sistema sea cero (y por tanto uno de sus autovalores será (0):

De hecho, de las dos condiciones anteriores se desprende, que el conjunto de soluciones de un sistema compatible indeterminado es un subespacio. Y la dimensión de ese espacio vectorial coincidirá con la multiplicidad geométrica del autovalor cero.

Sistemas incompatibles-De un sistema se dice que es incompatible cuando no presenta ninguna solución. Por ejemplo, supongamos el siguiente sistema:

-Las ecuaciones se corresponden gráficamente con dos rectas, ambas con la misma pendiente, Al ser paralelas, no se cortan en ningún punto, es decir, no existe ningún valor que satisfaga a la vez ambas ecuaciones.

--Matemáticamente un sistema de estos es incompatible cuando el rango de la matriz del sistema es inferior al rango de la matriz ampliada. Una condición necesaria para que esto suceda es que el determinante de la matriz del sistema sea cero:

Métodos de solución a sistemas de ecuaciones linealesSustitución-El método de sustitución consiste en despejar en una de las ecuaciones cualquier incógnita, preferiblemente la que tenga menor coeficiente, para, a continuación, sustituirla en otra ecuación por su valor.

-En caso de sistemas con más de dos incógnitas, la seleccionada debe ser sustituida por su valor equivalente en todas las ecuaciones excepto en la que la hemos despejado. En ese instante, tendremos un sistema con una ecuación y una incógnita menos que el inicial, en el que podemos seguir aplicando este método reiteradamente. Por ejemplo, supongamos que queremos resolver por sustitución este sistema:

-En la primera ecuación, seleccionamos la incógnita   por ser la de menor coeficiente y que posiblemente nos facilite más las operaciones, y la despejamos, obteniendo la siguiente ecuación.

Page 5: Aplicaciones de los sistemas de ecuaciones líneas

-El siguiente paso será sustituir cada ocurrencia de la incógnita   en la otra ecuación, para así obtener una ecuación donde la única incógnita sea la .

-Al resolver la ecuación obtenemos el resultado , y si ahora sustituimos esta incógnita por su valor en alguna de las ecuaciones originales obtendremos , con lo que el sistema queda ya resuelto.

Igualación-El método de igualación se puede entender como un caso particular del método de sustitución en el que se despeja la misma incógnita en dos ecuaciones y a continuación se igualan entre sí la parte derecha de ambas ecuaciones.

-Tomando el mismo sistema utilizado como ejemplo para el método de sustitución, si despejamos la incógnita   en ambas ecuaciones nos queda de la siguiente manera:

-Como se puede observar, ambas ecuaciones comparten la misma parte izquierda, por lo que podemos afirmar que las partes derechas también son iguales entre sí.

-Una vez obtenido el valor de la incógnita , se substituye su valor en una de las ecuaciones originales, y se obtiene el valor de la .

-La forma más fácil de tener el método de sustitución es realizando un cambio para despejar x después de averiguar el valor de la y.

Reducción-Este método suele emplearse mayoritariamente en los sistemas lineales, siendo pocos los casos en que se utiliza para resolver sistemas no lineales. El procedimiento, diseñado para sistemas con dos ecuaciones e incógnitas, consiste en transformar una de las ecuaciones (generalmente, mediante productos), de manera que obtengamos dos ecuaciones en la que una misma incógnita aparezca con el mismo coeficiente y distinto signo. A continuación, se suman ambas ecuaciones produciéndose así la reducción o cancelación de dicha incógnita, obteniendo así una ecuación con una sola incógnita, donde el método de resolución es simple.

Page 6: Aplicaciones de los sistemas de ecuaciones líneas

-Por ejemplo, en el sistema:

-No tenemos más que multiplicar la primera ecuación por   para poder cancelar la incógnita . Al multiplicar, dicha ecuación nos queda así:

-Si sumamos esta ecuación a la segunda del sistema original, obtenemos una nueva ecuación donde la incógnita   ha sido reducida y que, en este caso, nos da directamente el valor de la incógnita :

-El siguiente paso consiste únicamente en sustituir el valor de la incógnita   en cualquiera de las ecuaciones donde aparecían ambas incógnitas, y obtener así que el valor de   es igual a:

Método gráfico-Consiste en construir la gráfica de cada una de las ecuaciones del sistema. El método (manualmente aplicado) solo resulta eficiente en el plano cartesiano, es decir para un espacio de dimensión 2.

-El proceso de resolución de un sistema de ecuaciones mediante el método gráfico se resuelve en los siguientes pasos:

1. Se despeja la incógnita (y) en ambas ecuaciones.

2. Se construye para cada una de las dos ecuaciones de primer grado obteniendo la tabla de valores correspondientes.

3. Se representan gráficamente ambas rectas en los ejes coordenados.

4. En este último paso hay tres posibilidades:

5. Si ambas rectas se cortan, las coordenadas del punto de corte son los únicos valores de las incógnitas (x,y). "Sistema compatible determinado".

Page 7: Aplicaciones de los sistemas de ecuaciones líneas

6. Si ambas rectas son coincidentes, el sistema tiene infinitas soluciones que son las respectivas coordenadas de todos los puntos de esa recta en la que coinciden ambas. «Sistema compatible indeterminado».

7. Si ambas rectas son paralelas, el sistema no tiene solución.

Método de Gauss-El método de eliminación de Gauss o simplemente método de Gauss consiste en convertir un sistema lineal de n ecuaciones con n incógnitas, en uno escalonado, en el que la primera ecuación tiene n incógnitas, la segunda ecuación tiene n - 1 incógnitas, ..., hasta la última ecuación, que tiene 1 incógnita. De esta forma, será fácil partir de la última ecuación e ir subiendo para calcular el valor de las demás incógnitas.

Eliminación de Gauss-Jordan-Una variante de este método, denominada eliminación de Gauss-Jordan, es un método aplicable únicamente a los sistemas lineales de ecuaciones, y consistente en triangular la matriz aumentada del sistema mediante transformaciones elementales, hasta obtener ecuaciones de una sola incógnita, cuyo valor será igual al coeficiente situado en la misma fila de la matriz. Este procedimiento es similar al anterior de reducción, pero ejecutado de manera reiterada y siguiendo un cierto orden algorítmico.

Regla de Cramer -La regla de Cramer da una solución para sistemas compatibles determinados en términos de determinantes y adjuntos dada por:

-Donde Aj es la matriz resultante de remplazar la j-ésima columna de A por el vector columna b. Para un sistema de dos ecuaciones y dos incógnitas:

-La regla de Cramer da la siguiente solución:

Page 8: Aplicaciones de los sistemas de ecuaciones líneas

Nota: Cuando en la determinante original det(A) el resultado es 0, el sistema indica múltiples o sin coincidencia.

Algoritmos numéricos-La eliminación de Gauss-Jordan es un algoritmo numérico usado para una gran cantidad de casos específicos, aunque posteriormente se han desarrollado algoritmos alternativos mucho más eficientes. La mayoría de estos algoritmos mejorados tienen una complejidad computacional de O(n²) (donde n es el número de ecuaciones del sistema). Algunos de los métodos más usados son:

1. Para los problemas de la forma Ax = b, donde A es una matriz de Toeplitz simétrica, se puede utilizar la recursión de Levinson o alguno de los métodos derivados de este. Un método derivado de la recursión de Levinson es la recursión de Schur, que es ampliamente usado en el campo del procesamiento digital de señales.

2. Para los problemas de la forma Ax = b, donde A es una matriz singular o casi singular, la matriz A se descompone en el producto de tres matrices en un proceso llamado descomposición en valores singulares.Cuando consideramos ecuaciones lineales cuyas soluciones son números racionales, reales o complejos o más generalmente un cuerpo  , la solución puede encontrarse mediante Regla de Cramer. Para sistemas de muchas ecuaciones la regla de Cramer puede ser computacionalmente más costosa y suelen usarse otros métodos más "económicos" en número de operaciones como la eliminación de Gauss-Jordan y la descomposición de Cholesky. Existen también métodos indirectos (basados en iteraciones) como el método de Gauss-Seidel.

Si el cuerpo es infinito (como es el caso de los números reales o complejos), entonces solo puede darse una de las tres siguientes situaciones:

3. el sistema no tiene solución (en dicho caso decimos que el sistema está sobredeterminado o que es incompatible)

4. el sistema tiene una única solución (el sistema es compatible determinado)

5. el sistema tiene un número infinito de soluciones (el sistema es compatible indeterminado).

Solución de sistemas lineales en un anillo

-Los métodos para resolver el sistema (1) sobre un anillo son muy diferentes a los considerados anteriormente. De hecho la mayoría de métodos usados en cuerpos, como la regla de Cramer, son inaplicables en anillos debido a que no existen inversos multiplicativos.

-La existencia de solución del sistema (1) sobre los enteros requiere varias condiciones:

Page 9: Aplicaciones de los sistemas de ecuaciones líneas

1. Para cada i   es divisor de  .

2. Si la condición anterior se cumple para un determinado i existe un conjunto de enteros   formado por el conjunto de enteros que satisface la i-ésima ecuación, y existirá solución si la intersección .

Ejemplos

Sistemas de generadores,base y dimension de un espacio vectorial

Sistema generador

-Un sistema generador de un espacio vectorial es un conjunto de vectores que tienen la propiedad de que cualquier vector del espacio vectorial es combinación lineal de los vectores del sistema generador.

Ejemplo

-En     , los vectores

-Forman un sistema generador ya que cualquier vector       en       se puede poner como combinación lineal de       y    :

Base

-Una base de un espacio vectorial es un sistema generador cuyos vectores son linealmente independientes.

Page 10: Aplicaciones de los sistemas de ecuaciones líneas

-Todas las bases de un mismo espacio vectorial tienen el mismo número de vectores y ese número se llama dimensión del espacio vectorial.

-Todo espacio vectorial tiene, al menos, una base, y cualquier vector se puede expresar de forma única como combinación lineal de los vectores de la base.

-Dada una base

-Y un vector     , éste se puede escribir de la siguiente forma:

-Los números       reciben el nombre de coordenadas del vector       en la base     .

Ejemplo

-El vector       expresado en la base     , siendo    y     , es:

-De donde:

-Las coordenadas del vector       en la base       son   -2 y 6.

Dimensión

 -La dimensión de un espacio vectorial se define como el cardinal de una base vectorial para dicho espacio. Por el axioma de elección todo espacio tiene una base (incluso

Page 11: Aplicaciones de los sistemas de ecuaciones líneas

el espacio {0}, ya que el vacío es una base), y puesto que puede demostrarse que todas las bases vectoriales tienen el mismo cardinal, el concepto de dimensión está bien definido. Conviene notar que existen espacios vectoriales de tanto de dimensión finita como de dimensión infinita (el espacio vectorial de los polinomios de una variable, por ejemplo tiene dimensión  .

-La dimensión de un espacio coincide además con los dos cardinales siguientes:

El máximo número de vectores linealmente independientes de dicho espacio. El mínimo número de vectores que forman un conjunto generador para todo el espacio.

Dependencia e independencia lineal

Definición-Dado un conjunto finito de vectores , se dice que estos vectores son linealmente dependientes si existen números , todos no iguales a cero, tales que:

-Nótese que el símbolo a la derecha del signo igual no es cero, sino que simboliza al vector nulo  . El conjunto de vectores nulos forma la matriz nula. Si tales números no existen, entonces los vectores son linealmente independientes. La definición anterior también puede extenderse a un conjunto infinito de vectores, concretamente un conjunto cualquiera de vectores es linealmente dependiente si contiene un conjunto finito que sea linealmente dependiente.

-Utilizando conceptos de espacios vectoriales podemos redefinir la independencia lineal así:

-Un conjunto de vectores   de un espacio vectorial es linealmente independiente si -Esta idea es importante porque los conjuntos de vectores que son linealmente independientes, generan un espacio vectorial y forman una base para dicho espacio. Entre las propiedades de los vectores linealmente dependientes e independientes encontramos:

1. Un conjunto de vectores es linealmente dependiente si y solamente si alguno de los

2. vectores es combinación lineal de los demás.

3. Si un conjunto de vectores es linealmente independiente cualquier subconjunto suyo también lo es. Obviamente, si tenemos un conjunto de vectores tales que ninguno de ellos es combinación de los demás, escogiendo solamente unos cuantos, no podrán ser combinación de los otros.

Page 12: Aplicaciones de los sistemas de ecuaciones líneas

4. Si un conjunto de vectores es linealmente dependiente, también lo es todo conjunto que lo contenga.

5. Un conjunto de vectores son linealmente paralelos sí y sólo sí son paralelos.

6. Un conjunto de vectores son linealmente dependientes si los componentes entre ellos son proporcionales, bien sea directa o inversamente proporcional. Ya que un conjunto de vectores es linealmente dependiente si y solo si tiene algún vector que es combinación lineal de los demás, si metemos este conjunto de vectores en otro más grande, seguimos teniendo el vector que es combinación lineal de otros, por tanto, el conjunto más grande será linealmente dependiente.

Significación geométrica-Geométricamente, dos vectores son independientes si no tienen la misma dirección. Esta definición supone que el vector nulo tiene todas las direcciones, en otras palabras este debe generar un área.

-Tres vectores son independientes si y solo si no están contenidos en el mismo plano vectorial, o sea si ninguno de ellos es una combinación lineal de los otros dos (en cuyo caso estaría en el plano generado por estos vectores) en otras palabras este debe generar un volumen.

-El espacio generado por un sistema de vectores es el conjunto de todas las combinaciones lineales de estos vectores. Es un espacio vectorial. El espacio generado por un vector no nulo es la recta vectorial dirigido por este vector. El espacio generado por dos vectores independientes es el plano que los contiene. Resulta fácil comprobar que el espacio generado por un sistema de vectores es el menor (por la inclusión) espacio vectorial que los contiene a todos. Se le denomina vect A, donde A es el sistema de vectores. Si  n vectores son independientes, el espacio generado es de dimensión n (dimensión en el sentido usual: 0 para un punto, 1 para una recta, 2 para un plano...).

Ejemplo

-En el espacio tridimensional usual:

u y j son dependientes por tener la misma dirección. u y v son independientes y definen el plano P.

Page 13: Aplicaciones de los sistemas de ecuaciones líneas

u, v y w son dependientes por estar los tres contenidos en el mismo plano. u, v y k son independientes por serlo u y v entre sí y no ser k una combinación

lineal de ellos o, lo que es lo mismo, por no pertenecer al plano P. Los tres vectores definen el espacio tridimensional.

Los vectores o (vector nulo, cuyas componentes son iguales a cero) y k son dependientes ya que o = 0 ·k

-Ejemplo del uso de la fórmula f:

¿Son los tres vectores siguientes independientes?

-Buscamos tres valores x, y y z que satisfagan la ecuación:

-Lo que equivale al sistema de ecuaciones siguiente:

-Dado que la única solución es la trivial (x = y = z = 0), los tres vectores son independientes.

Método alternativo usando determinantes-Un método alternativo usa el hecho que n vectores en Rn son linealmente independientes si y solo si el determinante de la matriz formada por estos vectores como columnas es distinto de cero.

-Dados los vectores:

-La matriz formada por éstos es:

-El determinante de esta matriz es:

Page 14: Aplicaciones de los sistemas de ecuaciones líneas

-Ya que el determinante es no nulo, los vectores (1, 1) y (−3, 2) son linealmente independientes.

Ejemplo II

-Sea V = Rn y consideremos los siguientes elementos en V:

-Entonces e1, e2,..., en son linealmente independientes. Estos vectores constituyen la base canónica en R.

Demostración-Supongamos que a1, a2,..., an son elementos de R tales que:

-Sustituyendo e1, e2,..., en resulta:

-Multiplicando:

-Sumando coordenadas:

-Por lo que se obtiene: 

-Así que:

-Además: 

-Pero 0 es un vector, entonces: 

-Por lo que ai = 0 para todo i en {1,..., n}.

-Entonces los vectores   son linealmente independientes

Page 15: Aplicaciones de los sistemas de ecuaciones líneas

Matriz cambio de base y diagonalizacion de matrices

Definicion

-La matriz P del resultado anterior se denomina matriz de transición o matriz de cambio de base de B a B′

Teorema

-Si P es la matriz de transición de B a B′, entonces P−1 es la matriz de transición de B′ a B.

Diagonalizacion de una matriz

-Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla posible.

-Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D (si se puede) tales que

A = PDP-1

-La matriz P se llama matriz de paso.

-Puede que esto, al principio, no parezca más simple de lo que ya era A directamente. Sin embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para representar aplicaciones lineales, la expresión anterior puede verse como un cambio de base de la aplicación representada por A; entonces, esta forma de escribirlo dice: hay una base en la que la aplicación lineal A tiene una forma muy simple (diagonal). Esto es útil, por ejemplo, para clasificar una aplicación lineal y estudiar sus propiedades. Las matrices se usan para representar otras cosas como cónicas, cuádricas o formas bilineales, yen estos casos también resulta útil esta forma de expresarlas.

Autovalores y autovectores propios

-Sea A una matriz de orden n n. Un vector no nulo X 2 R n es un autovector o vector propio de A si existe un escalar tal que AX = X. A este se le llama autovalor o valor propio de A. A este X se le llama autovector o vector propio correspondiente a (lambda)

Transformaciones lineales, núcleo e imagen y matriz asociada a la transformación lineal

Transformación lineal

Así como cuando se estudian las funciones reales interesan especialmente las funciones continuas, cuando se estudian funciones de un espacio vectorial en otro interesan aquellas que poseen ciertas propiedades especiales, por ejemplo las que conservan operaciones. Es

Page 16: Aplicaciones de los sistemas de ecuaciones líneas

decir, que la función sea tal que "conserve" las dos operaciones fundamentales que definen la estructura de espacio vectorial. 

En síntesis, podemos dar la siguiente definición:

Una función T: V ® W (de un espacio vectorial V en un espacio vectorial W) se dice una transformación lineal si, para todo a, b Î V, k Î  K (K es el cuerpo de escalares) se tiene:

T (a + b) = T (a) + T (b)

T (k a) = k T (a)

Que se puede resumir en T (a a + b b) = a T (a) + b T (b), llamada propiedad de linealidad.Si T: V ® W es una transformación lineal, el espacio V se llama dominio de T y el espacio W se llama codominio de T.

Ejemplo

 A partir de la definición, analicemos si es lineal la siguiente transformación:

T: R2 ® R3 / " x Î  R2 : T ((x1, x2)) = (x1 + x2, x1 - x2, x2)

Se deben verificar las dos condiciones de la definición:

a) ¿ " x, y Î  R2 : T (x + y) = T (x) + T (y) ?

x = (x1, x2)y = (y1, y2) x + y = (x1 + y1, x2 + y2) 

T (x + y) = T (x1 + y1, x2 + y2) = (x1 + y1 + x2 + y2, x1 + y1 - x2 - y2, x2 + y2) =                                           = (x1 + x2, x1 - x2, x2) + (y1 + y2, y1 - y2, y2) = T (x) + T (y)

b) ¿ " x Î  R2, " k Î  R : T (k x) = k T (x) ?

T (k x) = T (k (x1, x2)) = T (k x1, k x2) = (k x1 + k x2, k x1 - k x2, k x2) =                                 = k (x1 + x2, x1 - x2, x2) =                                = k T (x)

Se verifican las dos condiciones de la definición, entonces la transformación es lineal. 

Page 17: Aplicaciones de los sistemas de ecuaciones líneas

NUCLEO E IMAGEN DE UNA TRANSFORMACION LINEAL

Definición:

Sea F :V →U una aplicación lineal de V en U, la IMAGEN de F, que se representa como Img F, es el conjunto de las imágenes de los vectores de V en U, es decir:

Im g F={u∈U /F (v )=u }

El NUCLEO de F, que se representa como Nuc F o Ker F, es el conjunto de elementos de V que se aplican en Ø de U, es decir:

Nuc F={ v∈V /F ( v )=0 }

-Sea F :V →U una aplicación lineal, entonces el RANGO de F se define como la dimensión de su imagen, y la NULIDAD de F se define como la dimensión de su núcleo.

rang F=Dim ( Im g F )

nulidad F=Dim ( Nuc F )

Dim V =rang (F ) +nulidad( F )

Teorema:

-Sea F :V →U una aplicación lineal, entonces la Imagen de F es un s.e.v de U y el Núcleo de F es un s.e.v. de V

-Sea V de dimensión finita y sea F :V →U una aplicación lineal entonces

Dim V =Dim (Nuc F ) + Dim ( Im g F )

Ejemplo:

Page 18: Aplicaciones de los sistemas de ecuaciones líneas

-Sean F : R4→ R3 definida por

F (xyzw)=( x− y+z+w

x+2 z−wx+ y+3 z−3w)

; Hallar la Imagen y el núcleo de f

a) Imagen:

F ((1000)) = ( 1

11);

F ((0100)) = ( −1

01 );

F ((0010)) = ( 1

23); F ((0

001)) = ( 1

−1−3);

-Los vectores (1,0,0,0); (0,1,0,0); (0,0,1,0) y (0,0,0,1) generan el espacio V = R4, entonces los vectores (1,1,1); (-1,0,1); (1,2,3) y (1,-1,-3) generarán el espacio U = R3 de F. Se debe encontrar entonces el subespacio vectorial generado por los vectores u = F(v); es decir:

(x,y,z) = a(1,1,1) + b(-1,0,1) + c(1,2,3) + d(1,-1,-3)

(1 −1 1 11 0 2 −11 1 3 −3

|xyz )≈ f 2−f 1

f 3− f 1(1 −1 1 1

0 1 1 −20 2 2 −4

|x

y−xz−x )≈ f 3−2 f 1

(1 −1 1 10 1 1 −20 0 0 0

|xy

z−x−2 y+2 x)⇒ Im g F= {( x , y , z )/ x−2 y+z=0 } ⇒ Base Im g F={(2

10 ); (1

01)}; Dim Img

F = 2

b) Núcleo: Se busca el conjunto de vectores {(x,y,z,w)} tales que F(x,y,z,w) = (0,0,0);

es decir:

F ( x , y , z , w )=( x−y+ z+wx+2 z−w

x+ y+3 z−3 w)=(000)

-Resolviendo el sistema de ecuaciones:

(1 −1 1 11 0 2 −11 1 3 −3

|000)≈ f 2− f 1

f 3−f 1(1 −1 1 10 1 1 −20 2 2 −4

|000)≈ f 3−2 f 1

(1 −1 1 10 1 1 −20 0 0 0

|000)

⇒ y+z−2 w=0 ⇒ y=−z+2 wx− y+ z+w=0 ⇒ x=−2 z+w

Page 19: Aplicaciones de los sistemas de ecuaciones líneas

⇒ Nuc F=span {( x , y , z , w )/ x=w−2 zy=2w−z} ⇒ Base Nuc F={(−2

−110

);(1201)}

; Dim Nuc F = 2

Entonces: Rango de F = 2; Dim V = rango F + nulidad F

Nulidad de F = 2 4 = 2 + 2

Referencia bibliografías

http://es.wikipedia.org/wiki/Sistema_de_ecuaciones_lineales

http://es.wikibooks.org/wiki/Sistemas_de_generadores_y_bases_de_un_espacio_vectorial

http://es.wikipedia.org/wiki/Dependencia_e_independencia_lineal

http://themercenary.mex.tl/imagesnew/8/5/6/5/8/Vectores%20de%20coordenadas%20y%20cambio%20de%20base.pdf

http://www.frsn.utn.edu.ar/tl/deftl.html

https://www.google.co.ve/url?sa=t&rct=j&q=&esrc=s&source=web&cd=7&ved=0CFwQFjAG&url=http%3A%2F%2Fnoticias.espe.edu.ec%2Fmxhidalgo%2Ffiles%2F2012%2F06%2FTRANSFORMACIONES-LINEALES3.doc&ei=8cwuUf-IKZCw8AS_nYGQCA&usg=AFQjCNF0r17ds744LPaRxyeAjZC7BCLhoA&sig2=LgdFje4MIWymE5oEhfUbzg&bvm=bv.42965579,d.eWU&cad=rja