Geometr´ıa y´Algebra Lineal 1:

172
Geometr´ ıa y ´ Algebra Lineal 1: VERSI ´ ON SUMAMENTE PRELIMINAR, SOBRE LA QUE ESTAMOS TRABAJANDO IMERL-UEFI 5 de enero de 2004

Transcript of Geometr´ıa y´Algebra Lineal 1:

Page 1: Geometr´ıa y´Algebra Lineal 1:

Geometrıa y Algebra Lineal 1:

VERSION SUMAMENTE PRELIMINAR,

SOBRE LA QUE ESTAMOS

TRABAJANDO

IMERL-UEFI

5 de enero de 2004

Page 2: Geometr´ıa y´Algebra Lineal 1:
Page 3: Geometr´ıa y´Algebra Lineal 1:

Indice General

1 Sistemas de ecuaciones lineales 31.1 Sistemas lineales de ecuaciones: introduccion . . . . . . . . . . 5

1.1.1 Problemas cuya consideracion da lugar a sistemas linea-les de ecuaciones . . . . . . . . . . . . . . . . . . . . . . 5

1.1.2 Presentacion general de los sistemas de ecuaciones lineales 61.1.3 El metodo de eliminacion de Gauss, o metodo de esca-

lerizacion . . . . . . . . . . . . . . . . . . . . . . . . . . 101.1.4 Notacion matricial . . . . . . . . . . . . . . . . . . . . . 151.1.5 Un poco de teorıa: cualquier sistema puede ser escaleri-

zado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291.2 Compatibilidad de los sistemas lineales: la imagen de la matriz

del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311.2.1 Compatibilidad del sistema. Espacio de columnas . . . . 371.2.2 Descripciones optimas para col(A) . . . . . . . . . . . . 421.2.3 Dos interpretaciones geometricas de los sistemas lineales 481.2.4 Un poco de formalizacion: El espacio de n-uplas . . . . 49

1.3 Determinacion de los sistemas lineales: el nucleo de la matrizdel sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 521.3.1 Independencia lineal . . . . . . . . . . . . . . . . . . . . 551.3.2 El nucleo de una matriz . . . . . . . . . . . . . . . . . . 591.3.3 La dimension del nucleo y el espacio de columnas . . . . 62

1.4 Espacio de filas y rango . . . . . . . . . . . . . . . . . . . . . . 64

2 Matrices 692.1 Las matrices almacenando informacion . . . . . . . . . . . . . . 732.2 El algebra de las matrices . . . . . . . . . . . . . . . . . . . . . 83

2.2.1 Suma de matrices y producto por un escalar . . . . . . . 832.2.2 El producto de matrices . . . . . . . . . . . . . . . . . . 852.2.3 Propiedades del producto . . . . . . . . . . . . . . . . . 94

i

Page 4: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . 972.3.1 La inversa y el algebra de matrices . . . . . . . . . . . . 982.3.2 La inversa y los sistemas lineales. El calculo de la inversa1002.3.3 Existencia de inversa y rango . . . . . . . . . . . . . . . 1062.3.4 Numero de operaciones . . . . . . . . . . . . . . . . . . 1082.3.5 Primeras propiedades de la inversa . . . . . . . . . . . . 1092.3.6 Inversas a izquierda y derecha . . . . . . . . . . . . . . . 1102.3.7 Notas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

2.4 Descomposicion LU . . . . . . . . . . . . . . . . . . . . . . . . 1122.4.1 Numero de operaciones . . . . . . . . . . . . . . . . . . 1192.4.2 Descomposicion LU con pivoteo: PA = LU . . . . . . . . 1192.4.3 Pivoteo por razones de precision . . . . . . . . . . . . . 122

2.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 1252.5.1 Definicion y propiedades del determinante . . . . . . . . 1262.5.2 Las propiedades basicas de los determinantes . . . . . . 1282.5.3 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . 132

3 Geometrıa 1353.1 Rectas y planos en el espacio . . . . . . . . . . . . . . . . . . . 138

3.1.1 Puntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1383.1.2 Rectas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1383.1.3 Planos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1433.1.4 Posiciones relativas de rectas y planos . . . . . . . . . . 146

3.2 Producto escalar: distancias y angulos en R3 . . . . . . . . . . 1493.2.1 Perpendicularidad . . . . . . . . . . . . . . . . . . . . . 154

3.3 Rectas y planos: perpendicularidad y paralelismo . . . . . . . . 1553.3.1 Las ecuaciones de los planos . . . . . . . . . . . . . . . . 1553.3.2 proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . 155

3.4 Producto vectorial. . . . . . . . . . . . . . . . . . . . . . . . . 1583.4.1 Aplicaciones geometricas. . . . . . . . . . . . . . . . . . 1603.4.2 Producto mixto . . . . . . . . . . . . . . . . . . . . . . . 163

3.5 Curvas y superficies . . . . . . . . . . . . . . . . . . . . . . . . 165

1

Page 5: Geometr´ıa y´Algebra Lineal 1:

2

Page 6: Geometr´ıa y´Algebra Lineal 1:

Capıtulo 1

Sistemas de ecuacioneslineales

3

Page 7: Geometr´ıa y´Algebra Lineal 1:

4 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

En este capıtulo presentaremos los sistemas de ecuaciones lineales y algu-nos problemas que conducen a su consideracion. En nuestra discusion bus-caremos enfatizar la resolucion sistematica, algorıtmica, de los sistemas, y laestructura que tiene el conjunto de sus soluciones. Esto ultimo nos llevara aintroducir algunas de las nociones basicas del Algebra Lineal: espacio y su-bespacio vectorial; conjuntos generadores, dependencia e indepedencia lineal,bases, etcetera.

Un sistema de ecuaciones lineales puede tener solucion (en este caso di-remos que el sistema es compatible) o no tenerla (sistemas incompatibles).Tambien el analisis de la compatibilidad de los sistemas requiere algunas delas ideas de Algebra Lineal necesarias para analizar el conjunto de solucionesde un sistema. Como resumen, digamos que el estudio de los sistemas linealesnos servira para hacer una primera aproximacion al estudio de las estructuraslineales. Toda la teorıa de Espacios Vectoriales que presentaremos mas tardepuede verse1 como una abstraccion de las nociones que nos resultaran utilespara analizar los sistemas lineales.

Discutiremos ademas la interpretacion geometrica de los sistemas lineales.Por lo tanto, no es exagerado decir que en el estudio de los sistemas linealesestan comprendidos, en forma embrionaria, todos las ideas que tocaremos a lolargo de este curso.

Por otra parte, los sistemas lineales seran una herramienta a la que recurri-remos continuamente. Este doble papel de ejemplo motivador y herramientautil para desarrollos posteriores nos hace pensar que es una buena opcioncomenzar este texto de Geometrıa y el Algebra Lineal por el analisis de lossistemas lineales de ecuaciones.

1Por supuesto, no es este el unico punto de vista posible. Pero es afın con el enfoque quehemos adoptado para este curso, o, al menos, para estas primeras secciones.

Page 8: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 5

1.1 Sistemas lineales de ecuaciones: introduccion

Gran parte de lo que estudiaremos en este texto se vincula con, o requierela resolucion de, sistemas de ecuaciones lineales. Por lo tanto vale la penadedicar algun tiempo a presentarlos, discutir sus propiedades y ciertas estra-tegias para resolverlos. Quienes ya conozcan estos temas tendran, en todocaso, una oportunidad para repasarlos. Esperamos que tambien encuentrenalguna novedad.

1.1.1 Problemas cuya consideracion da lugar a sistemas linea-les de ecuaciones

A continuacion mostramos una serie de situaciones, cuya resolucion conduce ala consideracion de un sistema de ecuaciones lineales. El primero es puramenterecreativo, pero luego introducimos algunos problemas mas serios.

Ejemplo 1.1.1. Un problema de revista de entretenimientos. Laedad de Pedro es el triple de la edad de Ana, pero dentro de 10 anos su edadsolo sera el doble de la de Ana. ¿Cuales son las edades de Pedro y Ana?

Si llamamos a y p a las edades de Ana y Pedro respectivamente, los numerosp y a deben satisfacer las dos relaciones

p = 3a, p + 10 = 2(a + 10).

Sustituyendo el valor de p que nos da la primera ecuacion en la segunda obte-nemos

3a + 10 = 2a + 20.

Inmediatamente concluimos que la edad de Ana es 10, y la de Pedro 30 (su-ponemos que estan expresadas en anos, aunque el problema nada dice al res-pecto).

Ejercicio 1.1. Una madre es 21 anos mayor que su hijo, y dentro de 6 anos su edadsera exactamente 5 veces la edad del nino. ¿Donde esta el papa del pequeno? ♣

Ejemplo 1.1.2. Los esfuerzos en un reticulado.

PONER EL EJEMPLO, CON UN DIBUJO ♣

Ejemplo 1.1.3. Las corrientes y voltajes en un circuito.

PONER EL EJEMPLO, CON UN DIBUJO ♣

Page 9: Geometr´ıa y´Algebra Lineal 1:

6 CAPITULO 1

1.1.2 Presentacion general de los sistemas de ecuaciones linea-les

Para trabajar en forma sistematica con un sistema lineal cualquiera necesi-tamos, para empezar, una notacion adecuada. Emplearemos mas de una a lolargo del curso, pero omenzamos por introducir la que solo consiste en sistema-tizar los nombres de las todas las variables en juego. Escribiremos un sistemalineal de m ecuaciones con n incognitas x1, x2, . . . , xn, en la forma

a11x1 + a12x2 + . . . + a1nxn = b1,a21x1 + a22x2 + . . . + a2nxn = b2,

......

am1x1 + am2x2 + . . . + amnxn = bm,

(1.1)

donde los numeros

aij , i = 1, . . . ,m, j = 1, . . . , n,

son un dato que supondremos conocido (son lo que llamaremos los coeficien-tes del sistema), al igual que los numeros

bj , j = 1, . . . ,m,

(los terminos independientes). El problema consiste entonces en hallar lasincognitas, numeros

xi, i = 1, . . . , n,

tales que se satisfagan las m ecuaciones en (1.1). Nos referiremos a un sistemade este tamano como a un sistema m × n, donde m hace referencia a lacantidad de ecuaciones, y n a la de incognitas.

Observacion 1.1.4. El problema de hallar los valores xi de las n incognitaspuede pensarse como el problema de hallar una unica lista

X = (x1, x2, . . . , xn)

de n numeros. En una primera consideracion no parece haber una gran ventajaen este enfoque, pero estas listas de numeros pueden ser vistas como vecto-res, elementos de una estructura algebraica y geometrica que nos ayudaramuchısimo en para la manipulacion y comprension de los sistemas lineales.

A la luz de la observacion precedente, digamos que una solucion delsistema (1.1) es una lista de n numeros

(α1, α2, . . . , αn)

Page 10: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 7

tales que si se sustituye

x1 = α1, x2 = α2, . . . , xn = αn

se verifican simultaneamente las m ecuaciones en

Ejemplo 1.1.5. Vamos a discutir en este ejemplo tres sencillos sistemas reales2× 2.

1. El sistema {x + y = 1,x− y = 1,

tiene una unica solucion x = 1, y = 0. Es evidente que este par denumeros es una solucion del sistema. Ademas, es la unica, porque sisumamos las dos ecuaciones del sistema obtenemos 2x = 2, lo que implicax = 1. Y al restar la segunda de la primera nos encontramos con 2y = 0,que solo puede ser satisfecha por y = 0.

2. No puede haber ninguna solucion del sistema de ecuaciones{x + y = 1,x + y = 2.

3. Pero el sistema {x + y = 1,

2x + 2y = 2,

admite infinitas soluciones. Todas las parejas (x, 1 − x), con x ∈ R,satisfacen ambas ecuaciones. ♣

Ejercicio 1.2. En cada caso, determinar si las listas que se especifican son o no sonsoluciones de los sistemas dados.

1. Las ternas (1,−1, 1) y (2−3y, y,−1+2y), donde y puede ser cualquier numeroreal, para el sistema x + y + z = 1,

x− y + 2z = 0,x− 3y + 3z = −1.

2. Las cuaternas (1, 1, 1, 0), (1, 1, 0, 1) y (0, 0, 1, 0) para el sistema x + y + t = 0,x + y + z = 1,x + z + t = 1,

en Z2.

Page 11: Geometr´ıa y´Algebra Lineal 1:

8 CAPITULO 1

3. ¿AGREGAR UN CASO EN C?

El ejemplo 1.1.5 y el ejercicio 1.2 muestran que un sistema lineal puedetener una unica solucion, ninguna o muchas. Nuestra tarea al estudiarlossera encontrar y describir la solucion de estos sistemas en el siguiente sentido:dado un sistema de ecuaciones llamaremos conjunto solucion del sistema alconjunto de todas las soluciones de S. Resolver un sistema es determinar suconjunto solucion.

Ejemplo 1.1.6. Los conjuntos solucion de los sistemas del ejemplo 1.1.5 son{(1, 0)}, el conjunto

{(x, 1− x); x ∈ R},

y el conjunto vacıo, respectivamente. ♣

Observacion 1.1.7. Es importante recordar que los coeficientes, y terminosindependientes del sistema son numeros, por lo que debemos tener presentecual es el conjunto numerico sobre el que estamos trabajando. En nuestrateorıa asumiremos, salvo que haya una mencion expresa en otro sentido, quetodos los coeficientes y terminos independientes son elementos de un mismocuerpo K. Tambien que buscamos hallar valores de las incognitas dentro de esemismo cuerpo K. Podemos estar considerando2 entonces numeros racionales,reales, complejos, numeros de algun cuerpo Zp, o alguna otra posibilidad.

Todas las operaciones que haremos sobre los sistemas de ecuaciones estaranjustificadas por las propiedades que tienen las operaciones de suma y productoen un conjunto con estructura de cuerpo. Sin ir mas lejos, observemos que paraque el problema que estamos planteando tenga algun sentido tienen que estardefinidas las operaciones de producto y suma que aparecen en las ecuaciones.♠

Ejemplo 1.1.8. El ejemplo mas sencillo de un sistema lineal es el 1× 1

ax = b, (1.2)

donde a y b son dos numeros (elementos de algun cuerpo K) cualesquiera. Enpocos renglones podemos discutir con total generalidad como es el conjuntosolucion.

2En nuestro curso consideraremos fundamentalmente numeros reales, pero tendremoscuidado de presentar algunos ejemplos que nos lleven a trabajar sobre el conjunto C de losnumeros complejos, o en los cuerpos discretos Z2 y Z3.

Page 12: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 9

• Si a 6= 0 entonces el sistema tiene una unica solucion, independiente-mente del valor de b. Solo tenemos que multiplicar ambos lados de laecuacion (1.2) por el inverso a−1 del numero a, para concluir que si x esuna solucion entonces x = a−1b. Este numero es la unica solucion de laecuacion.

• Si a = 0 tendremosax = 0x = 0,

independientemente del valor de x. Debemos distinguir entonces doscasos:

– si b 6= 0 entonces, para cualquier x tendremos 0x 6= b. Por lo tantono hay solucion del sistema;

– si b = 0 entonces la igualdad en (1.2) siempre se satisface, y cual-quier x es solucion del sistema. En este caso el sistema tiene muchassoluciones3.

Naturalmente, este problema es extremadamente sencillo pero, como aconte-ce muchas veces, ya podemos apreciar en este simple ejemplo algunos com-portamientos que reapareceran en situaciones mas generales: problemas decompatibilidad o incompatibilidad asociados a la invertibilidad de los coefi-cientes del sistema; inexistencia o multiplicidad de soluciones dependiendo delos coeficientes y terminos independientes, etcetera. ♣

Conviene introducir aquı una terminologıa mas o menos corriente:

• si un sistema no tiene ninguna solucion, o, equivalentemente, el conjuntosolucion es vacıo, diremos que es incompatible;

• si existe alguna solucion llamaremos al sistema compatible. Distingui-remos entonces dos casos.

– Cuando la solucion es unica diremos que el sistema es compatibledeterminado;

– y si admite mas de una solucion diremos que es compatible inde-terminado.

3En realidad tienen tantas como elementos tenga el cuerpo K sobre el que estamos tra-bajando, porque cualquier numero en el cuerpo es solucion. Si el cuerpo es infinito -este esel caso para, por ejemplo, Q, R o C- entonces la ecuacion tiene infinitas soluciones. Si elcuerpo es finito -por ejemplo para los Zp con p un numero primo- la solucion no es unica,pero hay un numero finito de ellas.

Page 13: Geometr´ıa y´Algebra Lineal 1:

10 CAPITULO 1

1.1.3 El metodo de eliminacion de Gauss, o metodo de esca-lerizacion

El objetivo de esta seccion es presentar un metodo sistematico para laresolucion de sistemas lineales de cualquier tamano. La idea del metodo esmuy simple: ir reduciendo en cada paso el problema a un problema que tieneuna ecuacion menos y una incognita menos. Este metodo es conocido comometodo de escalerizacion, metodo de eliminacion de Gauss o metodode eliminacion de gaussiana. Los dos ultimos nombres aluden a que encada paso vamos eliminando una o mas incognitas, y son un reconocimiento aquien introdujo el metodo:

el matematico Carl Friederich Gauss (1777-1855)4

Ejemplo 1.1.9. Busquemos tres numeros reales x, y y z que satisfaganx + y + 2z = 8,2y + z = 8z = 2.

Este es un sistema 3×3 muy facil de resolver. De la ultima ecuacion se despeja

z = 2

. Con este valor de z sustituimos en al segunda ecuacion y tenemos

2y + 2 = 8⇒ 2y = 6⇒ y = 3.

Finalmente con los valores de y y z hallados “subimos” a la primera ecuaciony sustituyendo se tiene que

x + 3 + 2× 2 = 8⇒ x = 1.

En consecuencia, el sistema tiene una unica solucion, que es

x = 1, y = 3, z = 2.

4Gauss fue uno de los grandes cientıficos de toda la historia. Una breve biografıade Gauss y referencias para lecturas posteriores pueden encontrarse en el sitio webhttp://www-gap.dcs.st-and.ac.uk/history/. El nombre de escalerizacion tiene que vercon la forma que adopta el sistema al cabo de un numero finito de pasos, luego de losque queda convertido en un problema cuya solucion es obvia, como el de nuestro proximoejemplo.

Page 14: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 11

Podemos escribir esta solucion como la lista de tres numeros reales (1, 3, 2). Elconjunto de soluciones del sistema es {(1, 3, 2)}. El procedimiento de despejaruna incognita en una ecuacion y sustituirla en otra de arriba se denominasustitucion hacia arriba, y es posible por la forma particular de este sistema.♣

Diremos que un sistema como el del ejemplo 1.1.9, en el que

1. las incognitas que aparecen en cada ecuacion tambien aparecen en laanterior;

2. en cada ecuacion aparecen menos incognitas que en la anterior,

esta escalerizado, por la forma de “escalera” que adoptan sus ecuaciones alser escritas. Para estos sistemas escalerizados tenemos un metodo facil deresolucion: calcular las incognitas que aparecen en las ultimas ecuaciones e irsustituyendo “hacia arriba”.

Mostraremos, primero con un ejemplo, como el metodo de escalerizacionpermite transformar el problema de calcular las soluciones de un sistema linealen el problema de resolver un sistema lineal escalerizado.

Ejemplo 1.1.10. Busquemos las soluciones del sistemax + y + 2z = 8,x + 2y + z = 0,2x + y + z = 4.

(1.3)

Explicitaremos los pasos de nuestra resolucion.Paso 1. Comenzamos por “hacer desaparecer la variable x de todas las ecua-ciones menos una”, usando el siguiente procedimiento: para eliminar la x en lasegunda ecuacion le restamos la primera; como x aparece en la tercera ecuacioncon un factor 2 multiplicamos la primera ecuacion por 2, y luego la restamosde la tercera. Obtenemos

x + y + 2z = 8,y − z = −8,−y − 3z = −12.

Observacion 1.1.11. En general, restaremos a la i-esima ecuacion, parai = 2, 3, . . ., el resultado de multiplicar la primera por el cociente ai1/a11

entre el coeficiente ai1 que aparece multiplicando a x en la ecuacion i, y elcoeficiente a11 que x tiene en la primera ecuacion. Si x no aparece en la pri-mera ecuacion entonces a11 es cero y no podemos hacer este calculo. En estecaso cambiaremos el orden de las ecuaciones, y pondremos en primer lugaruna ecuacion en que la variable x aparezca. ♠

Page 15: Geometr´ıa y´Algebra Lineal 1:

12 CAPITULO 1

El resultado del paso 2 es que x no aparece en la segunda ni en la terceraecuacion. Si miramos esas dos ecuaciones aisladamente nuestro problema sereduce a un sistema 2 × 2, con incognitas y y z. Una vez resuelto este pro-blema, mas pequeno que el original, podremos calcular x usando la primeraecuacion. De esta manera el algoritmo de eliminacion va reduciendo el tamanodel problema.

Paso 2. Haremos desaparecer la variable y de la tercera ecuacion. Sim-plemente sumamos la segunda ecuacion a la tercera, y nuestro sistema setransforma en

x + y + 2z = 8,y − z = −8,−4z = −20.

Nuestro sistema ya alcanzo la forma escalerizada que lo vuelve de facil reso-lucion, por lo que detenemos aquı nuestro algoritmo.

Paso 3. Resolvemos este ultimo sistema. De la tercera ecuacion conclui-mos z = 5. Sustituyendo hacia arriba y despejando de la segunda ecuacionobtenemos y = −3. Finalmente, usamos los valores de hallados en la primeraecuacion, para concluir que x = 1.

Parece que hemos resuelto el problema. Pero, ¿que nos garantiza que lassoluciones halladas son las soluciones del problema original? Podemos verificarque es ası, sustituyendo los valores x = 1, y = −3 y z = 5 en el sistema

1× 1 + 1× (−3) + 2× 5 = 8,1× 1 + 2× (−3) + 1× 5 = 0,2× 1 + 1× (−3) + 1× 5 = 4.

Estupendo, hemos hallado la solucion del sistema. ¡Un momento! Solo hemosverificado que lo que tenemos es solucion. Pero, ¿sera la solucion? ¿No podrahaber otras? ¿Que asegura que nuestras transformaciones no modifican elconjunto de soluciones del sistema?

Observacion 1.1.12. El procedimiento de sustituir las soluciones halladaspara ver si las ecuaciones se satisfacen o no permite verificar si hemos en-contrado soluciones del sistema. Pero no nos permite saber si hay o no massoluciones. Esta limitacion de la verificacion no debe hacernos perder de vistaque es muy recomendable verificar nuestros calculos siempre que sea posiblehacerlo. Mas aun, en algunos casos es imperdonable el error de aportar unasolucion inexacta cuando es posible verificar su correccion. ♠ ♣

Las transformaciones que hemos realizado en cada paso del ejemplo 1.1.10consisten en repetir una y otra vez la misma operacion: sumar a una de las

Page 16: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 13

ecuaciones un multiplo de otra5. Mostraremos a continuacion que esta opera-cion no modifica el conjunto de soluciones del sistema: el nuevo sistema queobtenemos es equivalente al original, en el sentido de que ambos tienen exac-tamente el mismo conjunto solucion. Naturalmente, luego de aplicar una seriede transformaciones que preservan la equivalencia de sistemas el sistema finales equivalente al sistema original: no hemos agregado ni perdido soluciones entodo el proceso.

Proposicion 1.1. Si en un sistema lineal de ecuaciones se sustituye unaecuacion por el resultado de sumar a esa misma ecuacion un multiplo de otra,entonces el sistema resultante es equivalente al original.

Demostracion. Supongamos que el sistema original sea

(S)

a11x1 + a12x2 + . . . + a1nxn = b1,...

ai1x1 + ai2x2 + . . . + ainxn = bi,...

aj1x1 + aj2x2 + . . . + ajnxn = bj ,...

am1x1 + am2x2 + . . . + amnxn = bm,

y que sumamos a la ecuacion j el resultado de multiplicar ambos miembros dela ecuacion i por un numero β. Obtenemos un nuevo sistema

(S′)

a11x1 + a12x2 + . . . + a1nxn = b1,...

ai1x1 + ai2x2 + . . . + ainxn = bi,...

aj1x1 + . . . + ajnxn + β(ai1x1 + . . . + ainxn) = bj + βbi,...

am1x1 + am2x2 + . . . + amnxn = bm.

Para probar que ambos son equivalentes deberemos ver que cualquier solucionde S es solucion de S′ y viceversa. Es decir, que Sol(S) = Sol(S′), dondeSol(S) y Sol(S′) son los conjuntos solucion de S y S′ respectivamente.

5La gracia del metodo esta en escoger habilmente el factor por el que se multiplica laecuacion a sumar, de modo de “hacer desaparecer” una incognita en la ecuacion resultante

Page 17: Geometr´ıa y´Algebra Lineal 1:

14 CAPITULO 1

Veamos primero que cualquier solucion de S es solucion de S. Sea (α1, α2, . . . , αn)una solucion de (S). Es claro que (α1, α2, . . . , αn) satisface todas las ecuacio-nes de (S′) pues son las mismas que las de (S) salvo, tal vez, la j-esima. Como(α1, α2, . . . , αn) debe verificar la i-esima y j-esima ecuacion de (S) se tiene que

ai1α1 + ai2α2 + . . . + ainαn = bi, aj1α1 + aj2α2 + . . . + ajnαn = bj .

Multiplicando ambos miembros de la primera igualdad por β y sumando miem-bro a miembro, se deduce inmediatamente que

aj1α1 + . . . + ajnαn + β(ai1α1 + . . . + ainαn) = bj + βbi.

Por lo tanto, tambien la j-esima ecuacion de S′ se satisface.La verificacion de que cualquier solucion de S′ es tambien solucion de S

emplea esencialmente el mismo argumento. Igual que antes es claro que(α1, α2, . . . , αn) debe verificar todas las ecuaciones de (S) salvo tal vez laj-esima. Por la j-esima ecuacion en S′ sabemos que

aj1α1 + . . . + ajnαn + β(ai1α1 + . . . + ainαn) = bj + βbi,

en tanto que la i-esima implica

ai1α1 + ai2α2 + . . . + ainαn = bi.

Multiplicamos ambos miembros de la i-esima por β, y restamos de la ecuacionque ocupa el lugar j, para concluir

aj1α1 + aj2α2 + . . . + ajnαn = bj .

Esto muestra que (α1, α2, . . . , αn) ∈ Sol(S) y la prueba esta concluıda6.La proposicion 1.1 es el fundamento teorico del metodo de eliminacion que

hemos presentado en el ejemplo 1.1.10: nos asegura que en cada paso hemosrespetado la equivalencia entre el sistema de partida y el de llegada. Ahorası, finalmente estamos seguros de que el conjunto solucion del sistema en eseejemplo es {(1,−5, 3)}, y no hay soluciones diferentes a (1,−5, 3).

En el proceso de eliminacion hay veces en que es imprescindible intercam-biar ecuaciones. Junto con la transformacion de sumar a una ecuacion un

6No es esencial para nuestro argumento que las ecuaciones del sistema S sean linea-les. La proposicion es tambien cierta para sistemas de ecuaciones no lineales, de la formagi(x1, x2, . . . , xn) = bi, i = 1, 2, . . . , m, donde las expresiones gi pueden depender de lasvariables xj , j = 1, 2, . . . , n, de cualquier manera. Sin embargo, a diferencia de lo que ocurrepara sistemas lineales, no puede obtenerse un metodo sistematico de resolucion de sistemascualesquiera a partir de esta proposicion.

Page 18: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 15

multiplo de otra, esto es todo lo que necesitaremos para el metodo de elimi-nacion de Gauss, o escalerizacion. Ademas de estas operaciones recurriremosa la de multiplicar una ecuacion por algun numero distinto de cero7. Llama-remos transformaciones elementales a estas operaciones. Es decir, a lassiguientes operaciones efectuadas a las ecuaciones de un sistema lineal:

1. Sumar a una ecuacion un multiplo de otra.

2. Intercambiar de lugar dos ecuaciones.

3. Multiplicar una ecuacion por un numero distinto de cero.

Observemos que si a un sistema le aplicamos una operacion elemental obtene-mos un sistema equivalente. Parte de la prueba de este hecho esta contenidaen la proposicion 1.1. El resto se completa con la primera parte del siguienteejercicio.

Ejercicio 1.3.

1. Mostrar que si en un sistema se intercambian dos ecuaciones, o se multiplicauna ecuacion por un numero distinto de cero, entonces se obtiene un sistemaequivalente al original. ¿Que puede ocurrir si se multiplica una ecuacion por 0?

2. Mostrar que si una ecuacion es sustituida por el resultado de multiplicar esaecuacion por un numero distinto de cero y sumarle un multiplo cualquiera deotra ecuacion cualquiera del sistema, entonces el sistema resultante es equiva-lente al original.

Observacion 1.1.13. Notemos que cuando una ecuacion es sustituida porel resultado de sumarle un multiplo de otra la informacion contenida en laecuacion eliminada no desaparece: esta implıcita en la nueva ecuacion, porquela ecuacion sustituida entro con un coeficiente no nulo en la formacion deesta nueva ecuacion (en la mayorıa de los casos este coeficiente sera igual a1). Esta nueva ecuacion, junto con la que se uso en la combinacion lineal,permiten recuperar la ecuacion eliminada. ♠

1.1.4 Notacion matricial

Al trabajar con un sistema de ecuaciones la representacion de las incognitas(x, y, z, o x1, . . . , xn, etc.) no desempena ningun papel importante y puedeusarse cualquiera. De hecho, para determinar las soluciones de un sistema es

7Por ejemplo, cuando todos los coeficientes de una ecuacion son negativos en generalsimplifica las cosas multiplicar la ecuacion por −1. O cuando se quiere conseguir que elprimer coeficiente no nulo de una ecuacion sea igual a 1.

Page 19: Geometr´ıa y´Algebra Lineal 1:

16 CAPITULO 1

suficiente con conocer los coeficientes y el termino independiente del mismo.Naturalmente no alcanza con conocer los valores de estos numeros, sino quees necesario saber el lugar que ocupan: a que ecuacion pertenecen y a queincognita multiplican. Por esto resulta conveniente introducir la nocion dematriz. Llamaremos matriz A de m filas por n columnas (o simplementematriz m× n) de entradas

aij , i = 1, 2 . . . , m, j = 1, 2, . . . , n,

en un cuerpo K, a un ordenamiento rectangular8 de numeros

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

.... . .

...am1 am2 . . . amn

En general indicaremos con mayusculas las matrices, y con la letra minusculacorrespondiente a sus entradas. Por ejemplo, a la matriz A con entradas aij

la indicaremos porA = ((aij))

i=1,...,mj=1,...,n ,

o mas brevemente A = ((aij)) cuando las dimensiones esten claras. El primerındice i indica la fila y el segundo j la columna a la que pertenece la entrada.

Dos matrices son iguales si tienen el mismo tamano y los mismas entradasen las mismas posiciones. Dicho de otro modo si A y B son dos matrices m×nentonces A = B si y solo si

aij = bij ∀i = 1, . . . ,m, j = 1, . . . , n.

Dos matrices de distinto tamano jamas pueden ser iguales.

Ejemplo 1.1.14. La matriz ((1/(2i + j)))i=1,2j=1,3 es igual a la matriz(

13

14

15

15

16

17

).

Si

A =(

1 2√2 1

), B =

(2 1√2 1

),

entonces A 6= B pues a11 = 1 6= 2 = b11. ♣8El lector atento notara que la frase “ordenamiento rectangular” es intuitiva pero no esta

definida con precision. Es posible dar una definicion formal : Una matriz A de m filas por ncolumnas sobre el cuerpo K es una funcion A : {1, . . . , m}×{1, . . . , n} → K. No creemos queeste formalismo tenga ninguna utilidad para nuestro curso, por lo que preferimos introduciry manejar las matrices en terminos mas intuitivos.

Page 20: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 17

Dado un sistema lineal de ecuacionesa11x1 + a12x2 + . . . + a1nxn = b1,a21x1 + a22x2 + . . . + a2nxn = b2,

......

am1x1 + am2x2 + . . . + amnxn = bm,

llamaremos matriz del sistema a la matriz A, cuya dimension m×n es igualal tamano del sistema, formada por sus coeficientes. Esto es:

A =

a11 a12 . . . a1n

a21 a22 . . . a2n...

.... . .

...am1 am2 . . . amn

.

Llamaremos, matriz ampliada del sistema a la matriz m× (n + 1)a11 a12 . . . a1n b1

a21 a22 . . . a2n b2...

.... . .

......

am1 am2 . . . amn bm

,

que incorpora los terminos independientes. Corrientemente escribiremos estamatriz en la forma

a11 a12 . . . a1n b1

a21 a22 . . . a2n b2...

.... . .

......

am1 am2 . . . amn bm

,

para recordar que estamos considerando la matriz ampliada de un sistema, cu-ya ultima columna tiene un significado diferente a las anteriores. Tambien lasrepresentaremos en la forma breve A|B. Naturalmente, toda la informacionque necesitamos sobre el sistema lineal esta encerrada en la matriz amplia-da A|B. Veremos mas adelante que, en realidad, mucha de la informacionrelevante acerca del sistema solo depende de la matriz A formada por suscoeficientes.

La definicion anterior introduce una notacion mas compacta (matricial)para un sistema de ecuaciones. Veamos un ejemplo.

Page 21: Geometr´ıa y´Algebra Lineal 1:

18 CAPITULO 1

Ejemplo 1.1.15. Consideremos el sistemax + y + 2z = 9,

3x + 6y − 5z = 0,2x + 4y − 3z = 1.

Entonces la matriz del sistema y la matriz ampliada son:

A =

1 1 23 6 −52 4 −3

, A|B =

1 1 2 93 6 −5 02 4 −3 1

.

Esta notacion mas compacta simplificara la escritura e implementacion delalgoritmo de eliminacion de Gauss. ♣

Antes de mostrar con un ejemplo la implementacion del metodo de esca-lerizacion con la notacion matricial vale la pena hacer algunas observaciones.

Observacion 1.1.16. Cada fila de la matriz del sistema corresponde a unade las ecuaciones del sistema. Las operaciones del metodo de escalerizacion setraduciran entonces en operaciones sobre las filas de la matriz. En particular,las transformaciones elementales seran, en este contexto, las siguentes:

1. Sumar a una fila el resultado de multiplicar otra por un numero cual-quiera.

2. Intercambiar de lugar dos filas.

3. Multiplicar una fila por un numero α 6= 0.

Cada incognita del sistema queda en correspondencia con una de las columnasde la matriz A del sistema. Una entrada aij igual a 0 en la matriz A esequivalente a que la incognita xj no aparezca en la i-esima ecuacion. ♠

Observacion 1.1.17. Con la introduccion de las matrices ganamos, paraempezar, con la economıa en la notacion. Veremos a lo largo de este curso lasmatrices pueden ser consideradas desde varios puntos de vista:

• en muchas situaciones son una forma ordenada de escribir la informaciondisponible;

• pueden ser consideradas como un arreglo de m× n numeros;

• como un conjunto ordenado de n columnas;

Page 22: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 19

• como un arreglo de m filas;

• tambien como un unico objeto, que es ademas un elemento de una es-tructura algebraica.

• Finalmente, pueden ser vistas como la definicion de una transformacionde Kn en Km.

Ejemplo 1.1.18. La escalerizacion en notacion matricial

Vamos a reescribir los pasos del ejemplo (1.1.10) en notacion matricial.Esto permite conseguir bastante economıa en la notacion. El sistema originalqueda expresado en la forma: 1 1 2 8

1 2 1 02 1 1 4

.

Cada ecuacion esta ahora representada por una fila de coeficientes en la matrizampliada del sistema.

Observacion 1.1.19. Un poco de jerga.

Llamaremos pivote a la primera9 entrada no nula de cada fila de una matriz.Con esta terminologıa podemos describir la eliminacion de Gauss como unprocedimiento que busca, a traves de la aplicacion reiterada de las transfor-maciones elementales, dejar un unico pivote por columna. En cada paso de laescalerizacion, una vez escogido un pivote, lo empleamos para eliminar todaslos otros pivotes de la misma columna. ♠

Paso 1. Las operaciones que antes hacıamos con las ecuaciones deben hacerseahora sobre filas de coeficientes. Escogemos el pivote 1 en la primera fila, yrestamos entonces esta primera fila de la segunda para hacer aparecer un ceroen el primer lugar de la segunda fila (esto es equivalente a hacer desaparecerla variable x en la ecuacion correspondiente). Luego multiplicamos la primerafila por 2 y la restamos de la tercera. El resultado es1 1 2 8

0 1 −1 −80 −1 −3 −12

.

Solo un pivote, el 1 de la primera fila, aparece en la primera columna.9El orden que estamos empleando es el obvio: es el orden en que estan numeradas las

columnas.

Page 23: Geometr´ıa y´Algebra Lineal 1:

20 CAPITULO 1

Paso 2. Sumamos la segunda fila a la tercera y llegamos a la matriz escaleri-zada 1 1 2 8

0 1 −1 −80 0 −4 −20

. (1.4)

Observemos que con la representacion matricial hemos aligerado bastante lanotacion.

La nueva matriz ampliada (1.4) es una representacion del sistema de ecua-ciones

x + y + 2z = 8,y − z = −8,−4z = −20,

cuya solucion podemos calcular directamente. La tercera ecuacion implicaz = 5. Al sustituir en la segunda podemos despejar y = −3. Finalmente,la primera implica x − 3 + 2 × 5 = 8, por lo que x = 1. El procedimientode escalerizar y resolver el sistema escalerizado sustituyendo hacia arriba nospermite hallar el conjunto solucion del sistema original. ♣

Llamaremos matriz escalerizada a una matriz que cumpla las siguientescondiciones:

1. todas las filas, salvo quizas la primera, comienzan con una sucesion deceros;

2. cada fila tiene al principio por lo menos un cero mas que la fila inmediatasuperior.

Escalerizar una matriz es llevarla a una forma escalerizada por medio detransformaciones elementales (ver la observacion 1.1.16, en la pagina 18). SiE es una matriz que se obtiene escalerizando otra matriz A, entonces diremosque E es una forma escalerizada de A. Diremos que un sistema esta escale-rizado si su matriz ampliada lo esta. Escalerizar un sistema es encontrarotro sistema escalerizado equivalente. Naturalmente, escalerizar un sistema esequivalente a escalerizar la matriz ampliada del sistema.

Pondremos en practica la tecnica con un nuevo ejemplo.

Ejemplo 1.1.20. Resolver en R el sistema:x1 + 2x2 + x3 + x5 + x6 = 1−x1 − 2x2 + x3 + x4 − x6 = 0

x1 + 2x2 + x3 + 2x4 + 5x5 + 3x6 = 1x1 + 2x2 + x3 + x5 + 3x6 = 3

x1 + 2x2 + x3 + 4x4 + 9x5 + 3x6 = −1

Page 24: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 21

La matriz ampliada del sistema es:1 2 1 0 1 1 1−1 −2 1 1 0 −1 0

1 2 1 2 5 3 11 2 1 0 1 3 31 2 1 4 9 3 −1

.

El proceso comienza fijando la entrada no nula de primera fila como pivote yutilizandola para lograr ceros en el resto de la primera columna. El resultadoes la matriz

1 2 1 0 1 1 10 0 2 1 1 0 10 0 0 2 4 2 00 0 0 0 0 2 20 0 0 4 8 2 −2

←− F2 + F1

←− F3 − F1

←− F4 − F1

←− F5 − F1.

Hemos anotado al margen de la matriz las transformaciones que en este pri-mer paso de la escalerizacion fueron hechas a la matriz ampliada del sistema.Creemos que la notacion empleada se explica por sı sola.

En el ejemplo 1.1.18, se utilizaba la entrada a22 en el segundo paso dela escalerizacion para conseguir ceros en la segunda columna columna. Aquıesto no es posible pues la segunda columna ya tiene todas sus entradas, salvola primera, nulas. En consecuencia, el segundo escalon debera estar en latercera columna, donde aparece la entrada no nula a23. Por debajo de a23

solo hay ceros, ası que continuamos nuestro algoritmo usando el pivote 2 de laentrada a34. He aquı la matriz que se obtiene, junto con la indicacion de lasoperaciones realizadas:

1 2 1 0 1 1 10 0 2 1 1 0 10 0 0 2 4 2 00 0 0 0 0 2 20 0 0 0 0 −2 −2

←− F5 − 2F3

En el tercer paso operaremos sobre la sexta columna:1 2 1 0 1 1 10 0 2 1 1 0 10 0 0 2 4 2 00 0 0 0 0 2 20 0 0 0 0 0 0

←− F5 + F4.

Page 25: Geometr´ıa y´Algebra Lineal 1:

22 CAPITULO 1

Ya tenemos la forma escalerizada, con pivotes en las columnas primera, tercera,cuarta y sexta. El sistema lineal, equivalente al sistema original en el sentidode que tiene exactamente las mismas soluciones, que corresponde a esta matrizes

x1 + 2x2 + x3 + x5 + x6 = 1,2x3 + x4 + x5 = 1,

2x4 + 4x5 + 2x6 = 0,2x6 = 2.

De la ultima ecuacion resulta x6 = 1. Con esta informacion vamos a la terceray concluimos

x4 + 2x5 = −1. (1.5)

Esto no permite determinar x4 ni x5, pero podemos dejar expresada unaincognita en terminos de la otra. Expresemos x4, una variable que corres-ponde a una columna con un pivote en la forma escalerizada, en terminos dex5, como

x4 = −1− 2x5.

Sustituyendo en la segunda ecuacion obtenemos

x3 =x5

2+ 1.

Combinando toda esta informacion con la primera ecuacion resulta

x1 + 2x2 +3x5

2+ 1 = 0. (1.6)

Nuevamente escogemos despejar la variable que corresponde al pivote paraescribir

x1 = −2x2 −3x5

2− 1.

Concluimos entonces que todas las soluciones del sistema son de la forma

(−1− 2x2 − 3x5/2, x2, 1 + x5/2,−1− 2x5, x5, 1) ,

donde x2 y x5 son dos parametros reales que podemos fijar a nuestro antojo.La solucion no es unica, pero puede describirse completamente en terminos delas variables x2 y x5. ♣

Observacion 1.1.21. Variables libresLa razon para despejar las variables de las columnas con pivotes (x4 de laecuacion (1.5), x1 de (1.6)) es que siempre es posible despejar la variable queesta multiplicada por el pivote en terminos de las otras porque su coeficiente,

Page 26: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 23

el pivote, es no nulo. Despejar las otras variables podrıa ser imposible. Heaquı un ejemplo: si la forma escalerizada de una matriz ampliada es(

1 0 1 0 00 0 1 2 0

)entonces podemos despejar x3 = −2x4, o x4 = −x3/2 de la ultima ecuacion.En la primera podemos despejar x1 = −x3, pero es imposible expresar x2 enterminos de las restantes variables.

Vamos a introducir la denominacion variables libres para las incognitasque corresponden a columnas sin pivotes. Enfaticemos que siempre es posibleexpresar las soluciones del sistema en terminos de las variables libres10. Cadauna de estas variables corresponde a un grado de libertad dentro del conjuntosolucion del sistema.

Las variables x2 y x5 son las variables libres en el ejemplo 1.1.20. ♠

Veamos un ejemplo mas en el que trataremos un sistema trabajando sobresu representacion matricial.

Ejemplo 1.1.22. Resolveremos en Z2 el sistemax1 + x2 + x4 + x5 = 1,

x2 + x3 + x4 = 1,x1 + x3 + x5 = 1,x2 + x3 + x5 = 1.

La matriz ampliada del sistema es1 1 0 1 1 10 1 1 1 0 11 0 1 0 1 10 1 1 0 1 1

.

La llevaremos a una forma escalerizada. Comenzamos por sumar la primerafila a la tercera:

1 1 0 1 1 10 1 1 1 0 10 1 1 1 0 00 1 1 0 1 1

.

10Lo que no excluye la posibilidad de que las soluciones puedan expresarse en terminos deotras variables, que incluyan a algunas de las que corresponden a columnas con pivotes.

Page 27: Geometr´ıa y´Algebra Lineal 1:

24 CAPITULO 1

Ahora sumaremos la segunda a la tercera y la cuarta:1 1 0 1 1 10 1 1 1 0 10 0 0 0 0 10 0 0 1 1 0

.

Para obtener la forma escalerizada intercambiamos las filas tercera y cuarta:1 1 0 1 1 10 1 1 1 0 10 0 0 1 1 00 0 0 0 0 1

.

Este sistema es incompatible, porque la cuarta ecuacion es equivalente a

0x1 + 0x2 + 0x3 + 0x4 + 0x5 = 1.

Como el miembro de la izquierda vale 0 para cualquier eleccion de las incognitas,esta ecuacion no puede satisfacerse. El conjunto solucion del sistema es el con-junto vacıo11. ♣

Ejercicio 1.4. Resolver el sistema del ejemplo 1.1.22, pero cambiando los segundosmiembros de todas las ecuaciones del sistema de forma tal que la ultima columna dela matriz ampliada del nuevo sistema sea (0, 1, 1, 0).

Ejercicio 1.5. Resolver el sistemax1 + 2x2 + x3 + x5 + x6 = 1−x1 − 2x2 + x3 + x4 − x6 = 0

x1 + 2x2 + x3 + 2x4 + 5x5 + 3x6 = 1x1 + 2x2 + x3 + x5 + 3x6 = 3

x1 + 2x2 + x3 + 4x4 + 9x5 + 3x6 = 1

Existe una alternativa al procedimiento de calcular la ultima variable yluego comenzar a sustituir hacia arriba: consiste en utilizar las ultimas ecua-ciones para ir eliminando variables de las anteriores. El procedimiento es elmismo que el de escalerizacion, pero se van eliminando variables “hacia arri-ba”. Veamos un ejemplo.

11El sistema no tiene solucion, ¡pero el problema de hallar las soluciones del sistema sı! Elconjunto solucion es el conjunto vacıo.

Page 28: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 25

Ejemplo 1.1.23. Volvamos al problema del ejemplo 1.1.18. Luego de escale-rizar el sistema habıamos obtenido la matriz1 1 2 8

0 1 −1 −80 0 −4 −20

. (1.7)

Busquemos ahora eliminar las entradas que corresponden a la variable z en laprimera y segunda ecuacion. Dividiremos la ultima ecuacion entre −4. Luegola sumaremos a la segunda. Tambien haremos la operacion de multiplicar laultima fila por 2 y restarla de la primera. Obtenemos1 1 0 −2

0 1 0 −30 0 1 5

.

Por ultimo, hacemos aparecer un 0 en el segundo lugar de la primera fila,restando la segunda ecuacion a la primera. El resultado final es1 0 0 1

0 1 0 −30 0 1 5

.

El sistema asociado a esta matriz es, naturalmente,x = 1,y = −3,z = 5,

cuya resolucion es inmediata. ♣

Consideraremos ahora un caso un poco mas complicado.

Ejemplo 1.1.24. Retomamos el sistema del ejemplo 1.1.20 en el punto enque habıamos escalerizado la matriz del sistema. Tenıamos que

1 2 1 0 1 1 10 0 2 1 1 0 10 0 0 2 4 2 00 0 0 0 0 2 20 0 0 0 0 0 0

era la matriz asociada al sistema escalerizado. Usaremos ahora los pivotespara hacer aparecer ceros por encima de ellos. Como paso previo dividimos

Page 29: Geometr´ıa y´Algebra Lineal 1:

26 CAPITULO 1

las filas tercera y cuarta por sus pivotes,1 2 1 0 1 1 10 0 2 1 1 0 10 0 0 1 2 1 00 0 0 0 0 1 10 0 0 0 0 0 0

.

Luego comenzamos por hacer aparecer ceros sobre el pivote de la ultima co-lumna, y obtenemos

1 2 1 0 1 0 00 0 2 1 1 0 10 0 0 1 2 0 −1−1 0 0 0 0 1 1

0 0 0 0 0 0 0

←− F1 − F4,

←− F3 − F4.

A partir de esta nueva matriz operamos con el pivote de la cuarta columna:1 2 1 0 1 0 00 0 2 0 −1 0 20 0 0 1 2 0 −10 0 0 0 0 1 10 0 0 0 0 0 0

←− F2 − F3,

Ahora lo hacemos con el de la segunda columna, y dividimos la segunda filaentre 2 para que su pivote quede igual a 1. El resultado final es

1 2 0 0 32 0 −1

0 0 1 0 −12 0 1

0 0 0 1 2 0 −10 0 0 0 0 1 10 0 0 0 0 0 0

←− F1 − 1

2F2,←− 1

2F2,(1.8)

donde hemos enfatizado ademas la “forma escalerizada” que tiene la matriz.El sistema de ecuaciones asociado con esta matriz es

x1 + 2x2 + 32x5 + = −1,

x3 − 12x5 = 1,

x4 + 2x5 = −1,x6 = 1,

y ahora es completamente directo despejar x1, x3 y x4 en terminos de x2 y x5

para reencontrar que

{(−1− 2x2 − 3x5/2, x2, 1 + x5/2,−1− 2x5, x5, 1) ; x2, x5 ∈ R}

Page 30: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 27

es el conjunto solucion del sistema.

Insistamos en que las incognitas no pueden determinarse completamente.Por ello hemos elegido expresar todo en terminos de x2 y x5 de modo tal quecada pareja de valores reales elegido para x2 y x5 determina una solucion delsistema. Por ejemplo, la eleccion mas sencilla de todas es

x2 = x5 = 0,

que da lugar a(−1, 0, 1,−1, 0, 1).

Para x2 = 1 y x5 = 0 se obtiene la solucion

(−3, 1, 1,−1, 0, 1).

Si x2 = 0 y x5 = 1 se tiene la solucion

(−5/2, 0, 3/2,−3, 1, 1) .

El sistema es compatible e indeterminado, porque tiene mas de una solucion.Ademas sabemos como construirlas todas. El proceso de escalerizacion selec-ciona a las variables x2 y x5 como variables libres, y en terminos de x2 y x5,cuyos valores pueden ser fijados arbitrariamente, hemos escrito todas las solu-ciones. El sistema tiene entonces dos grados de libertad. No nos extendemosmucho mas sobre esto, porque sera el objeto de la seccion 1.3, pero dejamosplanteado un ejercicio para el lector.

Ejercicio 1.6. Mostrar que todas las soluciones del sistema de este ejemplo tam-bien pueden escribirse en terminos de las variables x1 y x4, pero que es imposibleexpresarlas en funcion de x1 y x2. ♣

Observacion 1.1.25. Matriz escalerizada reducida

Vemos en nuestros ultimos dos ejemplos que continuar con la escalerizacion“hacia arriba” a partir de la forma escalerizada de la matriz, nos permite llegara una nueva matriz, escalerizada, equivalente a la forma escalerizada que yahabıamos obtenido y a la original, tal que

1. todos los pivotes son iguales a 1;

2. las columnas correspondientes a los pivotes tienen todas las entradasnulas, salvo el pivote.

Page 31: Geometr´ıa y´Algebra Lineal 1:

28 CAPITULO 1

Llamaremos matriz escalerizada reducida a una matriz escalerizada quecumple ademas estas dos condiciones. Notemos que siempre que tengamos unamatriz escalerizada reducida podremos, si el sistema es compatible, despejardirectamente las variables de las columnas de los pivotes, y expresarlas enfuncion de las entradas en la ultima columna de la matriz ampliada y de lasvariables libres. ♠

Observacion 1.1.26. Operaciones con listas de numeros.Notemos que a lo largo de esta seccion hemos introducido, casi sin darnoscuenta, algunas operaciones algebraicas con las filas de las matrices asociadasa los sistemas lineales.

Por ejemplo en el primer paso del ejemplo 1.1.18 nos referimos al resultadode multiplicar por dos cada uno de los numeros en la fila (1, 1, 2, 8) para obtenerla fila (2, 2, 4, 16) como la operacion de multiplicar por 2 la fila (1, 1, 2, 8). Esdecir, interpretamos que

2× (1, 1, 2, 8) = (2× 1, 2× 1, 2× 2, 2× 8) = (2, 2, 4, 16).

Tambien nos hemos referido al resultado de sumar entrada a entrada las dosfilas (0, 1,−1,−8) y (0,−1,−3,−12) como a la operacion de sumar ambas filas.En otras palabras

(0, 1,−1,−8) + (0,−1,−3,−12) = (0, 0,−4,−20).

En general, observemos que todo esto es equivalente a definir las siguientesoperaciones para filas (listas) de cuatro numeros:

Suma de dos listas:

(x1, x2, x3, x4) + (y1, y2, y3, y4) = (x1 + y1, x2 + y2, x3 + y3, x4 + y4).

Producto de una lista por un numero:

α(x1, x2, x3, x4) = (α x1, α x2, α x3, α x4).

Estas operaciones entre filas, o listas, de numeros son bastante naturales,y, por supuesto, su definicion puede extenderse a listas de longitud cualquiera,tanto filas (listas escritas en forma “horizontal”) como columnas (escritas en“vertical”). La existencia de estas operaciones dota al conjunto Kn formadopor listas de n numeros en el cuerpo K de una estructura algebraica. Por esonos referiremos a este conjunto como el espacio, o espacio vectorial, Kn. Desa-rrollaremos mas estas ideas en la seccion 1.2 y secciones siguientes, pero vale

Page 32: Geometr´ıa y´Algebra Lineal 1:

1.1 Introduccion a los sistemas lineales 29

la pena ir introduciendo esta idea de que llamaremos espacio a un conjunto(en este caso el conjunto Kn) que esta dotado de algun tipo de estructura (unaestructura algebraica en el ejemplo que estamos considerando). Esta estruc-tura nos sera util para describir las soluciones de los sistemas de ecuacioneslineales. ♠

1.1.5 Un poco de teorıa: cualquier sistema puede ser escaleri-zado

Hasta este momento hemos usado el algoritmo de escalerizacion, y resueltounos cuantos sistemas de ecuaciones con el. El lector podrıa preguntarse sicualquier matriz puede ser llevada a una forma escalerizada. La respuesta esque sı. Y la demostracion no pasa de ser un analisis cuidadoso del metodo.Todo esto esta contenido en nuestra siguiente proposicion.

Proposicion 1.2. Toda matriz puede ser transformada en una matriz esca-lerizada mediante una cantidad finita de transformaciones elementales

Demostracion. Razonaremos por induccion sobre el numero de filas dela matriz A. Como primer paso, digamos que es obvio que una matriz quetiene una unica fila se puede escalerizar por medio de una cantidad finita deoperaciones elementales12.

Supongamos ahora que la proposicion es cierta para matrices con m − 1filas, y veremos como implica que se puede escalerizar cualquier matriz con mfilas. Sea A = ((aij)) una matriz m × n, con m ≥ 2, sobre un cuerpo Kcualquiera. Indiquemos por

Ai = (ai1, ai2, . . . , ain)

su fila i-esima.Distingamos tres casos:

1. si a11 6= 0 entonces realizamos el primer paso de la escalerizacion: susti-tuimos cada fila Ai, para i = 2, . . . ,m, por

A′i = Ai −

ai1

a11A1.

La eleccion del multiplicador para A1 asegura que la primera entrada decada una de estas filas A′

i es nula;

12En realidad no hay que hacer ninguna: una matriz con una unica fila ya esta escalerizada.No hay nada que hacer con ella

Page 33: Geometr´ıa y´Algebra Lineal 1:

30 CAPITULO 1

2. si a11 = 0, pero la primera columna tiene alguna entrada ai1 no nula,entonces escogemos una fila Ai tal que ai1 6= 0, e intercambiamos13 laprimera fila con Ai. La aplicacion de esta operacion elemental de inter-cambiar dos filas nos coloca en la situacion del caso 1. Luego procedemoscomo en ese caso;

3. si toda la primera columna es nula entonces no hacemos nada.

El resultado del paso anterior es una nueva matriz que tiene el siguiente aspectoa11 a12 . . . a1n

0 a′22 . . . a′2n...

.... . .

...0 a′m2 . . . a′mn

.

Para escalerizar esta matriz basta encontrar una forma escalerizada de la sub-matriz

((a′ij))j=2,...,ni=2,...,m,

que tiene m − 1 filas. Por lo tanto esta forma escalerizada puede obtenersepor medio de un numero finito de transformaciones elementales.

Ejercicio 1.7. Mostrar que cualquier matriz puede ser llevada a una forma escale-rizada reducida por medio de una cantidad finita de operaciones elementales.

La proposicion que acabamos de demostrar tiene un util corolario para laresolucion de sistemas de ecuaciones lineales.

Corolario 1.3. Todo sistema lineal es equivalente a uno escalerizado.

Observacion 1.1.27. Notemos que para llegar a la forma escalerizada no esnecesario usar la transformacion elemental que consiste en multiplicar una filade la matriz o una ecuacion de un sistema por un numero distinto de cero.Usaremos esta observacion en la seccion dedicada al calculo de determinates(seccion 2.5).

13Por razones numericas y para no amplificar innecesariamente errores de redondeo, alresolver sistemas con ayuda de una computadora resulta muchas veces importante, auncuando a11 6= 0, cambiar la primera fila por la fila que tenga la primera entrada mayor. Esteprocedimiento se conoce como pivoteo.

Page 34: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 31

1.2 Compatibilidad de los sistemas lineales: la ima-gen de la matriz del sistema

Comencemos esta seccion por una observacion obvia: si un sistema de ecua-ciones lineales nos interesa14 lo mas probable es que el interes provenga deque queremos conocer su solucion. Pero no todos los sistemas lineales tienensolucion. Ya hemos visto esta posibilidad en los ejemplos y ejercicios de laseccion 1.1, y hemos dado en llamar incompatibles a estos sistemas. Con es-te nombre los distinguimos de los sistemas compatibles, que tienen solucion.Posiblemente muchas. Nos dedicaremos ahora a entender este problema dela compatibilidad e incompatibilidad de los sistemas de ecuaciones lineales.Al hacerlo iremos introduciendo algunas de las nociones mas importantes delAlgebra Lineal.

Nuestro primer paso es cambiar un poco el punto de vista acerca de los sis-temas de ecuaciones lineales, retomando la idea de operar con listas de numeros(filas o columnas) que introdujimos en la observacion 1.1.26, pagina 28, de laseccion 1.1. Una solucion (x1, x2, . . . , xn) del sistema

a11x1 + a12x2 + . . . + a1j + . . . + a1nxn = b1

a21x1 + a22x2 + . . . + a2j + . . . + a2nxn = b2...

am1x1 + am2x2 + . . . + amj + . . . + amnxn = bm

(1.9)

puede ser vista como un conjunto de numeros que hace que se satisfagan todaslas ecuaciones del sistema. Pero tambien podemos pensar ası: cada uno de losnumeros xj aparece multiplicando a los coeficientes que estan en la j-esimacolumna de la matriz del sistema. Es decir, cada xj aparece en una columna

a1jxj

a2jxj...

amjxj

= xj

a1j

a2j...

amj

. (1.10)

La igualdad esta justificada por la convencion de que multiplicar un numeropor una columna (fila) es lo mismo que multiplicar cada entrada de la columna

14Interes que damos por descontado en esta seccion.

Page 35: Geometr´ıa y´Algebra Lineal 1:

32 CAPITULO 1

(fila) por ese numero. Calcular la suma

x1

a11

a21...

am1

+ . . . + xj

a1j

a2j...

amj

+ . . . + xn

a1n

a2n...

amn

(1.11)

de las n columnas de la matriz multiplicadas por los numeros xj es lo mismoque sumar entrada a entrada, para j = 1, 2 . . . , n las columnas que aparecen enel primer miembro de (1.10). Al hacer esta operacion obtenemos la columna

a11x1 + . . . + a1jxj + . . . + a1nxn

a21x1 + . . . + a2jxj + . . . + a2nxn...

am1x1 + . . . + amjxj + . . . + amnxn

, (1.12)

que contiene todos los primeros miembros de las ecuaciones del sistema. Na-turalmente, que el sistema se satisfaga es equivalente a que la columna (1.12)sea igual a la columna

B =

b1

b2...

bm

,

formada por los numeros bi, i = 1, 2, . . . ,m de los segundos miembros.

Podemos ver entonces nuestro sistema de m ecuaciones como una unicaecuacion escrita en terminos de listas de m numeros: las columnas de la matrizy la columna de los terminos independientes. Si llamamos Aj a la j-esimacolumna de la matriz, para j = 1 . . . , n, podemos representar el sistema (1.9)como

x1A1 + x2A2 + . . . xjAj . . . + xnAn = B, (1.13)

donde B es la columna del termino independiente. Notemos que el miembro dela izquierda en (1.13) es lo mismo que (1.11), pero expresado con una notacionmas breve. Resolver el sistema es buscar una lista de n numeros x1,. . . , xn

tales que se satisfaga (1.13)

Ejemplo 1.2.1. COMPLETAR Verificar las soluciones de los ejemplos dela primera seccion con esta notacion de columnas.

Page 36: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 33

Observacion 1.2.2. Combinaciones lineales.En general, si Aj , j = 1, . . . , n son vectores de Km, y xj , j = 1, . . . , n sonnumeros en el cuerpo K, diremos que

x1A1 + x2A2 + . . . + xjAj + . . . + xnAn (1.14)

es la combinacion lineal los vectores Aj , con coeficientes xj .Diremos tambien que un vector B ∈ Km es una combinacion lineal de

Aj , j = 1, . . . , n, si existen escalares xj , j = 1 . . . , n tales que B es igual a lacombinacion lineal de los vectores Aj con esos coeficientes. ♠

Es sumamente interesante ver una representacion geometrica de la cons-truccion de estas combinaciones lineales. A continuacion la presentamos parael caso de dos vectores de R2, que pueden ser representados en el plano

Ejemplo 1.2.3. Interpretacion geometrica de las combinaciones li-neales.Consideremos A1 = (1, 1) y A2 = (1, 0) en R2 ......COMPLETAR EL EJEMPLO ♣

Antes de continuar trabajando con los sistemas lineales examinaremos al-gunos otros ejemplos. Escribiremos todos los vectores como filas, no comocolumnas, simplemente para ahorrar algo de espacio en el papel.

Ejemplo 1.2.4.

• La n-upla nula 0 = (0, . . . , 0) es combinacion lineal de cualquier coleccionde n-uplas, basta tomar todos los coeficientes nulos para obtenerla.

• Sea A = {(1, 2, 1), (2,−2, 2)} ⊂ R3 entonces (0, 6, 0) es combinacionlineal de A con coeficientes 2 y −1 pues

(0, 6, 0) = 2(1, 2, 1) + (−1)(2,−2, 2).

Pero no es posible escribir (0, 6, 1) como una combinacion lineal de estosdos vectores. Verifiquemoslo. Expresar (0, 6, 1) como combinacion linealde (1, 2, 1) y (2,−2, 2) es lo mismo que encontrar dos coeficientes x e ytales que

(0, 6, 1) = x(1, 2, 1) + y(2,−2, 2) = (x + 2y, 2x− 2y, x + 2y).

Y esta igualdad es equivalente al sistema de ecuacionesx + 2y = 0,

2x− 2y = 6,x + 2y = 1.

Page 37: Geometr´ıa y´Algebra Lineal 1:

34 CAPITULO 1

Al escalerizarlo encontramosx + 2y = 0,−4y = 6,

0 = 1,

por lo que concluimos que el sistema es incompatible y es imposible ex-presar (0, 6, 1) como combinacion lineal de los dos vectores dados. Ob-servemos que hemos pasado del problema de expresar un vector comocombinacion lineal de otros, a un sistema de ecuaciones lineales. Talcomo comentabamos, ambos problemas son en realidad equivalentes.

• Sea A = {(1, 2, 1), (2,−2, 2), (1, 8, 1)} combinemos linealmente los vecto-res de A con coeficientes 3,−1 y 1. Obtenemos

3(1, 2, 1) + (−1)(2,−2, 2) + 0(1, 1, 1) = (2, 16, 2).

Y si hacemos la combinacion con coeficientes 6, −2 y 0 resulta

6(1, 2, 1) + (−2)(2,−2, 2) + 0(1, 1, 1) = (2, 16, 2).

¡Exactamente el mismo vector! Vemos entonces que distintas combina-ciones lineales de una misma familia de vectores pueden dar el mismoresultado. Mirando las cosas desde otro punto de vista: hay ejemplos–acabamos de ver uno– en que un vector puede ser expresado en masde una forma como combinacion lineal de una familia de vectores dados.Naturalmente, estos ejemplos corresponden a sistemas lineales compati-ble e indeterminados. ♣ ♠

Todavıa es posible introducir una notacion mas concisa que (1.13) para unsistema lineal de ecuaciones: definiremos el producto AX de la matriz A porla columna15

X =

x1

x2...

xn

como la combinacion lineal

AX = x1A1 + x2A2 + . . . xjAj . . . + xnAn

de las columnas de A con los coeficientes almacenados en la columna X.15En este momento lo unico importante es que X sea una lista de longitud n. La restriccion

de escribirla como una columna quedara justificada mas adelante, en la seccion ??, cuandodefinamos el producto de matrices en un contexto mas general que este.

Page 38: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 35

Ejemplo 1.2.5.

• Al multiplicar cualquier matriz m × n por una columna de n ceros seobtiene una columna de m ceros.

• Si multiplicamos una matriz m×n por una columna formada por ceros entodas sus entradas salvo la i-esima, en la que ponemos un 1, el resultadoes la i-esima columna de la matriz.

1 22 −21 2

( 2−1

)=

060

.

• Sea

A =

1 2 12 −2 81 2 1

.

Entonces

A

3−1

1

= A

6−2

0

=

2162

.

El lector atento habra notado en este ejemplo que hemos presentado nueva-mente algunas de las combinaciones lineales del ejemplo 1.2.4, ahora escritasen forma de productos de matrices por columnas. ♣

Observacion 1.2.6. Notacion con sumatoriassEn la i-esima entrada del producto AX aparece la suma

ai1x1 + ai2x2 + . . . + ainxn

de las entradas i-esimas de cada columna, multiplicadas por el coeficiente quemultiplique a esa columna. Muchas veces es conveniente emplear el signo desumatoria para expresar una suma de este tipo:

n∑j=1

aijxj = ai1x1 + ai2x2 + . . . + ainxn,

con lo que se gana cierta economıa en la notacion.Si tenemos listas de numeros aj y bj , para para j = 1, . . . , n, entonces las

propiedades conmutativa y asociativa de la suma en el cuerpo K nos permitenasegurar que

n∑j=1

(aj + bj) =n∑

j=1

aj +n∑

j=1

bj .

Page 39: Geometr´ıa y´Algebra Lineal 1:

36 CAPITULO 1

Comentemos que, en general, cualquier cambio en el orden en que se haganlas sumas no altera el resultado final. Ademas, si λ es otro numero cualquieraen K se satisface

λ

n∑j=1

aj =n∑

j=1

λaj .

En algunos casos usaremos esta notacion para simplificar la escritura.

Tambien puede emplearse el signo de sumatoria para escribir en forma masbreve sumas que involucran listas de vectores. Por ejemplo, la combinacionlineal que aparece en la definicion del producto de una matriz por un vectores

AX =n∑

j=1

xjAj ,

donde Aj , j = 1 . . . , n son las columnas de la matriz. ♠

Con la notacion que hemos introducido al definir el producto de una ma-triz A por una columna X podemos resumir la voluminosa y amenazadoraexpresion (1.9) con que hemos representado en la pagina 31 el sistema conmatriz A y termino independiente B, en la casi insignificante formula

AX = B. (1.15)

¿Hemos ganado algo con todo este alarde de notacion? Poco, al menos ahoraes mas facil escribir un sistema lineal... pero su resolucion sigue igual decomplicada que antes. Pero, ¡atencion! No hemos definido el producto AXsolo para simplificar nuestra escritura16. Este producto tiene ademas buenaspropiedades respecto a la estructura lineal con la que estamos trabajando, ylo veremos aparecer una y otra vez a lo largo de este curso. Pasamos ahoraa enunciar y demostrar una de las propiedades mas basicas, ya que haremosuso de ella dentro de muy poco.

Proposicion 1.4. Linealidad en X del producto AX.

Sean A una matriz m×n sobre el cuerpo K, X e Y dos columnas de longitud n,y a un elemento de K. Entonces

1. A(X + Y ) = AX + AY ;

2. A(aX) = a(AX).

16¡Aunque este proposito justificarıa por sı solo introducir tal definicion!

Page 40: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 37

Demostracion.

Escribamos X = (x1, . . . , xn), Y = (y1, . . . , yn). Entonces la j-esima entradade X + Y es xj + yj . Recurramos a la expresion con sumatorias del producotA(X + Y ). Entonces la i-esima entrada de esta columna es

n∑j=1

aij(xj + yj) =n∑

j=1

aijxj +n∑

j=1

aijyj ,

que es la suma de la i-esima entrada de AX con la i-esima entrada de AY .Por lo tanto A(X + Y ) = AX + AY . Dejamos la demostracion de la segundapropiedad como un ejercicio para el lector.

Ejercicio 1.8. Completar la demostracion de la proposicion anterior.

Observacion 1.2.7. Las matrices definen transformaciones linea-les.

La operacion de multiplicar X ∈ Km por una matriz A de dimensiones m× ndefine una correspondencia

X 7→ AX

que a cada X le asocia AX ∈ Kn. La proposicion 1.4 asegura que esta corres-pondencia es una transformacion lineal, en el siguiente sentido:

1. la imagen de la suma de dos vectores X e Y es la suma de sus imagenes;

2. la imagen del resultado de multiplicar un vector por un escalar es elproducto de ese mismo escalar por la imagen del vector. ♠

1.2.1 Compatibilidad del sistema. Espacio de columnas

Disponemos ahora de una notacion concisa para un sistema de ecuacioneslineales. Y de una nueva interpretacion del sistema: se trata de buscar unalista X de n coeficientes que produzcan el termino independiente B haciendouna combinacion lineal de las columnas de la matriz A. Este punto de vistaofrece una caracterizacion de los vectores B que hacen compatible el sistema:son aquellos vectores B que pueden ser escritos como combinacion lineal delas columnas de A. Como cualquier combinacion lineal de las columnas de Apuede expresarse como el producto de A por el vector X que contiene loscoeficientes de la combinacion lineal, resulta entonces que los B que hacenel sistema compatible son justamente aquellos que pueden expresarse en laforma AX, donde X es alguna lista de n coeficientes. Llamaremos espacio

Page 41: Geometr´ıa y´Algebra Lineal 1:

38 CAPITULO 1

de columnas de la matriz A a este conjunto, y lo indicaremos por col(A).Tenemos entonces que

col(A) = {AX; X ∈ Kn}

es el conjunto17 formado por todas las posibles combinaciones lineales de lascolumnas de A. El sistema AX = B es compatible si y solo si B ∈ col(A).

Comenzaremos a ver ahora como las nociones introducidas nos ayudarana entender un poco mas de la estructura de col(A)18, y a encontrar maneraseconomicas de describirlo.

La primera buena noticia es que col(A) tiene buen comportamiento res-pecto a las operaciones de suma de vectores y producto por un escalar.

Proposicion 1.5. Estructura lineal de col(A).Si Y1 e Y2 estan en col(A) y a es un escalar cualquiera en K entonces

1. Y1 + Y2 ∈ col(A);

2. aY1 ∈ col(A);

Demostracion. Que Y1 e Y2 esten en el espacio de columnas de la matriz Aes equivalente a que existan dos listas de longitud n, a las que llamaremos X1

y X2, tales queY1 = AX1, Y2 = AX2.

Por lo tantoY1 + Y2 = AX1 + AX2 = A(X1 + X2),

y hemos conseguido expresar Y1 + Y2 como el producto de A por un vector, elvector X1 + X2, lo que implica que Y1 + Y2 ∈ col(A).

La segunda parte es muy parecida, ya que

aY1 = a(AX1) = A(aX1)

es el resultado de multiplicar A por aX1.Sabemos ademas que col(A) es no vacıa, ya que todas las columnas de A

estan en la imagen.17En breve aclararemos por que hemos dado en llamar “espacio” a este conjunto.18Esto es importante, ya que el lector atento podra quejarse de que todos los comentarios

previos son mas o menos tautologicos. Y observar que, hasta ahora, salvo la introducciondel nombre col(A) para designar al conjunto de los B para los que el sistema tiene solucion,no hemos hecho mucho mas que decir que este conjunto esta formado por aquellos B paralos que el sistema tiene solucion.

Page 42: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 39

Ejercicio 1.9.

1. Justificar la afirmacion de que cada una de las columnas de A esta en col(A).

2. Mostrar que la columna 0 formada por m ceros tambien esta en la imagen de A.Interpretar este hecho en terminos de la compatibilidad del sistema homogeneoAX = 0.

Vemos entonces que col(A) es un subconjunto no vacıo de Km que es ce-rrado respecto a las operaciones de suma de vectores y producto porun escalar, en el sentido de que cuando sumamos entre sı, o multiplicamospor un escalar, vectores que pertenezcan a col(A) el resultado tambien esta encol(A). Esto implica que las operaciones de suma de vectores y de productopor un escalar estan definidas cuando nos restringimos a trabajar en col(A),lo que dota a col(A) (igual que ocurrıa con todo el espacio Kn) de una ciertaestructura algebraica.

Veremos que esta estructura algebraica, heredada de la estructura quetiene Kn porque esta basada en las operaciones allı definidas, nos sera util paradescribir la imagen de la matriz. Tambien veremos a lo largo de este curso elimportante papel que tienen los subconjuntos cerrados frente a las operacionesde suma de vectores y producto por un escalar, ası que les pondremos unnombre especıfico: los llamaremos subespacios vectoriales de Kn. Vale lapena destacar esta definicion.

Definicion 1.1. Diremos que un subconjunto S no vacıo de Kn es un subes-pacio vectorial de Kn si tiene las siguientes dos propiedades:

1. la suma de dos vectores cualesquiera de S pertenece a S;

2. el producto de un vector de S por un escalar cualquiera en K pertenecea S.

Observacion 1.2.8. Una combinacion lineal de vectores de un subespaciovectorial S de Kn pertenece a S, porque se obtiene realizando una cantidadfinita de productos de un vector de S por un escalar, seguida de sumas devectores de S. ♠

Ejemplo 1.2.9.

1. Hay dos subconjuntos de Kn para los que es facil verificar que se tratade subespacios vectoriales:

Page 43: Geometr´ıa y´Algebra Lineal 1:

40 CAPITULO 1

(a) El que solo esta formado por 0, el vector nulo del espacio Kn. Esteconjunto es no vacıo, tenemos ademas que 0 + 0 = 0, y a0 = 0para cualquier a ∈ K. Este es el subespacio mas chico que pode-mos tener. De hecho, esta contenido en cualquier otro subespacio.Dejamos la verificacion de esta afirmacion como un ejercicio parael lector.Ejercicio 1.10. Mostrar que si S es un subespacio vectorial de Km

entonces 0 ∈ S, por lo que {0} ⊂ S.

(b) El propio Kn.

2. El subconjuntoS =

{(x, y) ∈ R2; x = y

}es un subespacio vectorial de R2. Claramente es no vacıo. Un elementogenerico de S es de la forma (x, x), con x un numero real cualquiera.Consideremos dos elementos (x1, x1), (x2, x2) de S, y un escalar a cual-quiera. Al sumar tenemos

(x1, x1) + (x2, x2) = (x1 + x2, x1 + x2).

Al multiplicar uno de ellos, por ejemplo (x1, x1) por el escalar a resulta

a(x1, x1) = (ax1, ax1).

Ambos resultados tienen la primera componente igual a la segunda, porlo tanto satisfacen la condicion de pertenencia a S.

3. El subconjuntoS =

{(x, y) ∈ R2; x ≥ 0

}no es un subespacio vectorial de R2. La suma de dos elementos de Ssiempre esta en S. Pero si (x, y) ∈ S y x > 0, al multiplicarlo por unnumero negativo obtenemos una pareja que ya no esta en S.

4. El subconjuntoS =

{(x, y) ∈ R2; xy = 0

}no es un subespacio vectorial de R2. Al multiplicar un elemento de S porcualquier escalar volvemos a obtener un elemento de S. Pero la sumano tiene la propiedad de permanecer dentro de S. Por ejemplo

(1, 0) + (0, 1) = (1, 1) 6∈ S,

aunque (1, 0) y (0, 1) son ambos elementos de S. ♣

Page 44: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 41

Con la terminologıa que hemos introducido en la definicion 1.1, podemosdecir que col(A) es un subespacio vectorial de Kn, por eso hemos llamado “es-pacio” a este conjunto desde el comienzo. Es usual llamarlo tambien espaciogenerado por las columnas de A. El adjetivo “generado” esta justifica-do porque cada elemento de este espacio puede “construirse” a partir de lascolumnas de A, por medio de una combinacion lineal19.

Observacion 1.2.10. Generadores.

Notemos que el espacio de las columnas de una matriz A puede ser muygrande. Por ejemplo, si A es real m × n y no trivial este espacio contieneinfinitos vectores. Pero lo describimos especificando unos pocos: solo n, las ncolumnas de A. Vemos entonces que dar un conjunto que genera todo col(A)por medio de combinaciones lineales es una descripcion mas o menos economicadel conjunto: unos pocos elementos de col(A) permiten reconstruirlo todo.

Es conveniente entonces introducir el concepto de generador de un subes-pacio vectorial S de Kn. Diremos que un subconjunto A ⊂ S es un generadorde S si cualquier vector de S puede ser expresado como una combinacion linealde elementos en A.

Ejemplo 1.2.11. Las columnas de A son un generador del espacio de colum-nas de A. O sea, las columnas de A son un generador ¡del espacio generado porlas columnas! No podrıa ocurrir otra cosa. Hemos dado todas las definicionespara que ası fuera. ♣

Ejemplo 1.2.12. Si A es la matriz real

A =

1 0 00 1 00 0 0

entonces su espacio de columnas esta formado por todos los vectores de R3 quetienen la tercera entrada nula. Este conjunto tiene infinitos vectores, pero20

{(1, 0, 0), (0, 1, 0)} ,

que solo tiene dos vectores, es un generador de este espacio. ♣19Como veremos mas adelante, la construccion de generar un subespacio vectorial a partir

de algunos vectores –en este caso las columnas de A– por medio de combinaciones lineales esgeneral. Lo que estamos describiendo ahora es solo un caso particular de esta construccion.

20Volvemos aquı a representar columnas como filas para salvar la infiniteisma parte dealgun arbolito.

Page 45: Geometr´ıa y´Algebra Lineal 1:

42 CAPITULO 1

Ejemplo 1.2.13. El espacio Zn2 tiene 2n elementos. Pero esta generado por

las n listas de ceros y unos que se contruyen de la siguiente manera: para cadavalor natural de i entre 1 y n construyamos la lista Ei poniendo un 1 en ellugar i, y ceros en las restantes posiciones.

Vale la pena observar que 2n es un numero muchısimo mayor que n. Porejemplo, ¿cuantos dıgitos tiene la expresion decimal de 2100?. ♣ ♠

La observacion 1.2.10 sugiere que identificar un generador de un subespaciovectorial es una manera economica de describirlo. Esto es cierto. En el caso decol(A) ya conocemos un generador: el que esta formado por todas las columnasde la matriz. Veremos que todavıa se puede hacer algo mejor, si eliminamosdel generador los elementos redundantes. Antes de pasar a discutir esto endetalle mostremos esta redundancia en un ejemplo sencillo.

Ejemplo 1.2.14. El espacio de columnas de

A =(

1 21 2

)

esta formado por todas las columnas (x1, x2) tales que x1 = x2. Este espaciopuede generarse a partir de la primera columna, porque la segunda es unmultiplo de la primera. Estamos diciendo entonces que el conjunto formadopor la columna (1, 1) es un generador de col(A), y no tenemos necesidad deincluir a la segunda columna en un generador para poder construir todo elespacio por combinaciones lineales. Hemos conseguido ası un generador maseconomico que el que esta formado por todas las columnas. Observemos queen este ejemplo tambien podrıamos haber usado la segunda columna en vezde la primera. ♣

1.2.2 Descripciones optimas para col(A)

Vamos a discutir ahora dos maneras diferentes de caracterizar el espacio decolumnas de una matriz A. Una hara uso de un conjunto de ecuaciones quedefinen este espacio. La otra consistira en buscar un generador optimo (alque le daremos el nombre de base). Para ambas utilizaremos el metodo deescalerizacion. Veremos como proceder a traves de nuestro proximo ejemplo.

Ejemplo 1.2.15. Consideremos la matriz del sistema del ejemplo 1.1.20. Esta

Page 46: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 43

es la matriz

A =

1 2 1 0 1 1−1 −2 1 1 0 −1

1 2 1 2 5 31 2 1 0 1 31 2 1 4 9 3

.

Nos preguntamos ahora cuales son los B que hacen que el sistema

AX = B

sea compatible. Para determinar estos B consideraremos una columna genericaB = (b1, b2, b3, b4, b5) y analicemos el sistema. La tecnica para hacerlo serael metodo de eliminacion, y para ello escalerizaremos la matriz ampliada A|Bdel sistema. Esta matriz es

1 2 1 0 1 1 b1

−1 −2 1 1 0 −1 b2

1 2 1 2 5 3 b3

1 2 1 0 1 3 b4

1 2 1 4 9 3 b5

.

Ahora procederemos a escalerizarla. Escribiremos la sucesion de matrices queproduce el metodo de escalerizacion, sin mayores comentarios. Los pasos sonlos mismos que hicimos en el ejemplo 1.1.20. Al costado de cada matriz re-presentaremos las operaciones que hemos realizado sobre la matriz del pasoanterior.

1 2 1 0 1 1 b1

0 0 2 1 1 0 b2 + b1

0 0 0 2 4 2 b3 − b1

0 0 0 0 0 2 b4 − b1

0 0 0 4 8 2 b5 − b1

←− F2 + F1

←− F3 − F1

←− F4 − F1

←− F5 − F1.1 2 1 0 1 1 b1

0 0 2 1 1 0 b2 + b1

0 0 0 2 4 2 b3 − b1

0 0 0 0 0 2 b4 − b1

0 0 0 0 0 2 b5 − 2b3 + b1

←− F5 − 2F3

¡Por fin!, llegamos a la forma escalerizada,1 2 1 0 1 1 b1

0 0 2 1 1 0 b2 + b1

0 0 0 2 4 2 b3 − b1

0 0 0 0 0 2 b4 − b1

0 0 0 0 0 0 b5 + b4 − 2b3

←− F5 + 2F3,

(1.16)

Page 47: Geometr´ıa y´Algebra Lineal 1:

44 CAPITULO 1

¡y las respuestas a nuestras preguntas estan ante nuestros ojos!

Una ecuacion para la imagen de A.

La forma escalerizada muestra que el sistema es compatible si y solo sı

b5 + b4 − 2b3 = 0. (1.17)

Esta ecuacion es la que caracteriza al espacio de columnas de A. Si se satisfaceentonces la ultima ecuacion del sistema se verifica automaticamente, y pode-mos encontrar valores de las incognitas que hagan que se satisfagan la cuatroprimeras ecuaciones. Concluimos entonces que

col(A) = {(b1, b2, b3, b4, b5); b5 + b4 − 2b3 = 0} .

Esta descripcion tiene la ventaja de que dado un vector B cualquiera, solotenemos que calcular el primer miembro de (1.17) con las entradas de B parasaber si B esta o no esta en el espacio de columnas, y concluir ası sobre lacompatibilidad o incompatibilidad del sistema AX = B.

Notemos que lo que hicimos ilustra un metodo general para hallar ecuacio-nes que caractericen a la imagen de una matriz: intentamos resolver un sistemagenerico AX = B, y la condicion de compatibilidad aparecera expresada comouna condicion sobre los coeficientes de B.

Observacion 1.2.16. Si solo queremos decidir acerca de la compatibilidad oincompatibilidad del sistema para un B dado, sin tratar de entender la estruc-tura del conjunto de los B que hacen compatible el sistema AX = B podemosresumir la discusion en la siguiente observacion: el sistema es compatible si ysolo si las formas escalerizadas de A y de la matriz ampliada A|B tienen elmismo numero de pivotes (o de escalones, para expresarlo en un lenguaje masgrafico).

Una base para la imagen de A.

Vamos a ver ahora otra caracterizacion de la imagen de la matriz A. La formaescalerizada (1.16) pone en evidencia cuales son los B que hacen compatibleel sistema, y tambien que para esos vectores B la solucion es indeterminadaporque hay variables libres, en este caso dos. Sabemos ademas que podemoselegir como variables libres las que corresponden a columnas que no tienenpivotes: las variables x2 y x5. Podemos fijar arbitrariamente x2 y x5, y luegocalcular las restantes variables para obtener una solucion del sistema.

Page 48: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 45

Esto significa que cada columna B en la imagen de A puede ser escrita comocombinacion lineal de las columnas de A de muchas maneras. En particular,podemos elegir

x2 = x5 = 0,

y conseguir una solucion que, en realidad, quedara determinada una vez quehemos fijado estos valores para x2 y x5. Hagamos una observacion sencillapero fundamental: fijar x2 = x5 = 0 es lo mismo que eliminar estas variablesdel sistema, y tambien es lo mismo que eliminar la segunda y quinta columnade la matriz del sistema. Por lo tanto, eliminar la segunda y quinta columnade la matriz del sistema no altera, en este caso, el conjunto de vectores B paralos que el sistema lineal es compatible. Es decir, no se altera el espacio decolumnas.

La existencia de variables libres tiene que ver con la presencia de ciertaredundancia en las columnas de A: una vez que tenemos las columnas

A1, A3, A4, A6,

las columnas A2 y A5 son redundantes, y cualquier vector que este en el espaciode columnas de A puede ser expresado como una combinacion lineal de lascolumnas A1, A3, A4, A6. Al eliminar A2 y A5 no perdemos absolutamentenada del espacio de columnas. Dicho en otras palabras,

{A1, A3, A4, A6}

es un generador de col(A). Es un generador mas pequeno que el que estaformado por todas las columnas de la matriz. Por eso ofrece una descripcionmas economica del mismo conjunto.

Observemos que col(A) coincide con el espacio de columnas de la matriz

A =

1 1 0 1−1 1 1 −1

1 1 2 31 1 0 31 1 4 3

,

que hemos construido tachando las columnas 2 y 5 de A. Para escalerizar A

Page 49: Geometr´ıa y´Algebra Lineal 1:

46 CAPITULO 1

deberıamos repetir los mismos pasos que usamos para A y obtendrıamos211 1 0 10 2 1 00 0 2 20 0 0 20 0 0 0

,

una matriz sin variables libres, porque cada columna tiene pivotes. Cuandoun sistema lineal con esta matriz tiene solucion, entonces la solucion es unica.Al eliminar las columnas redundantes, y con ellas las variables libres, hemosperdido la libertad que tenıamos para fabricar soluciones del sistema. Por lotanto, cuando un vector B esta en el espacio de columnas de la matriz A (oel de A, ya que los espacios de columnas coinciden) hay una unica manera deescribirlo como combinacion lineal de las columnas A1, A3, A4 y A6.

En resumen, hemos visto que

1. {A1, A3, A4, A6} es un generador de col(A);

2. este generador tiene la propiedad adicional de que cualquier vector decol(A) admite una unica expresion como combinacion lineal de los ele-mentos en el generador.

Un generador de un subespacio vectorial que tiene ademas la segunda propie-dad que acabamos de enunciar constituye una base del subespacio22. Unabase de un subespacio puede ser vista como un generador sin redundanciaalguna. Por lo tanto, nos da una forma optima de describir el subespacio. Ennuestro ejemplo hemos conseguido una base eliminando algunos vectores deun generador mas grande (el que estaba formado por todas las columnas de lamatriz). La siguiente observacion muestra la optimalidad de nuestra eleccion:si seguimos quitando columnas entonces perdemos la capacidad de generartodo col(A). Los detalles se discuten a continuacion.

Observacion 1.2.17. El subconjunto de columnas

A = {A1, A3, A5, A6}21No hemos repetido todas las cuentas. Solo nos limitamos a tachar las columnas 2 y 5 en

la forma escalerizada y usar que la escalerizacion trata cada columna por separado.22Este concepto es muy importante, y merece una definicion. No la hacemos todavıa

porque es posible simplificar un poquito mas la caracterizacion de las bases, y lo haremos ennuestra proxima seccion

Page 50: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 47

es optimo para generar el espacio de columnas de A: si sacamos alguna otracolumna ya no podremos expresarla como combinacion lineal de las demas.Por ejemplo, la columna A1 no puede expresarse como combinacion lineal de{A3, A5, A6}. Veamoslo. Sabemos que cualquier columna en la imagen de Apuede ser escrita como una combinacion lineal de calA de manera unica. Estoes cierto, en particular, para A1, que admite la expresion obvia

A1 = A1 + 0A3 + 0A5 + 0A6.

Si pudieramos escribir ademas

A1 = aA3 + bA5 + cA6 (1.18)

para alguna terna de coeficientes a, b y c, obtendrıamos inmediatamente laexpresion

A1 = 0A1 + aA3 + bA5 + cA6,

que es otra forma de escribir A1 como combinacion lineal de A. Esto es contra-dictorio, y muestra la imposibilidad de (1.18). El mismo razonamiento puedehacerse para cualquiera de las otras columnas, e implica que si eliminamosmas columnas de A resulta una nueva matriz con un espacio de columnas es-trictamente mas chico que el de A, porque la columna eliminada no esta en elespacio que las restante generan23. Notemos que, cuando hay variables libres,hemos mejorado nuestra descripcion de la imagen de A: al menos somos ca-paces de darla usando menos columnas que todas las que estaban en la matrizoriginal. Y no podemos mejorar mas, porque sabemos que si sacamos mascolumnas “perdemos un pedazo de la imagen”. ♠

Observacion 1.2.18. Podemos eliminar A2 y A5 porque cualquiera de estasdos columnas puede ser expresada como una combinacion lineal de

A = {A1, A3, A4, A6} .

Ejercicio 1.11. Expresar A2 y A5 como combinacion lineal de A. Sugerencia: nohace falta plantear un nuevo sistema de ecuaciones y resolverlo. Para despejar A2,por ejemplo, es suficiente construir una solucion de AX = 0 con x2 = −1, x5 = 0. ♠

Hemos encontrado entonces un algoritmo para identificar un generadoroptimo, o base, de la imagen de A: escalerizamos A e identificamos las colum-nas que tienen pivotes. Luego volvemos a la matriz original A y seleccionamosestas columnas. Las columnas ası elegidas forman una base del espacio decolumnas, o imagen, de A.

23En realidad perdemos mucho mas que la columna eliminada: ninguna de las combina-ciones lineales en las que la columna que hemos eliminado aparece con un coeficiente distintode cero puede escribirse solo en terminos de las columnas que hemos dejado

Page 51: Geometr´ıa y´Algebra Lineal 1:

48 CAPITULO 1

1.2.3 Dos interpretaciones geometricas de los sistemas lineales

Descomposicion de un vector en dos direcciones independientes

COMPLETAR: LA INTERPRETACION COMO COMBINACIONES LI-NEALES

Interseccion de rectas

Si a y b no se anulan simultaneamente los puntos del plano de coordenadas(x, y) que verifican la ecuacion

ax + by = c

pertenecen a una recta. Por lo tanto en el sistema{ax + by = c,a′x + b′y = c,

cada ecuacion representa una recta y su solucion no es otra cosa que las coor-denadas de los puntos que pertenecen a la interseccion de ambas. De ese modoun sistema 2× 2 compatible determinado (una unica solucion) se correspondecon dos rectas que se cortan en un unico punto (ver figura ??), un sistemaindeterminado (infinitas soluciones) se corresponde con dos rectas coinciden-tes y un sistema incompatible con dos rectas paralelas (ver figuras ?? y ??respectivamente).

Ejemplo 1.2.19. El sistema {2x + y = 2,x + y = 2,

es compatible determinado con unica solucion (0, 2)

AQUI QUEDA ESPACIO PARA LA FIGURA

Ejemplo 1.2.20. El sistema {2x + 2y = 4,x + y = 2,

es compatible indeterminado con solucion {(x, 2− x) x ∈ R}

Page 52: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 49

OTRA FIGURA

Ejemplo 1.2.21. El sistema {x + y = 1,x + y = 2,

PONER AQUI EL DIBUJO DE LAS PARALELAS

Esta interpretacion geometrica de los sistemas 2× 2 puede tambien exten-derse a los sistemas de tres incognitas salvo que, como veremos en la seccion3.1 del capıtulo 3, las ecuaciones representan planos en el espacio y la solucionsus intersecciones. En cierta medida la teorıa que desarrollaremos en capıtulosposteriores nos permitira extender tambien la interpretacion geometrica parasistemas de mayor tamano.

1.2.4 Un poco de formalizacion: El espacio de n-uplas

La interpretacion del sistema lineal contenida en la formula 1.13 utiliza ope-raciones definidas sobre las columnas de una matriz. En la observacion 1.1.26habıamos enfatizado el hecho de que el proceso de eliminacion podıa ser des-crito en termino de operaciones realizadas sobre las filas. Hagamos entonces,un pequeno parentesis para sistematizar esta nocion de “lista ordenada de nnumeros” o n-upla, y las operaciones que hemos manejado hasta ahora. Nues-tro objeto de trabajo seran los conjuntos ordenados24 de n elementos en uncuerpo K. Llamaremos Kn a este conjunto de listas de longitud n formadaspor elementos en K. Sobre este conjunto definimos dos operaciones

1. Suma de dos listas. Si X = (x1, . . . , xn) e Y = (y1, . . . , yn) entoncesdefinimos

X + Y = (x1 + y1, . . . , xn + yn),

2. Producto de una lista por un numero. Para X(x1, . . . , xn) y a unnumero cualquiera en el cuerpo K definimos

aX = (ax1, . . . , axn).24Si queremos ser mas formales podemos considerar este conjunto como el de las funciones

definidas sobre el subconjunto 1, 2, . . . , n, formado por los primeros n numeros, y que tomanvalores en el cuerpo K (el conjunto de numeros con los que vamos a trabajar).

Page 53: Geometr´ıa y´Algebra Lineal 1:

50 CAPITULO 1

Destaquemos que ahora nuestras listas de numeros empiezan a adquirir es-tructura: hay operaciones algebraicas definidas sobre ellas, y con la ayuda deestas operaciones las hemos estado manipulando para resolver y comprenderlos problemas relativos a sistemas lineales. La introduccion de esta estructuraalgebraica hace que Kn deje de ser apenas un conjunto, y por eso nos referi-remos al espacio Kn, o al espacio vectorial Kn. Tambien nos referiremosa los elementos de este espacio como a vectores en el espacio Kn, aunque detanto en tanto, y dependiendo del contexto, volveremos a emplear la expresion“listas de longitud n” para designarlos. Antes de discutir las propiedades masimportantes de estas operaciones hagamos un pequeno ejemplo.

Ejemplo 1.2.22.

1. Comencemos con n = 3 y el cuerpo de los numeros reales. Tenemos, porejemplo

(1, e,−1) + (0, 1, 2) = (1 + 0, 2 + e,−1 + 2) = (1, 2 + e, 1),√2(1, 0,

√2) = (

√2.1,√

2.0,√

2.√

2) = (√

2, 0, 2).

Tomemos X = (1, 1, 1, 0, 0, 0), Y = (1, 0, 1, 0, 1, 0) en Z62. Entonces

X + Y = (0, 1, 0, 0, 1, 0).

Si queremos ejercitar el producto por un numero no tenemos mucho parahacer. Hay solo dos opciones: multiplicar una lista por 0, lo que da comoresultado una lista con 6 ceros. O multiplicarla por 1, lo que produceexactamente la misma lista.

2. Todo funciona mas o menos igual en el campo de los numeros complejos.Por ejemplo, en C2 tenemos i(1 + i,−i) = (−1 + i, 1). ♣

Las operaciones tienen una lista de propiedades que resulta util destacar.Para compactar la notacion designemos cada n-upla con una letra mayuscula,X = (x1, . . . , xn).

[S1] [Conmutativa] X + Y = Y + X ∀X, Y ∈ Kn.

[S2] [Asociativa] (X + Y ) + Z = X + (Y + Z) ∀X, Y, Z ∈ Kn.

[S3] [Neutro de la suma] Existe O ∈ R tal que X+O = O+X = X ∀X ∈ Kn.

[S4] [Existencia de opuesto] Para cada X ∈ Rn existe Y ∈ Rn tal que X+Y =O (Notacion: Y = −X). Tambien es claro cual es el opuesto de la listaX: es (−x1,−x2, . . . ,−xn).

Page 54: Geometr´ıa y´Algebra Lineal 1:

1.2 Compatibilidad de los sistemas 51

[P1] [Asociativa del producto] (αβ)X = α(βX) ∀α, β ∈ R y X ∈ Rn.

[P2] [Neutro del producto] 1X = X ∀X ∈ Rn

[P3] [Distributiva] (α + β)X = αX + βX ∀α, β ∈ R y X, Y ∈ Rn.

[P4] [Distributiva] α(X + Y ) = αX + αY ∀α ∈ R y X, Y ∈ Rn.

Estas propiedades son absolutamente directas de verificar. Solo haremos unpar de comentarios sobre la existencia de neutro y opuesto para la suma. Esobvio en este contexto que el neutro para la suma es el vector 0 que estaformado por n ceros, y que el opuesto de X = (x1, . . . , xn) es (−x1, . . . ,−xn).La formulacion que hemos escogido para enunciar las propiedades parece puesun tanto rebuscada, ya que podrıamos haber dicho de una vez quienes eran elopuesto y el neutro. Confesemos al lector que esta formulacion esta escogidacon la idea de extender todas esta teorıa a un contexto abstracto en que losvectores con los que operemos pueden ser muy generales25. En cada casoparticular habra que especificar cual es el vector O y como se construye elopuesto. Pero lo unico que sera comun a todos los casos particulares son laspropiedades [S3] y [S4] que deben ser satisfechas por el neutro y el opuesto. Lateorıa a la que hacemos referencia es la teorıa de espacios vectoriales. Losespacios Kn son, en realidad, un caso particular de una estructura general querecibe el nombre de espacio vectorial. Con estas estructuras trabajaremosen el capıtulo ??.

Ejercicio 1.12. Completar la verificacion de que las operaciones de suma y pro-ducto por un escalar que hemos definido en Kn tienen todas las propiedades queacabamos de enunciar.

Observacion 1.2.23. Las operaciones que hemos definido en Kn se extienden,en forma obvia, a filas y columnas de las matrices. Cada fila o columna no esotra cosa que una lista ordenada de numeros en K. Tambien podemos, y serautil en alguna oportunidad, considerar un elemento de Kn como una matrizde una columna y n filas (esto es esencialmente lo mismo que pensar la listade n numeros como una columna) o como una matriz de 1 fila y n columnas(o sea, una fila).

25Veremos luego ejemplos en que los vectores seran funciones, sucesiones, matrices, clasesde equivalencia construidas por distintos procedimientos, etcetera

Page 55: Geometr´ıa y´Algebra Lineal 1:

52 CAPITULO 1

1.3 Determinacion de los sistemas lineales: el nucleode la matriz del sistema

Vamos a comenzar el analisis de este problema retomando el ejemplo con elque hemos trabajado en las secciones 1.1 y 1.2

Ejemplo 1.3.1. Retomemos el estudio del sistema real AX = B, con matrizy termino independiente definidos por

A =

1 2 1 0 1 1−1 −2 1 1 0 −1

1 2 1 2 5 31 2 1 0 1 31 2 1 4 9 3

, B =

1013−1

(1.19)

con el que trabajamos en los ejemplos 1.1.20 y 1.2.15, y analicemos la unicidad(en este caso mas bien no unicidad), de sus soluciones. Al estudiar el siste-ma lineal habıamos llegado a la siguiente forma escalerizada reducida para lamatriz ampliada del sistema (ver la pagina 26):

1 2 0 0 32 0 −1

0 0 1 0 −12 0 1

0 0 0 1 2 0 10 0 0 0 0 1 10 0 0 0 0 0 0

(1.20)

De aquı dedujimos que las soluciones del sistema son de la forma

(−1− 2x2 − 3x5/2, x2, 1 + x5/2,−1− 2x5, x5, 1).

Vamos a expresar una columna X, solucion del sistema, en la forma

X =

x1

x2

x3

x4

x5

x6

=

−101−1

01

+ x2

−210000

+ x5

−32012−2

10

. (1.21)

¿Que es cada una de las columnas que aparece en el miembro derecho de estaformula?

Page 56: Geometr´ıa y´Algebra Lineal 1:

1.3 Determinacion de los sistemas 53

• La primera columna, que no aparece multiplicada por las variables libres,es una solucion del sistema. Se trata de una solucion particular. Unaentre tantas soluciones de la ecuacion. La que resulta de escoger x2 =x5 = 0. Los numeros que aparecen allı se obtienen de la ultima columnade la matriz escalerizada reducida, que es justamente la que almacenabala informacion acerca del termino independiente B.

• Miremos ahora las columnas que multiplican x2 y x5: estas no se venafectadas por el termino independiente, porque no dependen de las entra-das en la ultima columna de la forma escalerizada de la matriz ampliada.Si cambiaramos esa columna por una columna de ceros obtendrıamos lomismo. De hecho, los sumandos en (1.21) que contienen a las variableslibres x2 y x5 son una solucion de AX = O. ¿Por que?

Imaginemos que tenemos que resolver AX = O. Buscarıamos entoncesuna forma escalerizada para la matriz A|O, que es la matriz ampliadade este sistema. Las transformaciones elementales necesarias para es-calerizar A|O son exactamente las mismas que hicimos para escalerizarA|B, ya que solo dependen de la matriz A del sistema, no de la columnade los terminos independientes. La forma escalerizada reducida que ob-tendrıamos al final del proceso serıa una matriz como (1.20), pero conceros en la ultima columna. Al calcular las soluciones reencontrarıamosentonces una formula como (1.21), en la que la primera columna serıauna columna de ceros. Es decir, la primera columna no aparecerıa.

Concluimos entonces que el segundo y tercer sumando de (1.21) contie-nen la forma general de las soluciones de AX = O.

Nuestro analisis ha puesto en evidencia que la solucion general del sistemaAX = B esta compuesta de dos partes:

1. una solucion particular del sistema;

2. la expresion de la solucion general del sistema AX = O. ♣

Mostraremos ahora que las conclusiones a las que llegamos en el ejemploanterior son completamente generales: si conocemos el conjunto formado portodas las soluciones de AX = O y una solucion particular de la ecuacionAX = B, entonces podemos recuperar cualquier solucion de AX = B.

Observacion 1.3.2. . Llamaremos homogenea a la ecuacion

AX = O

Page 57: Geometr´ıa y´Algebra Lineal 1:

54 CAPITULO 1

porque tiene la propiedad de que el producto aX de un numero a cualquierapor una solucion X de la ecuacion tambien es solucion de la ecuacion (ver laproposicion 1.9, en la pagina 60 de esta misma seccion). Es usual referirseentonces a AX = B como la ecuacion no homogenea. Mostraremos acontinuacion que las conclusiones a las que llegamos en el ejemplo anteriorson completamente generales: si conocemos el conjunto formado por todaslas soluciones de AX = O y una solucion particular de la ecuacion AX =B, entonces podemos recuperar cualquier solucion de AX = B. Este hechosuele expresarse de la siguiente manera: la solucion general de la ecuacionno homogenea es la suma de una solucion particular mas la solucion generalde la ecuacion homogenea. Esta observacion explica tambien la notacion queusaremos en el enunciado y la demostracion de nuestra proxima proposicion.♠

Proposicion 1.6. Sea XNH0 una solucion de la ecuacion

AX = B. (1.22)

Entonces la suma de XNH0 con una solucion cualquiera XH de la ecuacionAX = O es otra solucion de 1.22. Mas aun, cualquier solucion de 1.22 puedeexpresarse como XNH0 + XH , donde XH es una solucion de AX = O.

Demostracion: Consideremos la suma de la solucion XNH0 con una solucionXH cualquiera de AX = O. Entonces

A (XNH0 + XH) = AXNH0 + AXH = B + 0 = B,

y XNH0 + XH satisface AX = B.Supongamos que tenemos una solucion X1 de AX = B. Entonces la

diferencia X1 −XNH0 satisface

A (X1 −XNH0) = AX1 −AXNH0 = B −B = 0.

Por lo tanto X1 −XNH0 es una solucion de AX = O, y

X1 = XNH0 + (X1 −XNH0)

es la suma de X0 mas una solucion de la ecuacion homogenea.La consecuencia de esta proposicion es que para entender como es el con-

junto de todas las soluciones de un sistema lineal compatible AX = B bastaentender como son las soluciones de AX = O. En particular AX = B tienesolucion unica si y solo si AX = O tiene solucion unica. Este hecho es tanimportante que vamos a formularlo como un corolario de la proposicion 1.6.

Page 58: Geometr´ıa y´Algebra Lineal 1:

1.3 Determinacion de los sistemas 55

Corolario 1.7. Si el sistema de ecuaciones lineales AX = B es compatible,entonces la solucion es unica si y solo si AX = O tiene una unica solucion.

En la proxima seccion discutiremos algunas consecuencias de la discusionprecedente y del corolario 1.7.

1.3.1 Independencia lineal

Dado que ya conocemos la relacion estrecha entre resolver sistemas de ecua-ciones y hacer combinaciones lineales de las columnas de la matriz del sistema,podemos expresar el corolario 1.7 de otra manera: cualquier columna B queeste en el espacio col(A) puede expresarse de manera unica como combinacionlineal de las columnas de A si y solo sı la columna O puede expresarse demanera unica como combinacion lineal de las columnas de A.

Estos comentarios nos permiten volver sobre algunas cuestiones que discu-timos al tratar la compatibilidad de los sistemas: habıamos hallado un genera-dor optimo de col(A) eliminando las columnas asociadas con variables libres.Tambien habıamos observado que esta optimalidad tenıa que ver con que paracada vector en el espacio de columnas de A solo habıa una manera de expresar-lo como combinacion lineal de las columnas de los pivotes. Por estas razonespreferıamos el generador formado por las columnas de los pivotes al generadorformado por todas las columnas. Pero acabamos de ver que para asegurarnosde que ese generador tenga esta propiedad de unicidad de la combinacion li-neal basta verificarla con el vector nulo. No es necesario considerar todos ycada uno de los vectores que puedan escribirse como combinacion lineal. Valela pena resumir la discusion precedente en forma de una proposicion.

Proposicion 1.8. Sea A = {A1, A2, . . . , Al} un generador de un subespaciovectorial S de Kn. Entonces son equivalentes:

1. cualquier elemento de S admite una unica expresion como combinacionlineal de los elementos de A;

2. el vector nulo O admite una unica expresion como combinacion linealelementos de los elementos de A;

La demostracion no es mucho mas que una formulacion ordenada de lasideas que acabamos de presentar.

Demostracion. Es obvio que la condicion 1 implica 2, porque el vectornulo es uno de los elementos de S. Hay que demostrar que 2 implica 1, lo que

Page 59: Geometr´ıa y´Algebra Lineal 1:

56 CAPITULO 1

permite reducir la cuestion de unicidad al caso mas sencillo de todos. Daremosdos argumentos26 distintos para esta parte de la prueba.Argumento 1. Formemos la matriz A que tiene como columnas a los vectores

A1, . . . , Al

de A. Entonces el subespacio col(A) generado por las columnas de A es jus-tamente S. Consideremos entonces B ∈ S = col(A). Recordemos que estevector puede ser expresado como combinacion lineal de las columnas de A enforma unica si y solo si el sistema AX = B tiene solucion unica. Como Oadmite una unica expresion como combinacion lineal de las columnas de A elsistema homogeneo AX = O tiene solucion unica, y, en virtud del corolario1.7 esta asegurada la unicidad de la solucion de AX = B.Argumento 2. El vector nulo O siempre puede ser expresado como

O = 0A1 + 0A2 . . . + 0Al.

Por lo tanto, si la representacion es unica, cualquier expresion de 0 comocombinacion lineal de la familia A tendra todos sus coeficientes nulos. Paracualquier B ∈ S consideremos dos posibles representaciones

B = α1A1 + α2A2 . . . + αlAl,B = β1A1 + β2A2 . . . + βlAl,

como combinacion lineal de la familiaA. Si restamos la segunda representacionde la primera concluimos

O = (α1 − β1)A1 + (α2 − β2)A2 . . . + (αl − βl)Al.

Esta es una expresion de O como combinacion lineal de A. Por lo tanto suscoeficientes tienen que ser todos nulos. De ahı concluimos

α1 = β1, α2 = β2, . . . αl = βl,

lo que muestra que, en realidad, ambas representaciones son exactamente lamisma.

La proposicion 1.8 permite sustituir la condicion de unicidad de la repre-sentacion de cualquier vector de un subespacio que vimos en la pagina 46cuando introdujimos la nocion de base, por una condicion que solo haga re-ferencia al vector nulo. Esta condicion es tan importante, porque expresa en

26Que son en realidad el mismo, expresado en dos lenguajes diferentes. El segundo, queno requiere considerar matrices, puede extenderse a un contexto mucho mas general.

Page 60: Geometr´ıa y´Algebra Lineal 1:

1.3 Determinacion de los sistemas 57

la forma mas simple posible la ausencia de redundancia –desde el punto devista de la estructura lineal que estamos manejando– en el generador, que larecogeremos en una nueva definicion.

Definicion 1.2. Independencia lineal.Diremos que una familia de vectores {A1, A2, . . . , Al} es linealmente inde-pendiente si la unica manera de expresar el vector nulo como combinacionlineal de la familia es escogiendo todos los coeficientes de la combinacion igua-les a 0.

Observacion 1.3.3. Algunos comentarios sobre la independencialineal.Reunimos aquı algunos comentarios que vale la pena destacar, incluso aunqueesten esencialmente contenido en las discusiones que precedieron a la definicionde independencia lineal.

1. La independencia lineal de la familia {A1, A2, . . . , Al} es equivalente aque la igualdad

α1A1 + α2A2 . . . + αlAl = O

implique que los coeficientes αi, i = 1, . . . , l satisfacen

α1 = α2 = . . . = αl = 0.

2. Las columnas de una matriz A forman una familia linealmente indepen-diente si y solo si la unica solucion de AX = O es la solucion trivial, enque todas las incognitas toman el valor 0.

3. Si una familia es linealmente independiente y un vector es combinacionlineal de la familia entonces existe una unica manera de escribirlo comocombinacion lineal de la familia.

Ahora que hemos introducido la nocion de independencia lineal podemoscompletar la definicion de base de un subespacio vectorial que adelantamos enla seccion 1.2, cuando destacamos el papel de los generadores que permitenexpresar de una unica manera sus combinaciones lineales.

Definicion 1.3. Bases.Si S es un subespacio vectorial de Kn, diremos que un subconjunto

{A1, A2, . . . , Al}

de vectores de S es una base de S si

Page 61: Geometr´ıa y´Algebra Lineal 1:

58 CAPITULO 1

1. es un generador de S;

2. es linealmente independiente.

Ejemplo 1.3.4. La base canonica de Kn

Para i = 1, . . . , n llamemos Ei a la lista que tiene un 1 en la i-esima posicion,y ceros en las restantes. Es decir

E1 =

10...0

, E2 =

01...0

,... En =

00...1

.

Cualquier listaX = (x1, x2, . . . , xn)

puede expresarse como la combinacion lineal

X = x1E1 + x2E2 + . . . xnEn

de la familiaC = {E1, E2, . . . En},

y para cualquier X ∈ Kn esta es la unica manera de expresar X como combi-nacion lineal de C. Por lo tanto C es una base de Kn. Es usual llamar a C labase canonica de Kn. ♣

Ejemplo 1.3.5. No hay bases para el subespacio trivialLlamamos subespacio trivial al subespacio

S = {O},

que solo contiene al vector nulo de Kn. Solo hay dos subconjuntos posibles deS: el vacıo y todo S. El vacıo no permite generar nada. Y el unico subconjuntono vacıo, S, es linealmente dependiente: podemos escribir el vector O comoO = aO, donde a es cualquier escalar del cuerpo K. Por lo tanto no hay basespara este subespacio. Luego veremos que cualquier subespacio que no sea eltrivial tiene bases. ♣

La cantidad de vectores que tiene una base de un subespacio mide el ta-mano que, como estructura lineal, tiene el subespacio. Tambien puede verseeste numero como una medida de cuanta informacion es necesaria para espe-cificar el subespacio por medio de un generador. Estas breves consideracionespretenden justificar nuestra proxima definicion:

Page 62: Geometr´ıa y´Algebra Lineal 1:

1.3 Determinacion de los sistemas 59

Definicion 1.4. Dimension.

Si S es un subespacio vectorial de Kn llamaremos dimension de S a la canti-dad de vectores en una base de S. Indicaremos a este numero con la notaciondim(S).

Observacion 1.3.6. La dimension de un subespacio es la cantidad de direc-ciones independientes que “caben” en el. Por ejemplo, si identificamos losvectores de R3 con puntos del espacio tridimensional (lo que es esencialmenteequivalente a poner un sistema de coordenadas en el espacio) entonces los su-bespacios de dimension uno son rectas que pasan por el origen de coordenadas;y los de dimension 2 son planos que pasan por el origen. El unico subespaciode dimension 3 es todo R3, que representarıa a todo el espacio. Vemos quela nocion de dimension concuerda con nuestra idea intuitiva de que una rectaes un objeto que tiene una dimension, un plano tiene dos, y el espacio tienetres. Daremos mas detalles sobre esto en las secciones del curso dedicadas ala geometrıa del espacio. Tambien al discutir la teorıa general de los espaciosvectoriales. ♠

Ejemplo 1.3.7. Ya vimos que el espacio Kn tiene una base, que hemos dadoen llamar base canonica, que tiene n vectores. Por lo tanto la dimension deKn es n.

El subespacio trivial {0}, formado unicamente por el vector nulo, no tienebases. Pero adoptaremos la convencion de asignarle dimension 0. ♣

1.3.2 El nucleo de una matriz

Ahora volvemos, ¡por fin!, a cerrar nuestra discusion sobre la unicidad y nounicidad de soluciones.

Recordemos que habıamos aprendido que la informacion acerca de la es-tructura del conjunto de soluciones de AX = B estaba encerrada en el conjuntode soluciones de la ecuacion homogenea AX = O. Llamaremos nucleo de lamatriz A al conjunto de las soluciones de la ecuacion homogenea AX = O.Indicaremos este conjunto con el sımbolo27 ker(A). Si A es una matriz m× nsobre el cuerpo K podemos escribir entonces

ker(A) = {X ∈ Kn; AX = O}.

La primera noticia interesante es que este conjunto resulta ser tambien unsubespacio vectorial.

27Proveniente de la palabra alemana kernel

Page 63: Geometr´ıa y´Algebra Lineal 1:

60 CAPITULO 1

Proposicion 1.9. Si A es una matriz m × n sobre K, entonces el nucleo deA es un subespacio vectorial de Kn.

Demostracion: La demostracion es bastante sencilla, y descansa en la li-nealidad de todas los calculos que hay que hacer para verificar que un vectoresta en el nucleo. Supongamos que tenemos dos vectores X e Y en el nucleo.Entonces su suma X + Y satisface

A(X + Y ) = AX + AY = 0 + 0 = 0,

por lo que tambien esta en el nucleo. Para el producto de cualquiera de ellos,por ejemplo X, por un escalar a en el cuerpo tenemos

A(aX) = a(AX) = a0 = 0.

Entonces tambien aX esta en el nucleo, y hemos completado la demostracion.Tambien para este subespacio daremos una descripcion en terminos de

ecuaciones y busqueda de bases. Otra vez, toda la informacion necesaria seraobtenida del metodo de escalerizacion.

Un conjunto de ecuaciones para el nucleo

El nucleo esta definido por la ecuacion vectorial AX = O, que es equivalente am ecuaciones escalares. El proceso de escalerizacion de la matriz A la transfor-ma en una matriz escalerizada (o escalerizada reducida) E, que esta asociada aun sistema lineal que tiene el mismo conjunto solucion que el sistema originalAX = O. En otras palabras, el nucleo de A es igual al conjunto de los Xque satisface EX = O. Y este sistema tiene tantas ecuaciones de escalarescomo pivotes tenga la matriz escalerizada. Y el numero de ecuaciones ya nopuede reducirse mas. El sistema escalerizado (o puesto en la forma escaleriz-da reducida) es una forma de caracterizar el nucleo de A por un conjunto deecuaciones en el que hemos eliminado las ecuaciones redundantes.

Ejemplo 1.3.8. Consideremos la matriz A del ejemplo 1.3.1 con que comen-zamos esta seccion (ver la formula (1.19). Al llevar la matriz ampliada A|0del sistema AX = O a su forma escalerizada reducida encontramos la matriz

1 2 0 0 32 0 0

0 0 1 0 −12 0 1

0 0 0 1 2 0 00 0 0 0 0 1 00 0 0 0 0 0 0

Page 64: Geometr´ıa y´Algebra Lineal 1:

1.3 Determinacion de los sistemas 61

que es equivalente a las ecuacionesx1 + 2x2 + 3

2x5 = 0,x3 − 1

2x5 = 0,x4 + 2x5 = 0,

x6 = 0.

Estas ecuaciones caracterizan al nucleo de A, y no pueden simplificarse mas.♣

Una base para el nucleo

Tambien es posible caracterizar el nucleo por medio de una base. Mostraremosesto en un ejemplo, pero el razonamiento es completamente general.

Ejemplo 1.3.9. En la expresion (1.21) para las soluciones del ejemplo 1.3.1cada variable libre aparece multiplicando un vector. El que corresponde a x2 es(−2, 1, 0, 0, 0, 0), y el que esta asociado con x5 es (−3

2 , 0, 12 ,−2, 1, 0). Con estos

dos vectores podemos generar todas las soluciones de AX = O. Ademas sonlinealmente independientes porque cada una de las variables libres aparece soloen el vector que esta asociado con ella. En efecto, si planteamos la igualdad

x2(−2, 1, 0, 0, 0, 0) + x5(−32, 0,

12,−2, 1, 0) = (0, 0, 0, 0, 0, 0)

al mirar la la segunda y quinta componentes obtenemos

x2 = 0, x5 = 0,

respectivamente. De modo que la unica combinacion que produce el vectornulo es la trivial. La familia formada por estos dos vectores constituye unabase para el nucleo de A. ♣

El procedimiento anterior es completamente general: al expresar las solu-ciones de AX = O en terminos de las variables libres cada variable libre quedaasociada a un vector (en realidad este vector es el que se obtiene fijando en unoel valor de la variable que estamos considerando, y en cero todas las demas).Esta familia de vectores es una base para el nucleo. Tenemos entonces unalgoritmo para hallar una base del nucleo.

Observacion 1.3.10. No es necesario obtener la forma escalerizada reducidade A para construir una base del nucleo. Todo lo que hace falta es expresarlas soluciones de AX = O en terminos de las variables libres, lo que puede

Page 65: Geometr´ıa y´Algebra Lineal 1:

62 CAPITULO 1

hacerse a partir de la forma escalerizada. En nuestra presentacion preferimosllegar a la forma escalerizada reducida, porque esta hace mas evidente que lainformacion que proviene del termino independiente aparece separada de lasvariables libres en la solucion general del sistema. ♠

1.3.3 La dimension del nucleo y el espacio de columnas

Nuestro procedimiento para hallar una base del nucleo genera un vector de labase por cada una de las variables libres. Por lo tanto, una base del nucleotendra tantos vectores como variables libres haya en la forma escalerizada. Lasvariables libres corresponden a columnas que no tienen pivotes. Entonces elnumero de variables libres es la diferencia entre n –la cantidad de variables,o columnas en la matriz del sistema– y p –el numero de pivotes–. Si no hayvariables libres entonces el nucleo de A se reduce al subespacio trivial formadopor la lista de n ceros, que es la unica solucion de AX = O.

Recordemos que podemos fabricar una base del espacio de columnas de unamatriz A seleccionando las columnas de A que corresponden a las posicionesde los pivotes de una forma escalerizada de A. Una base de col(A) tendraentonces p vectores, tantos como pivotes.

Todos estos comentarios pueden formularse en terminos de la dimensiondel ker(A) y col(A).

Teorema 1.1. Sea A una matriz m×n sobre un cuerpo K. Y sea p el numerode pivotes de una forma escalerizada de A.

1. dim(col(A)) = p.

2. dim(ker(A)) = n− p.

3. dim(ker(A)) + dim(col(A)) = n.

Observacion 1.3.11. La ultima igualdad del teorema anterior es interesanteen terminos de la interpretacion de la matriz A como una transformacion.Habıamos visto en la observacion 1.2.7 que la matriz A define sobre Kn unafuncion

X 7→ AX

que toma valores en Km. El espacio de columnas de A es la imagen de estatransformacion, de modo que se cumple

dim(ker(A)) + dim(im(A)) = n.

Page 66: Geometr´ıa y´Algebra Lineal 1:

1.3 Determinacion de los sistemas 63

Es decir, la dimension n del espacio de salida de la transformacion es la sumade la dimension del nucleo mas la de la imagen. En el nucleo esta todo loque tiene como imagen el vector O de Km, ası que podemos pensar que elnucleo se “malgasta” yendo todo al O ∈ Km. ¡Hemos perdido un subespaciode la dimension del nucleo en esto! Pero la transformacion es todavıa capazde producir un subespacio de dimension

dim(im(A)) = n− dim(ker(A))

como imagen de la transformacion. Esta transformacion “respeta las dimensio-nes”: las que no se gastaron en el nucleo reparecen en la imagen. Y seguimosteniendo las n que tenıamos en el espacio de salida.

Page 67: Geometr´ıa y´Algebra Lineal 1:

64 CAPITULO 1

1.4 Espacio de filas y rango

Hemos interpretado la resolucion de sistemas lineales en terminos de combi-naciones lineales de las columnas de la matriz del sistema, y el estudio de lossistemas lineales ha revelado una rica estructura que, a su vez, da informacionacerca de las soluciones del sistema. Surgieron ası el espacio de columnas y elnucleo de una matriz. En particular, el espacio de columnas aparecio porque acada variable del sistema de ecuaciones se le asocia, en forma completamentenatural, una columna de la matriz del sistema. Pero cuando operamos con elsistema empleando el metodo de escalerizacion no son las columnas las quemanipulamos, sino las filas de la matriz. En realidad, fue a traves de estasoperaciones con las filas que introdujimos la idea de que las listas de numerospodıan ser consideradas como elementos de una estructura algebraica (ver laobservacion 1.1.26, en la pagina 28).

Al igual que hicimos para las columnas, podemos considerar el conjuntoformado por todas las posibles combinaciones lineales de las filas de A. Estoes lo que llamaremos el espacio de filas de A, o espacio generado por lasfilas de A, y lo indicaremos con la notacion fil(A). Las operaciones necesa-rias para llevar la matriz A a su forma escalerizada generas nuevas filas queestan en el espacio de filas de la matriz original, porque se obtienen hacien-do combinaciones lineales con las filas de A. Mas interesante aun es que laescalerizacion no modifica el espacio de filas de la matriz. Mostraremos estaafirmacion viendo que las operaciones elementales del proceso de escaleriza-cion no alteran el espacio de filas. Recordemos cuales eran estas operacioneselementales:

1. sumar a una fila un multiplo de otra;

2. multiplicar una fila por un escalar no nulo;

3. intercambiar dos filas.

Naturalmente, si aplicar una transformacion elemental produce una matrizcon el mismo espacio de filas que la matriz original tambien es cierto que elespacio de filas no cambiara luego de aplicar una cantidad finita de operacioneselementales. Por lo tanto, no cambiara a lo largo del proceso de escalerizacion.

Proposicion 1.10. Sea A una matriz m× n sobre K, y B una matriz que seobtiene a partir de A aplicando una de las transformaciones elementales delalgoritmo de escalerizacion. Entonces

fil(A) = fil(B).

Page 68: Geometr´ıa y´Algebra Lineal 1:

1.4 Espacio de filas y rango 65

Demostracion. Todo lo que tenemos que demostrar es que si una fila puedeescribirse como combinacion lineal de las filas de A entonces tambien puedeescribirse como combinacion lineal de las filas de B, y viceversa. Pero paraahorrarnos la segunda comprobacion hacemos la siguiente observacion: si Bse obtiene de A por medio de una transformacion elemental entonces tambienes cierto que A se puede obtener de B por una transformacion elemental.Mostremos que esto es ası. Separaremos la prueba en tres casos, uno paracada transformacion elemental. Indicaremos con Ai y Bi, para i = 1, 2, . . . ,m,a las filas de A y B respectivamente.

1. Cuando a una fila se le suma un multiplo de otra. Supongamosque la matriz B se obtiene sumando a la fila j de A el resultado demultiplicar la fila k, con k 6 j por el numero k. Entonces la j-esima filade j es

Bj = Aj + aAk,

mientras que todas las filas restantes coinciden con la correspondientefila de A. En particular, Bk = Ak. Podemos hacer entonces sobre lasfilas de B la operacion que deshace la accion de sumar aAk en la fila j:si a la fila j de B le restamos aBk tenemos

Bj − aBk = Aj + aAk − aAk = Aj ,

y recuperamos la fila Aj . Las restantes filas de B ya coincidıan con lasfilas de A, de modo que hemos conseguido la matriz B haciendo unatransformacion elemental a la matriz A.

2. Cuando se multiplica una fila por un escalar no nulo. Latransformacion elemental que hay que aplicar a B para obtener la matrizA consiste en multiplicar la misma fila por el inverso del escalar.

3. Cuando se intercambian dos filas. Podemos deshacer la operacionaplicando una vez mas el mismo intercambio.

Ahora solo tenemos que mostrar que si una fila esta en el espacio de columnasde B entonces tambien esta en el de A. Consideramos entonces una fila F quees una combinacion lineal de las filas de B. Por lo tanto podremos expresarF en la forma

F = λ1B1 + . . . + λiBi + . . . λmBm,

para algun conjunto de escalares λi, i = 1, . . . ,m. Nuevamente, separamos lademostracion en tres casos.

Page 69: Geometr´ıa y´Algebra Lineal 1:

66 CAPITULO 1

1. Cuando a una fila se le suma un multiplo de otra. Comoantes, supongamos que a la fila Aj le hemos sumado aAk para obtenerBj . Tomando en cuenta la expresion de las filas de B en terminos de lasfilas de A podemos escribir F en la forma

F = λ1A1 + . . . + λj(Aj + aAk) + . . . λmAm,

que es una combinacion lineal de las filas de A. Si el lector lo prefierepuede reordenarla un poco, para poner junto todo lo que multiplica a lafila Ak,

F = λ1A1 + . . . + λjAj + . . . (λk + aλj)Ak + . . . λmAm,

pero no es esencial hacerlo.

2. Cuando se multiplica una fila por un escalar no nulo. Sihemos multiplicado a la fila j de A por un escalar a, entonces Bj = aAj

yF = λ1A1 + . . . + (aλj)Aj + . . . + λmAm.

3. Cuando se intercambian dos filas. Las filas de A y de B son lasmismas. Solo cambia el orden con que aparecen en la combinacion lineal.

Si aplicamos repetidas veces la proposicion anterior (tantas como operacio-nes elementales sean necesarias para el proceso de escalerizacion) obtenemosnuestro proximo corolario.

Corolario 1.11. Si E es una forma escalerizada de la matriz A entoncesfil(E) = fil(A).

Observacion 1.4.1. Es importante notar que el espacio de columnas cambiaa lo largo del proceso de escalerizacion. Un ejemplo sencillo mostrara esto.

Ejemplo 1.4.2. El espacio de columnas asociado con la matriz real

A =(

1 21 2

)esta formado por todas las columnas (x1, x2) de R2 tales que x1 = x2. El espa-cio de filas por las filas (x1, x2) que satisfacen x2 = 2x1. La forma escalerizadareducida de A es

E =(

1 20 0

),

que, naturalmente, tiene el mismo espacio de filas. Pero el espacio de columnasde E esta formado por todos los vectores de la forma (x, 0), donde x es unnumero real cualquiera. ♣ ♠

Page 70: Geometr´ıa y´Algebra Lineal 1:

1.4 Espacio de filas y rango 67

Una consecuencia de nuestro ultimo corolario es que las filas no nulas deuna forma escalerizada E de una matriz A generan el espacio de filas de A.Esto es cierto porque las filas no nulas de E generan exactamente lo mismoque todas las filas de E (las filas nulas no aportan nada: solo ceros). Y todaslas filas de E generan el espacio de filas de E, que coincide con el de A.

Ademas, las filas no nulas de una matriz escalerizada forman una familialinealmente independiente. Veamos por que. Sean

E1, E2, . . . , Ep,

las p filas no nulas, donde p es el numero de pivotes de la forma escalerizada.Fabriquemos una combinacion lineal de las filas e igualemos al vector nulo. Esdecir, consideremos coeficientes λi, i = 1, . . . , p tales que

λ1E1 + λ2E2 + . . . + λpEp = 0. (1.23)

Ahora examinemos el lugar que corresponde al pivote de E1. Este pivote estaen una fila a la que llamaremos j1 ¿Que otras filas aportan algo en este lugar?Ninguna. Solo E1 lo hace, porque el pivote eij1 en E1 es distinto de 0, y lasfilas restantes tienen ceros en la columna j1 de ese pivote. Al igualar a ceroesta componente de la combinacion lineal obtenemos

λ1eij1 = 0,

lo que implica λ1 = 0.Una vez que λ1 = 0 el primer sumando en el termino de la izquierda

de (1.23) es nulo y esa igualdad se reduce a

λ2E2 + . . . + λpEp = 0.

Podemos repetir el razonamiento que acabamos de hacer, pero basandonos enla columna j2 en que esta el pivote de E2 para concluir que λ2 = 0. Aplicandoel argumento p veces mostramos que la igualdad (1.23) implica

λi = 0, i = 1, . . . ,m.

Por lo tanto, la familia formada por las filas no nulas de una matriz escalerizadason linealmente independientes.

El lector estara de acuerdo en que hemos demostrado la proposicion queenunciaremos a continuacion:

Proposicion 1.12. Sean A una matriz y E una forma escalerizada de A.Entonces las filas no nulas de la matriz E forman una base de fil(A).

Page 71: Geometr´ıa y´Algebra Lineal 1:

68 CAPITULO 1

Recordemos que hay tantas filas no nulas en E como pivotes. Tenemosentonces el siguiente corolario.

Corolario 1.13. Sean A una matriz m × n sobre un cuerpo K, y sea p elnumero de pivotes de una forma escalerizada de A. Entonces dim(fil(A)) = p.

Recordemos el teorema 1.1, pagina 62, que asegura que el numero de pi-votes de una forma escalerizada tambien es igual a la dimension del espaciode columnas. Poniendo esta informacion junto a la que hemos encontradoen esta seccion completamos la demostracion del importante resultado queenunciamos a continuacion.

Teorema 1.2. Sea A una matriz m× n sobre un cuerpo K. Entonces

dim(fil(A)) = dim(col(A)).

A este numero, que indica la dimension comun a ambos espacios se le llamarango de la matriz A. Ese es el contenido de nuestra proxima definicion.

Definicion 1.5. Llamaremos rango de una matriz a la dimension de su es-pacio de filas y de su espacio de columnas.

Page 72: Geometr´ıa y´Algebra Lineal 1:

Capıtulo 2

Matrices

69

Page 73: Geometr´ıa y´Algebra Lineal 1:

70 CAPITULO 2

En el capıtulo ?? hemos introducido las matrices como una herramientaadecuada para almacenar y manipular en forma ordenada los coeficientes delos sistemas de ecuaciones lineales. En este capıtulo las matrices ocuparan elcentro de la escena y su papel ira mucho mas alla que el de ser un artificio utilpara representar los sistemas de ecuaciones.

Repasar nuestro trabajo con los sistemas de ecuaciones puede ayudarnos aa entender el enfoque general que guiara este capıtulo. En el capıtulo anteriorcomenzamos considerando que la solucion de un sistema AX = B es una lista(x1, . . . , xn) de n numeros. Pero luego pasamos a considerar esos n numeroscomo un unico objeto X, una lista de longitud n. Esto no significo una grannovedad, solo habıamos ganado un poco de economia en la notacion. El saltose produjo cuando introdujimos dos operaciones algebraicas sobre las listas denumeros: la suma de listas y la multiplicacion por un escalar. Estas opera-ciones dotaron al conjunto de listas de una estructura algebraica que permitıamanipularlas y que resulto ser adecuada para tratar los sistemas lineales. Fueası que pudimos lograr una buena comprension de las soluciones. Tambienresulto de ayuda la interpretacion geometrica de las soluciones y de las ope-raciones de suma y producto por un escalar. Ver la pagina ??. Para cerrareste breve repaso de lo que hicimos en el capıtulo anterior destaquemos unhecho de fundamental importancia: encontramos una relacion estrecha entrela geometrıa y el algebra. Las operaciones algebraicas se pueden interpretarde manera geometrica e ideas geometricas importantes admiten una expresionalgebraica.

Volvamos ahora a las matrices, con las que recorreremos un camino similar.Veremos entonces como estos arreglos de numeros en filas y columnas puedenser dotados de una estructura algebraica que permitira sumarlos, y multi-plicarlos entre sı y por escalares. Esta estructura algebraica nos permitiranmanipular las matrices de diversas maneras.

Luego de todos estos extensos, incluso un poco latosos comentarios tal vezel lector se este preguntando ¿por que habrıa yo de mostrar algun interes por lamanipulacion de matrices, teniendo en el mundo tantas cosas mas interesantessobre las que poner sus manos? Movidos por esta preocupacion, hemos incluidoen esta introduccion una serie de ejemplos, de naturaleza bastante variada,en que una matriz contiene toda la informacion relevante de un problema osituacion que podrıa interesarnos resolver o modelar. Al tratar estos ejemplosira emergiendo la estructura algebraica que queremos mostrar al lector, unaestructura abstracta que en principio no hace referencia a ninguna aplicacionparticular, pero permite tratar infinidad de ellas. Por ejemplo, es utilizada porlos buscadores de Internet para ofrecer al usuario una lista de sitios ordenados

Page 74: Geometr´ıa y´Algebra Lineal 1:

Introduccion 71

de una forma util; es imprescindible para analizar como se distribuyen losesfuerzos en cualquier estructura sometida a una carga; permite calcular comose distribuye un flujo sobre una red; da un criterio simple para saber si esposible casar a todas las mujeres de un pueblo de forma tal que cada una deellas este satisfecha con el marido que le toco; protege la integridad de nuestrainformacion cuando la almacenamos en un disco compacto o la transmitimospor cualquier canal; es necesaria para desplegar cualquier grafico sobre lapantalla de una computadora; nos ayuda a describir como depende el costode una serie de productos del costo de cada uno de los insumos necesariospara fabricarlos; permite describir los movimientos del brazo de un robot paracontrolarlos y ponerlo a realizar alguna tarea que nos interese. La lista podrıaextenderse mas, porque en realidad el Algebra Lineal, y con ella la estructuraalgebraica de las matrices y las interpretaciones geometricas correspondientes,esta en la base de la matematica contemporanea1.

Las operaciones de suma de matrices, de producto de una matriz por unescalar y de producto entre matrices seran objeto de definiciones precisas queapareceran en la seccion 2.2. Pero antes de dar estas definiciones presentare-mos en la seccion ?? algunos ejemplos con los que trabajar y que requierenhacer unos cuantos calculos con las entradas de las matrices. Por supuesto,muchos de estos calculos son los que luego recogeremos en definiciones bienformalizadas, pero no nos hara falta la definicion ni un desarrollo teorico muyelaborado para tratar los ejemplos: la logica de las situaciones que trataremosdeberıa ser un guıa suficiente para trabajar2.

La seccion 2.3 esta esencialmente guiada por una pregunta que es muynatural en cualquier estructura multiplicativa: en el mundo de las matrices,?’se puede dividir?. Esta pregunta esta ıntimamente relacionada con el pro-blema de hallar el inverso. Expliquemos esto. En el conjunto de los numerosreales, o en cualquier cuerpo, el cociente b/a es lo mismo que el producto a−1bdel inverso a−1 de a por b. La propiedad que caracteriza al inverso es queel producto a−1a es igual a la unidad 1. Tambien existe una unidad para elproducto entre matrices n × n, la matriz In de dimensiones n × n a la quehemos dado en llamar matriz identidad, ver la pagina ??, y que actua como el

1Invitamos al lector a que mire el currıculo de cualquier carrera cientıfica en cualquierlugar del mundo. Encontrara que el Algebra Lineal y el Calculo aparecen invariablementeentre los primeros cursos que deben tomar los estudiantes.

2El lector amante del formalismo puede saltearse la seccion ?? en una primera instancia,y volver sobre los ejemplos que allı aparecen despues de haber asimilado las definiciones dela seccion 2.2. Pero, en realidad, no se lo recomendamos a nadie.

Page 75: Geometr´ıa y´Algebra Lineal 1:

72 CAPITULO 2

numero 1 en el siguiente sentido: para cualquier matriz A se satisface3

AIn = InA = A.

Consideraremos entonces la cuestion de estudiar las matrices A que son inver-tibles, en el sentido de que existe una matriz A−1 tal que A−1A = AA−1 = In.Este problema es relevante para la teorıa de los sistemas lineales, porque en-contraremos que cuando una matriz A es invertible la solucion de cualquiersistema AX = B es X = A−1B. Esta expresion recuerda la formula x = a−1bpara la solucion de una ecuacion escalar ax = b, con a distinto de cero. Natu-ralmente, “pasar a dividiendo” no es otra cosa que multiplicar ambos terminosde la ecuacion por el inverso a−1 del numero a. Encontraremos aquı otra di-ferencia con el caso escalar, porque hay matrices distintas de cero que noadmiten una inversa, mientras que en un cuerpo todos los elementos no nulosson invertibles.

En la seccion ?? volveremos sobre la idea de que podemos almacenar enuna matriz la informacion relevante para la resolucion de un problema dado.Esta idea reaparecera cuando representemos matricialmente el metodo de eli-minacion de Gauss. Al hacerlo obtendremos un algoritmo eficiente para laresolucion de sistemas lineales AX = B, que conduce a la representacion deA como el producto LU de dos matrices L y U mas sencillas, y que permiteademas reutilizar todo lo hecho para diferentes vectores B en el miembro dela derecha. La clave esta en que L y U guardan para nosotros todo el trabajohecho durante la eliminacion gaussiana.

Cerremos esta introduccion enfatizando que las matrices pueden ser con-sideradas desde variados puntos de vista. En la seccion ?? las matrices sonel objeto de trabajo de un algoritmo (el que permite hallar la descomposicionLU) necesario para la resolucion de diversos problemas numericos. Pero lamisma matriz sobre la que trabaja este u otro algoritmo puede tener un signi-ficado propio, relacionado con el problema que la origino. Tambien puede servista como un arreglo de m×n numeros, como el conjunto ordenado de sus ncolumnas, o el de sus m filas. Las matrices pueden entenderse tambien comola definicion de una transformacion (ver ??, o como un objeto que admite unainterpretacion geometrica. A lo largo de este curso exploraremos estos posi-bles enfoques, y mostraremos como se relacionan entre sı y con la resolucionde diversos problemas, algunos de ellos provenientes de la Ingenierıa.

3Tenemos cuidado en considerar los dos posibles productos AIn e InA porque el productode matrices no es conmutativo.

Page 76: Geometr´ıa y´Algebra Lineal 1:

Matrices e informacion 73

2.1 Las matrices almacenando informacion

En esta seccion presentamos una serie de ejemplos y ejercicios en los que al-gunas matrices recogen y ordenan informacion relativa a diversos problemas,en diferentes contextos. Trabajaremos sobre estos problemas, lo que nos lle-vara a realizar distintas operaciones algebraicas con los numeros almacenadosen las matrices que construiremos. Estos calculos constituyen, en realidad,un adelanto de las operaciones entre matrices que introduciremos en la sec-cion 2.2, y esperamos que sirvan al lector como una motivacion que justifiquelas definiciones que allı se daran, y como un ejemplo ilustrativo de sus posiblesaplicaciones. La lista de actividades que hemos incluido en esta seccion no esbreve. Esperamos que cada lector identifique las mas adecuadas a su gustoe inclinaciones. Tampoco es exhaustiva, en realidad esta muy lejos de serlo:muchos ejemplos interesantes han quedado fuera, lo que indica la aplicabilidadde la teorıa que desarrollaremos a lo largo de este texto.

Ejemplo 2.1.1. Transiciones en una poblacion.

ESTE EJERCICIOS TENDRIA QUE SER REFORMULADO USANDODATOS REALES. CON ESOS DATOS DEBERIA PODER ESCLARECER-SE TODO LO QUE TIENE QUE VER CON LA VALIDEZ DEL MODELOEn el ejercicio ?? del capıtulo 1 vimos un ejemplo en el que las migraciones dela poblacion de un paıs se describıan con una matriz A. Si un ano comenzabacon la poblacion distribuida en tres posibles estados: habitantes en la ciudad,en zonas rurales, o en el extranjero, segun los porcentajes almacenados enel vector X = (c, r, e)t, la distribucion un ano mas tarde estaba dada por elvector AX, resultado de multiplicar la matriz

A =

0,6 0,4 0,10,1 0,4 0,10,3 0,2 0,8

(2.1)

por el vector X. Esta regla define entonces como evolucionara el sistema, ydeberıa permitirnos predecir todo el comportamiento futuro. Por lo menos,esto es ası mientras el modelo para las transiciones que esta implıcito en laformula (2.1) siga siendo valido. Aparecen entonces preguntas interesantescuya respuesta podemos buscar en nuestro modelo: ¿cual sera la evolucionfutura? A la larga ¿se ira todo el mundo al extranjero? ¿se estabilizara lapoblacion en algun valor? Si todo el mundo se va de las zonas rurales, ¿cuantotiempo tenemos que esperar hasta que su poblacion caiga por debajo de unnivel que vuelva insostenible algunas de las actividades economicas de esta

Page 77: Geometr´ıa y´Algebra Lineal 1:

74 CAPITULO 2

zona?, etcetera. Comenzaremos por tratar una pregunta mucho mas modes-ta: si comenzamos con una distribucion (c, r, e)t, ¿cual sera el estado de lapoblacion dos anos mas tarde?

Dado que tendremos que tratar con dos anos diferentes modifiquemos li-geramente nuestra notacion: llamaremos X0 = (c, r, e)t al estado inicial, y X1

al estado un ano mas tarde. Nuestro objetivo sera determinar un nuevo vec-tor X2 que represente lo que ocurrira dos anos despues de nuestro ano departida.

Ya sabemos como determinar X1. Es el resultado X1 = AX0 de multiplicarla matriz (??) por el vector X0. Al hacer la cuenta obtenemos

X1 =

0,6c + 0,4r + 0,1e0,1c + 0,4r + 0,1e0,3c + 0,2r + 0,8e

Arribaremos el estado X2 al dejar pasar un nuevo ano a partir del momentoen que alcanzamos el estado X1, que ahora debe ser tomado como condicioninicial de una evolucion que nos llevara hasta X2 = AX1. Teniendo en cuentacual es la matriz A y nuestra expresion para X1 concluimos que

X2 =(

0,6× (0,6c + 0,4r + 0,1e) + 0,4× (0,1c + 0,4r + 0,1e) + 0,1× (0,3c + 0,2r + 0,8e)0,1× (0,6c + 0,4r + 0,1e) + 0,4× (0,1c + 0,4r + 0,1e) + 0,1× (0,3c + 0,2r + 0,8e)0,3× (0,6c + 0,4r + 0,1e) + 0,2× (0,1c + 0,4r + 0,1e) + 0,8× (0,3c + 0,2r + 0,8e)

).

Si dejamos de lado la pereza y operamos un poquito encontramos entoncesque

X2 =

0,43c + 0,42r + 0,18e0,13c + 0,22r + 0,13e0,44c + 0,36r + 0,69e

.

Luego de nuestro buen bano de matrices en el capıtulo 1, reconoceremos queesta expresion puede ser escrita como el producto

X2 =

0,43 0,42 0,180,13 0,22 0,130,44 0,36 0,69

cre

,

de la matriz

B =

0,43 0,42 0,180,13 0,22 0,130,44 0,36 0,69

Page 78: Geometr´ıa y´Algebra Lineal 1:

Matrices e informacion 75

por el vector X0 = (c, r, e)t con las condiciones iniciales4. Hemos encontradoentonces que la transicion X0 7→ X2, que nos permite calcular el estado X2

que se alcanza dos anos mas tarde de observar el estado inicial X0, se resumeen la accion de la matriz B que satisface

X2 = BX0 = A(AX0)

para cualquier condicion inicial X0. Nuevamente ¡la informacion que andabamosbuscando queda naturalmente ordenada en una matriz! ♣

Nuestro proximo ejemplo aparece presentado en la forma de un ejerciciocon el que pretendemos ilustrar que transformaciones geometricas como giros,simetrıas y proyecciones pueden ser descritas por medio de una matriz. Elcontexto en el que trabajaremos es el siguiente:

• debemos interpretar cada pareja (x1, x2) de numeros reales como lascoordenadas de un punto del plano respecto a un sistemas de coordena-das con origen O –al que le corresponden las coordenadas (0, 0)– y unpar de ejes perpendiculares. Representaremos estos pares de coordena-das como una columna X = (x1, x2)t.

Veremos que algunas matrices representan transformaciones X 7→ AX quetienen un claro significado geometrico.

Ejercicio 2.1. Transformaciones geometricas en el plano.

1. La matriz de un giro. Para un numero α cualquiera consideramos la matriz

Gα =(

cos α − sinαsinα cos α

).

(a) Para E1 = (1, 0)t y E2 = (0, 1)t calcular GE1 y GE2. Interpretargeometricamente el resultado.

(b) Observar que cualquier vector X = (x1, x2)t puede expresarse como

X = x1E1 + x2E2,

y que al calcular GX usando esta expresion se obtiene

GX = x1GE1 + x2GE2.

Interpretar geometricamente esta observacion. Concluir que GX repre-senta el resultado de girar X un angulo α en sentido antihorario.

4¡Que no desespere el lector que no haya reconocido inmediatamente el producto! Talvez las cosas lleven algo mas de tiempo, y cada cual tiene el suyo propio. En cualquier caso,esperamos que pueda verificar que la afirmacion es correcta.

Page 79: Geometr´ıa y´Algebra Lineal 1:

76 CAPITULO 2

(c) Dados dos numeros α y β, ¿cual es el resultado Z de calcular Y = GαXy luego Z = GβY ? ¿Como se interpreta esto geometricamente?

(d) Comparar el resultado anterior con la accion de la matriz Gα+β . ¿Quefamosas formulas trigonometricas pueden deducirse de estas manipulacio-nes?

2. La matriz de la simetrıa respecto a la recta x1 = x2. Ahora consideramos lamatriz

S =(

0 11 0

).

Calcular el producto SX de S por cualquier vector X = (x1, x2)t. En particularhacerlo para (1, 0)t, (0, 1)t, (1, 1)t y (1,−1)t, e interpretar geometricamente.

3. La matriz de la proyeccion sobre la recta x1 = x2. Consideremos

P =(

1/2 1/21/2 1/2

).

(a) Calcular el producto SX de S por cualquier vector X = (x1, x2)t. En par-ticular hacerlo para (1, 0)t, (0, 1)t, (1, 1)t y (1,−1)t, e interpretar geome-tricamente.

(b) Observar que cualquier X = (x1, x2)t puede expresarse como

X =x1 + x2

2

(11

)+

x1 − x2

2

(1−1

).

Calcular PX usando esta expresion, e interpretar el resultado.

(c) Calcular el efecto de aplicar dos veces consecutivas la transformacionX 7→ PX que consiste en multiplicar una columna X por la matriz P .Interpretar geometricamente.

4. Hallar la matriz que representa la composicion de la simetrıa de la parte 2 conun giro de angulo π/4 en sentido directo (o antihorario, o el que lleva de (1, 0)a (0, 1) por el camino mas corto). Calcular tambien la composicion del giro conla simetrıa.

5. Calcular la composicion de la simetrıa y la proyeccion de las partes 2 y 3.Componer tambien la proyeccion y la simetrıa.

Observacion 2.1.2. Esperamos que luego de haber trabajado sobre el ejer-cicio anterior el lector haya quedado convencido de que es posible describiry operar con transformaciones geometricas por medio de una matriz. Estehecho es realmente interesante, y lo explotaremos mas adelante al construirun modelo algebraico en el que recuperaremos la geometrıa usual del planoy del espacio. Este modelo es especialmente util para la formulacion, trata-miento y visualizacion de problemas geometricos empleando una computadora,

Page 80: Geometr´ıa y´Algebra Lineal 1:

Matrices e informacion 77

e imprescindible para cualquier desarrollo en el area de computacion grafica(VERIFIQUEMOS ESTO ANTES DE IMPRIMIRLO, PERO CREO QUEESTA BIEN).

Mas interesante aun es dar vuelta la observacion anterior. Si la geometrıapuede guardarse en unas matrices, las matrices y su accion pueden ser rein-terpretadas en clave geometrica. Cuando pensamos las cosas de esta maneraganamos un nuevo punto de vista para analizar distintas situaciones y proble-mas. Por ejemplo, ¿cual es la geometrıa que esconde la matriz A que gobiernalas transiciones del ejemplo 2.1.1? Al descubrirla comprenderemos mucho so-bre ese problema. Comenzaremos a trabajar en esta direccion en los ejercicios??. Nuestro tratamiento del ejemplo ?? tambien estara inspirado en este tipode ideas.

Subrayemos entonces este punto: muchos problemas en que los datos sonlistas o matrices de numeros admitiran una representacion geometrica. Gana-remos ası una imagen clara, en la que nuestra intuicion puede guiarnos, paraentenderlos. Una cosa es pensar en terminos de una larga lista de, digamos,1.600 numeros reales. Y otra es pensar que, por ejemplo, esos numeros estanordenados en una matriz 40× 40 cuya accion puede ser comprendida como laproyeccion sobre un subespacio de dimension 4 en R40. Tal vez se sorprenda ellector si le anunciamos que semejante proyeccion no se comporta muy distintoque la proyeccion usual sobre un plano del espacio. Y una vez comprendidoeste hecho la danza de los 1.600 numeros puede empezar a cobrar sentido, ytal vez hasta podamos describirla bien con solo 4 numeros: tantos como ladimension del hipotetico subespacio que acabamos de mencionar.

Este es el tipo de relaciones que esperamos ir iluminando y desentranandoa lo largo del texto. ♠

Ahora pasamos a un par de ejemplos de naturaleza algo diferente. Setrata de aplicaciones relacionadas con ordenar datos economicos: en el primercaso se trata de la informacion sobre ventas de determinados productos; en elsegundo de las relaciones entre los insumos y los productos en una cadena deproduccion.

Ejemplo 2.1.3. Una fabrica de ropa vende cuatro tipo de articulos: polleras,pantalones, camisas y buzos y tiene registros de las cantidades vendidas en losmeses de setiembre, octubre, noviembre, diciembre y enero (estos dos ultimosespecialmente interesantes por las visitas de Papa Noel y los Reyes Magos5),

5Para no caer en inexactitudes impropias de un texto universitario debemos aclarar quetodos ellos son, en realidad, los padres. Aun ası, algunos de los redactores de este textoseguimos creyendo en los Reyes Magos

Page 81: Geometr´ıa y´Algebra Lineal 1:

78 CAPITULO 2

para tres ciudades de nuestro pais. A partir de todos estos datos interesadeterminar la facturacion total, y tambien poder obtener subtotales agregadospor producto, mes o localidad.

PROBLEMA INTERESANTE: PONER DATOS REALES Y NO LOSDATOS RETRUCHOS QUE APARECEN AHORA

En la primera ciudad, Young, se venden en setiembre 60 polleras, 130pantalones, 70 camisas y 150 buzos.En el mes de octubre se venden 100, 200,120 y 330, en noviembre las ventas son 150, 240, 130 y 510, en diciembre 129,223, 148 y 947, mientras que en enero las ventas suman 88, 147, 105 y 430 paracada una de las prendas. Se cuenta ademas con esta informacion para otrasdos ciudades: Minas y Trinidad. En Minas se venden en setiembre 25, 30, 40y 38, en octubre 50, 10, 32 y 60, en noviembre 75, 25, 46 y 30, en diciembre 12,53, 70 y 56, y en enero 62, 14, 31 y 84 polleras, pantalones, camisas y buzosrespectivamente. Por ultimo, en la ciudad de Trinidad se venden 25, 42, 8 y19 en setiembre; 15, 24, 13 y 42 en octubre; 13, 47, 50 y 22 en noviembre;23, 38, 26 y 32 en diciembre y 40, 25, 61 y 45 en enero para cada uno de losarticulos antes mencionados.

Muchos numeros, ası que hagamos un esfuerzo por ordenarlos. Por ejem-plo, practicamente cualquier persona estara de acuerdo en que los datos deYoung pueden verse mejor si los escribimos ası, alineados en filas y columnas:

Polleras Pantalones Camisas BlusasSetiembre 60 130 70 150Octubre 100 200 120 330Noviembre 150 240 130 510Diciembre 129 223 148 947Enero 88 147 105 430

.

Naturalmente, la tabla que acabamos de armar es una matriz Y , de dimensio-nes 5×4. Para cada una de las otras dos ciudades, Minas y Trinidad, podemosresumir la informacion disponible en las matrices

M =

25 30 40 3850 10 32 6075 25 46 3012 53 70 5662 14 31 84

, T =

25 42 8 1915 24 13 4213 47 50 2223 38 26 3240 25 61 45

,

que ya aparecen escritas en la forma que es convencional para este text. Lasentradas de las matrices Y , M y T indican la cantidad de unidades vendidasde cada producto en cada mes de analisis.

Si no queremos los datos desglosados ciudad por ciudad, y solo nos intere-san los totales por mes y producto tambien podemos resumir la informacion

Page 82: Geometr´ıa y´Algebra Lineal 1:

Matrices e informacion 79

en una matriz. Solo tenemos que sumar para cada una de las entradas losdatos de las tres ciudades. La operacion aparece indicada y ordenada en laforma de la matriz

U =

60 + 25 + 25 130 + 30 + 42 70 + 40 + 8 150 + 38 + 19100 + 50 + 15 200 + 10 + 24 120 + 32 + 13 330 + 60 + 42150 + 75 + 13 240 + 25 + 47 130 + 46 + 50 510 + 30 + 22129 + 12 + 23 223 + 53 + 38 148 + 70 + 26 947 + 56 + 3288 + 62 + 40 147 + 14 + 25 105 + 31 + 61 430 + 84 + 45

,

que, naturalmente, no es otra cosa que110 202 118 207165 234 165 432238 312 226 562164 314 244 1035190 186 197 559

.

A partir de U y los precios de venta de cada producto podemos determinarla facturacion de cada mes. Si sabemos que las polleras cuestan $250, lospantalones $450, las camisas $300 y los buzos $350 tendremos que multiplicarlas columnas de polleras, pantalones, camisas y buzos por las cifras $250, $450,$300 y $350 respectivamente. Luego sumar las columnas para sacar los totalespor mes. Esta operacion no es otra cosa que hacer el producto de la matriz Upor el vector de precios de los productos, lo que arroja el siguiente vector Fde facturaciones:

F =

110 202 118 207165 234 165 432238 312 226 562164 314 244 1035190 186 197 559

250

450300350

=

226250347250464400617750385950

.

Otros datos tambien pueden obtenerse operando sobre la matriz U . Por ejem-plo, si nos interesa determinar la cantidad total de unidades vendidas de cadaproducto solo tenemos que sumar las filas de U . ♠

Ejercicio 2.2. De regreso a la escuela: un problema de “economıa do-mestica” con reglas de tres y matrices.Es sabado, llueve, y la casa de la abuela se lleno de gente. Hay 13 ninos y 9 adultos.Es hora de hacer pastelitos de dulce y tortas fritas.

1. Cada nino come 2 pastelitos y una torta frita; cada adulto 2 pasteles y trestortas. Hallar la matriz que permite calcular las cantidades t y p de tortas ypastelitos en funcion de las cantidades n y a de ninos y adultos presentes.

2. Calcular la matriz que permite calcular los ingredientes necesarios en funcionde las cantidades de cada producto que se desea preparar6.

6Tortas fritas (salen 12 tortas)

Page 83: Geometr´ıa y´Algebra Lineal 1:

80 CAPITULO 2

3. Hallar la matriz que permite calcular los ingredientes necesarios en funcion dela cantidad de personas presentes.

4. Averiguar los precios de cada ingrediente, y calcular el costo total de la merien-da.

Los ultimos dos ejercicios de esta seccion son de naturaleza combinatoria.El primero trata sobre grafos: un modelo para redes de todo tipo. Un grafoes un conjunto finito de puntos (nodos), en el que se establecen conexiones(aristas) entre algunos pares de ellos. Una manera formal de hacer esto esfijar un conjunto N formado por los nodos, y luego especificar algunas parejasque deben interpretarse como los extremos de una arista. Las parejas puedenestar ordenadas, y establecer ası un sentido sobre las aristas. En este casodiremos que el grafo esta orientado. O ser simplemente un subconjunto deN formado por dos elementos, entre los que no distinguimos un primero y unsegundo. En este caso no estamos privilegiando ninguno de los dos sentidosposibles para una arista sobre el otro. En estos terminos, la especificacion delgrafo orientado del ejercicio 2.3 es

N = {1, 2, 3, 4}, A = {(1, 2), (2, 3), (3, 4), (4, 1), (4, 2)},

donde A es el conjunto de las aristas, en este caso orientadas, del grafo7.En el segundo ejercicio mostraremos como codificar la informacion sobre

subconjuntos de un conjunto finito dado. Esta codificacion, sumada a la posi-bilidad de realizar diversas operaciones sobre las matrices, es una herramientautil para probar muchos resultados combinatorios.

Cernir 1 12

cucharadita de sal y 2 tazas de harina. Agregar 14

taza de grasa blanda y 12

tazade agua tibia. Mezclar la masa y amasarla hasta que quede suave. Formar las tortas a mano,tomando un pedacito de masa y estirandola redonda de 10 a 15 centımetros de diametro.Freır en grasa caliente a 185 grados centıgrados. Escurrir y conservar calientes.

Pastelitos dulces (salen 28 pastelitos)Preparar una masa suave con 4 tazas de harina, 2 cucharaditas de sal y 1

4taza de grasa.

Mezclar y agregar 2 huevos batidos y 12

taza de agua. Amasar hasta que aparezcan pequenasburbujas en la superficie. Estirar bien finita. Pintar con grasa derretida, espolvorear conharina y doblar. Estirar nuevamente. repetir la operacion 4 veces. Cortar la masa encuadrados de 10 centımetros. Poner un trozo de dulce de membrillo en el centro. Doblary unir los bordes con agua cerca del relleno, para dejar las orillas sueltas. Freır en grasaabundante, a 184 grados centıgrados. Escurrir en papel absorbente.

1 taza de grasa o azucar ≈ 200 gramos; 3 cucharaditas ≈ 1 cucharada16 cucharadas ≈ 1 taza = 1

4litro; 1 cucharada de dulce de membrillo ≈ 10 gramos

7Esta descripcion de los nodos y aristas es necesaria para fijar con precision de queobjeto se esta hablando. Sin embargo, parece preferible pensar en un grafo en terminos dela representacion grafica de sus nodos y aristas

Page 84: Geometr´ıa y´Algebra Lineal 1:

Matrices e informacion 81

Ejercicio 2.3. Conexiones en grafos

1. El grafo que se muestra en la figura tiene cuatro nodos,

u u

u u?

6

-

�@

@@R

@@

@1 2

34

conectados por aristas orientadas. Podemos resumir las conexiones en el grafopor la matriz

A =

0 1 0 00 0 1 00 0 0 11 1 0 0

cuya entrada aij es igual a la cantidad de arcos que permiten ir del nodo i alnodo j. Calcular la matriz cuya entrada bij es igual al numero de caminos quepermiten ir del nodo i al nodo j recorriendo exactamente dos arcos. Calcularla matriz que contiene la informacion acerca de como ir de un nodo a otro sinrecorrer mas de dos arcos.

2. Si dejamos que los arcos se recorran en cualquier sentido entonces la matriz deconexiones cambia a

A =

0 1 0 11 0 1 10 1 0 11 1 1 0

.

Repetir la parte anterior para este nuevo esquema de conexiones.

3. Representar graficamente el grafo orientado cuyas conexiones estan dadas por

A =

1 1 0 1 01 0 0 0 10 1 0 1 01 1 0 0 11 1 1 1 1

.

El siguiente ejercicio trabaja sobre las matrices de incidencia, que permitendescribir subconjunto de un conjunto finito dado. Sea X = (x1, x2, · · · , xn) unconjunto ordenado que tiene elementos, y A = (A1, A2, . . . , Am) una listaordenada de subconjuntos de X. Podemos describir estos subconjuntos pormedio de una matriz A, de dimensiones m × n construida de la siguientemanera: cada fila de A corresponde a uno de los conjuntos Ai, i = 1, 2, . . . ,m,y tiene un 1 en el lugar j si el elemento xj esta en Ai, y un 0 cuando xj no

Page 85: Geometr´ıa y´Algebra Lineal 1:

82 CAPITULO 2

esta en Ai. Si escribimos las matriz A = (aij) entonces la regla que define Ase resume en

aij ={

1 si xj ∈ Ai,0 si xj 6∈ Ai,

i = 1, 2, . . . ,m, j = 1, 2, . . . , n.

Ejercicio 2.4.

1. Hallar la matriz de incidencia que corresponde a la familia de subconjuntos

A1 = {,@, A, #}, A2 = ∅, A3 = X, A3 = {&,@, $,#}, A1 = {@, $,%,#}

del conjunto ordenado X = (&,@, $,%, A, #); hallar un conjunto y una familiade subconjuntos que correspondan a la matriz 0 0 0 1 1 1 1

0 1 1 0 0 1 11 0 1 0 1 0 1

.

2. Sea A una matriz de incidencia. Explicar cual es la informacion almacenada enlas matrices AtA y AAt.

3. Un grafo no orientado puede ser construido de la siguiente manera: damos unconjunto X de nodos, e identificamos cada arista con un subconjunto del con-junto de nodos que tiene exactamente dos elementos. Visto de esta manera, ungrafo no es otra cosa que una lista de parejas dentro del conjunto de nodos. Daruna descripcion algebraica de los grafos por medio de una matriz de incidencia.Aplicar esta descripcion cuando se considera el grafo del ejercicio 2.3 sin teneren cuenta su orientacion.

4. Modificar la construccion de las matrices de incidencia de grafos para que pue-dan almacenar ademas informacion sobre la orientacion de las aristas (sugeren-cia: permitir entradas ±1). Representar con una matriz de este tipo del grafoorientado del ejercicio 2.3.

5. Analizar la siguiente afirmacion: la cantidad de componentes conexas de ungrafo orientado es igual a la dimension del nucleo de su matriz de incidencia.Decidir si tiene sentido, e intentar demostrarla o refutarla usando la nocion dematriz de incidencia construida en la parte 4 de este ejercicio. Nota: para estaparte habra que dar sentido a la expresion ”componente conexa de un grafo”.

Page 86: Geometr´ıa y´Algebra Lineal 1:

2.2 Algebra de matrices 83

2.2 El algebra de las matrices

En esta seccion definiremos las operaciones de suma de matrices, de produc-to de un escalar por una matriz y de producto de matrices. Son estas lasoperaciones que anunciamos en la introduccion al capıtulo 2, en la pagina 71,y que dotan al conjunto de las matrices de una estructura algebraica con laque podremos trabajar y que utilizaremos para tratar una gran variedad deejemplos y aplicaciones, entre ellos los que adelantamos en la seccion 2.1.

2.2.1 Suma de matrices y producto por un escalar

Comenzaremos por introducir las operaciones de suma entre matrices y pro-ducto de una matriz por un escalar. Sumaremos matrices que tengan la mismadimension sumandolas entrada a entrada, tal como hicimos en el ejemplo 2.1.3al calcular la matriz U con los totales de ventas en todo en todo el paıs, verla pagina 79. Tambien en el ejercicio 2.3 el numero de conexiones que puedenestablecerse entre dos nodos sin recorrer mas de dos arcos puede calcularsesumarse la matriz en la que aparece el numero de conexiones posibles en lasque se recorre exactamente un arco, con la matriz de numero de conexiones enlas que se recorre exactamente dos arcos. La definicion precisa es la siguiente:

Definicion 2.1 (Suma de matrices). Sean A = ((aij)) y B = ((bij)) dosmatrices en Mm×n(K). Definimos la suma de A y B como la matriz

A + B = ((aij + ((bij)) ∈Mm×n(K).

El producto de una matriz por un escalar se define de manera similar,operando sobre cada entrada.

Definicion 2.2 (Producto de numeros por matrices). Sean λ ∈ K unnumero y A ∈ Mm×n(K) una matriz. Definimos el producto de λ por Acomo la matriz

λA = (λaij) ∈Mm×n(K).

Estas operaciones son similares a las que introdujimos en ?? para los vec-tores, o listas de numeros. Esto no es sorprendente, una matriz sobre el cuerpoK, o un vector en Kn son arreglos de numeros: en un caso los organizamosen filas y columnas, en el otro en forma de una unica fila o columna. Al igualque con los vectores, para sumar dos matrices hemos impuesto la restriccionde que tengan el mismo tamano. Veamos a continuacion algunos ejemplos.

Page 87: Geometr´ıa y´Algebra Lineal 1:

84 CAPITULO 2

Ejemplo 2.2.1. Sean

A =

1 12 0

1 2 −10 −1

√2

, B =

0 12 −1

2 2 01 −2 2

,

entonces

A + B =

1 + 0 12 + 1

2 0− 11 + 2 2 + 2 −1 + 00 + 1 −1− 2

√2 + 2

=

1 1 −13 4 −11 −3

√2 + 2

Ejemplo 2.2.2. Consideremos ahora la matriz real

A =( √

2 10 −

√2

).

Entonces

√2 A =

( √2×√

2)√

2× 1√2× 0

√2× (−

√2)

)=(

2√

20 −2

)

Ejemplo 2.2.3. Sean A y B las matrices complejas 3× 2

A =

1− i 2i + 11− 2i −3i

2 3 + i

, B =

i 1− 2i2i 5 + 3i1 3− i

,

entonces

A + B =

(1− i) + (i) (2i + 1) + (1− 2i)(1− 2i) + (2i) (−3i) + (5 + 3i)

(2) + (1) (3 + i) + (3− i)

=

1 21 53 6

.

Ejemplo 2.2.4. Veamos ahora que existen casos en los cuales dos matricesno se pueden sumar empleando la definicion 2.1. Consideremos las matrices

A =

0 11 11 0

, B =(

1 10 1

).

No esta definida la suma A + B porque estas matrices tienen dimensionesdiferentes. En este caso no coincide su numero de filas.

Page 88: Geometr´ıa y´Algebra Lineal 1:

2.2 Algebra de matrices 85

Observacion 2.2.5. Las operacion de suma de matrices en el conjunto Mm×n(K)toma dos matrices A y B en este conjunto y produce una tercera matriz A+Ben el mismo conjunto. En otras palabras, la suma es una funcion definida so-bre el conjunto de todas las parejas de matrices m × n, que toma valores enel conjunto de las matrices m× n. Algo que representamos con la notacion

+ : Mm×n(K)×Mm×n(K)→Mm×n(K).

Analogamente, el producto por un escalar toma un escalar y una matriz yproduce una nueva matriz. Es una funcion

· : K×Mm×n(K)→Mm×n(K).

El producto asocia a cada par (λ, A), donde λ es un escalar y A una matriz, lamatriz λ·A. Recordemos que habitualmente no usaremos la notacion λ·A parael producto, al que indicaremos simplemente λA, sin ningun simbolo adicional.Es decir, emplearemos para el producto entre un numero y una matriz lamisma convencion que para el producto entre numeros: la concatenacion delsımboloque representa un escalar con el que representa una matriz deberainterpretarse como la representacion del producto entre ambos. ♠

Nuevamente, las operaciones que acabamos de introducir tienen propieda-des completamente analogas a la suma y producto por un escalar para n-uplas,o listas de numeros, a las que hemos dado en llamar vectores a partir de laestructura algebraica que las operaciones de suma y producto por un escalarintroducen. Dejamos como ejercicio para el lector completar los detalles. Elenunciado preciso de cada propiedad puede deducirse del enunciado corres-pondiene para n-uplas, ver la pagina 50.

Ejercicio 2.5. 1. Probar que la operacion de suma de matrices tiene las pro-piedades conmutativa, asociativa, de existencia de neutro y existenciade opuesto. Para estas dos ultimas habra que identificar que matriz actuacomo neutro para la suma –a la que llamaremos matriz nula, y determinar cualmatriz es la opuesta de cada matriz dada.

2. Probar que las operaciones de suma entre matrieces y de producto entre esca-lares en el cuerpo K y las matrices tienen las propiedades de asociatividadrespecto al producto de escalares, de que la unidad en el cuerpo actuacomo unidad para el producto, y las propiedad distributiva respecto a lasuma de matrices y respecto a la suma de escalares.

2.2.2 El producto de matrices

En algunos de los ejemplos recogidos en los ejercicios de la seccion ?? lasmatrices actuan transformando los objetos a los que se aplican: esto es obvio

Page 89: Geometr´ıa y´Algebra Lineal 1:

86 CAPITULO 2

en los casos del ejercicio ?? en que la matriz representa transformacionesgeometricas; en el problema ?? hay matrices que transforman la informacionsobre la cantidad de comensales de cada tipo y la comida que hay que preparar,o este ultimo dato en la descripcion detallada de los ingredientes necesarios,y, por ultimo, estos en el precio total de la merienda; en ?? encontramos unamatriz que almacena la informacion sobre la evolucion de la poblacion. Estamatriz transforma el vector con la distribucion de la poblacion en el mes k enel vector correspondiente al mes siguiente, k + 1.

Tambien los sistemas lineales pueden ser analizados desde este punto devista. Consideremos un sistemas AX = B. Si pensamos el termino de laizquierda como una correspondencia X 7→ AX que envıa X en AX nuestrapregunta es ¿cual es el X que justito le pega a B cuando lo ”mandamosa AX?

Observemos que el producto AX de una matriz A, de dimensiones m× n,por un vector X de longitud n. es un caso particular de producto entre dosmatrices: la matriz A y el vector X, que puede ser considerado como unamatriz con n filas y 1 columna. Es decir, como una matriz n× 1. Veremos acontinuacion que considerar que las matrices definen transformaciones a travesdel producto por vectores (columnas, o matrices n × 1) sugiere como definirun producto entre matrices en un contexto mas general.

En muchas situaciones en que hay transformaciones operando no nos in-teresa aplicar una sola de ellas aisladamente, sino que las vamos operandosucesivamente. Por ejemplo, en el ejercicio ?? transformabamos primero lainformacion sobre los comensales en informacion sobre lo que habıa que pre-parar, y luego esta informacion la traducıamos en informacion sobre ingre-dientes. Cuando una matriz explica como evoluciona una poblacion mes ames tenemos que aplicarla varias veces para saber que ocurre en perıodos maslargos; etcetera. En ambos casos el efecto de la aplicacion sucesiva de dos ma-trices puede describirse en terminos de una nueva matriz. Esta nueva matrizes la que definiremos como el producto de las dos originales. Antes de seguiravanzando en nuestra discusion mostraremos esto en el caso generico de unamatriz B de dimensiones 2 × 3, cuya aplicacion sobre un vector de K3 se veseguida por la aplicacion de una matriz A de dimensiones 2× 2.

Ejemplo 2.2.6. Consideramos entonces

B =(

b11 b12 b13

b21 b22 b23

), A =

(a11 a12

a21 a22

).

Page 90: Geometr´ıa y´Algebra Lineal 1:

2.2 Algebra de matrices 87

Al multiplicar B por una columna X = (x1, x2, x3)t obtenemos

BX =(

b11 b12 b13

b21 b22 b23

) x1

x2

x3

=(

b11x1 + b12x2 + b13x3

b21x1 + b22x2 + b23x3

).

El producto de A por BX es

A(BX) =(

a11 (b11x1 + b12x2 + b13x3) + a12 (b21x1 + b22x2 + b23x3)a21 (b11x1 + b12x2 + b13x3) + a22 (b21x1 + b22x2 + b23x3)

)que luego de algunas operaciones en las que sacamos de factor comun a lasentradas xi, i = 1, 2, 3, de la columna X queda en la forma

A(BX) =(

(a11b11 + a12b21) x1 + (a11b12 + a12b22) x2 + (a11b13 + a12b23) x3

(a21b11 + a22b21) x1 + (a21b12 + a22b22) x2 + (a21b13 + a22b23) x3

)en la que reconocemos el producto de la matriz(

a11b11 + a12b21 a11b12 + a12b22 a11b13 + a12b23

a21b11 + a22b21 a21b12 + a22b22 a21b13 + a22b23

)(2.2)

por el vector X. La matriz (2.2) es lo que definiremos como el producto ABde las matrices A y B, y recoge el resultado de hacer actuar primero B yluego A. No definiremos el producto BA, porque si aplicamos A a un vectorde longitud dos obtenemos un nuevo vector de longitud dos, que no puede sermultiplicado por la matriz B de dimensiones 3× 2. ♠

En los ejemplos anteriores hemos visto que la accion sucesiva de dos ma-trices puede describirse por una nueva matriz, cuya accion es equivalente a laaccion combinada de las dos matrices originales. Esto no es una peculiaridadde los ejemplos tratados, sino la manifestacion de un hecho general que vamosa presentar a continuacion.

Consideremos entonces la accion de una matriz B de dimensiones m × nsobre los vectores de Rn. Cada vector X ∈ Rn se transforma en un nuevovector Y = BX ∈ Rm al ser multiplicado por B. Si una segunda matriz A, dedimensiones l×m, actua para dar lugar a Z = AY ∈ Rl. ¿Cual es la transicionde X a Z? Observemos que es esencial que A tenga tantas columnas (m) comofilas tiene B para que todo esto tenga sentido.

Es facil dar una primera respuesta a la pregunta que hemos planteado: siZ = AY e Y = BX entonces Z = A(BX). Bien, pero en realidad no estamosdiciendo gran cosa, porque esa formula, con los parentesis alrededor de BX,

Page 91: Geometr´ıa y´Algebra Lineal 1:

88 CAPITULO 2

debe leerse “primero apliquemos B a X, y luego apliquemos A al resultado”. Osea, solo expresa en una manera concisa lo que ya sabıamos. Lo que queremoses encontrar una nueva matriz, a la que llamaremos el producto de A y B, ydesignaremos con AB, tal que su accion sobre X sea la misma que el efectocombinado de A y B. En otras palabras, deseamos que AB sea tal que laigualdad

A(BX) = (AB)X (2.3)

se satisfaga para cualquier X ∈ Kn. Ya sabemos que A(BX) tiene longitudl, lo que nos esta indicando que la matriz AB debe tener dimensiones l ×n. Hay varias maneras de ordenar los calculos para extraer la informacionencerrada en (2.3). Presentamos una que vuelve los calculos relativamentesimples, basada en considerar algunos vectores X particulares, especialmenteconvenientes para calcular, y suficientes para determinar completamente cualdebe ser la definicion de AB. Estos son los vectores Ei, i = 1, 2, . . . , n, de labase canonica de Kn.

Recordemos que si C es una matriz cualquiera, de dimensiones p × n,entonces el producto CEi es igual a la i-esima columna de C. Apliquemosesta observacion haciendo

X = Ei, i = 1, 2, . . . , n,

en (2.3). Obtenemos entonces n igualdades A(BEi) = (AB)Ei, donde i varıaentre 1 y n. Cada producto BEi es igual a Bi, la i-esima columna de B, y cadaproducto (AB)Ei es igual a la i-esima columna de AB, a la que llamaremos(AB)i. Obtenemos entonces

A(Bi) = (AB)i, i = 1, 2, . . . , n. (2.4)

Ahora ya tenemos toda la informacion necesaria para definir el producto dedos matrices cualesquiera.

Definicion 2.3 (Producto de matrices). Si A y B son matrices l ×m ym×n respectivamente, con entradas en un cuerpo K, entonces el producto ABes la matriz l × n con entradas en K tal que para i = 1, 2, . . . , n, su i-esimacolumna es el producto de la i-esima columna de B por la matriz A

Deberiamos asegurarnos ahora de que la propiedad (2.3) se satisface paratodo X ∈ Kn. De momento, solo sabemos que nuestra definicion asegura quees valida para los vectores de la base canonica. Ese es el contenido de nuestraproxima proposicion.

Page 92: Geometr´ıa y´Algebra Lineal 1:

2.2 Algebra de matrices 89

Proposicion 2.1. Sean A y B dos matrices l ×m y m× n respectivamente,sobre un cuerpo K. Entonces la igualdad

A(BX) = (AB)X (2.5)

se satisface para todo X ∈ K.

La demostracion utiliza una de las ideas basicas del algebra lineal: si sabe-mos como se comporta una operacion lineal sobre una base entonces podemossaber como se comporta en todo el espacio, extendiendo su accion por mediode la linealidad.Demostracion. Cualquier vector X puede escribirse como combinacion li-neal de los vectores de la base canonica, en la forma

X =n∑

i=1

xiEi.

Usamos ahora la linealidad de la multiplicacion por matrices. Primero con lamatriz B:

BX = B

(n∑

i=1

xiEi

)=

n∑i=1

xiBEi.

Multiplicamos ahora esta expresion por A, y obtenemos

A(BX) = A

(n∑

i=1

xiBEi

)=

n∑i=1

xiA(BEi).

Como para los vectores Ei ya sabemos que el resultado que queremos probares cierto, porque hicimos la definicion de AB para que ası fuera concluimos

A(BX) =n∑

i=1

xi(AB)Ei.

Aplicamos una vez mas la linealidad del producto por una matriz, ahora parael producto por AB y obtenemos

A(BX) = (AB)

(n∑

i=1

xiEi

)= (AB)X.

Estas ultimas igualdades completan la prueba de la proposicion.

Observacion 2.2.7. Dado que A(BX) = (AB)X podemos eliminar los pa-rentesis en estas formulas sin introducir ningun tipo de ambiguedad, e indicarcualquiera de estos dos productos por ABX.

Page 93: Geometr´ıa y´Algebra Lineal 1:

90 CAPITULO 2

Observacion 2.2.8. La definicion 2.3 del producto entre matrices puede en-tenderse en los siguientes terminos: a cada matriz m × n le hemos asociadouna transformacion de Kn en Km que consiste en multiplicar por la matriz losvectores de Kn. Hemos definido el producto de dos matrices A y B de formatal que al componer la transformacion de multiplicar por B con la transfor-macion de multiplicar por A se obtenga una transformacion que consiste enmultiplicar por la matriz AB.

Ejemplo 2.2.9. Bueno, despues de nuestra busqueda de matrices tales queaplicar primero B a un vector X y luego aplicar A al producto BX, seaequivalente a realizar el producto AB y aplicarlo a dicho vector, estamos listospara calcular el producto de dos matrices A y B. Sean

A =

1 0−1 2

3 1

y B =(

0 21 −1

)Primero debemos multiplicar A por la primera columna de B del siguientemodo: 1 0

−1 23 1

( 01

)=

021

Ahora calculamos el producto de la matriz A por la segunda columna de

B: 1 0−1 2

3 1

( 2−1

)=

2−4

5

Por ultimo escribimos el producto AB:

AB =

0 22 −41 5

Es interesante observar que si la matriz A es 3 × 2 y la matriz B es 2 × 2entonces el producto AB es 3× 2. ♠Ejemplo 2.2.10. En este ejemplo vamos a calcular el producto de dos ma-trices, pero con coeficientes genericos. Para hacer este calculo elegimos dosmatrices A y B, con A de dimensiones 3×2 y B de dimensiones 2×2, como enel ejemplo 2.2.9. Podemos, entonces, escribir las matrices A y B del siguientemodo:

A =

a11 a12

a21 a22

a31 a32

, B =(

b11 b12

b21 b22

).

Page 94: Geometr´ıa y´Algebra Lineal 1:

2.2 Algebra de matrices 91

Si multiplicamos estas matrices segun lo que aprendimos en esta seccion tene-mos que AB es la matriz que llamaremos C = (cij) donde la i-esima columnade C se obtiene de multiplicar la matriz A por la la i-esima columna de B.Calculamos primero la columna C1 de C:

C1 = AB1 =

a11 a12

a21 a22

a31 a32

( b11

b21

)=

a11b11 + a12b21

a21b11 + a22b21

a31b11 + a32b21

Calculamos ahora la columna C2 de C:

C2 = AB2 =

a11 a12

a21 a22

a31 a32

( b12

b22

)=

a11b12 + a12b22

a21b12 + a22b22

a31b12 + a32b22

Por ultimo debemos “armar” la matriz C juntando las dos columnas:

C = (C1, C2) =

a11b11 + a12b21 a11b12 + a12b22

a21b11 + a22b21 a21b12 + a22b22

a31b11 + a32b21 a31b12 + a32b22

Vale la pena adelantar la observacion de caracter general de que podemos

escribir las entradas de la matriz C en forma mas economica si utilizamos elsigno de sumatoria. El lector podra verificar que

cij =2∑

k=1

aikbkj , i = 1, 2, 3 j = 1, 2. (2.6)

Por ultimo observemos que la multiplicacion esta bien definida y que al mul-tiplicar una matriz 3 × 2 con una matriz 2 × 2 obtenemos una matriz 3 × 2.

Motivados por el ejemplo 2.2.10, vamos a buscar una expresion para cadaentrada cij de la matriz C = AB que es el producto de dos matrices

A = (aik), i = 1, . . . , n, k = 1, . . . ,m,B = (bkj), k = 1, . . . ,m, j = 1, . . . , l,

sobre un cuerpo K. Entonces C = AB es una matriz n × l, y su entrada cij

es la i-esima entrada de la j-esima columna de C, que a su vez es el productoABj de la matriz A por Bj , la j-esima columna de B. Las entradas de Bque intervienen son entonces las bkj , k = 1, . . . ,m. En la i-esima entradadel producto ABj intervienen las entradas de A que estan en la i-esima fila,

Page 95: Geometr´ıa y´Algebra Lineal 1:

92 CAPITULO 2

es decir, los numeros aik, k = 1, . . . ,m. En el producto cada entrada aik

multiplica a su correspondiente bkj , y luego se suman, de modo que cadaentrada cij en el producto C = AB es

cij =m∑

k=1

aikbkj , i = 1, . . . , n, j = 1, . . . , l,

Observemos que es la misma expresion que tenıamos antes, pero ahora escritaen forma generica para dos matrices cualesquiera en el mismo cuerpo K, dondela cantidad de columnas de la matriz A coincide con la cantidad de filas de lamatriz B. Esta es una condicion que necesitamos que se cumpla para podermultiplicar dos matrices. Cuando esto ocurre decimos que las matrices A y Bson conformables.

El siguiente esquema ayuda a recordar la forma de realizar la operacion:

b11 . . . b1j . . . b1l

b21 . . . b2j . . . b2l... . . .

... . . . . . .bm1 . . . bmj . . . bml

a11 a12 . . . a1m...

... . . ....

...... . . .

...ai1 ai2 . . . aim...

... . . ....

an1 an2 . . . anm

...

... ↓...

...

−→ cij...

......

......

......

......

......

...

Luego de estos ejercicios y ejemplos podemos ver un “algoritmo” para

multiplicar matrices, ya que si C es la matriz C = AB y llamamos a suselementos cij podemos ver que dicho elemento se obtiene multiplicando la filai de la matriz A por la columna j de la matriz B. Esto es cij = AiBj

Observacion 2.2.11. El producto visto por filasLuego de estos ejemplos vamos a ver algo interesante: que las filas de AB

son una combinacion lineal de las filas de B, cuyos coeficientes estan dadospor las filas de A.

Aclaremos un poco todo esto. En el ejemplo 2.2.10 vimos que las filas dela matriz C = AB son:

Page 96: Geometr´ıa y´Algebra Lineal 1:

2.2 Algebra de matrices 93

(c11 c12) ; (c21 c22) y (c31 c32)

dondec11 = a11b11 + a12b21 ; c12 = a11b12 + a12b22

c21 = a21b11 + a22b21 ; c22 = a21b12 + a22b22

c31 = a31b11 + a32b21 y c32 = a31b12 + a32b22

Observemos que es lo que pasa con las filas:

(c11 c12) = (a11b11 + a12b21 a11b12 + a12b22) = a11 (b11 b12) + a12 (b21 b22)

(c21 c22) = (a21b11 + a22b21 a21b12 + a22b22) = a21 (b11 b12) + a22 (b21 b22)

(c31 c32) = (a31b11 + a32b21 a31b12 + a32b22) = a31 (b11 b12) + a32 (b21 b22)

En esta expresion se ve claramente lo que queriamos: las filas del productoson combinacion lineal de las filas de B cuyos coeficientes son las entradas deA.Queda como ejercicio para el lector realizar estas operaciones para las matricesA y B del ejemplo 2.2.9

Luego de ver que es lo que ocurre en un caso particular - es decir, para elproducto de una matriz 3×2 por una matriz 2×2 - seria bueno probarlo paracualesquiera dos matrices n×m y m× l respectivamente. Sean A y B:

A =

a11 . . . a1m

. . .an1 . . . anm

y B =

b11 . . . b1l

. . .bm1 . . . bml

Escribamos las filas del producto de estas dos matrices:

(c11 . . . c1l) = (a11b11 + . . . + a1mbm1 . . . a11b1l + . . . + a1mbml)...

......

(cn1 . . . cnl) = (an1b11 + . . . + anmbm1 . . . an1b1l + . . . + anmbml)

Observar que cada una de estas n filas se puede escribir como:

(ci1 . . . cil) = ai1(b11 . . . b1l) + . . . + aim(bm1 . . . bml)

donde el subindice i = 1, . . . , n, indica la fila a la que nos estemos refiriendo.ESTO NO ME GUSTA, NO LO PONDRıA.....

Page 97: Geometr´ıa y´Algebra Lineal 1:

94 CAPITULO 2

Veamos ahora que pasa al multiplicar una fila de A por la matriz B, esdecir, tomamos la fila i de A que es (ai1, ai2, . . . , aim) y la multiplicamos porla matriz B = (bij) con i = 1, . . . ,m y j = 1, . . . , l.

Esto da como resultado:

(ai1 . . . aim

) b11 . . . b1l...

. . ....

bm1 . . . bml

=

(ai1b11 + . . . + aimbm1 . . . ai1b1l + . . . + aimbml

)Esta ultima expresion es justamente la fila i de la matriz AB. En consecuencia,si multiplicamos cada una de las n filas de A por B obtenemos las n filas deAB.

Ejercicio 2.6. Ahora que ya aprendimos a realizar operaciones con matrices esbueno volver a los ejercicios del principio del capıtulo y analizar donde se utilizaronla suma, multiplicacion por un escalar y producto de matrices, operaciones que yahabiamos usado pero en forma intuitiva.

Ejercicio 2.7. Introducir matrices que hagan una permutacion de filas o una trans-formacion de la eliminacion gaussiana.

Ejercicio 2.8. Las traspuestas y el producto.

2.2.3 Propiedades del producto

ASOCIATIVA

Si A, B y C son tres matrices conformables, entonces (AB)C = A(BC) Estapropiedad puede ver como una extension de las propiedades de la definicion deproducto de matrices y su demostracion queda como ejercicio para el lector.

DISTRIBUTIVA

Si A y B son matrices de igual dimension y C es una matriz conformable conA y B entonces,

C(A + B) = CA + CB y(A + B)C = AC + BC

Esta demostracion tambien queda como ejercicio. Observar, sin embargo,que la no conmutatividad del producto obliga a probar ambas identidadesindependientemente, pues en general C(A + B) 6= (A + B)C

Page 98: Geometr´ıa y´Algebra Lineal 1:

2.2 Algebra de matrices 95

NO CONMUTATIVA

Esta propiedad no se cumple en general para matrices A y B cualesquiera.Un primer ejemplo de esto es el caso de matrices A y B para las cuales elproducto AB esta definido, pero el producto BA no lo esta, es decir, podemosrealizar, por ejemplo, el producto AB de dos matrices A y B de dimensiones2× 2 y 2× 3 respectivamente, pero no podemos realizar el producto BA pueslas matrices no resultan conformables.

Un segundo ejemplo es el caso de matrices para las que sı se puede realizarambos productos (A y B son matrices de dimension n× p y p× n respectiva-mente) pero resulta que el producto AB 6= BA. Observar que esto es obviocuando p 6= n pues resulta que AB es de dimension n × n mientras que elproducto BA da como resultado una matriz de dimension p× p.

Por ultimo ambas matrices pueden no conmutar aunque sean cuadradas,es decir si p = n. En el proximo ejercicio se pide buscar ejemplos de estasituacion. Observar ademas, que en este caso hay matrices que conmutan,pero debe quedar claro que no es la regla general. El producto de dos matricesno es conmutativo, a no ser que estemos en un caso especial con matricesespeciales.

Pueden tener dimensiones distintas: EL CASO n× p y p× n. Pueden noconmutar aunque sean cuadradas. Observacion: composicion de funciones ymatrices. Tambien pueden conmutar.

Ejercicio 2.9. Si A es una matriz real 2× 2, probar que A conmuta con todas lasmatrices 2× 2 si y solo si A es un multiplo de la identidad. Es decir ∃ λ ∈ R tal queA = λI de forma que se cumple que AB = BA ∀ B matriz real 2× 2

Ejercicio 2.10. Para A =(

1 10 1

)1. Hallar todas las matrices 2× 2 que conmuten con A.

2. Hallar una matriz 2× 2 que no conmute con A.

3. Hallar todas las matrices que conmutan con U =(

1 01 1

)El siguiente ejercicio establece una conexion entre un subconjunto de las

matrices 2 × 2 y el conjunto de los numeros complejos. La idea es que cadanumero complejo z = x + iy puede pensarse como una par (x, y) ∈ R2. Lamultiplicacion por un numero complejo fijo w = a + ib define una transforma-cion

z 7→ wz

que envia cada z a su producto por w. Esta transformacion tiene un significadogeometrico que puede expresarse en terminos del modulo y el argumento del

Page 99: Geometr´ıa y´Algebra Lineal 1:

96 CAPITULO 2

complejo w. Veremos que esta transformacion tambien puede escribirse pormedio de una matriz, que a su vez puede representarse como el producto dela matriz de un giro y la matriz de una dilatacion.

Ejercicio 2.11. Consideremos un numero complejo w = a + ib.

1. Identificar cada complejo z = x + iy con el par (x, y) ∈ R2. Hallar el par (u, v)que corresponde al complejo wz y mostrar que la matriz

W =(

a b−b a

)representa en R2 la transformacion (x, y) 7→ (u, v).

2. Mostrar que W puede escribirse como el producto ρG de un numero real ρ ≥ 0y la matriz G de un giro. Sugerencia: considerar el modulo y el argumento delcomplejo w.

3. En la parte 1 hemos encontrado una manera de identificar un numero complejow = a + ib con una matriz. Hallar las operaciones sobre las matrices quecorresponde a la suma y al producto de dos numeros complejos w1 y w2.

4. Observar como se representa en forma matricial el conjugado de un complejoy deducir que pasa con el producto (a + bi)(a− bi). ¿Como hallarıa el modulode un complejo a partir de su matriz?

Ejercicio 2.12. Matriz identidad n×n Encontrar una matriz In, de dimensionesn×n, que cumpla que AIn = InA = A para cualquier matriz A ∈Mn×n(K). Mostrarque para cada valor de n hay una unica matriz con esta propiedad.

Observacion 2.2.12. La matriz In que se pide hallar en el ejercicio anteriortiene la propiedadad de que no produce ningun cambio en cualquier matrizA que sea multiplicada por ella. Por esa razon llamaremos a In la matrizidentidad, o matriz identidad n × n, para enfatizar que para cada valor de nhay una matriz identidad diferente. ♠

Observacion 2.2.13. La estructura algebraica de Mn×n(K)DESARROLLAR ESTA OBSERVACIONLas matrices de dimension n × n sobre un cuerpo K forman un anillo no

conmutativo con unidad. Esta es una estructura algebraica en que un conjuntoX esta dotado de dos operaciones + y · a las que llamaremos suma y productoque satisfacen las siguientes propiedades:

• asociativa, distributiva .... DESARROLLAR

Observemos que no se pide que el producto sea conmutativo, ni que los ele-mentos no nulo del anillo tengan inverso. En la seccion 2.3 nos ocuparemosde estudiar el problema de determinar cuales son las matrices que se puedeninvertir. ♠

Page 100: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz 97

2.3 La inversa de una matriz

En la seccion 2.2 hemos dotado a las matrices sobre un cuerpo K de unaestructura algebraica que fue construida teniendo en cuenta la interpretacionde la informacion almacenada en las matrices, y los requisitos que imponeel tratamiento de esa informacion. Por ejemplo, el producto de matrices fuedefinido de una forma tal que nos permite representar en forma consistente laaccion sucesiva de dos matrices. En esta seccion nos preocuparemos por unproblema que pertenece al mismo cırculo de ideas: deshacer lo hecho por unamatriz. Volvamos entonces al punto de vista de considerar una matriz A, dedimensiones m×n y entradas en algun cuerpo K, como una manera de definiruna transformacion

X 7→ Y = AX

que a un vector X de Kn le asocia AX ∈ Km. ¿Podremos deshacer el efectode A y determinar X a partir de Y ?

Estas preguntas son relevantes desde varios puntos de vista.

• Para el matematico aplicado la matriz A en la ecuacion Y = AX puedesignificar la relacion entre algunas causas (resumidas en el vector X) ysus efectos (almacenados en el vector Y ). Dependiendo de la situacion,hacer el camino de Y a X nos podra servir entonces para determinarque esta ocurriendo con variables que no podemos observar directamen-te. Tambien, cuando queremos conseguir un efecto determinado, paradeterminar que valores debemos dar a algunos parametros que podemoscontrolar.

• La ecuacion Y = AX es la ecuacion de un sistema de ecuaciones linealesAX = Y . Este sistema tiene matriz A y dato Y . Hemos llamado X alvector de sus incognitas. En este contexto, pasar de Y a X no es otracosa que resolver ese sistema de ecuaciones.

• Mas en general, el problema de ”deshaceruna transformacion como X 7→Y = AX es un problema matematico interesante: el de determinar laexistencia y, en caso de que exista, calcular la inversa de una funcion otransformacion dada.

Quedemosnos por un momento con el punto de vista expresado en el segun-do ıtem de nuestra lista, y recordemos cuando la ecuacion AX = Y permitedeterminar X de manera unica para cualquier eleccion de Y . Para ello debe-mos repasar lo que hemos aprendido en nuestro estudio de los sistemas lineales.

Page 101: Geometr´ıa y´Algebra Lineal 1:

98 CAPITULO 1

Vimos en el capıtulo 1 que la ecuacion AX = Y tiene una solucion unica pa-ra cualquier miembro de la derecha Y si y solo la matriz A es una matrizcuadrada de rango n.

Bajo estas condiciones, es posible determinar una correspondencia Y 7→ X,que encierra toda la informacion sobre las soluciones de la ecuacion.

Ejemplo 2.3.1. ANALIZAR un SISTEMA 2× 2 AX = Y , con matriz inver-tible. Escribir todas las soluciones en funcion de Y , y mostrar que la soluciondel sistema puede representarse en forma matricial.

El objetivo de esta seccion es mostrar que esta correspondencia puede ex-presarse tambien en terminos de una matriz, la matriz inversa de A, presentarun algoritmo de calculo para la inversa, y analizar algunas de sus propiedades.Indicaremos con la notacion A−1 a la matriz inversa de una matriz A (cuandotal matriz exista). Cuando una matriz A tiene inversa A−1 toda la discusionanterior puede resumirse diciendo que, Y = A−1X es la solucion de AX = Y .

2.3.1 La inversa y el algebra de matrices

Para una matriz cuadrada A ∈ Mn×n(K), andamos a la busqueda de unamatriz A−1 que pueda deshacer lo que A hace. Esta condicion puede expresarsede manera algebraica. Si Y = AX entonces pretendemos que A−1Y = X. Estoimplica

A−1(AX) =(A−1A

)X = X,

por lo que el efecto de la matriz producto A−1A sobre cualquier vector X ∈ Kn

es el de dejarlo incambiado. ¿Cual es la unica matriz que tiene semejante pro-piedad? Por supuesto, la matriz identidad In. Tenemos ahora una condicionalgebraica para expresar esta idea de que la matriz A−1 es la inversa de A, odeshace lo que A hace. Sobre esta idea construiremos la definicion de inversade una matriz, pero agregaremos ademas un matiz: pediremos tanto que A−1

deshaga el efecto de A, como que A deshaga el de A−1. Ese es el contenido denuestra proxima definicion.

Definicion 2.4. Sea A una matriz n × n sobre un cuerpo K. Diremos queuna matriz A−1 es la inversa de A si se satisface

A−1A = AA−1 = In. (2.7)

Observacion 2.3.2. La definicion de inverso de una matriz es formalmenteigual a la condicion a−1a = 1 que caracteriza el inverso a−1 de un numeroa 6= 0 en un cuerpo K cualquiera. Recordemos que 1 es la unidad para la

Page 102: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz 99

multiplicacion en el cuerpo, de la misma manera que la matriz identidad esla unidad para la multiplicacion dentro del conjunto de matrices cuadradas.Pero hay algunas diferencias.

Como el producto de matrices no es, en general, conmutativo hemos in-cluido en la definicion de matriz inversa que los dos posibles productos entrelas matrices A−1 y A sean iguales a la identidad. Veremos luego que no esesencial tener este cuidado al formular la definicion, porque basta con que unode los productos sea igual a la identidad para que el otro tambien lo sea (verla observacion ??, en la pagina ??).

La otra diferencia notable que encontraremos con el caso escalar es quehay matrices distintas de la matriz nula que no tienen inversa. Ver el ejemplo??. En un cuerpo todos los elementos no nulos son invertibles. En el conjuntode las matrices esta afirmacion deja de ser cierta. ♣

Ejemplo 2.3.3. La matriz real A =(

2 11 1

)es invertible. Un calculo

directo muestra que su inversa es

A−1 =(

1 −1−1 2

), ya que al calcular los dos posibles productos entre estas matrices el resultadoque se obtiene es, en ambos casos, la matriz identidad 2× 2. ♠

Ejemplo 2.3.4. La matriz de un giro y su inversa ... DESARROLLAR

Ejemplo 2.3.5. La matriz

A =(

1 00 0

)no es invertible. Para cualquier matriz

B =(

b11 b12

b21 b22

)se cumple que

AB =(

b11 b12

0 0

).

Este producto nunca puede ser igual a la matriz identidad 2 × 2, indepen-dientemente de que valores tomen b11 y b12, porque tiene una fila de ceros.♣

Page 103: Geometr´ıa y´Algebra Lineal 1:

100 CAPITULO 1

Observacion 2.3.6. Unicidad de la inversa.

En nuestra definicion de inversa de una matriz nos hemos apresurado en referir-nos a la inversa. En principio podrıa ocurrir que, dada una matriz A, muchasmatrices A−1 satisficieran los requisitos impuestos por la formula (2.7). Peroun sencillo razonamiento muestra que, a lo sumo, hay una. Dada una matrizA consideremos inversas B1 y B2, entonces

B1A = AB1 = I, B2A = AB2 = I.

La igualdad AB1 = I implica que

B2(AB1) = B2I = B2.

Por lo tanto(B2A)B1 = B2.

Como B2A = I concluimos que

B1 = IB1 = B2,

por lo que ambas matrices son en realidad la misma y, si la inversa existe,es unica. El razonamiento que acabamos de emplear permite mostrar unresultado un poco mas fuerte. Como usaremos este resultado mas adelante loenunciaremos bajo la forma de un lema, cuya prueba quedara como ejerciciopara el lector.

Lema 2.2. Sea A una matriz n × n tal que existen matrices B1 y B2 quesatisfacen

AB1 = B2A = In.

Mostrar que A es invertible y que que B1 = B2 = A−1.

Ejercicio 2.13. Demostrar el Lema 2.2. ♠

2.3.2 La inversa y los sistemas lineales. El calculo de la inversa

El clculo de la inversa de una matriz est muy relacionado con la resolucinde sistemas lineales de ecuaciones. Comencemos por ver que la existencia siuna matriz cuadrada A tiene inversa entonces la solucin de cualquier sistemaAX = B existe, es nica y puede expresarse en trminos de la inversa de A. Siel sistema AX = B tiene solucin entonces debe satisfacerse A−1AX = A−1B.Como el producto A−1A es la matriz identidad encontramos que la solucin X

Page 104: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz 101

debe satisfacer X = A−1B. Este razonamiento muestra que si hay solucin estaes nica, y es igual a A−1B. Por otra parte tenemos que

A(A−1B

)=(AA−1

)B = IB = B,

por lo que A−1B es solucin del sistema AX = B. Es, en definitiva, la nicasolucin de este sistema de ecuaciones.

Ejemplo 2.3.7. PONER ESTE EJEMPLO, U OTRO EN EL QUE SE PUE-DA CALCULAR LA SOLUCIN DE UN SISTEMA HACIENDO USO DEUNA MATRIZ INVERSA CONVENIENTEMENTE ESCOGIDA.

Resolvamos el sistema (2x + y = 3x + y = −1

)La matriz A del sistema y el segundo miembro B son

A =(

2 11 1

), B =

(3−1

).

Es facil ver que A es invertible (ejemplo 2.3.3) y que

A−1 =(

1 −1−1 2

).

Entonces la solucion del sistema que estamos considerando es

A−1B =(

1 −1−1 2

)(3−1

)=(

4−5

).

El lector como ejercicio verificara que efectivamente (4,−5) satisface (S) ♣

Observacion 2.3.8. Acabamos de ver que conocer la inversa de la matrizde un sistema de ecuaciones permite determinar la solucin del sistema. Sinembargo, aunque esto es importante desde el punto de vista terico, no consti-tuye el procedimiento de clculo ms eficiente para resolver sistemas lineales. Enla seccin ?? veremos cmo resolver sistemas de ecuaciones lineales realizandomenos clculos que los necesarios para hallar la inversa de la matriz del sistema.

VER COMO REFORMULAR LA OBSERVACION QUE VIENE A CON-TINUACION PARA RESCATAR ALGO EN ESTA OBSREVACION

Vale la pena aclarar que la resolucin de sistemas lineales por medio dela matriz inversa solo se aplica a sistemas cuadrados; en segundo lugar laformula X = A−1B para la solucin es vlida slo cuando existe la inversa, casoen que la solucin es nica. Esta frmula no nos dice nada acerca de los sistemascompatibles e indeterminados. ♠

Page 105: Geometr´ıa y´Algebra Lineal 1:

102 CAPITULO 1

Nos ocuparemos ahora del problema de calcular la inversa de una matriz.En particular, aprenderemos como decidir si una matriz tiene o no tiene inversa(ya hemos visto que ambas posibilidades pueden ocurrir). Si una matriz Atiene inversa A−1 debe satisfacer AA−1 = I y A−1A = I. Cada una deestas dos ecuaciones matriciales es suficiente para determinar completamentela inversa de A. Vemoslo primero en un ejemplo.

Ejemplo 2.3.9. Tratemos de calcular la inversa de

A =(

1 32 5

)Estamos buscando una matriz B tal que AB = I, donde I es la identidad2× 2. Si

B =(

b11 b12

b21 b22

)Entonces debe satisfacerse

AB =(

b11 + 3b21 b12 + 3b22

2b11 + 5b21 2b12 + 5b22

)= AB =

(1 00 1

),

que es equivalente a los dos sistemas de ecuaciones lineales{b11 + 3b21 = 1,2b11 + 5b21 = 0,

{b12 + 3b22 = 0,2b12 + 5b22 = 1,

En el primer sistema aparecen las entradas de la primera columna B1 de lamatriz B, y en el segundo aparecen las entradas de la segunda columna B2 deB. Los coeficientes de ambos sistemas son justamente los de la matriz A, porlo que podemos escribirlos en la forma

AB1 =(

10

), AB2 =

(01

).

Por supuesto! Al multiplicar la matriz A por B la primera columna de ABes el producto de la primera columna de B por A, y la segunda columna deAB es el producto de la segunda columna de B por A. Concluimos entoncesque el producto de A por la i-sima columna de B debe ser igual a la i-simacolumna de la matriz identidad. Si llamamos Ei, i = 1, 2, a las columnas de lamatriz identidad concluimos que la ecuacin matricial AB = I es equivalenteal par de sistemas lineales

ABi = Ei, i = 1, 2.

Page 106: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz 103

Resolvamos estos sistemas. Para i = 1 tenemos(1 3 12 5 0

).

Recorremos ahora los pasos del mtodo de escalerizacin. Primero multiplicamospor 2 la primera fila, y la restamos de la segunda:(

1 3 10 −1 −2

).

Podramos despejar a partir de aqu, pero en vez de hacer esto escalerizamos”hacia arriba”. Para ello multiplicamos por 3 la segunda fila, y la sumamos ala primera (

1 0 −50 −1 −2

)Para terminar dividimos la segunda fila entre −1, y concluimos(

1 0 −50 1 2

).

La solucin del sistema aparece en la columna de la derecha, y es la primeracolumna de la matriz B que estamos buscando.

Pasemos a calcular la segunda columna. Para ello resolvamos AB2 = E2.Planteamos (

1 3 02 5 1

).

Otra vez un sistema de ecuaciones con matriz de coeficientes igual a A! Pa-ra resolverlo tendramos que repetir los pasos que dimos para el clculo de laprimera columna, slo hay que cambiar el segundo miembro de la ecuacin.Cul es la manera inteligente de hacer este clculo? Unos segundos de reflexinseguramente convenceran al lector de que podemos resolver ambos sistemassimultneamente. El esquema resultante es(

1 3 1 02 5 0 1

),(

1 3 1 00 −1 −2 1

),(

1 0 −5 30 −1 −2 1

)(

1 0 −5 30 1 2 −1

),

Page 107: Geometr´ıa y´Algebra Lineal 1:

104 CAPITULO 1

donde hemos puesto todos los pasos del procedimiento de escalerizacin hastaresolver ambos sistemas de ecuaciones. Notemos que la matriz que aparecea la derecha es la solucin que estbamos buscando. Verificamos, para ver quehemos resuelto correctamente los sistemas de ecuaciones:(

1 32 5

)(−5 3

2 −1

)=(

1 00 1

).

Efectivamente, nuestros clculos fueron correctos y se satisface AB = I. Peropara que B sea la inversa de A tambin debe verificarse BA = I. Hacemos elclculo de este producto, y obtenemos(

−5 32 −1

)(1 32 5

)=(

1 00 1

),

de modo que la matriz B que acabamos de calcular es efectivamente la inversade A.

Observacion 2.3.10. Veremos luego que slo hace falta verificar que se satis-face AB = I o BA = I para asegurar que B es la inversa de A. Si una de lasigualdades se cumple la otra tambin. Un resultado que parece en principio sor-prendente, y que est relacionado con el hecho de que el rango por filas es igualal rango por columnas. Haremos luego un poco ms de teora y justificaremoslas afirmaciones que acabamos de hacer. ♠ ♣

Es posible ahora formular un algoritmo general para el clculo de la inversa.Si buscamos una matriz B que sea la inversa de A debe satisfacerse AB = I,que es equivalente a los n sistemas de ecuaciones lineales

ABi = Ei, i = 1, 2, . . . , n,

donde Ei, i = 1, 2, . . . , n, son las n columnas de la matriz identidad n × n.Estos sistemas pueden resolverse simultneamente tratando la matriz ampliadaA|I. Si podemos escalerizar el sistema hasta transformar la matriz A en lamatriz identidad, entonces la forma escalerizada resultante es I|B, y B es lainversa de A.

Qu ocurre cuando la matriz no tiene inversa? Veamos un ejemplo de estasituacin.

Ejemplo 2.3.11. Intentaremos calcular la inversa de

A =

1 0 11 1 11 −1 1

.

Page 108: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz 105

El mtodo es el mismo, pero ahora planteamos tres sistemas, cada uno deellos correspondiente a una de las columnas de la matriz identidad 3 × 3.Comenzamos por 1 0 1 1 0 0

1 1 1 0 1 01 −1 1 0 0 1

.

En el primer paso restamos la primera fila de la segunda y la tercera. Obte-nemos 1 0 1 1 0 0

0 1 0 −1 1 00 −1 0 −1 0 1

.

Ahora sumamos la segunda fila a la tercera 1 0 1 1 0 00 1 0 −1 1 00 0 0 −2 1 1

.

Encontramos entonces que los sistemas son incompatibles, lo que indica queno puede haber una inversa B de la matriz A, porque es imposible satisfacerla ecuacin AB = I. ♣

Lo que vimos en el ejmplo anterior es completamente general. Cuando lainversa de A no existe entonces alguno de los sistemas ABi = Ei es incompa-tible, y el proceso de escalerizacin se detiene en algn momento.

Ya tenemos entonces un sencillo algoritmo para hallar la inversa, o detectarque la inversa de una matriz no existe. Ahora podemos ejercitarnos con l.

Ejercicio 2.14. Calculo de matrices inversas.

1. Las tres matrices reales siguientes tienen inversas. Calcularlas.

A =(

2 −2−1 3

), B =

6 −2 −3−1 1 0−1 0 1

, C =

−3 2 −1 −2

1 −1 1 1−2 1 −1 −1

1 0 0 1

Verificar el calculo.

2. Resolver los siguientes sistemas de ecuaciones lineales usando las matrices in-versas calculadas en la parte anterior:

A

(xy

)=(

11

), B

xyz

=

410

, C

xyzt

=

1001

.

Page 109: Geometr´ıa y´Algebra Lineal 1:

106 CAPITULO 1

3. Calcular la inversa de la matriz0 1 1 01 0 1 11 1 1 00 1 1 1

sobre Z2.

4. Hallar la inversa de las siguientes matrices, en las que k y ki, i = 1, 2, 3, 4,indican constantes no nulas:

k1 0 0 00 k2 0 00 0 k3 00 0 0 k4

,

0 0 0 k1

0 0 k2 00 k3 0 0k4 0 0 0

,

k 0 0 01 k 0 00 1 k 00 0 1 k

.

Ejercicio 2.15. Hallar la inversa de la matriz(cos θ − sin θsin θ cos θ

).

Sugerencia: no hace falta hacer ninguna cuenta para resolver el problema. Ver elejercicio ??.

Ejercicio 2.16. Clculo de inversas, poner la verificacin

2.3.3 Existencia de inversa y rango

Tenemos un algoritmo que nos permite calcular la inversa de una matriz cua-drada A, por la va de resolver la ecuacin matrical AB = I a travs de las necuaciones ABi = Ei. Vamos a mostrar ahora que tambin se satisface BA = I.Esto no es para nada obvio, y depende de los resultados ms finos que hemosencontrado al trabajar con los sistemas de ecuaciones lineales.

Comencemos por observar que si todos los sistemas ABi = Ei son compa-tibles entonces el espacio de columnas de A es todo Kn y el rango de A es n.Esto implica que la dimensin del espacio de filas es n, por lo tanto el espacio defilas es todo Kn. Por lo tanto, dada cualquier fila F ∈ Kn podemos encontraruna combinacin lineal de las filas de A que sea igual a F . Esto puede escribirseen forma matricial como F = CA, donde C es una fila con los coeficientes dela combinacin lineal. En particular, este argumento es cierto para cada unade las filas Fi, de la matriz identidad, por lo que podemos encontrar filas Ci,i = 1, 2, . . . , n, tales que

Fi = CiA, i = 1, 2, . . . , n.

Page 110: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz 107

La matriz C formada por las filas Ci satisface8 entonces I = CA.Hemos encontrado entonces que la existencia de una matriz B tal que

AB = I implica que existe una matriz C tal que AC = I. Por lo tanto, envirtud del lema 2.2 concluimos que C = B, y que ambas matrices son, endefinitiva, la inversa A−1 de la matriz A.

Ejercicio 2.17. Sea A una matriz cuadrada con entradas en un cuerpo K. Mostrarque si existe una matriz C tal que CA = I entonces C es la inversa de A.

A modo de resumen de los resultados sobre el clculo de inversas y sistemasde ecuaciones lineales enunciamos el siguiente teorema.

Teorema 2.1. Sea A una matriz n × n sobre un cuerpo K. Entonces sonequivalentes

1. A es invertible;

2. existe una matriz B ∈Mn×n(K) tal que AB = I;

3. existe una matriz C ∈Mn×n(K) tal que CA = I;

4. cualquier sistema AX = B es compatible y determinado;

5. todos los sistemas AX = Ei, donde Ei, i = 1, 2, . . . , n son las columnasde la matriz identidad, son compatibles;

6. el rango de A es igual a n;

Dejamos un par de ejercicios al lector:

Ejercicio 2.18. Repasar toda la informacin acerca de matrices inversas y sistemaslineales, y producir una prueba ordenada del teorema que acabamos de enunciar.

Ejercicio 2.19. Dada una matriz cuadrada A, formular algunas condiciones quesean equivalentes a que A no sea invertible.

8recordemos que al multiplicar A a la izquierda por C la i-sima fila del producto CA esel producto de la i-sima fila Ci de la matriz C por la matriz A. Este producto no es otracosa que la combinacin lineal de las filas de A con los coeficientes almacenados en la fila Ci.Ver la pgina ??

Page 111: Geometr´ıa y´Algebra Lineal 1:

108 CAPITULO 1

2.3.4 Numero de operaciones

La resolucion de sistemas lineales de ecuaciones es un problema de real impor-tancia practica. Una de las razones es que muchos de los modelos matematicosa los que recurre la ciencia contemporanea son lineales. Y cuando un modelono es lineal y es necesario calcular con el entonces suele recurrirse a la estrate-gia de buscar una aproximacion lineal con la que resulte mas accesible trabajar.Es corriente que estos modelos lineales o linealizados involucren muchas va-riables, del orden de cientos o miles, y por lo tanto demandan un importanteesfuerzo computacional. Importa entonces tener una estimacion del volumende calculo que requiere la resolucion de cualquier problema, en particular delos sistemas de ecuaciones lineales. Nos ocuparemos ahora de contar cuantasoperaciones son necesarias para realizar el calculo de la inversa de una matriz.Vamos a concentrarnos en los productos y divisiones, que son las operacionesmas costosas. El lector interesado puede reproducir los calculos y contar elnumero de sumas necesarias para completar el calculo de la inversa de unamatriz.

Analicemos el primer paso. Necesitamos una operacion para determinar elmultiplicador que corresponde a cada una de las filas 2, . . . , n. Luego cada filarequiere n−1 productos del multiplicador por todas las entradas de la primerafila menos la primera. Para cada fila hacemos entonces n operaciones, y estecalculo se repite n − 1 veces, para todas las filas menos la primera. Hay querealizar entonces n2 + n productos en este primer paso.

Del otro lado del esquema no hay gran cosa que hacer: solo copiar los mul-tiplicadores en la primera entrada de cada fila. Ası que de momento anotamoscero operacion en nuestro registro para esta parte del algoritmo.

Pasemos al segundo paso. En la parte de la izquierda del esquema elsegundo paso es exactamente igual que el primero, pero ahora opera sobre unamatriz de tamano n− 1. Hacen falta entonces (n− 1)2 + n− 1 operaciones.

Del lado de la derecha nos haran falta n − 2 productos del multiplicadorque corresponde a cada fila por la primera entrada de la segunda fila.

En general, en el paso k haremos (n − k)2 + n − k operaciones, para k =1, 2, . . . , n− 1. Esto hace un total de

n−1∑k=1

(n− k)2 + n− k =n−1∑k=1

k2 + k = PONERAQUILAFORMULA

productos.Del lado de la derecha necesitaremos (n − k)(k − 1) productos: para las

n− k filas que estan por debajo de la fila k tenemos que multiplicar las k − 1

Page 112: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz 109

primeras entradas de la fila k por el multiplicador correspondiente. Esto haceun total de

PONERLAFORMULA

Toca ahora empezar la escalerizacion hacia arriba. COMPLETAR ELANALISIS DEL NUMERO DE OPERACIONES.

Hasta ahora hemos calculado cuantas operaciones hacen falta para calcularla inversa de una matriz. Si nuestra intencion es resolver un sistema linealAX = B empleando la inversa de A entonces todavıa queda algo por hacer:realizar el producto A−1B.

Ejercicio 2.20. Hallar el numero de operaciones necesarias para realizar el productode una matriz n× n por una columna n× 1.

Retomaremos este analisis del numero de operaciones en la seccion ??destinada a la descomposicion LU .

2.3.5 Primeras propiedades de la inversa

Algunas propiedades de las matrices inversas son una consecuencia muy directade la definicion y de la propiedades del calculo con matrices. Por ejemplo, siuna matriz A es invertible, entonces A es la inversa de su inversa.

Ejercicio 2.21. Demostrar la afirmacion que acabamos de hacer.

Ejercicio 2.22. Sea A una matriz cuadrada e invertible. Discutir segun el valor deλ la invertibilidad de λA.

Proposicion 2.3. Sean A y B dos matrices n × n invertibles entonces A·Bes invertible y (A·B)−1 = B−1·A−1

Demostracion. Basta verificar directamente que

(A·B)(B−1·A−1) = A

= In︷ ︸︸ ︷(B·B−1) A−1 = A·A−1 = In

y que

(B−1·A−1)(A·B) = B−1

= In︷ ︸︸ ︷(A−1·A) B = B−1·B = In

Ejercicio 2.23. Probar o refutar la siguiente afirmacion: si A y B son dos matricescuadradas e invertibles entonces su suma A + B es invertible.

Page 113: Geometr´ıa y´Algebra Lineal 1:

110 CAPITULO 1

Proposicion 2.4. Sean A una matriz n×n invertible. Entonces At es inver-tible y (At)−1 = (A−1)t

Ejercicio 2.24. Probar la proposicion 2.4.

Ejercicio 2.25. ¿Que propiedades de una matriz real cuadrada, invertible, se con-servan en su inversa? Justifique su respuesta.

1. Si A es triangular superior o inferior su inversa tambien lo es.

2. Si A es simetrica o antisimetrica tambien lo es su inversa.

3. Si las entradas de A son numeros enteros tambien lo son las de su inversa.

4. Si las entradas de A son numeros racionales tambien lo son las de su inversa.

2.3.6 Inversas a izquierda y derecha

ESTA SECCION ES CANDIDATA A SER BORRADA EN UNA PRIMERAAPROXIMACION

Es posible que una matriz A de dimensiones m× n tenga una inversa a laderecha, es decir, una matriz B tal que AB = Im, o inversa C a la izquierdatal que CA = In. Por ejemplo, la matriz

A =

1 00 10 0

tiene a la matriz

B =(

1 0 00 1 0

)como inversa a la izquierda. Es facil verificar que BA = I2. Sin embargo, encualquier producto AC en el que se multiplica A por una matriz C a la derechala ultima fila de AC es una fila de ceros. Por lo tanto no existe ninguna matrizC tal que AC = I3. Concluimos que A no tiene inversa a la derecha.

SI HAY TIEMPO EXTENDER ESTA SECCION. AGREGAR ESTE AR-GUMENTO FALAZ.

Considero el sistema AX = Y , donde A tiene inversa B a la izquierda.Entonces BAX = BY . Como BA es la matriz identidad entonces X = BYes la solucion del sistema. Por lo tanto ABY = Y . Como este razonamientopuede hacerse para cualquier Y concluimos que AB es igual a la identidad, ypor lo tanto B tambien es inversa de A a la izquierda.

AGREGAR ALGUNA REFERENCIA AL GRUPO DE LOS ELEMEN-TOS INVERTIBLES. OTROS SUBGRUPOS INTERESANTES.

Page 114: Geometr´ıa y´Algebra Lineal 1:

2.3 La inversa de una matriz 111

2.3.7 Notas

Cosas que precisamos antes

• Dejar claro cuando un sistema es compatible, incompatible, determina-do, indeterminado, para todo X.

• Un ejercicio en el que se enfatice que la matriz identidad es unica, es elejercicio 2.12

• Ejercicios en los que se resuelven varios sistemas de ecuaciones que tienenla misma matriz del sistema

• Ejercicios en los que se ”calculen inversas”resolviendo sistemas de ecua-ciones lineales

Page 115: Geometr´ıa y´Algebra Lineal 1:

112 CAPITULO 2

2.4 Descomposicion LU

A lo largo del capıtulo 1 hemos hecho un uso extensivo del metodo de eli-minacion de Gauss, y aprendido sobre la estructura del espacio de columnasy el espacio de filas de una matriz cualquiera. En la introduccion de estemismo capıtulo mostramos, a traves de distintos ejemplos, como las matricespermiten tratar informacion de muy variada naturaleza. El objetivo de estaseccion es mostrar que el metodo de Gauss puede representarse en forma ma-tricial, y que esta representacion es util porque permite utilizar una y otra vezla informacion que el proceso de escalerizacion genera. Para entender lo quepretendemos decir con esta frase analicemos la siguiente situacion: suponga-mos que tenemos que resolver un sistema AX = B, encaramos el problemaempleando el metodo de eliminacion gaussiana hasta transformar el sistemaoriginal en un nuevo sistema EX = C, y calculamos la solucion una vez queel sistema esta escalerizado. La matriz E es una forma escalerizada de A, y elvector C es el que resulta de aplicar a B todos los pasos de la escalerizacion.

Ejemplo 2.4.1. Para fijar ideas en esta discusion supongamos que estamostrabajando con el sistema

AX = B

del ejemplo ?? de la seccion ??, pagina ??. Entonces

E =, C =,

ver la pagina ??.

Supongamos ahora que tenemos que resolver un nuevo problema AX = B1,en el que hemos cambiado el termino independiente por un nuevo vector B1.¿Que harıas vos? ¿Podrıas utilizar la forma escalerizada de la matriz A?

Claro esta que no podemos intentar resolver EX = B1 para hallar la so-lucion. La matriz E es la forma escalerizada de A, pero para que esto tuvierasentido tendrıamos que aplicar a B1 todos los pasos de la escalerizacion. La-mentablemente, a esta altura solo tenemos la forma escalerizada de A, pero nolos pasos de la escalerizacion. Por lo tanto, si no tuvimos cuidado en registrarlo que hicimos durante la escalerizacion tendremos que volver a empezar. Peroaun no termina el juego, ¿por que no ir guardando la informacion acerca detodo lo que vamos haciendo en el proceso de escalerizacion? Nada nos impidehacer una lista del tipo

En el primer paso reste de la segunda filacuatro veces la primera.

Page 116: Geometr´ıa y´Algebra Lineal 1:

2.4 Descomposicion LU 113

Luego sume un cuarto de la primera a la tercera.con la cuarta no hice nada,ya habıa un cero en la primera entrada.. . .

Sin embargo no parece muy practico. ¿Cual sera la mejor manera de alma-cenar la informacion con los coeficientes que usamos durante la eliminaciongaussiana? ¡Claro! ¡Una matriz!

Durante la eliminacion gaussiana pasamos de la matriz A del sistema a unforma escalerizada9 U . Recordemos que la escalerizacion opera sobre las filasde A, y que el espacio de filas de A es exactamente el mismo que el espacio defilas de U , ver la seccion 1.4, pagina ??. En consecuencia, cada fila de A puedeescribirse como una combinacion lineal de las filas de U , lo que implica que Apuede expresarse como el producto LU , de una matriz L que multiplica U ala izquierda, por U . Vamos a analizar ahora como reconstruir A a partir deU , revisando cuidadosamente en un caso particular el proceso de eliminacionactuando sobre una matriz. Por ejemplo, sobre

A =

1 1 12 1 3−1 1 4

(2.8)

Introduzcamos un superindice para distinguir a las matrices que van aparecien-do a lo largo del proceso de escalerizacion. Consideramos entonces A(1) = A.En el primer paso de la escalerizacion multiplicamos la primera fila por 2 y larestamos de la segunda. Luego sumamos la primera fila a la tercera, operacionque es equivalente multiplicar por −1 y la restar. El resultado que obtenemoses la matriz

A(2) =

1 1 10 −1 10 2 5

.

Tenemos que guardar memoria tambien de cuales fueron las operaciones rea-lizadas, para ello necesitamos recordar los multiplicadores 2 y −1, junto conla informacion de donde los utilizamos. Una forma sencilla de hacer esto esconservarlos en la entrada de la matriz A que se elimino, haciendo aparecer

9Llamaremos U a la forma escalerizada porque es una matriz triangular superior. La Uproviene de la palabra inglesa “upper”. La matriz L que aparece en la descomposicion LUde A recibe su nombre del temino ingles ”lower“ porque es una matriz triangular inferior.

Page 117: Geometr´ıa y´Algebra Lineal 1:

114 CAPITULO 2

un cero, con la ayuda de cada multiplicador. Escribimos entonces

A(2) =

1 1 12 −1 1−1 2 5

.

Los numeros en negrita no deben tenerse en cuenta a los efectos de saber cuales realmente la matriz A(1). En sus lugares hay que poner ceros. Pero estanotacion indica claramente cuales fueron los dos multiplicadores del primerpaso y en que filas los usamos.

Avanzamos un paso mas en la escalerizacion. Ahora hacemos aparecer uncero en la segunda entrada de la primera fila multiplicando la segunda fila por−2 y restandola de la tercera. Obtenemos ası una matriz

A(3) =

1 1 10 −1 10 0 6

,

que representamos con nuestra convencion de almacenar multiplicadores como

A(3) =

1 1 12 −1 1−1 −2 6

.

Esta matriz A(3) es en realidad la forma escalerizada, a la que hemos decididollamar U .

Veamos ahora como se han transformado las filas en cada paso. Vamos adesignar a la i-esima fila de cada matriz agregando el subindice i al nombrede la matriz. Por ejemplo, A(3)?2 es la segunda fila de la matriz A(3). Llama-remos mij a los multiplicadores, indizandolos de acuerdo a la posicion en quequedaron almacenados. Ası el multiplicador mij se uso en el j-esimo paso dela escalerizacion, en el que pasamos de la matriz A(j) a A(j+1), para producirun cero en la entrada que esta en la fila i y la columna j. La operacion entrelas filas en la que este numero intervino fue

A(j+1)i = A

(j)i −mijA

(j)j . (2.9)

Volveremos luego sobre esta formula general, pero de momento seamos masmodestos, y continuemos con el analisis del ejemplo con el que estabamostrabajando. En el primer paso de la escalerizacion realizamos las siguientesoperaciones:

A(2)1 = A

(1)1 ;

A(2)2 = A

(1)2 − 2A

(1)1 ;

A(2)3 = A

(1)3 − (−1)A(1)

1 .

Page 118: Geometr´ıa y´Algebra Lineal 1:

2.4 Descomposicion LU 115

Estas formulas permiten escribir facilmente las filas de A = A(1) en terminosde las de A(2). Es claro que

A(1)1 = A

(2)1 ;

A(1)2 = A

(2)2 + 2A

(2)1 ;

A(1)3 = A

(2)3 −A

(2)1 .

(2.10)

Es posible hacer una analisis similar del segundo paso:

A(3)1 = A

(2)1 ;

A(3)2 = A

(2)2 ;

A(3)3 = A

(2)3 − (−2)A(1)

2 ,

de donde deducimosA

(2)1 = A

(3)1 ;

A(2)2 = A

(3)2 ;

A(2)3 = A

(3)3 − 2A

(3)2 .

(2.11)

Si sustituimos las expresiones (2.11) para las filas de la matriz A(2) en lasformulas (2.10) de las filas de A(1) concluimos

A(1)1 = A

(3)1 ;

A(1)2 = 2A

(3)1 + A

(3)2 ;

A(1)3 = −A

(2)1 − 2A

(3)2 + A

(3)3 .

(2.12)

Si recordamos que A(1) = A y A(3) = U , y agregamos en (2.13) las filas queno aparecen explıcitamente sumandolas con coeficiente 0 obtenemos

A1 = U1 + 0U2 + 0U3;A2 = 2U1 + U2 + 0U3;A3 = −U1 − 2U2 + U3.

(2.13)

Esta expresion no es otra cosa que la igualdad matricial

A =

1 0 02 1 0−1 −2 1

U

escrita en terminos de las filas de A y U . La matriz U es la forma escalerizadade A, por lo que hemos obtenido la descomposicion

A =

1 1 12 1 3−1 1 4

=

1 0 02 1 0−1 −2 1

1 1 10 −1 10 0 6

= LU,

donde L es triangular inferior y U triangular superior.

Page 119: Geometr´ıa y´Algebra Lineal 1:

116 CAPITULO 2

Observacion 2.4.2. Nos interesa en este punto destacar cual es la estructurade L y de U . Comencemos por L:

1. las entradas lij que estan por debajo de la diagonal (i > j) son losmultiplicadores de la eliminacion gaussiana;

2. la diagonal esta formada por unos;

3. por encima de la diagonal solo hay ceros.

En tanto que la matriz U es la forma escalerizada que se obtuvo por mediodel proceso de eliminacion gaussiana cuya informacion quedo almacenada enla matriz L. ♠

Supongamos ahora que tenemos que resolver un sistema de ecuacioneslineales AX = B para un B cualquiera. Lo escribimos como LUX = B,y a continuacion introducimos una variable Y = UX, con lo que el sistemaoriginal resulta equivalente a {

LY = B,UX = Y.

!Estupendo! Teniamos un sistema AX = B para resolver y ahora tenemosdos: primero LY = B, y una vez calculado Y nos toca hallar X resolviendoUX = Y . Parece que hemos retrocedido en vez de avanzar hacia la solucion.Sin embargo el retroceso es solo aparente, porque los dos sistemas con los queahora tenemos que trabajar ya estan en una forma escalerizada, y su resoluciones inmediata. Es decir, tal como anunciabamos, todo el trabajo relativo a laeliminacion gaussiana ya esta almacenado en la descomposicion LU y, unavez dada esta descomposicion, los sistemas pueden resolverse directamentedespejando las variables en forma sistematica.

Observacion 2.4.3. Si A = LU entonces U = L−1A. Notemos entonces quela matriz L deshace la escalerizacion. Es decir, al multiplicar por L pasamosde la forma escalerizada U a la matriz original A. Y que la matriz inversa,L−1, es la que hace la escalerizacion. Al multiplicar A por L−1 conseguimosla forma escalerizada de A. Observemos que al resolver el sistema LY = Bel resultado no puede ser otro que Y = L−1B, y el vector Y es justamente elque se obtendria de B si le aplicaramos todos los pasos de la escalerizacion.Una vez hallado este vector entonces la solucion de AX = B es exactamentela misma que la del sistema escalerizado equivalente UX = Y . ♠

Ejemplo 2.4.4. Para la matriz (2.8) y B = (1, 2, 3)t resolveremos el sistemaAX = B. USAR LU ♣

Page 120: Geometr´ıa y´Algebra Lineal 1:

2.4 Descomposicion LU 117

Vamos a mostrar ahora como calcular la descomposicion LU en el casogeneral. Nuestro analisis estara basado en una extension de la formula

A(j+1)i = A

(j)i −mijA

(j)j . (2.14)

que describe la operacion entre filas en la que entra cada multiplicador mij .Algunas observaciones nos simplificaran la vida:

1. Cada multiplicador mij se emplea en el paso j, para j = 1, 2, . . . , n− 1,de la eliminacion, para eliminar una entrada que esta en la fila i restandoun multiplo adecuado de la fila j a la fila i. En esta operacion la filaque se resta siempre esta por encima de la fila en la que eliminamos unaentrada. Tenemos entonces que los multiplicadores estan definidos parai > j. En particular, la formula (2.14), solo esta definida para i > j.

2. En el paso j de la eliminacion las primeras j filas de la matriz no cam-bian. Podemos representar este hecho por medio de la formula (2.14),conviniendo que mij = 0 si i ≤ j.

3. Con la notacion que estamos usando la matriz A(1) es justamente lamatriz A con la que comenzamos la escalerizacion, en tanto que A(n) esU .

4. Las fila A(j)j que aparece en (2.14) no cambia en el paso j (en el que la

fila se usa para producir cero por debajo de ella) ni en los siguientes.Por lo tanto, la fila A

(j)j es en realidad la j-esima fila de U .

Este conjunto de observaciones nos permite escribir cada paso de la escaleri-zacion en la forma

A(j)i −A

(j+1)i = mijUj , j = 1, 2, . . . , n− 1, i = 1, 2, . . . , n, (2.15)

donde los numeros mij son los multiplicadores de la eliminacion gaussianapara i > j, y 0 para i ≤ j. Podemos dar una formula explicita para los mij

que no son triviales en terminos de las entradas a(j)ik de la matriz A(j):

mij =a

(j)ij

a(j)jj

, 1 ≤ j < i ≤ n.

Para cada j la formula (2.15) nos dice como se actualiza la fila i. El efectoacumulado de todos los cambios sobre la fila i se obtiene sumando en el indice

Page 121: Geometr´ıa y´Algebra Lineal 1:

118 CAPITULO 2

j (que indiza los pasos de la eliminacion gaussiana) desde j = 1 hasta n − 1.Obtenemos

A(1)i −A

(n)i =

n−1∑j=1

mijUj , i = 1, 2, . . . , n.

Todavıa podemos simplificar un poco mas las cosas teniendo en cuenta queA

(1)i = Ai y A

(n)i = Ui. Entonces

Ai =n−1∑j=1

mijUj + Ui, i = 1, 2, . . . , n.

En esta expresion hemos conseguido escribir las filas de A como combinacionlineal de las filas de U . En la sumatoria aparecen todas las filas de U salvo laultima10, pero no perdemos nada con sumar hasta j = n e incluirla, porque loscoeficientes min son todos nulos. Haremos esta modificacion, para que todaslas filas de U entren en la formula:

Ai =n∑

j=1

mijUj + Ui, i = 1, 2, . . . , n.

El coeficientes mii es igual a cero, por lo tanto el termino miiUi que la su-matoria aporta cuando j = i es nulo. Podemos incorporar el termino Ui

extra a la sumatoria modificando ligeramente los coeficientes, lo que haremosintroduciendo coeficientes lij , para i, j = 1, 2, . . . , n, tales que

lij =

mij , j < i,

1, j = i,0, j > i.

Una vez hecho esto obtenemos

Ai =n∑

j=1

lijUj , i = 1, 2, . . . , n.

Esta expresion es justamente el producto matricial

A = LU, L = (lij),

expresado a traves de sus filas. Observemos que L es una matriz triangu-lar inferior que tiene exactamente la estructura que habımos descrito en laobservacion .

Resumimos toda la discusion anterior en una proposicion.10Esto ocurre porque la ultima fila no se utiliza en la eliminacion para continuar el proceso

por debajo de ella: no hay nada all—ı.

Page 122: Geometr´ıa y´Algebra Lineal 1:

2.4 Descomposicion LU 119

Proposicion 2.5 (Descomposicion LU).

Ejercicio 2.26. ?’Se puede extender la descomposicion LU al caso de matrices queno sean cuadradas?

Observacion 2.4.5. Unicidad de la descomposicion LULa factorizacion A = LU de una matriz invertible A es unica. Recordemos queen esta factorizacion estamos imponiendo que L sea diagonal inferior y tengaunos en su diagonal, en tanto que U es diagonal superior. Si A es invertibleentonces los dos factores L y U tambien lo son.

Si tuvieramos dos factorizaciones diferentes, A = LU = L′U ′ entoncesentonces L′−1L = U ′U−1. Pero U y U ′ son matrices triangulares superiores porlo que U−1 es triangular superior y el producto U ′U−1 es triangular superior.Analogamente L′−1 es una matriz triangular inferior, con unos en su diagonal.Por lo tanto L′−1L es triangular inferior y tiene unos en la diagonal.

De la igualdad L′−1L = U ′U−1 se deduce que todos los elementos que noesten en la diagonal principal de estas matrices son nulos. Pero como los de ladiagonal principal de L′−1L son unos finalmente obtenemos L′−1L = U ′U−1 =In. Esto implica L = L′ y U = U ′.

Ejercicio 2.27. Dar dos factorizaciones LU diferentes de una matriz real 3× 3 noinvertible. ♠

2.4.1 Numero de operaciones

PONER EL NUMERO DE OPERACIONES DE LA LU Y LA INVERSA.... VINCULAR CON LOS CALCULOS DE LA SECCION MATRIZ2.TEX,EN LA QUE SE CUENTAN LAS OPERACIONES NECESARIAS PARAHALLAR LA INVERSA

2.4.2 Descomposicion LU con pivoteo: PA = LU .

En algunos casos la eliminacion gaussiana no puede realizarse sin hacer in-tercambios de filas. Estudiaremos ahora como incorporar esta operacion a ladescomposicion LU . Por ejemplo, para

A =

0 1 12 −2 41 −1 1

.

Naturalmente, no podemos comenzar la escalerizacion usando el 0 que estaen la posicion a11 como pivote. Pero podemos intercambia filas, por ejem-plo poniendo la tercera en el primer lugar, y a partir de ahı escalerizar. A

Page 123: Geometr´ıa y´Algebra Lineal 1:

120 CAPITULO 2

continuacion representamos el primer paso de la escalerizacion luego del inter-cambio de filas, con la convencion de escribir los multiplicadores en negrita enel lugar que corresponde a las entradas que eliminamos con su ayuda: 1 −1 1

2 0 20 1 1

.

Por las dudas vayamos recordando cual fue la permutacion que hicimos: cam-biamos la fila 1 con la 3, lo que puede representarse haciendo la misma permu-tacion sobre el vector (1, 2, 3): (3, 2, 1). Tampoco podemos hacer el segundopaso sin permutar filas, pero el simple intercambio de las filas 2 y 3 ya nos con-duce a una matriz escalerizada. El multiplicador que usamos es, por supuesto,igual a 0. Representamos este ultimo paso como 1 −1 1

0 1 12 0 2

, (2.16)

y registramos la nueva permutacion de filas aplicandola a (3, 2, 1) para obtener(3, 1, 2). A partir de la expresion 2.16 podemos fabricar una descomposicionLU , con factores

L =

1 0 00 1 02 0 1

, U =

1 −1 10 1 10 0 2

.

Al multiplicar estos factores LU obtenemos

LU =

1 −1 10 1 12 −2 4

,

matriz en la que reconocemos la filas de A, pero cambiadas de orden. Latercera fila de A es la primera de LU , la primera de A la segunda de LU yla segunda de A reaparecio como la tercera en el producto LU . Estas sonjustamente las permutaciones que hicimos a lo largo de la escalerizacion. Paraverlo basta observar que el vector en el que fuimos recogiendo las permutacio-nes es justamente el (3, 1, 2), que resume exactamente la misma informacionque acabamos de presentar acerca de las permutaciones de filas.

El resultado que acabamos de observar es completamente general: si esnecesario realizar permutaciones durante el proceso de escalerizacion de A el

Page 124: Geometr´ıa y´Algebra Lineal 1:

2.4 Descomposicion LU 121

algoritmo de escalerizacion y almacenamiento de los multiplicadores que he-mos presentado conduce a una descomposicion LU de una matriz que es elresultado de aplicar a A todas las permutaciones. Vamos a justificar ahoraesta afirmacion en el caso general, en el que consideraremos que A es unamatriz n × n cualquiera. Supongamos que la escalerizacion requiere algunosintercambios de filas. Si tuvieramos la enorme suerte de que un duende amis-toso revelara para nosotros cuales son las permutaciones necesarias podriamosrealizarlas antes de empezar el algoritmo de escalerizacion, y luego podriamosescalerizar sin intercambiar filas. La informacion acerca de las permutacionespuede almacenarse11 en una matriz P , tal que el resultado de aplicar a A laspermutaciones es la matriz PA. Como la escalerizacion de PA no requierepermutacion alguna entonces podemos escribir PA como el producto de losfactores LU de su descomposicion LU , y conseguimos una descomposicion

PA = LU.

Si no tenemos un amigo duende no debemos preocuparnos demasiado: laspermutaciones necesarias, almacenadas en la matriz P , son las que se hacen alo largo del proceso de escalerizacion, y podemos ir construyendo P durantela eliminacion. Por ejemplo, almacenando la informacion sobre las permuta-ciones en un vector, o realizando las permutaciones de filas sobre la matrizidentidad12. En el ejemplo que hemos venido tratando reconstruimos la ma-triz P de permutaciones inspeccionando el vector (3, 1, 2), que nos dice quehay que poner en P las filas tercera, primera y segunda de la identidad, en eseorden: 0 0 1

1 0 00 1 0

.

La descomposicion PA = LU resulta, en este caso, 0 0 11 0 00 1 0

0 1 12 −2 41 −1 1

=

1 0 00 1 02 0 1

1 −1 10 1 10 0 2

.

RESOLVER UN SISTEMA CON PALU

11Es posible incluso que el duende haya hecho el ejercicio?? del capıtulo 1, y ya nos de lainformacion sobre las permutaciones en la forma de la matriz P

12Por esta razon no necesitaremos el duende en el resto del texto, y ya podemos ir reco-mendandole que busque trabajo en la continuacion de la trilogıa de “El senor de los anillos”

Page 125: Geometr´ıa y´Algebra Lineal 1:

122 CAPITULO 2

2.4.3 Pivoteo por razones de precision

Hemos visto como modificar la descomposicion LU para incorporar a nuestroesquema de calculo la posibilidad de introducir intercambios de filas. En al-gunos casos este intercambio es imprescindible porque aparece un cero en ellugar de un pivote, y no puede utilizarse esa fila para proseguir con la elimi-nacion gaussiana. En esta seccion mostraremos otra circunstancia en la queel pivoteo es imprescindible: cuando se trabaja con una precision limitada yaparece un pivote muy pequeno.

Presentamos un ejemplo de un sencillo sistema de ecuaciones lineales. Setrata de resolver AX = B, con

A =

1, 00 1, 10 5, 001, 10 1, 2 2, 005, 00 2, 00 26, 00

, B =

011

.

Como es usual, representamos el sistema por su matriz ampliada

A|B =

1 1, 10 5 01, 1 1, 2 2 15 2, 00 26 1

.

En nuestro primer paso de la escalerizacion utilizamos el 1 que esta enla primera entrada de la primera fila como pivote. Restamos entonces a lasegunda fila de A el resultado de multiplicar la primera fila por 1, 1, y a latercera el resultado de multiplicar la primera fila por 5. Obtenemos ası lamatriz 1 1, 10 5, 0 0

0 −0, 01 −3, 5 10 −3, 50 1, 0 1

.

Un paso mas en la escalerizacion, en el que empleamos la entrada −0, 01como pivote, consiste en restar a la tercera fila el resultado de multiplicar a lasegunda por 350. Esto nos lleva a 1 1, 1 5, 0 0

0 −0, 01 −3, 5 10 0 1226, 0 −349

.

A partir de la forma escalerizada es muy facil resolver el sistema. Si llamamosX = (x1, x2, x3) al vector solucion entonces

x1 ≈ 1.8271, x2 ≈ −0.3670, x3 ≈ −0.2847.

Page 126: Geometr´ıa y´Algebra Lineal 1:

2.4 Descomposicion LU 123

Supongamos ahora que implementamos el calculo en una computadora quesolo tiene dos dıgitos en la mantisa13. Calcularemos de una manera similara la que emplean las computadoras: emplearemos una precision infinita paranuestros calculos, pero los resultados finales seran truncados a la precision dedos dıgitos, que es la que asumimos. El primer paso en la escalerizacion delsistema no plantea problema alguno, todos los numeros resultantes puedenrepresentarse correctamente con solo dos dıgitos significativos. Pero en elsegundo y ultimo paso algunas aproximaciones son necesarias, y obtenemos 1 1, 1 5, 0 0

0 −0, 01 −3, 5 10 0 1200, 0 −350

.

Al resolver a partir de esta forma escalerizada calculamos la solucion

x1 ≈ −0.8333, x2 ≈ 2.0833, x3 ≈ −0.2917.

¡El error es descomunal! Ni una de las cifras de x1 y x2 es correcta. ¿Queha ocurrido? Errores menores al 5% en nuestra representacion de los numerosproducen resultados disparatados, con errores relativos que superan al 600%.La respuesta esta en el calculo que hicimos en el segundo paso de nuestraescalerizacion: multiplicamos la segunda ecuacion por 350, la sumamos a latercera y sustituimos la tercera ecuacion por esta combinacion lineal. Observe-mos que la ecuacion sustituida, la tercera, fue cambiada por una combinacionlineal en que la segunda ecuacion aparece con un peso 350 veces mayor. Dichode otra forma, esta tercera ecuacion solo contribuye con un factor de 1/350en la combinacion, y lo que ella aporta cae fuera de los dıgitos que podemosrepresentar. De hecho, buena parte de la informacion contenida en la teceraecuacion ha desaparecido de la forma escalerizada. Notemos que el sistema denumeracion de nuestra hipotetica computadora interpretarıa

−350× (−3, 5) + 1 = 1226 ≈ 1200,−350× 1 + 1 = −349 ≈ −350.

En esta aproximacion vemos que los unos de los segundos sumandos del losterminos de la izquierda, que son la contribucion de la tercera de las ecuacionesdel sistema, se ven completamente absorbidos por los errores de redondeo. Elorigen de este problema esta en que el pivote −0, 01 es, en valor absoluto,

13Por supuesto que tal computadora es inadecuada y siempre tendremos una precisionmayor, pero este es un ejemplo cuyas cuentas podemos manipular en clase con facilidad yque nos permite poner en evidencia algunos problemas causados por la aritmetica de puntoflotante que usan las computadoras.

Page 127: Geometr´ıa y´Algebra Lineal 1:

124 CAPITULO 2

mucho mas chico que el coeficiente −3, 5 que queremos “hacer desaparecer”eneste paso de la escalerizacion. Esto es lo que lleva a utilizar un multiplicadorgrande.

La solucion pasa por escoger como pivote para la escalerizacion el numeroque tiene el mayor valor absoluto. En este caso usamos el −3, 5 que esta enla tercer fila, lo que implementamos por medio de un intercambio de filas.Naturalmente, esta operacion no altera las soluciones del sistema, por lo quepodemos continuar tranquilamente con nuestro proceso a partir de 1 1, 10 5, 0 0

0 −3, 50 1, 1 10 −0, 01 −3, 5 1

.

Con esta permutacion conseguimos que el factor que multiplica la segundafila sea 1/350, y el resultado que, en nuestra aritmetica de solo dos cifrassignificativas, arroja este nuevo paso en la escalerizacion es 1 1, 1 5, 0 0

0 −3, 5 1, 1 10 0, 0 −3, 5 1

.

Si escribieramos con algunas cifras mas verıamos alguna diferencia en la cuartafila de la matriz. Una mejor aproximacion es

( 0 0 −3, 503 0, 9971 ).

Al calcular las soluciones a partir de esta nueva forma escalerizada y con doscifras en la mantisa obtenemos

x1 ≈ 1, 8, x2 ≈ −0, 37, x3 ≈ −0, 28.

Este resultado coincide, dentro del margen de precision que estamos manejan-do, con la solucion correcta. El intercambio de filas, operacion a la que nosreferiremos con el nombre de pivoteo, permitio recuperar un valor cercano alverdadero.

Concluimos entonces que es necesario realizar esta operacion de pivoteopara evitar que en la eliminacion gaussiana aparezcan multiplicadores muygrandes. En general, digamos que es recomendable escoger en cada paso elpivote con el mayor valor absoluto posible. Observemos que esta operaciones inevitable cuando se emplea aritmetica exacta y alguno de los pivotes sehace cero. Cuando la aritmetica no es exacta los pivotes pequenos14 deben serevitados.

14Por supuesto que “pequeno” o “grande”son terminos relativos. Aquı “pequeno” significade un orden de magnitud mucho menor que las restantes entradas de la matriz que estanpor debajo del pivote en la misma columna.

Page 128: Geometr´ıa y´Algebra Lineal 1:

2.5 Determinantes 125

2.5 Determinantes

IntroduccionEn 1678, el matematico aleman Gottfried Wilhelm Leibnitz concibe la ideadel determinante para resolver el problema de la reduccion del numero deincognitas de un sistema de ecuaciones lineales, pero no sera hasta 1693 cuan-do formaliza este concepto en su Teorıa de los Determinantes. El termino de-terminante aparece tardıamente en 1815 en las obras del matematico francesAgoustin Cauchy, y el sımbolo escogido para su notacion en 1841, en las obrasdel matematico ingles Arthur Cayley, quien al interesarse por estos conceptosen sus trabajos sobre la Teorıa de Invariantes, introduce el concepto de Ma-triz. ”No he obtenido ciertamente la nocion de matriz de ninguna manera delos cuaterniones; fue mas bien a partir de un determinante o como una ma-nera comoda de expresar las ecuaciones”. Desarrollando el Algebra Matriciala partir del concepto de matriz, y deshechando el concepto imperante hastaese entonces, en que se concebıa la matriz como algo asociado al determinan-te. Entonces, hasta hace unos ochenta anos, los determinantes parecıan masinteresantes e importantes que las propias matrices de las que provenıan. Sinembargo, la matematica cambia de direccion y ahora los determinantes estanlejos del centro de interes del algebra lineal. Es por ello que el tratamiento quedaremos aquı sera bastante breve. Definiremos el determinante a partir de trespropiedades basicas, de las cuales se derivaran las otras. Antes de comenzar,mencionaremos algunos de los principales usos hoy dıa de los determinantes:

(1) El determinante de A es igual al volumen del paralelepıpedo o caja Pen el espacio n-dimensional, donde las aristas de P vienen de las filas de lamatriz A. Este volumen juega un papel importante en los teoremas de cambiode variable para integrales de los cursos de Calculo. El problema de integraren una cierta region se convierte en integrar en otra region, y el cambio de va-riables es la funcion que nos lleva de una a otra. El determinante de una ciertamatriz asociada a la funcion que hace el cambio de variables es quien controlael cambio en la medida de la region original, cuando esta es transformada enla otra, de modo tal que ambas integrales sean iguales.

Page 129: Geometr´ıa y´Algebra Lineal 1:

126 CAPITULO 2

(2) Proporciona criterios de invertibilidad. El determinante de A es cero,si y solo si A es singular (no invertible). La aplicacion mas importante deeste criterio se da en el estudio de los valores y vectores propios. Aplicado a lafamilia de matrices A−λI (sustraemos el parametro λ a lo largo de la diagonalprincipal de A), el problema es encontrar aquellos valores de λ (los valorespropios o autovalores), para los cuales A− λI es singular. El criterio paraello es ver si el determinante de de esta matriz es cero o no.(3) El determinante mide la dependencia de x = A−1b respecto de b. Sicambiamos un parametro en un experimento o se corrige una observacion, el” coeficiente de influencia”en x = A−1b sera un cociente de determinantes.

2.5.1 Definicion y propiedades del determinante

Definiremos el determinante como una funcion que asocia a cada matriz cua-drada A un numero real, el det(A). Esta funcion cumplira ciertas propiedadesque se listan a continuacion, siendo las tres primeras las fundamenta-les (las siete restantes se deducen de ellas). Dichas propiedades se ilustraranmediante un ejemplo 2x2. Para quienes ya hayan visto el tema, encontraranque la definicion familiar en el caso 2x2,

det

(a bc d

)=∣∣∣∣ a b

c d

∣∣∣∣ = ad− bc

posee todas las propiedades de la lista. Hay dos notaciones aceptadas para eldeterminante de A : det(A) o |A|.Comenzaremos ilustrando con un ejemplo sencillo, el origen del determinante,y luego veremos cuales son las propiedades verdaderamente esenciales que lodefinen.Vamos a resolver por escalerizacion un sistema de dos ecuaciones con dosincognitas:

ax + by = ecx + dy = f

o, en notacion matricial, (a bc d

)(xy

)=(

ef

)Supongamos que a 6= 0, entonces restamos a la segunda ecuacion un multiplode la primera (el multiplo es c/a), obteniendo

ax + by = e

(d− bca )y = f − (c/a)e

Page 130: Geometr´ıa y´Algebra Lineal 1:

2.5 Determinantes 127

La ultima ecuacion puede ponerse como ad−bca y = af−ce

a , asumiendo quead− bc 6= 0, podemos despejar y, obteniendo:

y = (af−ce)(ad−bc) =

∣∣∣∣∣∣ a ec f

∣∣∣∣∣∣∣∣∣∣∣∣ a bc d

∣∣∣∣∣∣Sustituyendo el valor de y en la primera ecuacion, despejamos x, obteniendo:

x = (ed−fb)(ad−bc) =

∣∣∣∣∣∣ e bf d

∣∣∣∣∣∣∣∣∣∣∣∣ a bc d

∣∣∣∣∣∣Si llamamos X a la matriz

(e bf d

)e Y a la matriz

(a ec f

)entonces

podemos escribir:

x = det(X)det(A) y = det(Y )

det(A)

Este resultado se conoce como la regla de Cramer.

2.5.2 Las propiedades basicas de los determinantes

Comencemos con las tres propiedades que definen al determinante:1. El determinante es una funcion lineal de la primera fila. Esto significaque si las matrices A,B C son identicas a partir de la segunda fila, y laprimera fila de A es una combinacion lineal de las primeras filas de B y C,entonces el det(A) es la misma combinacion del det(B) y det(C). Como lascombinaciones lineales incluyen tanto la multiplicacion por un escalar como lasuma de vectores, esto expresa dos reglas en una:∣∣∣∣ a + a′ b + b′

c d

∣∣∣∣ = (a + a′)d− (b + b′)c =∣∣∣∣ a b

c d

∣∣∣∣+ ∣∣∣∣ a′ b′

c d

∣∣∣∣∣∣∣∣ ta tbc d

∣∣∣∣ = tad− tbc = t

∣∣∣∣ a bc d

∣∣∣∣Observacion Debemos insistir en que esta regla es completamente distintade det(B + C) = det(B) + det(C), la cual es falsa . Se permite que varıesolo una fila.2. El determinante cambia de signo cuando se intercambian dos filas

Page 131: Geometr´ıa y´Algebra Lineal 1:

128 CAPITULO 2∣∣∣∣ c da b

∣∣∣∣ = cb− ad = −∣∣∣∣ a b

c d

∣∣∣∣Se sigue que no hay nada especial acerca de la primera fila en la regla numero1; puede intercambiarse por cualquier otra, e intercambiarse de regreso, demodo que el determinante es una funcion lineal de cada fila por separado.3. El determinante de la matriz identidad vale 1. Esta condicion solo norma-liza el valor; como el determinante de una matriz es un numero real, esta reglaelige uno de ellos.4. Si dos filas de A son iguales, entonces det(A) = 0.∣∣∣∣ a b

a b

∣∣∣∣ = ab− ba = 0

Esto se sigue de la regla 2, ya que si se intercambian dos filas iguales, se suponeque el determinante debe cambiar de signo. Pero el determinante debe ser elmismo, ya que la matriz es la misma. El unico numero real que puede serigual a su opuesto es el cero, ası que det(A) = 0.5. La operacion elemental de sustraer de una fila el multiplo de otra no alterael determinante ∣∣∣∣ a−mc b−md

c d

∣∣∣∣ = ∣∣∣∣ a bc d

∣∣∣∣−m

∣∣∣∣ c dc d

∣∣∣∣Por la regla anterior, el segundo sumando vale cero.6. Si A tiene una fila cero, entonces det(A) = 0∣∣∣∣ 0 0

c d

∣∣∣∣ = 0

Una demostracion es anadir alguna otra fila a la fila cero. Por 5) el deter-minante no se altera, y como ahora la matriz tiene dos filas iguales, por 4,det(A) = 0.7. Si A es triangular, entonces det(A) es el producto a11.a22...ann de los ele-mentos de la diagonal principal. En particular, si A tiene unos en la diagonalprincipal, det(A) = 1 ∣∣∣∣ a b

0 d

∣∣∣∣ = ad,

∣∣∣∣ a 0c d

∣∣∣∣ = ad.

Demostracion Supongamos que las entradas de la diagonal son distintas decero. Entonces, mediante operaciones elementales podemos eliminar todas lasentradas fuera de la diagonal principal (escalerizar la matriz), sin cambiar eldeterminante (por 5). Estas operaciones nos dejan con la matriz diagonal

Page 132: Geometr´ıa y´Algebra Lineal 1:

2.5 Determinantes 129

D =

a11

a22

···

ann

(Esta es la eliminacion usual si A es triangular inferior; si A es triangularsuperior entonces se restan de cada fila multiplos de las filas inferiores). Paraencontrar el determinante de D aplicamos reiteradamente la segunda partede la regla 1); factorizando cada aii obtendremos la matriz identidad cuyodeterminante conocemos:

det(D) = a11a22... anndet(I) = a11a22... ann

Notemos que si algun elemento de la diagonal es cero, entonces det(A) = 0 (Aes singular). La regla siguiente nos dice algo mas.8. Si A es singular, entonces det(A) = 0. Si A es no singular, entoncesdet(A) 6= 0 ∣∣∣∣ a b

c d

∣∣∣∣ es singular si y solo si ad− bc = 0

Si A es singular, entonces operaciones elementales nos conduciran a una ma-triz U con una fila igual a cero. Entonces, por 5) y 6), det(A) = det(U) = 0.Supongamos por otro lado, que A es no singular. Entonces, mediante ope-raciones elementales e intercambio de filas, podremos llegar a una triangularsuperior U con las entradas de la diagonal principal distintas de cero. Por laspropiedades 2) y 7), tenemos que det(A) = ±det(U) = ±d1d2... dn, donde losdi son los pivotes de la escalerizacion (y por tanto no nulos). El signo mas omenos dependera si el intercambio de filas efectuado fue par o impar.9. Para dos matrices cuadradas de igual tamano, el determinante del productoes el producto de los determinantes, esto es, det(AB) = det(A)det(B).∣∣∣∣ a b

c d

∣∣∣∣ ∣∣∣∣ e fg h

∣∣∣∣ = ∣∣∣∣ ae + bg af + bhce + dg cf + dh

∣∣∣∣Esto es lo mismo que

(ad− bc)(eh− fg) = (ae + bg)(cf + dh)− (af + bh)(ce + dg)

En particular, si A es invertible, entonces det(A)det(A−1) = det(AA−1) =det(I) = 1, luego det(A) = 1/det(A). En primer lugar, veamos el caso sin-gular: Si A o B son singulares, entonces AB tambien lo es, y tendremos por

Page 133: Geometr´ıa y´Algebra Lineal 1:

130 CAPITULO 2

8) det(A)det(B) = 0x0 = det(AB) = 0. Si A y B son no singulares, unademostracion de la propiedad es la siguiente: Comencemos por suponer queA es una matriz diagonal. Entonces det(AB) = det(A)det(B) por la regla1), factorizando cada uno de los elementos Aii de la diagonal, de su fila. Parauna matriz en general A, la reducimos a una diagonal D mediante una serie deGauss-Jordan de pasos de eliminacion: primero de A a U mediante la sucesionusual y despues de U a D haciendo que cada fila opere en las filas superiores(escalerizamos hacia arriba). El determinante no cambia, excepto por el signocuando se intercambian dos filas. Los mismos pasos reducen AB a DB conexactamente el mismo efecto en el determinante. Pero ya vimos que la regla9) es correcta para el producto DB, porque D es diagonal.Otra demostracion posible (y que queda como ejercicio), es la siguiente: consi-deremos la cantidad f(A) = det(AB)/det(B). Puede probarse que cumple conlas propiedades 1),2) y 3). Entonces, como dichas propiedades definen al deter-minante, f(A) debe ser igual a det(A). Entonces det(A) = det(AB)/det(B),de donde det(A)det(B) = det(AB).10 det(AT ) = det(A). ∣∣∣∣ a b

c d

∣∣∣∣ = ∣∣∣∣ a cb d

∣∣∣∣De nuevo, el caso singular es aparte; A es singular si y solo si AT lo es, ytenemos 0 = 0. Si A es no singular, entonces admite la factorizacion PA =LDU , donde ahora U tiene unos en la diagonal principal (el resto es como laU de la escalerizacion gaussiana). Aplicando la regla 9) para el determinantedel producto:

det(P )det(A) = det(L)det(D)det(U)

Transponiendo PA = LDU tendremos AT P T = UT DT LT , y aplicando denuevo la regla 9):

det(AT )det(P T ) = det(UT )det(DT )det(LT )

Ahora bien, como L,LT , U, UT son triangulares con diagonal unitaria, susdeterminantes valen uno, por la regla 7). Ademas cualquier matriz diagonales igual a su transpuesta : D = DT . De modo que solamente falta probarque det(P ) = det(P T ). Es claro que det(P ) = ±1, dado que proviene de lamatriz identidad mediante intercambio de filas. Observemos que PP T = I(ejercicio), por lo que det(P )det(P T ) = 1, de modo que ambos determinantesvalen 1 o ambos valen -1. Esto completa la prueba de esta ultima propiedad.Observacion: Esta ultima propiedad nos dice que en todo el desarrollo anterior,

Page 134: Geometr´ıa y´Algebra Lineal 1:

2.5 Determinantes 131

podemos poner ”columna”donde dice ”fila”, dado que trabajar con las filas deA es lo mismo que trabajar con las columnas de AT

Ejercicios1) ¿Como son los det(2A), det(−A); dte(A2) respecto a det(A) ?2) Calcular ∣∣∣∣∣∣∣∣

1 2 −2 02 3 −4 1−1 −2 0 2

0 2 5 3

∣∣∣∣∣∣∣∣ y

∣∣∣∣∣∣∣∣2 −1 0 0−1 2 −1 0

0 −1 2 −10 0 −1 2

∣∣∣∣∣∣∣∣3) Una matriz antisimetrica es la que cumple −A = AT . Mostrar quedet(A) = 0, comparandolo con det(AT ) y det(−A). ¿Por que una matrizantisimetrica con n impar debe tener determinante cero, pero una con n parno?4) Encontrar los determinantes de:(a) La matriz producto 1

42

( 2 −1 2)

de rango uno.(b) La matriz triangular superior

U =

4 4 8 80 1 2 20 0 2 60 0 2 3

(c) La matriz triangular inferior UT

(d) La matriz inversa U−1

(e) La matriz ”triangular contraria”que resulta del intercambio de filas :

M =

0 0 2 20 0 2 60 1 2 24 4 8 8

5) Si Q es una matriz ortogonal (sus columnas forman un conjunto ortonormal,o lo que es lo mismo, QT Q = I), probar que det(Q) = ±1. ¿Que clase deparalelepıpedo se forma con las filas (o columnas) de Q?

Page 135: Geometr´ıa y´Algebra Lineal 1:

132 CAPITULO 2

2.5.3 Aplicaciones

El volumen de un paralelepıpedo. Vamos a probar que el determinane de unamatriz representa el volumen de la caja o paralelepıpedo cuyas aristas son lasfilas de la matriz. Comencemos por el caso mas simple en el que todos losangulos son rectos, esto es las aristas l1, l2, ..., ln son perpendiculares entre sı,con lo cual tendremos una caja. Entonces el volumen es el producto de laslongitudes de las aristas: V ol = l1l2...ln. Ahora bien, si cada arista li es lai-sima fila de una matriz A, li = (ai1, ai2, ..., ain), entonces el que todas lasfilas sean perpendiculares se traduce en

AAT =

a11 · · · a1n

an1 · · · ann

a11 an1

· ·· ·· ·

a1n ann

=

l211 0 0

· 0·

0 ·0 0 l2nn

Las l2i son las longitudes de las filas (aristas), y los ceros fuera de la diagonalse obtienen porque las filas son ortogonales. Tomando los determinantes yusando las reglas 9 y 10, tendremos

l21l22... l2n = det(AAT ) = det(A)det(AT ) = (det(A)2).

La raız cuadrada de esta ecuacion es lo que buscamos: el determinante esigual al volumen. El signo del determinane indica cuando las aristas formanun sistema derecho u positivamente orientado, como el sistema usual x, y, z; oun sistema izquierdo o negativamente orientado, como y, x, z.Si las aristas no son perpendiculares, entonces el volumen ya no es el productode las longitudes de las aristas. Ilustraremos con un ejemplo 2x2: En elplano (ver figura), el volumen (area) de un paralelogramo es igual a la basel1 por la altura h. El vector pb de longitud h es el vector de la segunda filaOb = (a21, a22), menos su proyeccion Op sobre la primera fila. El punto clavees este: por la propiedad 5) del determinante, el det(A) no se altera si se sustraede la segunda fila un multiplo de la primera. Ademas, el volumen no se alterasi cambiamos un rectangulo de base l1 y altura h. Podemos volver ası al casorectangular, donde ya vimos que volumen=determinante. En n dimensionesrequiere mas trabajo hacer de cada paralelepıpedo una caja rectangular, pero

Page 136: Geometr´ıa y´Algebra Lineal 1:

2.5 Determinantes 133

la idea es la misma. Ni el volumen ni el determinante cambian cuando para lasfilas 2,3,...,n, de una en una vamos sustrayendo de cada fila su proyeccion sobreel espacio generado por las filas anteriores, dejando ası un ”vector altura”comoel vector pb que sea perpendicular a la base. El resultado de este proceso deGram-Schmidt es un conjunto de filas ortogonales entre sı, pero con el mismodeterminante y el mismo volumen que el conjunto original. Como volumen =determinante en el caso ortogonal, deberemos tener la misma igualdad para lasfilas originales. Visto esto, volvamos de nuevo al caso mas sencillo. Sabemosque

det[

1 00 1

]= 1, det

[1 0c 1

]= 1

Estos determinantes dan los volumenes (areas) de los paralelepıpedos dibuja-dos en la figura de abajo. El primero es un cuadrado unitario, de area uno. Elsegundo es un paralelogramo de base unitaria y altura unitaria, sin importarel ”cizallamiento”producido por el coeficiente c, su area tambien vale uno.

Page 137: Geometr´ıa y´Algebra Lineal 1:

134 CAPITULO 2

Page 138: Geometr´ıa y´Algebra Lineal 1:

Capıtulo 3

Geometrıa

135

Page 139: Geometr´ıa y´Algebra Lineal 1:

136 CAPITULO 2

ESTA INTRODUCCION REQUIERE UNA REVISION PROFUNDA, YSU ADAPTACION A LOS NUEVOS CONTENIDOS DEL CAPITULO DEGEOMETRIA

El proposito del presente capıtulo -y del capıtulo denominado Producto Es-calar y Vectorial- es dar una presentacion sucinta de la Geometrıa Analıtica delEspacio, que permita trabajar matematicamente con los objetos del espacioambiente. En un sentido muy vago y deliberadamente informal entendemospor tal al modelo espacial en que transcurren la mayorıa de los fenomenosanalizados por la Mecanica y otras teorıas cientıficas Clasicas. Estas teorıasse refieren a los acontecimientos mas o menos directamente percibidos por losseres humanos.

Esta presentacion incluira la formalizacion del concepto de vector que ellector conoce de sus cursos de Nivel Secundario. Por un lado, en los cursosde Geometrıa ha trabajado con las traslaciones que, como recordara, estandeterminadas por vectores. En general el vector se define en esos cursos comouna clase de equivalencia de segmentos orientados con la misma direccion,sentido y congruentes (dos figuras son congruentes si se corresponden por unaisometrıa).

Por otro lado, en Fısica ha trabajado con ciertas “magnitudes” (fuerza,velocidad, aceleracion, etc.) llamadas “vectoriales”. Estas se distinguen cla-ramente de otras llamadas “escalares” (masa, temperatura, etc.) porque lasultimas quedan determinadas por un unico dato numerico, en cambio las pri-meras requieren mas informacion para caracterizarlas: “modulo”, “direccion”y “sentido”. Las magnitudes vectoriales se representan ademas graficamentemediante una “flecha” y a pesar de las diferencias que ya marcamos con los“escalares” tienen algo en comun: con ambos se realizan operaciones. Porejemplo cuando se aplican dos fuerzas ~F1 y ~F2 sobre un mismo cuerpo el resul-tado es el mismo que si se aplicara una unica fuerza ~Fr con modulo, direcciony sentido igual a la diagonal del paralelogramo de lados ~F1 y ~F2 (ver figura??).

ACA HAY UNA FIGURASe dice entonces que

~Fr = ~F1 + ~F2

o que ~Fr es la resultante de ~F1 y ~F2, de este modo la “suma de vectores” cobrasentido. Si ~F1 = ~F2 entonces ~Fr = 2 ~F1 con lo cual tambien cobra sentido lamultiplicacion de escalares por vectores.

Nuestra intencion es introducir el concepto de “vector” de una maneramas rigurosa y utilizarlo para desarrollar algunas aplicaciones a la GeometrıaAnalıtica del Espacio. Al mismo tiempo queremos destacar que este concepto

Page 140: Geometr´ıa y´Algebra Lineal 1:

2.5 Determinantes 137

de vector servira de fuente de inspiracion para uno de los objetos fundamenta-les de este curso. Mas adelante daremos una definicion mas general y abstrac-ta de vector perteneciente a un espacio vectorial con multiples aplicacionesdentro y fuera de la matematica. Este tipo de procesos de generalizacion desdeejemplos hacia conceptos abstractos permite dar un tratamiento unificado amultiples objetos a menudo de apariencia disımil pero con propiedades esen-ciales comunes. Para poder hacerlos se debe estudiar con cuidado los ejemplossencillos tratando de destacar estas propiedades.

Page 141: Geometr´ıa y´Algebra Lineal 1:

138 CAPITULO 3

3.1 Rectas y planos en el espacio

En esta seccin comenzamos la presentacion de un modelo1 para la geometradel plano y del espacio. Tal como explicabamos en la introduccion a estecapıtulo, construiremos este modelo a partir de los espacios vectoriales R2 yR3, y el objetivo de esta seccion es presentar los objetos que seran las rectasy los planos de nuestra geometrıa.

Ejercicio 3.1. PONER UN EJERCICIO QUE EXPLICITE LA RELACION DELA GEOMETRIA DE EUCLIDES CON LO QUE AQUI ESTAMOS HACIENDO.

3.1.1 Puntos

Los puntos de nuestra geometrıa seran elementos de R3, o R2, cuando que-ramos hacer geometrıa plana. En lo que sigue centraremos nuestra atencionen el caso de R3, porque nos interesa enfatizar la geometrıa del espacio, perodejaremos para el lector una serie de ejercicios en los que se construira la geo-metrıa del plano. Hasta ahora hemos enfatizado la estructura vectorial de R3.Lo que ocurre es que cada vector fija un punto al dar el vector diferencia conel origen. Usaremos indistitamente las ternas para fija puntos o direcciones,en nuestra presentacion puntos y vectores se confunden. Explicar mejor esto.

3.1.2 Rectas

Definiremos las rectas a partir de la idea de que para especificar una rectatenemos que dar dos puntos diferentes, o equivalentemente, un punto en elespacio y la direccion que corresponde a la recta. Especificaremos entoncesun punto P = (p1, p2, p3) por el que la recta pasa, y un vector v = (v1, v2, v3)

1Vale la pena aclarar el significado que tiene en esta frase la palabra modelo, y la relacioncon la presentacion que de la geometrıa hace Euclides en sus elementos. Acotemos que estapresentacion, con variantes y simplifaciones varias, es la que habitualmente se toma comobase en los cursos de geometrıa del bachillerato. En el desarrollo de la geometrıa de Euclideslos puntos y las rectas jamas son definidos, no importa en realidad que tipo de objetos sean(mas alla de que al trabajar en un problema de geometrıa todos pensemos en terminos derepresentaciones de los puntos y las rectas), sino las relaciones entre ellos, que forman partede los axiomas. Por ejemplo,por dos puntos pasa una unica recta, dos rectas no paralelasse cortan en un unico punto, etcetera. En nuestra presentacion los puntos seran elementosde R2 o R3, y definiremos las rectas (tambien los planos). Todos los conceptos que en lageometrıa de Euclides aparecen incorporados en los axiomas seran objetos de definicionesen nuestra teorı. No habra conceptos primitivos sin definicion, todo sera construido a partirde los numeros reales. Sin embargo, nuestra geometrıa no se apartara ni un apice de lageometrıa euclideana: los objetos que introduciremos satisfacen todos los axiomas de esageometrıa (ver el ejercicio 3.1).

Page 142: Geometr´ıa y´Algebra Lineal 1:

3.1 Rectas y planos 139

distintos del vector nulo que da la direccion. Cualquier otro punto Q que estesobre la recta estara caracterizado por la propiedad de que la diferencia Q−Pes colineal con el vector v, por lo que existira algun numero real λ tal queQ−P = λv, por lo que Q admite una expresion de la forma Q = P +λv. Estadiscusion es la que resumimos en nuestra proxima definicion.

Definicion 3.1. Dados un punto P y un vector no nulo v en R3 la recta rque pasa por P y tiene direccion paralela a v es el conjunto

r = {P + λv; λ ∈ R}

Llamaremos al vector v un vector director de la recta r.

Ejemplo 3.1.1. poner una recta, un punto que este en ella y otro que no

Esta representacion de una recta como el conjunto de puntos de la formaP + λv puede escribirse en coordenadas en terminos de lo que llamaremosecuaciones parametricas de una recta r. Si un punto Q = (x, y, z) ∈ r entoncesdebe satisfacerse

Q = P + λv

para algun valor de λ. Escribiendo los vectores coordenada a coordenada, estacondicion se traduce en que x, y, y z deben satisfacer, para algun valor de λlas ecuaciones

x = p1 + λv1,y = p2 + λv2,z = p3 + λv3.

(3.1)

Ejemplo 3.1.2. Reescribir el ejemplo anterior en terminos de ecuaciones pa-rametricas.

Observacion 3.1.3. Parametrizacion= un modo de recorrer la recta. Laanalogıa cinematica. Hay muchas parametrizaciones, ası como hay muchasmaneras de recorrer un camino dado. Dar dos ejemplos distintos de parame-trizaciones para la recta del ejemplo anterior. En particular, si v es un vectordirector de r entones cualquier vector no nulo y paralelo a v es un vector di-rector. Dada una recta, cada terna de ecuaciones reducidas forma en realidadunas ecuaciones reducidas para la recta. Una posibilidad entre un conjuntoinfinito de posibilidades.

Ejercicio 3.2. ?’Como pueden describirse todas las posibles parametrizaciones deuna recta r dada? ♠

Ejercicio 3.3. Decidir si dos rectas son la misma o no

Page 143: Geometr´ıa y´Algebra Lineal 1:

140 CAPITULO 3

Ejercicio 3.4. Mostrar que dados dos puntos P y Q en R3 distintos hay una unicarecta que pasa por P y Q.

El problema de saber si un punto Q = (x, y, z) esta en la recta r que quedadefinido por las ecuaciones parametricas 3.1 puede resolverse para cada punto,buscando si existe o no existe un valor de λ que las satisfaga. Pero tambienpodemos buscar una condicion explıcita sobre (x, y, z) que nos permita sabersi Q esta o no esta en la recta. Observemos que el problema que estamostratando puede ser formulado en terminos de la compatibilidad de un sistemade ecuaciones lineales cuya incognita es λ. Por supuesto, el sistema no es otroque

v1λ = x− p1,v2λ = y − p2,v3λ = z − p3,

que es una reformulacion mas o menos obvia de (3.1), ahora escritas conel aspecto habitual de nuestros sistemas de ecuaciones. Es posible inclusoescribirlo en la notacion matricial del capıtulo 1, en la que la incognita λ noaparece, como v1 x− p1

v2 y − p2

v3 z − p3

.

Este sistema puede ser estudiado por el metodo de escalerizacion. Para lasternas (x, y, z) que vuelven el sistema compatible encontraremos un valor de λque satisface las ecuaciones parametricas (3.1), y el punto Q = (x, y, z) estaraen la recta. Que el sistema sea incompatible significa que Q no pertenece a r.El proceso dependera de los valores de v1, v2 y v3. Hemos supuesto que algunode estos numeros es distinto de cero, para que el vector (v1, v2, v3) definieraalguna direccion el espacio. Para continuar con esta discusion supongamosque v1 6= 0. Al escalerizar el sistema obtenemos v1 x− p1

0 v1(y − p2)− v2(x− p1)0 v1(z − p3)− v3(x− p1)

,

que nos dice que existe una unica solucion λ = (x−p1)/v1 para aquellos puntoscuyas coordenadas (x, y, z) satisfagan el par de condiciones de compatibilidad{

−v2x + v1y = v1p2 − v2p1

−v3x + v1z = v1p3 − v3p1(3.2)

Este par de ecuaciones, a las que llamaremos ecuaciones reducidas o implıcitases otra manera de especificar la recta. Veamos todo esto en un ejemplo.

Page 144: Geometr´ıa y´Algebra Lineal 1:

3.1 Rectas y planos 141

Ejemplo 3.1.4. escribir el ejemplo anterior en terminos de las ecuacionesreducidas.

Hemos encontrado entonces otra manera de especificar una recta: en terminode dos ecuaciones lineales independientes. Resumimos ese resultado en terminosde la siguiente proposicion.

Proposicion 3.1. El conjunto solucion de un sistema AX = B, donde A esuna matriz 2 × 3 de rango 2 es una recta r ⊂ R3. Reciprocamente, cualquierrecta contenida en R3 puede expresarse como el conjunto solucion de un sistmaAX = B.

Demostracion: Si A tiene rango 2 entonces el nucleo de A tiene di-mension 1, y cualquier solucon X de AX = B pueden excribirse en la formaXP + XGH , donde XP es una solucion cualquiera de AX = B y XGH esta enel nucleo de A. Como el nucleo de A tiene dimension 1 una base del nucleoestara formada por un unico vector v, y XGH puede escribirse en la formaXGH = λv para algun valor de λ. Si llamamos lisa y llanamente P a la solu-cion particular XP , encontramos que el conjunto solucion de AX = B es dela forma

X = P + λv, λ ∈ R,

que es la forma generica de los puntos de la recta que pasa por P y tienedireccion paralela al vector v.

Recıprocamente, el analisis que hicimos de las ecuaciones (3.1) hasta llegara las ecuaciones reducidas (3.2) muestra que cualquier recta puede escribirsecomo el conjunto solucion de un sistema de dos ecuaciones y tres incognitas.Este sistema es justamente (3.2). Solo nos falta verificar que el rango de lamatriz del sistema es dos. La matriz es(

−v2 v1 0−v3 0 v1

)que tiene rango dos, porque las columnas segunda y tercera generan todo R2

(recordemos que estamos haciendo el analisis bajo la hipotesis de que v1 6= 0.El caso en que v1 = 0 y alguno de los numeros v2 o v3 es no nulo se trataexactamente igual).

Observacion 3.1.5. No unicidad de las ecuaciones reducidas. DESARRO-LLAR ESTA OBSERVACION En la observacion 3.1.12 analizamos esta nounicidad desde un punto de vista geometrico.

Page 145: Geometr´ıa y´Algebra Lineal 1:

142 CAPITULO 3

Al expresar una recta como la solucion de un sistema AX = B aparecionnaturalmente el hecho de que las soluciones de un sistema lineal pueden ex-presarse como la suma de una solucion particular (uno de los puntos de larecta) mas la solucion general del sistema homogeneo, que no es otra cosa queel nucleo de la matriz. En el caso de las rectas el nucleo A tiene dimension1. Por lo tanto, una recta no es otra cosa que el conjunto de puntos que seobtiene sumando a un punto dado P todos los vectores de un subespacio dedimension 1 de R3. Un subespacio S de dimension 1 de R3 puede visualizarsecomo una recta que pasa por el origen. Al sumar a cada vector de S el puntoP estamos trasladando este subespacio hasta P , y obtenemos asi la recta quepasa por P y tiene direccion determinada por el subespacio S, paralela a cual-quier vector no nulo de S. Como decıamos, el conjunto suma de P y S es facilde describir como el conjunto que se obtiene sumando P a todos los elementosde S. En general, por este procedimiento es posible definir la suma P + S deun elemento P ∈ R3 y un subconjunto S ⊂ R3 cualesquiera. La definicion seextiende de forma completamente natural a cualquier espacio Kn, por lo quela daremos en este contexto.

Definicion 3.2. Suma de un elemento de Kn con un subconjunto deKn. Dados P ∈ Kn y un subconjunto S ⊂ Kn definimos el conjunto suma

P + S = {P + s ∈ Kn; s ∈ S},

que es el conjunto de todos los elementos de Kn que pueden escribirse comola suma de P con algun elemento de S.

El efecto de sumar P es el de trasladar el conjunto S segun el vector P .

Ejemplo 3.1.6. El conjunto solucion de un sistema lineal AX = B, es elconjunto X0+ker(A), donde X0 es una solucion particular cualquiera, y ker(A)el nucleo de la matriz A.

El intervalo (4, 6) es igual a la suma 5+(−1, 1) en R. En general, cualquierentorno (x− ε, x + ε) de un punto es igual a x + (−ε, ε). ♣

Las consideraciones que acabamos de hacer sobre las rectas se resumen enla proxima proposicion.

Proposicion 3.2. Cualquier recta r puede escribirse como la suma P + S deP ∈ R3 y un subespacio S ⊂ R3 de dimension 1. Recıprocamente, la sumaP + S de un punto P ⊂ R3 define una recta.

Demostracion: Una recta r es el conjunto de puntos de la forma P +λv,con λ ∈ R. Si llamamos S al subespacio generado por v entonces S tienedimension 1 y r = P + S.

Page 146: Geometr´ıa y´Algebra Lineal 1:

3.1 Rectas y planos 143

Si S es un subespacio de dimension 1 entonces tiene una base {v} formadapor un unico vector no nulo. Cualquier punto de S es de la forma λv, paraalgun valor real de λ y el conjunto P + S es justamente la recta que pasa porP y tiene vector director v.

Esta ultima proposicion da un sentido preciso a la idea de que una rectaes un objeto que tiene una dimension. La dimension de una recta es 1 en elsentido de la dimension de los subespacios vectoriales de R3, porque una rectano es otra cosa que el resultado de trasladar a un punto cualquiera del espacioR3 un subespacio vectorial de R3 que tiene dimension 1. En nuestra proximaseccion veremos como introducir los planos en R3 con el mismo tipo de ideas ytecnicas que acabamos de usar. La unica diferencia sera la dimension, porquelos planos son objetos que tiene 2 dimensiones.

3.1.3 Planos

Introduciremos ahora los planos en R3. Las ideas que manejaremos son muysimilares a las de la seccion dedicadas a las rectas, pero la diferencia es que losplanos seran objetos con dos dimensiones. Quedaran especificados entoncespor un punto P y dos vectores u y v no paralelos, o por tres puntos P , Q yR que no esten alineados. Esta segunda manera de determinar un plano sereduce en realidad a la primera, porque podemos basarnos en el punto P y losdos vectores u = Q−P , v = R−P , que no son paralelos si P , Q y R no estanalineados.

ACA VA UNA FIGURA

Entonces, un plano π quedara completamente especificado si damos unpunto P = (p1, p2, p3) contenido en π, y dos vectores u = (u1, u2, u3), v =(v1, v2, v3) no colineales. Cualquier otro punto Q ∈ π estara caracterizado porla propiedad de que la diferencia Q−P puede escribirse como una combinacionlineal de los vectores u y v que determinan las direcciones paralelas al plano.Nuestra proxima definicion precisa estas nociones. Notemos que es muy similara la definicionEn otras palabras colineal con el vector v, por lo que existiraalgun numero real λ tal que Q−P = λv, por lo que Q admite una expresion dela forma Q = P + λv. Esta discusion es la que resumimos en nuestra proximadefinicion.

Definicion 3.3. Dados un punto P y dos vectores u y v no colineales de deR3 el plano π que contiene a P y tiene direccion paralela a los vectores u y ves el conjunto

r = {P + λu + νv; λ, ν ∈ R}

Page 147: Geometr´ıa y´Algebra Lineal 1:

144 CAPITULO 3

Diremos que el par (u, v) es un par de vectores directores del plano π.

Ejemplo 3.1.7. poner un plano, un punto que este en ella y otro que no

Esta definicion tambien da lugar a ecuaciones parametricas para el planoπ, de la forma

x = p1 + λu1 + νv1,y = p2 + λu2 + νv2,z = p3 + λu3 + νv3.

(3.3)

Ejemplo 3.1.8. Reescribir el ejemplo anterior en terminos de ecuaciones pa-rametricas.

Ejercicio 3.5. Decidir si dos planos son la misma o no

Ejercicio 3.6. Mostrar que dados tres puntos P , Q y R no alineados en R3 distintoshay un unico plano que los contiene.

Tambien para los planos la condicion de pertenencia de un punto Q =(x, y, z) puede expresarse en terminos de un conjunto de ecuaciones sobre lascoordenadas de Q que aseguran la compatibilidad del sistema (3.3). En vezde hacer las cuentas tratemos de deducir como tienen que ser estas ecuacio-nes. Una vez fijado Q = (x, y, z) el problema de decidir si las ecuacionesparametricas (3.3) tienen solucion consiste en estudiar la compatibilidad deesas ecuaciones, vistas como un sistema lineal con incognitas λ y ν. La matrizdel sistema tiene como columnas a los vectores u y v, no colineales, por lo quesu rango es 2. La forma escalerizada tendra entonces una fila de ceros, por loque las coordenadas (x, y, z) tendran que satisfacer una unica ecuacion linealpara que el sistema sea compatible. Esta ecuacion es lo que llamaremos unaecuacion reducida del plano π. Mostramos a continuacion como pasar de lasecuaciones parametricas a una ecuacion reducida, y viceversa, en el proximoejemplo.

Ejemplo 3.1.9.

Por supuesto, para los planos vale una caracterizacion similar a la quevimos para las rectas.

Proposicion 3.3. El conjunto solucion de una ecuacion lineal ax+by+cz = d,donde alguno de los numeros a, b o c es distintos de cero, es un plano π ⊂ R3.Reciprocamente, cualquier plano contenido en R3 puede expresarse como elconjunto solucion de una unica ecuacion lineal con alguno de los coeficientesa, b o c es no nulo.

Page 148: Geometr´ıa y´Algebra Lineal 1:

3.1 Rectas y planos 145

Demostracion: No es ninguna perdida de generalidad suponer que a 6= 0.Entonces las soluciones de la ecuacion pueden expresarse parametricamentecomo

x = d/a− (b/a)λ− (c/a)ν,y = λ,z = ν,

que es la expresion parametrica del plano que pasa por el punto ∗(d/a, 0, 0),y tiene como vectores directores el par {(−b/a, 1, 0), (−c/a, 0, 1)}. Este pa-ra de vectores es linealmente independiente, por lo que estas ecuaciones sonefectivamente las ecuaciones parametricas de un plano de R3.

Para mostrar que cualquier plano puede expresarse por una ecuacion re-ducida volvamos sobre las ecuaciones (3.3) y observemos que la existenciade una solucion (λ, ν) para estas ecuaciones es equivalente a que el vector(x − p1, x − p2, x − p3) pueda escribirse como una combinacion lineal de losvectores linealmente independientes u = (u1, u2, u3) y v = (v1, v2, v3). Vi-mos en la seccion de determinantes una sencilla condicion analıtica para estoAGREGAR EL CALCULO EN LA SECCION DE DETERMINANTES, YAGREGAR AQUI LA REFERENCIA, que es

0 =

∣∣∣∣∣∣x− p1 x− p2 x− p3

u1 u2 u3

v1 v2 v3

∣∣∣∣∣∣ =∣∣∣∣ u2 u3

v2 v3

∣∣∣∣ (x−p1)−∣∣∣∣ u1 u3

v1 v3

∣∣∣∣ (x−p2)+∣∣∣∣ u1 u2

v1 v2

∣∣∣∣ (x−p3).

(3.4)Esta condicion es una ecuacion lineal en (x, y, z), con alguno de sus coeficientesdistintos de cero.

Observacion 3.1.10. La ecuacion (3.4) tiene un importante significado geometricoque discutiremos con detalle en la seccion ??, pero que vale la pena ir adelan-tando. El vector

n =(∣∣∣∣ u2 u3

v2 v3

∣∣∣∣ , ∣∣∣∣ u1 u3

v1 v3

∣∣∣∣ , ∣∣∣∣ u1 u2

v1 v2

∣∣∣∣)es un vector no nulo, perpendicular a los dos vectores u = (u1, u2, u3) y v =(v1, v2, v3) que especifican la direccion del plano π. El vector n es entoncesperpendicular a todas las combinaciones lineales de u y v, que son justamentetodas las direcciones paralelas a π. Este vector es perpendicular a π, y diremosque es un vector normal a π. La ecuacion (3.4) es en realidad una condicionde perpendicularidad entre el vector n y (x−p1, y−p2, z−p3) que caracterizaa los puntos de π como aquellos puntos (x, y, z) cuyo vector diferencia con unpunto dado P en π es perpendicular a n. ♠

Page 149: Geometr´ıa y´Algebra Lineal 1:

146 CAPITULO 3

Ejemplo 3.1.11. En este ejemplo deduciremos una ecuacion reducida para unplano que esta expresado en forma parametrica. Lo haremos por dos caminosdiferentes: calculando los coeficientes de la ecuacion con tres determinantes,como se hace en la demostracion de la proposicion 3.3, y tambien estudiandola compatibilidad de las ecuaciones parametricas por medido del algoritmo deeliminacion gaussiana, tal como hicimos para las rectas. DESARROLLAR ELEJEMPLO

Observacion 3.1.12. Las ecuaciones reducidas de las rectas forman un siste-ma con dos ecuaciones lineales. De acuerdo con lo que hemos aprendido acercade los planos en el espacio cada una de estas ecuaciones representa un plano.Los puntos que satisfacen ambas ecuaciones a la vez tienen que pertenecerentonces a los dos planos, por lo que las ecuaciones reducidas de las rectasadquieren un nuevo significado: expresan a la recta como la interseccion dedos planos. Naturalmente, dada una recta, hay infinitos pares de planos quela tienen como interseccion, lo que se refleja en que hay infinitas maneras derepresentar una recta por medio de ecuaciones reducidas.

Naturalmente, para los planos vale una proposicion analoga a la proposi-cion 3.2 acerca de las rectas. La unica diferencia es que el plano es un objetoque tiene dos dimensiones.

Proposicion 3.4. Cualquier plano π puede escribirse como la suma P + Sde P ∈ R3 y un subespacio S ⊂ R3 de dimension 2. Recıprocamente, la sumaP +S de un punto P ⊂ R3 y un subespacio S de dimension 2 define un plano.

Ejercicio 3.7. Dejamos al lector la demostracion de la proposicion 3.4.

3.1.4 Posiciones relativas de rectas y planos

Dos rectas en el espacio pueden coincidir, ser paralelas, cortarse en un puntoo cruzarse. Dos planos en el espacio pueden coincidir, ser paralelos o cortarseen una recta. Una recta y un plano pueden ser paralelos, cortarse en unpunto o la recta estar incluıda en el plano. Utilizaremos la representacion derectas y planos como la suma de un punto y un subespacio para definir lanocion de paralelismo. Esta representacion ofrece tambien una herramientautil para analizar las posiciones relativas de rectas y planos, algo que puedeser estudiando a partir de las ecuaciones (parametricas o reducidas) que losdefinen. Comenzamos dando algunas definiciones.

Definicion 3.4. Paralelismo de rectas y planos

Page 150: Geometr´ıa y´Algebra Lineal 1:

3.1 Rectas y planos 147

Consideremos dos rectas ri = Pi + Si, y dos planos πi = Qj + Tj, i = 1, 2,donde Pi, Qi ∈ R3, i = 1, 2, S1 y S2 son subespacios de dimension 1 de R3, yT1 y T2 son subespacios de dimension 2 de R3. Entonces diremos que

• las rectas r1 y r2 son paralelas si S1 = S2;

• los planos π1 y π2 son paralelos si T1 = T2;

• la recta r1 y el plano π1 son paralelos si S1 esta contenido en T1.

Definicion 3.5. Diremos que dos rectas en R3 son coplanares si existe unplano de R3 que las contiene a ambas.

Proposicion 3.5. 1. Si dos rectas son paralelas y tienen un punto en comunentonces coinciden;

2. si dos planos son paralelos y tienen un punto en comun entonces coin-ciden;

3. si una recta y un plano tiene un punto en comun y son paralelos entoncesla recta esta contenida en el plano.

LEMA: SE PUEDE PONER CUALQUIER PUNTO EN LA REPRESEN-TACION P + S DE UN PLANO O RECTADemostracion

1. USAR LEMA

2. IGUAL, USAR LEMA;

3. USAR LEMA, Y TAMBIEN SALE.

Proposicion 3.6. Posiciones relativas de rectasConsideremos dos rectas distintas, r1 y r2, contenidas en R3.

1. Si r1 y r2 son paralelas entonces no tiene ningun punto en comun yexiste un unico plano que las contiene a ambas;

2. si r1 y r2 tiene algun punto en comun entonces tiene solo uno, y existeun unico plano que las contiene a ambas;

3. si existe un plano que contiene a r1 y r2 entonces las rectas son paralelaso se cortan en un unico punto.

Demostracion

Page 151: Geometr´ıa y´Algebra Lineal 1:

148 CAPITULO 3

1. Si son paralelas y distintas no pueden tener ningun punto en comun.Dos puntos de una recta y un punto de otra determinan un plano. Cual-quier plano que las contenga contiene esos mismos tres puntos, y estacompletamene determinado, por un RESULTADO PREVIO DE QUETRES PUNTOS DETERMINAN UN UNICO PLANO.

2. POR RESULTADO PREVIO, SI TIENE MAS DE UN PUNTO ENCOMUN COINCIDEN, ENTONCES TIENE A LO SUMO UNO. HAYTRES PUNTOS NO ALINEADOS ... SE HACE IGUAL QUE LA AN-TERIOR.

3. SI NO SON PARALELAS EL SISTEMA DE ECUACIONES TIENEMATRIZ DE RANGO DOS, Y POR LO TANTO HAY SOLUCIONUNICA.

Si dadas dos rectas r1 y r2 en R3 existe un plano que las contiene a ambasdiremos que las rectas son coplanares. La proposicion 3.6 implica que dosrectas coplanares son paralelas (en particular, podrıan coincidir), o se cortanen un unico punto. Cabe la posibilidad de que dadas dos rectas no existaningun plano que las contenga a ambas, en este caso diremos que son nocoplanares, o que se cruzan.

Proposicion 3.7. • Si dos planos no son paralelos entonces su intersec-cion es una recta.

• Si una recta y un plano no son paralelos entonces su interseccion es ununico punto.

LEMA: DOS PLANOS PARALELOS TIENEN ECUACIONES CON COE-FICIENTES PROPORCIONALES.

VER QUE PRUEBAS DAR DE LAS PROPOSICIONES, Y COMO OR-DENARLAS ... ESTARAN ESENCIALMENTE BASADAS EN EL RANGOY EN EL ESTUDIO DE LOS SISTEMAS LINEALES.

A continuacion analizamos en una serie de ejemplos las posiciones relativasde rectas y planos.

PONER EJEMPLOS Y EJERCICIOS EN LOS QUE SE MANIPULENECUACIONES PARAMETRICAS Y REDUCIDAS.

Page 152: Geometr´ıa y´Algebra Lineal 1:

3.2 Producto escalar en R3 149

3.2 Producto escalar: distancias y angulos en R3

En la seccion 3.1 hemos introducido los conceptos de recta y plano a partirde la estructura lineal de R3. En esta seccion vamos a introducir una medi-da de la distancia entre puntos y la longitud de vectores. La distancia queintroduciremos modela la distancia a la que estamos habituados en el mundocotidiano para las escalas del orden de metros en las que solemos modernos yen la que el teorema de Pitagoras es valida.

Comenzaremos discutiendo nuestra definicion en terminos de la longitudde vectores. Recordemos que una terna X = (x1, x2, x3) puede ser pensadacomo un vector, con origen en el origen del sistema de coordenadas (0, 0, 0),o como fijando la posicion de un punto en el espacio. Concetremosnos en elpunto de vista de mirar a X como un vector. Definiremos entonces su longitudo modulo |X| por medio de la formula

|(x1, x2, x3)| =√

x21 + x2

2 + x23. (3.5)

Observacion 3.2.1. Si pensamos en ejes perpendiculares se corresponde conpitagoras ... todavıa no tiene sentido la nocion de perpendicularidad COM-PLETAR ESTA OBSERVACION ♠

Podemos pensar que la longitud del vector (x1, x2, x3) es justamente ladistancia del punto de coordenadas (x1, x2, x3) al origen, y extender esta ideaa dos puntos cualesquiera del espacio, definiendo la distancia entre X e Y comola longitud del vector diferencia X − Y . Si X = (x1, x2, x3) e Y = (y1, y2, y3)tendremos entonces

d (X, Y ) = |X − Y | =√

(x1 − y1)2 + (x2 − y2)2 + (x3 − y3)2. (3.6)

En la formula (3.6) esta encerrada toda la informacion necesaria para hacer untratamiento analıtico de la geometrıa del plano y del espacio, introduciendonociones geometricas en R2 y R3. Para motivar nuestra construccion recu-rriremos al teorema del coseno, una extension del teorema de Pitagoras quedice

c = a2 + b2 − ab cos θ.

En el triangulo determinado por los vectores X e Y este teorema deberıa decir

|X − Y |2 = |X|2 + |Y |2 − 2|X||Y | cos θ. (3.7)

El cuadrado |X − Y |2 es relativamente facil de calcular. Vamos a la formula(3.6) y obtenemos

|X − Y |2 = (x1 − y1)2 + (x2 − y2)2 + (x3 − y3)2.

Page 153: Geometr´ıa y´Algebra Lineal 1:

150 CAPITULO 3

Desarrollando los cuadrados del miembro de la derecha obtenemos

|X − Y |2 = x21 + x2

2 + x23 + y2

1 + y22 + y2

3 − 2 (x1y1 + x2y2 + x3y3) ,

en la que reconocemos

|X − Y |2 = |X|2 + |Y |2 − 2 (x1y1 + x2y2 + x3y3) .

Comparando esta ultima expresion con (3.7) reconocemos que para que losteoremas usuales de la geometrıa plana sean validos la expresion x1y1 +x2y2 +x3y3 debe ser igual a |X||Y | cos θ, el producto de las longitudes de los vectorespor el coseno del angulo que forman. Sorprendentemente, la sencilla expresionalgebraica x1y1 + x2y2 + x3y3 parece tener un significado geometrico muyimportante. Efectivamente es asi, y toda la geometrıa de R3 esta encerradaen esa sencilla cuenta, al punto de que la pondremos en el centro de nuestrateorıa. Observe ademas el lector que en nuestro enfoque algebraico la nocionde angulo todavıa carece de sentido. Solo nos hemos valido de ella apoyadosen la intuicion y en nuestra imagen de los elementos de R3 como coordenadasreferidas a un sistema ortogonal. Pero estas nociones son en realidad ajenas anuestra teorıa, son una interpretacion que le damos, lo mismo que podrıamospensar (y ya lo haremos) que los numeros x1, x2 y x3 son los precios de tresproductos. Cualquier afirmacion acerca de los precios puede ser una buenaguıa para nuestra intuicion, pero no nos permitira demostrar nada, porque noha sido definida dentro de nuestra teorıa, que, de momento, solo contiene listasde tres numeros, y las rectas y planos que introdujimos en la seccion 3.1. Lomismo que con los precios ocurre con la nocion de angulo entre dos vectores deR3: son un concepto que no hemos definido (aunque nos estamos acercando auna definicion). Sin embargo, la expresion x1y1 + x2y2 + x3y3 tiene completosentido para nosotros, porque xi e yi, i = 1, 2, 3, son numeros reales, y podemosmultiplicarlos y sumarlos. Tomaremos esta expresion entonces como punto departida, e iremos construyendo desde esa base las nociones geometricas. Enparticular, encontraremos como el calculo de la longitud de un vector es uncaso particular de esta expresion.

Definicion 3.6. Producto escalar en R3

Dados dos vectores X = (x1, x2, x3) e Y = (y1, y2, y3) en R3 definimos suproducto escalar X · Y por la expresion

X · Y = x1y1 + x2y2 + x3y3. (3.8)

Observemos que

X ·X = x21 + x2

2 + x23 = |X|2,

Page 154: Geometr´ıa y´Algebra Lineal 1:

3.2 Producto escalar en R3 151

por lo que|X| =

√X ·X

y encontramos que el modulo de un vector puede calcularse a partir del pro-ducto escalar. Por lo tanto tambien las distancias en R3 son magnitudes quepueden calcularse a partir del producto escalar. Tal como anunciabamos antes,todas las nociones de la geometrıa iran apareciendo a partir de este producto.Le toca ahora a la nocion de angulo. Naturalmente, retomando la discu-sion que precedio a la introduccion del producto escalar, buscaremos definirel angulo θ entre dos vectores no nulos X e Y de forma tal que el productoescalar X ·Y = x1y1 +x2y2 +x3y3 sea igual a |X||Y | cos θ. Queremos imponerentonces

|X||Y | cos θ = X · Y,

lo que implica que necesariamente debe ser

cos θ =X · Y|X||Y |

. (3.9)

En general habra infinitas elecciones posibles de θ. Pero daremos un valorentre (−pi, pi]. Todavıa queda cierta ambiguedad, porque cos α = cos(−α) ybien podrıamos escoger un angulo o su opuesto. Elegir un angulo negativosolo tendrıa sentido si tuvieramos algun criterio para dar signo al angulo, yentonces tomar el positivo cuando el angulo esta en el sentido positivo de giroy el negativo en caso contrario. No hay una forma de asignar esta orientacionen el espacio, ni tampoco tendrıamos razon para preferir alguna en caso de quepudieramos hacerlo, de modo que convendremos en no tomar valores negativospara el angulo θ. Por lo tanto escogeremos θ en el intervalo [0, π]. Todoslos posibles valores del coseno se alcanzan cuando dejamos variar θ en esteintervalo, y se alcanzan solo una vez. De modo que una vez fijado el valor delcos θ ∈ [−1, 1] el de θ estara determinado.

Pero, ?’sera posible dar tal definicion? Para que se pueda hacer todo estoes necesario que el cociente en el segundo miembro de (3.9) este definido ypertenezca al intervalo [−1, 1]. Ademas, ?’la definicion arrojara como resultadoel valor que uno espera del angulo entre vectores? Para considerar la segundapregunta podemos examinar algun ejemplo, y ver si la definicion arroja unresultado razonable.

Ejemplo 3.2.2. Consideremos X = (√

3, 1, 0) y determinemos los valores quela formula (3.9) arrojarıa para el angulo con los tres vectores coordenados ei,i = 1, 2, 3, que tienen un 1 en la posicion i y ceros en las restantes. Comen-cemos por observar que |X| =

√3 + 1 + 0 = 2. Los vectores e1 tienen modulo

Page 155: Geometr´ıa y´Algebra Lineal 1:

152 CAPITULO 3

1, por lo que el producto de los modulos es igual a 2 en todos los casos. Losproductos escalares dan

X · e1 =√

3, X · e2 = 1, X · e3 = 0.

Los angulos θi entre X y ei deben satisfacer entonces

cosθ1 =√

3/2, cosθ2 = 1/2, cosθ3 = 0,

de lo que deducimos

θ1 = π/6, θ2 = π/3, θ3 = π/2.

Estos valores sugieren que la definicion de angulo que estamos buscando esrazonable.

Ejercicio 3.8. Hallar el valor que correspondorıa al angulo entre (1, 1, 0) y (1, 0, 0).♣

Nos falta verificar ahora que la definicion que estamos buscando es posible.Lo primero que necesitamos es poder dividir entre el producto |X||Y |, y paraello es necesario que los modulos de X e Y sean no nulos. Esta condiciones equivalente a que X e Y sean distintos del vector nulo, que es el unicoque tiene modulo cero. Por lo tanto, solo podremos definir el angulo entredos vectores cuando ambos sean distintos del vector nulo. Esto parece muyrazonable, ya que no es posible asociar ninguna direccion al vector nulo, yesto inhabilita definir el angulo que este vector forma con cualquier otro. Eneste razonamiento hicimos uso de una propiedad que dejamos como ejerciciopara el lector, junto con la verificacion de otra sencillas, pero fundamentales,propiedades del producto escalar.

Ejercicio 3.9. Indicaremos con X, Y y Z vectores de mathbbR3, y con α un numeroreal cualquiera. Verificar que

• |X| ≥ 0 y |X| = 0 si y solo si X es el vector nulo;

• (X + Y ) · Z = X · Z + Y · Z;

• (αX) · Y = αX · Y ;

• X · Y = Y ·X.

Ejercicio 3.10. A partir de las propiedades del ejercicio anterior concluir que |X +Y |2 = |X|2 + |Y |2 + 2X · Y

Vamos a mostrar ahora una desigualdad que asegura que para dos vectoresX e Y no nulos el cociente X · Y/(|X||Y |) esta en el intervalo [−1, 1].

Page 156: Geometr´ıa y´Algebra Lineal 1:

3.2 Producto escalar en R3 153

Proposicion 3.8. Desigualdad de Cauchy-Schwarz en R3 Sean X e Ydos vectores de R3. Entonces

|X · Y | ≤ |X||Y |. (3.10)

Ademas, la igualdad en (3.10) se alcanza si y solo si X e Y son colineales.VER SI SE LA JERGA ”COLINEALES”SE DEFINIO ANTES.

Demostracon. Consideremos la longitud de la diferencia entre X y unvector de la forma λY , donde λ es un numero real cualquiera. Esta longituddependera de λ, sera siempre mayor o igual que 0 y alcanzara su valor mınimoen el valor de λ que hace que λY sea la proyeccion de X sobre la direccion deY . La demostracion se reduce a considerar ese valor de λ. Definimos entonces

φ(λ) = |X − λY |2

Usando el resultado del ejercicio 3.10 obtenemos

φ(λ) = |X|2 + |λY |2 − 2X · (λY ) = λ2|Y |2 − 2λX · Y ) + |X|2.

Para buscar el valor mınimo de esta expresion calculamos la derivada respectoa λ que es

φ′(λ) = 2λ|Y |2 − 2X · Y.

Si |Y | 6= 0 entonces enλm = X · Y/|Y |2

la funcion φ alcanza su mınimo. Este valor mınimo es mayor o igual que cero,porque la funcion φ no puede tomar valores negativos, y es igual a

φ(λm) = |X|2 − (X · Y )2

|Y |2≥ 0. (3.11)

De aquı se desprende inmediatamente la desigualdad (3.10) en el caso |Y | 6= 0.Siempre bajo la hipotesis |Y | 6 0 notemos que hay igualdad en (3.10) si y

solo si hay igualdad en (3.11). Por lo tanto, si se satisface la igualdad en (3.10)entonces 0 = φ(λm) = |X − λmY |, lo que implica X = λmY .

Por otra parte, si X e Y son colineales y ademas Y 6 0, se satisface queX = λY para algun valor de λ. En ese valor de λ la diferencia Y − λX esigual al vector nulo, y la funcion φ se anula. Por lo tanto alcanza su mınimoque es cero, hay igualdad en (3.10), y de allı se deduce la igualdad en (3.10).

Hemos completado entonces la prueba de la proposicion cuando Y 6= 0. Elcaso Y = 0 es muy sencillo. Si Y = 0 tenemos X · Y = 0, independientementede cual vector sea X, por lo que se satisface la igualdad en (3.10). Ademas,los vectores X e Y son colineales.

Page 157: Geometr´ıa y´Algebra Lineal 1:

154 CAPITULO 3

Definicion 3.7. Angulo entre vectores no nulos de R3

Dados dos vectores no nulos X e Y en R3 definimos el angulo θ entre elloscomo el unico numero real θ ∈ [0, π] tal que

X · Y = |X||Y | cos θ.

su producto escalar X · Y por la expresion

X · Y = x1y1 + x2y2 + x3y3. (3.12)

Observacion 3.2.3. El producto escalar y sus extensiones las pro-piedades que lo caracterizan ejemplos la geometria que se deria del productointerno ♣

Observacion 3.2.4. El modulo y sus extensiones1) ‖v‖ ≥ 0; ‖v‖= 0 si y solo si v= 0.2) ‖av‖ = |a| ‖v‖ para todo a ∈ R y para todo v ∈ V3) ‖u + v‖ ≤ ‖u‖+ ‖v‖, para todo u, v ∈ V

3.2.1 Perpendicularidad

Definicion 3.8. Dos vectores u, v se dicen ortogonales si u .v = 0.

Teorema de pitagorasBASE ORTONORMALUna base

{−→i ,−→j ,−→k}

(a partir de aquı no escribiremos la flecha −→. ) sedice ortogonal si i · j = i · k = j · k = 0. La base se dice ortonormal siademas de ser ortogonal verifica que ‖i‖ = ‖j‖ = ‖k‖ = 1.

Page 158: Geometr´ıa y´Algebra Lineal 1:

3.3 Rectas y planos: perpendicularidad y paralelismo 155

3.3 Rectas y planos: perpendicularidad y paralelis-mo

3.3.1 Las ecuaciones de los planos

Ya vimos que toda ecuacion de la forma ax + by + cz + d = 0 representaun plano y recıprocamente. Suponiendo que el sistema de coordenadas seaortogonal volveremos a obtener esa ecuacion y mostraremos que en ese casose puede obtener mas informacion de esta ecuacion.

Sea {O, i, j, k} un sistema ortogonal de coordenadas, P0 = (x0, y0, z0) unpunto de un plano π y n = ai + bj + ck 6= 0 un vector de la direccion deuna perpendicular a π (para abreviar diremos que n es un vector normal a π).Entonces, para todo P ∈ π, P = (x, y, z), vale n · (P − P0) = 0, de aquıresulta:

a (x− x0) + b (y − y0) + c (z − z0) = 0

Esta es entonces la ecuacion del plano dado por un punto y la direccionde la normal. Es claro que esa ecuacion tambien se escribe en la forma: ax +by + cz + d = 0.

Recıprocamente, dada una ecuacion ax+by+cz+d = 0, con a2+b2+c2 6= 0(por ejemplo, c 6= 0), resulta : ax + by + c

(z + d

c

)= 0. Si el sistema de

coordenadas es ortogonal esto equivale a:

(av1 + bv2 + cv3) .

(xv1 + yv2 +

(z +

d

c

)v3

)= 0.

Poniendo P = (x, y, z), P0 = (0, 0,−d/c) y n = av1 + bv2 + cv3, esta ecuacionse escribe: n. (P − P0) = 0. Por tanto, es la ecuacion del plano perpendiculara π por P0.

3.3.2 proyecciones

Diremos que v es un versor si ‖v‖ = 1. Para todo v 6= 0 se tiene que v‖v‖ es

un versor pues∥∥∥ v‖v‖

∥∥∥ = 1‖v‖ ‖v‖ = 1.

AGREGAR: Distancia de un punto a una recta:f ) Distancia de un punto a un plano: Definimos la distancia d (Q, π)

de Q al plano π como el mınimo de d(Q,P) donde P ∈ π. Es claro que elmınimo de d(Q,P) se obtiene cuando P=P1=π∩r, donde r es la perpendicular

Page 159: Geometr´ıa y´Algebra Lineal 1:

156 CAPITULO 4

FIGURA

a π por Q. Luego : d (Q, π) = d (Q,P1) =∣∣∣(Q− P0) . n

‖n‖

∣∣∣ , siendo P0 un puntocualquiera del plano π.

Como la ecuacion del plano es (P − P0) .n = 0, esto significa que d seobtiene reemplazando P por O=(0,0,0) en el primer miembro de la ecuaciondel plano.

Consideremos ahora un sistema ortonormal de coordenadas. Si P0 =(x0, y0, z0), Q = (x, y, z), P = (x, y, z), n = ai + bj + ck entonces:

(Q− Po) · n = a (x− xo) + b (y − yo) + c (z − zo) = ax + by + cz + d.

Luego : d (Q, π) =∣∣∣(Q− P0) . n

‖n‖

∣∣∣ = ∣∣∣ax+by+cz+d√a2+b2+c2

∣∣∣a ) condicion para que dos planos sean paralelos: ax+by+cz+d = 0

y a′x + b′y + c′z + d′ = 0 son paralelos si y solo si a′ = λa, b′ = λb, c′ = λcpara algun λ ∈ R, (λ 6= 0).

b ) condicion para que una recta y un plano sean paralelos: Dadosel plano y la recta de ecuaciones ax + by + cz + d = 0 y x−x0

p = y−y0q = z−z0

r ,son paralelos si y solo si pa + qb + rc = 0, pues esto significa que n.v = 0 ,donde n es normal al plano y v es un vector de la direccion de la recta.

c ) angulo entre dos planos: Para dos vectores cualesquiera, u 6= 0,v 6= 0, tenemos u.v

‖u‖.‖v‖ = cos θ. Como el angulo θ entre dos planos es igual alque forman sus vectores normales respectivos, tendremos: cos θ = n1.n2

‖n1‖ ‖n2‖donde n1 y n2 son vectores normales a esos planos: luego el angulo θ entre losplanos de ecuaciones ax+by+cz+d=0 y a’x+b’y+c’z+d’=0 verifica:

cos θ =aa′ + bb′ + cc′

√a2 + b2 + c2.

√a′2 + b′2 + c′2

d ) Angulo de una recta con un plano: Sean n un vector normal alplano y v un vector de la direccion de la recta . El angulo del plano con larecta es entonces θ = π/2 − ϕ donde ϕ es el angulo determinado por n y v.Luego el angulo de ax+by+cz+d =0 con x−x0

p = y−y0q = z−z0

r se puede calcularmediante:

sen θ = cosϕ =ap + bq + cr

√a2 + b2 + c2

√p2 + q2 + r2

Page 160: Geometr´ıa y´Algebra Lineal 1:

3.3 Rectas y planos: perpendicularidad y paralelismo 157

e ) Angulo de dos rectas: El angulo θ de x−x0p = y−y0

q = z−z0r con

x−x1p′ = y−y1

q′ = z−z1r′ se calcula mediante la formula

cos θ =pp′ + qq′ + rr′√

p2 + q2 + r2√

p′2 + q′2 + r′2.

Page 161: Geometr´ıa y´Algebra Lineal 1:

158 CAPITULO 3

3.4 Producto vectorial.

Consideremos la terna ordenada de vectores de V , {−→i ,−→j ,−→k }, que constituye

una base de V . Estas las vamos a clasificar en dos grupos: uno formado por lasternas {i, j, k} tales que para un observador parado en v3, la rotacion de anguloconvexo (o sea, de medida < π) que lleva i en j es de sentido antihorario; elotro formado por las ternas en las que esa rotacion tiene sentido horario.

FIGURA

Para definir el producto vectorial necesitamos elegir uno de los dos tiposcomo terna preferida. Nos quedaremos para esto con las ternas del primertipo que llamaremos positivas.

Esta convencion sirve para definir el producto vectorial como una funcionde V ×V en V (ası como el producto escalar era una funcion de V ×V en R)que a cada par de vectores v, w le asocia un vector, que denotaremos v ∧ w,que cumple:a) ‖v ∧ w‖ = ‖v‖ . ‖w‖ .sen θ (θ angulo de v con w )b) (v ∧ w) .v = 0 y (v ∧ w) .w = 0c) Si v 6= 0 y w 6= 0 la terna {v, w, v ∧ w} es positiva.

Propiedades:1) ‖v ∧ w‖ es el doble del area del triangulo determinado por esos vectores.2) v ∧ w = 0 si y solo si v y w son colineales (en particular, si alguno de

ellos es el vector 0).3) Respecto de la condicion c) de la definicion, corresponde observar que

si v ∧ w 6= 0 la terna {v, w, v ∧ w} es una base, pues por b) esos vectores noson coplanares salvo que v y w sean colineales, en cuyo caso v ∧ w = 0

4) v ∧ w = − (w ∧ v) ( en particular , esta operacion no es conmutativa)Para verificar esto basta notar que si para cierto observador la rotacion delangulo < π que lleva v en w es de sentido antihorario, para el mismo observadorla que lleva w en v es de sentido horario. De modo que el observador debeubicarse del lado opuesto del plano u,w para que esa rotacion aparezca desentido trigonometrico . Luego esa debe ser la ubicacion de w ∧ v para que laterna [w, v, w ∧ v] sea positiva.

FIGURA

Page 162: Geometr´ıa y´Algebra Lineal 1:

3.4 Producto vectorial 159

5) Este producto no es asociativo. Se puede deducir que:

(u ∧ v) ∧ w + (v ∧ w) ∧ u + (w ∧ u) ∧ v = 0

de donde, usando 4), (u ∧ v)∧w = u∧(v ∧ w)+v∧(w ∧ u), y como en generalv ∧ (w ∧ u) 6= 0, la propiedad asociativa no vale.

6) Para todo λ ∈ R: λ (v ∧ w) = (λv) ∧ w = v ∧ (λw). Esta propiedad sededuce directamente de la definicion en el caso λ ≥ 0. Para el caso λ < 0, hayque observar que del hecho que la terna {v, w, v ∧ w} es positiva se deduce que{−v, w,− (v ∧ w)} y{v,−w,− (v ∧ w)} son tambien positivas.

7) El producto vectorial es distributivo respecto de la suma de vectores.Esto es:a) (v1 + v2) ∧ w = v1 ∧ w + v2 ∧ w.

b) v ∧ (w1 + w2) = v ∧ w1 + v ∧ w2.

Para demostrar esta propiedad hacemos algunas observaciones previas. Enprimer lugar, observamos que llamando π al plano con vector normal v e in-dicando por p w la proyeccion de w sobre ese plano, y con r(pw) el vectorque se obtiene rotando esa proyeccion un angulo de medida π/2 en senti-do antihorario observado desde v, se verifica que: v ∧ w = ‖v‖ .r (pw) pues‖r (pw)‖ = ‖pw‖ = ‖w‖ .sen θ (ver figura)

FIGURA

Como p (w1 + w2) = pw1+pw2 y r (pw1 + pw2) = r (pw1)+r (pw2) tendre-mos que: v ∧ (w1 ∧ w2) = ‖v‖ .r (p (w1 + w2))= ‖v‖ .r (pw1) + ‖v‖ .r (pw2) =v ∧ w1 + v ∧ w2.

Ası se prueba b) y analogamente se obtiene a).8) Si {i, j, k} es una base ortonormal positiva de V , entonces:

i ∧ i = j ∧ j = k ∧ k = 0;i ∧ j = k; j ∧ k = i; k ∧ i = j

(es decir, en la sucesion (i, j, k, i, j, · · ·) el producto de dos vectores sucesivosda el que le sigue):

j ∧ i = −k, k ∧ j = −i; i ∧ k = −j

Page 163: Geometr´ıa y´Algebra Lineal 1:

160 CAPITULO 3

FIGURA

9) De 4.6), 4.7) y 4.8) resulta que si v = a1i+a2j+a3k y w = b1i+b2j+b3k.entonces:

v ∧ w = (a2b3 − a3b2) i− (a1b3 − a3b1) j + (a1b2 − a2b1) k.

Observese que este resultado puede recordarse pensando en el desarrollo porla primer fila de un determinante:∣∣∣∣∣∣

i j ka1 a2 a3

b1 b2 b3

∣∣∣∣∣∣ = (a2b3 − a3b2) i− (a1b3 − a3b1) j + (a1b2 − a2b1) k

Esta expresion del producto vectorial puede tambien tomarse como su defi-nicion. Mas precisamente, dada una terna ortonormal cualquiera {i,j,k} (po-sitiva o negativa), puede definirse el producto de dos vectores por la expre-sion dada en 4.9). Se comprueba entonces sin dificultad que el vector: u =(a2b3 − a3b2) i−(a1b3 − a3b1) j+(a1b2 − a2b1) k verifica ‖u‖ = ‖v‖ . ‖w‖ .sen θy u.v = u.w = 0. Si ademas {i, j, k} es una terna positiva puede verificarse,que {v, w, u} es tambien positiva. Luego u = v∧w , por lo tanto esta definicionde v ∧ w coincide con la inicial.

3.4.1 Aplicaciones geometricas.

a ) Distancia de un punto a una recta: sea r una recta dada por un puntoA y un vector v. La distancia de Q a r es:

d (Q, r) = |d (Q,A) .sen θ| = ‖AQ‖ .sen θ =‖AQ ∧ v‖‖v‖

FIGURA

Si A = (xo, yo, zo); Q = (x, y, z); v = ai + bj + ck entonces la distanciaes d(Q, r) =√

[(y − y0)c− (z − z0)b]2 + [(x− x0)c− (z − z0)a]2 + [(x− x0)b− (y − y0)a]2√a2 + b2 + c2

Page 164: Geometr´ıa y´Algebra Lineal 1:

3.4 Producto vectorial 161

Ejemplo 3.4.1. En el punto 3 de este capıtulo se vieron algunas superficies

de revolucion particulares. Sea r

{x = yz = 0

C :{

x = 0zy = 1

. Hallar la superficie

de revolucion de eje r y generatriz C.Las ecuaciones son:

x0 = 0, P0 ∈ Cz0y0 = 1, P0 ∈ Cx− x0 + y − y0 = 0, plano, π, por, P0⊥r

2z2 + (x− y)2 = 2z20 + (x0 − y0)

2 , dist (P, r) = dist (P0, r)

eliminando x0, y0, z0 resulta (x + y)2(z2 − 2xy

)= 1

b)Interseccion de dos planos no paralelos:

Sea r :{

ax + by + cz + d = 0a′x + b′y + c′z + d′ = 0

una recta (dada como interseccion

de dos planos no paralelos). Supongamos que queremos las ecuaciones pa-rametricas de esa recta, es decir, las de la forma: x = x0+λp, y = y0+λq, z =z0 + λr (o tambien P = P0 + λv). Para esto se necesita hallar un puntoP0 = (x0, y0, z0) de la recta y un vector v = p i + q j + r k de la direccion de r.Esto se puede hacer sin usar el producto vectorial, resolviendo el sistema de

ecuaciones {ax + by + cz + d = 0a′x + b′y + c′z + d′ = 0

Usando el producto vectorial: tomar P0 = (x0, y0, z0) una solucion particulardel sistema de ecuaciones. Si el sistema de coordenadas es ortogonal, entonces:n = ai + bj + ck y n′ = a′i + b′j + c′k son vectores normales a los planos, yentonces n∧n′ es un vector de la interseccion de ambos planos (luego, esta enla direccion de la recta de interseccion de ambos).

FIGURA

Luego: n ∧ n′= (bc′ − b′c) i− (ac′ − ca′) j + (ab′ − ba′) k es de la direccionde r.

c ) Distancia entre dos rectas: Se define la distancia d (r, r′) entre dosrectas r, r′ como el mınimo de d (P, P ′) donde P ∈ r y P ′ ∈ r′.

Es claro que este mınimo se obtiene cuando la recta PP ′ es perpendicularal mismo tiempo a r y a r′. Sea r dada por un punto A ∈ r y un vector v desu direccion y r′ por B ∈ r y un vector w.

Page 165: Geometr´ıa y´Algebra Lineal 1:

162 CAPITULO 3

Para tener d (r, r′): si r y r’ son paralelas: basta tomar el punto A y hallardist (A, r′); si r y r′ se cortan: d (r, r′)= 0.

FIGURAFIGURA

Supongamos ahora que r y r’ no son coplanares. Si s es la perpendicularcomun , Po = s ∩ r y P

′0 = s∩ r′, entonces: d (r, r′) = d

(P0, P

′0

)= d (A, π)

donde π es el plano paralelo a r que contiene a r’. (ver figura) . Como versorde la direccion de s puede tomarse n = v∧w

‖v∧w‖ . Luego :

d(r, r′

)= d (A, π) =

1‖v ∧ w‖

∣∣∣(v ∧ w) .−−→AB∣∣∣

FIGURA

d ) Perpendicular comun a dos rectas: Si las dos rectas son paralelas,una perpendicular comun es la recta perpendicular a una de ellas trazada porun punto de la otra. Si se interceptan , el problema es tambien facil de resolver.Supongamos ahora que las dos rectas no son coplanares. La perpendicularcomun s esta en el plano π de s y r, y en el π’ determinado por s y r′. Luegos = π ∩ π′. Dada la direccion v de r y la w de r’, y A ∈ r, B ∈ r′, el planoπ queda determinado por A,v y v ∧ w. El π’ por B,w,v ∧ w, pues v ∧ w es unvector de la direccion de s. Las ecuaciones de π y π’ ası obtenidas constituyenun par de ecuaciones que representan la recta s.

e ) Volumen de un tetraedro: Consideremos un tetraedro dado por susvertices A,B, C, D. Su volumen es V = 1

3 area de la base× altura. Tendremos:area base = 1/2 ‖(B −A) ∧ (C −A)‖.

FIGURA

Si n es el versor normal a la base, la altura es |n. (D −A)| con n =(B−A)∧(C−A)‖(B−A)∧(C−A)‖ . Luego V = 1/6. ‖(B −A) ∧ (C −A)‖ . |[(B−A)∧(C−A)].(D−A)|

‖(B−A)∧(C−A)‖

por lo que V = 1/6. |[(B −A) ∧ (C −A)] . (D −A)|

Page 166: Geometr´ıa y´Algebra Lineal 1:

3.4 Producto vectorial 163

3.4.2 Producto mixto

Es una operacion definida de V × V × V en R. Dados tres vectores u, v, y w,llamamos producto mixto al numero (v ∧ w) .u que indicamos v ∧w.u, o tam-bien u. (v ∧ w). Consideremos un sistema ortonormal {i, j, k} y sean:

v = a1i + a2j + a3k, w = b1i + b2j + b3k, u = c1i + c2j + c3k.

Entonces:

v ∧ w =∣∣∣∣ a2 a3

b2 b3

∣∣∣∣ i− ∣∣∣∣ a1 a3

b1 b3

∣∣∣∣ j +∣∣∣∣ a1 a2

b1 b2

∣∣∣∣ k.

v ∧ w.u =∣∣∣∣ a2 a3

b2 b3

∣∣∣∣ c1 −∣∣∣∣ a1 a3

b1 b3

∣∣∣∣ c2 +∣∣∣∣ a1 a2

b1 b2

∣∣∣∣ c3 =

∣∣∣∣∣∣c1 c2 c3

a1 a2 a3

b1 b2 b3

∣∣∣∣∣∣(Por desarrollo por la primer fila de ese determinante)

Usando el hecho de que si se permutan dos filas de una matriz entre sı eldeterminante solo cambia de signo, resulta que dos de esas permutaciones nocambian el determinante; luego:∣∣∣∣∣∣

c1 c2 c3

a1 a2 a3

b1 b2 b3

∣∣∣∣∣∣ =∣∣∣∣∣∣

b1 b2 b3

c1 c2 c3

a1 a2 a3

∣∣∣∣∣∣ =∣∣∣∣∣∣

a1 a2 a3

b1 b2 b3

c1 c2 c3

∣∣∣∣∣∣En consecuencia: (v ∧ w) .u = (u ∧ v) .w = (w ∧ u) .v. Es decir, que en lasucesion (u,v,w,u,v,w) el producto vectorial de dos vectores sucesivos multi-plicado escalarmente por el siguiente, da lo mismo cualesquiera sean los tresvectores sucesivos. Se puede entonces hablar del producto mixto de u, v, w sinindicar si se trata de (u ∧ v) .w o de u. (v ∧ w), pues el resultado es el mismo.Es por esto que se escribe (u,v,w) como notacion para (u ∧ v) .w = u. (v ∧ w).

Observamos que (v,w,u) = 0 si y solo si ang(v ∧ w, u) = π/2 o alguno de losvectores es el nulo. Como ang (v ∧ w, v) = ang (v ∧ w,w) = π/2 , para que(v,w,u) = 0 es necesario y suficiente que v, w y u sean coplanares. (Observeseque esto podrıa sacarse como conclusion del calculo del volumen del tetraedro.(v, w, u) = 0 si y solo si el volumen del tetraedro determinado por esos vectoreses 0, esto es equivalente a decir que los vectores son coplanares).

Esta condicion permite escribir la ecuacion vectorial del plano dado portres puntos A,B, C en otra forma. Decir que P pertenece a ese plano equivale

Page 167: Geometr´ıa y´Algebra Lineal 1:

164 CAPITULO 3

a decir que los vectores P − A,B − A y C − A son coplanares, o sea (P −A,B −A,C −A) = 0.

Pasando a coordenadas, si P=(x,y,z),A=(a1, a2, a3), B = (b1, b2, b3) y C =(c1, c2, c3) esta ecuacion se escribe:

∣∣∣∣∣∣x− a1 y − a2 z − a3

b1 − a1 b2 − a2 b3 − a3

c1 − a1 c2 − a2 c3 − a3

∣∣∣∣∣∣ = 0, o tambien:

∣∣∣∣∣∣∣∣x y z 1a1 a2 a3 1b1 b2 b3 1c1 c2 c3 1

∣∣∣∣∣∣∣∣ = 0.

Para ver esto observese que si se le resta la 2da. fila a la 1ra., la 3da. y la 4ta.filas, el determinante no cambia. Ası se tiene:∣∣∣∣∣∣∣∣

x− a1 y − a2 z − a3 0a1 a2 a3 1b1 − a1 b2 − a2 b3 − a3 0c1 − a1 c2 − a2 c3 − a3 0

∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣x− a1 y − a2 z − a3

b1 − a1 b2 − a2 b3 − a3

c1 − a1 c2 − a2 c3 − a3

∣∣∣∣∣∣ = 0.

Page 168: Geometr´ıa y´Algebra Lineal 1:

3.5 Curvas y superficies 165

COMENTARIOS PARA ESTA SECCION: ELIMINAR LA PARTE PE-SADA DE CALCULO DE ECUACIONES DE CONOS Y CILINDROS. DE-JAR UN EJEMPLO DE ECUACION DE CONO O DE CILINDRO, EN ELQUE SE VEA QUE ”ELIMINAR PARAMETROS”ES EN REALIDAD BUS-CAR LA CONDICION DE COMPATIBILIDAD. VINCULAR LAS IDEASDE PARAMETRIZACION Y ECUACIONES A LO QUE SE HIZO ANTESCON RECTAS Y PLANOS. ENFATIZAR LA IDEA DE PARAMETRIZA-CION (EJERCICIOS COMO EL DE ESCHER, O EL DE UBICAR PUNTOSGEOGRAFICOS EN UNA PANTALLA)

3.5 Curvas y superficies

a) Esferas de centro (x0, y0, z0) y radio r: En un sistema ortogonal decoordenadas la ecuacion es: (x− x0)

2 + (y − y0)2 + (z − z0)

2 = r2

b) Superficies de revolucion: Son las engendradas por una curva (ge-neratriz), que gira alrededor de una recta (eje).

Observacion 3.5.1. Una curva en el espacio puede darse:

- O bien en forma parametrica, por medio de tres ecuaciones de la formax = x (t)y = y (t)z = z (t)

t ∈ R

con tres funciones contınuas de un parametro real (para cada valor del parametrot se tendra un punto (x(t),y(t),z(t))=P(t) que esta en la curva).

FIGURA

- O bien en la forma reducida{

f (x, y, z) = 0g (x, y, z) = 0

Cuando se tienen las ecuaciones parametricas, a veces puede eliminarseel parametro t y obtenerse una forma reducida. Generalmente hay muchossistemas de ecuaciones posibles que representan a la misma curva.

Observacion 3.5.2. Una superficie en el espacio puede darse:- O bien en forma parametrizada, por medio de tres ecuaciones con dosparametros ( como la ecuacion parametrica del plano).- O bien en forma reducida por medio de una ecuacion del tipo: f(x, y, z) = 0.

Page 169: Geometr´ıa y´Algebra Lineal 1:

166 CAPITULO 3

Observacion 3.5.3. La curva C:{

f (x, y, z) = 0g (x, y, z) = 0

es la interseccion de dos

superficies S y S ’ donde S: f(x,y,z) = 0 y S’: g(x,y,z) =0.

Ecuacion de la superficie de revolucion con eje ~Oz Sea r el eje

r :{

x = 0y = 0

, y C la generatriz C:{

x = 0z = f (y)

FIGURA

La superficie de revolucion S esta constituida por todos los puntos P delespacio que cumplen, a la vez, dos condiciones:{

P ∈ π⊥ r por algun P0 ∈ Cd (P, r) = d (P0, r)

Las condiciones se traducen en:z − z0 = 0 P ∈ π⊥ , r, por P0

x0 = 0 P0 ∈ Cz0 = f (y0) P0 ∈ C√

x2 + y2 =√

x20 + y2

0, d (P, r) = d (P0, r)

de donde, eliminando x0, y0, z0 se obtiene: z = f(±√

x2 + y2).

Observacion 3.5.4. Dada una ecuacion F(x,y,z) = 0 no intentaremos, engeneral, reconocer si es o no una superficie de revolucion. Observaremos soloque si se halla una familia de planos paralelos ( es decir ax+by+cz+α = 0con (a, b, c) fijo y α variable ) que cumplan las condiciones de mas abajo,entonces F(x,y,z) = 0 es una superficie de revolucion que verifica (ver figura3.3):

i ) La interseccion{

F (x, y, z) = 0ax + by + cz + α = 0

es una circunferencia para

cada valor de α.ii) El centro de la circunferencia (xα, yα, zα) pertenece, para todo α, a una

recta fija r colineal al vector (a,b,c) (o sea perpendicular a la familia de planosparalelos ).

Page 170: Geometr´ıa y´Algebra Lineal 1:

3.5 Curvas y superficies 167

FIGURA

Ejemplo 3.5.5. Demostrar que xy+yz+zx = 7 es una superficie de revolucion.

Se puede escribir como: (x + y + z)2 −(x2 + y2 + z2

)= 14 Cortandola en

el plano:x + y + z + α = 0 se obtiene:{x + y + z + α = 0(x + y + z)2 −

(x2 + y2 + z2

)= 14

i ) Es una circunferencia porque es la interseccion de la esfera x2 +y2 +z2 =14 + α2 con el plano x + y + z + α = 0. ii ) El centro Cα de la circunferenciase halla trazando la perpendicular al plano x + y + z + α = 0 que pasa por elcentro de la esfera x2 + y2 + z2 = 14 + α2, o sea:

Cα =

x + y + z + α = 0x = y = z recta por (0, 0, 0)⊥al plano, x + y + z + α = 0

Cα =

x = −α/3y = −α/3z = −α/3

es una recta colineal al vector (−1/3,−1/3,−1/3) o sea, colineal con ( 1,1,1).♣

c ) Conos: Se llama “cono” o “superficie conica” de vertice V y directrizC ( donde V es un punto y C es una curva dada , tales que V/∈C ), a lasuperficie engendrada por todas las rectas que pasan por V y cortan a C.

FIGURA

Si V = (a, b, c) y C =

x = f (t)y = g (t)z = h (t)

La ecuacion parametrica del cono se puede obtener con los parametros t yλ como:

S =

x = a + λ ( f ( t) − a)y = b + λ ( g (t) − b )z = c + λ ( h (t) − c )

Para escribir la ecuacion reducida habra que eliminar los parametros t, λ,para obtener una ecuacion del tipo

Page 171: Geometr´ıa y´Algebra Lineal 1:

168 CAPITULO 3

F(x,y,z) = 0.

Ejemplo 3.5.6. Hallar las ecuaciones reducidas y parametrica del cono de

vertice V = (0, 0, 0) y generatriz

x = sen ty = cos tz = 1

. La ecuacion parametrizada

es:

x = λ sen ty = λ cos tz = 1 + λ

Despejando t y λ se obtiene la ecuacion reducida x2+y2 =

(z − 1)2. ♣

d ) Cilindros: Se llama “cilindro” o “superficie cilındrica” de directrizC y generatriz colineal al vector v = (a, b, c) a la superficie engendrada portodas las rectas colineales al vector v que cortan a la curva C.

FIGURA

Si v = (a, b, c) y C =

x = f (t)y = g (t)z = h (t)

Un punto P = (x, y, z) pertenece al

cilindro si y solo si existe algun punto P0 = (x0, y0, z0) tal que:{P0 ∈ CP ∈, recta por P0 colineal a v

. Entonces, las ecuaciones parametricas del cilindro son:

S =

x = f ( t) + λay = g (t) + λbz = h (t) + λc

de las que habra que eliminar los parametros t, λ, para obtener la ecuacionreducida del tipo F (x, y, z) = 0.

Observacion 3.5.7. La curva C tambien puede estar dada como

C :{

f (x, y, z) = 0g (x, y, z) = 0

en cuyo caso se trabajara analogamente , pero con un parametro menos.

Page 172: Geometr´ıa y´Algebra Lineal 1:

3.5 Curvas y superficies 169

Observacion 3.5.8. Una ecuacion F (x, y, z) = 0 en la que no figura la va-riable z, por ejemplo, representa un cilindro de generatrices colineales con eleje Oz. Si P0 = (x0, y0, z0) verifica la ecuacion F (x0, y0, z0) = 0, entoncestomando x = x0, y = y0, z = z0 +λ (eso es la recta por Po colineal con (0,0,1)), se tiene F (x0, y0, z0 + λ) = F (x0, y0, z0) = 0 porque F es, en realidad, in-dependiente de z. O sea: cuando Po esta en la superficie, toda la recta porla colineal al eje Oz tambien la esta.

Ejemplo 3.5.9. x2 + y2 = 4 es un cilindro con generatrices paralelas al eje

Oz y directriz, por ejemplo, en la circunferencia{

x2 + y2 = 4z = 0

FIGURA