Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios...

94
“MatI” — 2018/3/6 — 17:00 — page 281 — #297 Capítulo 5 Valores y vectores propios Reproducirse, ¿qué gracia tiene? ¿No lo hacen los perros, las arañas, los gatos? Hay que ser ori- ginales, mi amigo. Tía Julia y el Escribidor, Mario Vargas Llosa. En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo, consistente en una recurrencia lineal resuelta mediante técnicas ma- triciales y que contendrá buena parte de lo esencial: valores y vectores pro- pios, multiplicidad algebraica y geométrica y diagonalización de matrices. En la sección segunda presentaremos la factorización de Schur como paso previo al estudio de los valores propios y la diagonalización de las matrices normales. Esta clase de matrices incluye como importante caso particular las matrices simétricas, matrices que serán tratadas con atención en la sec- ción tercera. Como factorización alternativa se introduce en la sección c las transformaciones de congruencia de las que hablaremos brevemente así co- mo la noción de signatura de una matriz y la ley de Sylvester. Las formas cuadráticas y su clasicación son objeto de la última sección de este capítulo acompañado de una aplicación a la clasicación de los ceros de polinomios de grado 2 en dos variables. Dejaremos para el apéndice de este texto los valores y vectores singulares y la factorización, o forma canónica, de Jordan. Ambas dos son, en cierta forma, extensión de la idea de la diagonalización de las matrices. Su mayor dicultad, especialmente en lo que concierne a la forma canónica de Jordan, nos ha condicionado a mover estos temas fuera del cuerpo central de este texto. 281

Transcript of Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios...

Page 1: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 281 — #297

Capítulo 5

Valores y vectores propios

Reproducirse, ¿qué gracia tiene? ¿No lo hacenlos perros, las arañas, los gatos? Hay que ser ori-ginales, mi amigo.

Tía Julia y el Escribidor, Mario VargasLlosa.

En este último capítulo trataremos los valores y vectores propios de unamatriz. Abriremos la primera sección con un ejemplo simple, un problemamodelo, consistente en una recurrencia lineal resuelta mediante técnicas ma-triciales y que contendrá buena parte de lo esencial: valores y vectores pro-pios, multiplicidad algebraica y geométrica y diagonalización de matrices.En la sección segunda presentaremos la factorización de Schur como pasoprevio al estudio de los valores propios y la diagonalización de las matricesnormales. Esta clase de matrices incluye como importante caso particularlas matrices simétricas, matrices que serán tratadas con atención en la sec-ción tercera. Como factorización alternativa se introduce en la sección c lastransformaciones de congruencia de las que hablaremos brevemente así co-mo la noción de signatura de una matriz y la ley de Sylvester. Las formascuadráticas y su clasificación son objeto de la última sección de este capítuloacompañado de una aplicación a la clasificación de los ceros de polinomiosde grado 2 en dos variables.

Dejaremos para el apéndice de este texto los valores y vectores singularesy la factorización, o forma canónica, de Jordan. Ambas dos son, en ciertaforma, extensión de la idea de la diagonalización de las matrices. Su mayordificultad, especialmente en lo que concierne a la forma canónica de Jordan,nos ha condicionado a mover estos temas fuera del cuerpo central de estetexto.

281

Page 2: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 282 — #298

282 5.1 Valores y vectores propios. Diagonalización de matrices

5.1. Valores y vectores propios. Diagonalización dematrices

5.1.1. Un problema juguete: Fibonacci y la cría de conejos

Leonardo de Pisa propuso en 1202 en su libro Liber abaci el siguienteproblema:

Se dispone de una pareja de conejos recién nacidos. Se sabeque hasta que no cumplen el mes de vida no pueden procrear.Suponiendo que en cada parto nacen una pareja de conejos,macho y hembra, que son suficientemente longevos y que lle-gado el momento procrearán entre ellos, ¿cuántas parejas deconejos tendremos en los próximos meses?

Tras un breve análisis se obtiene la siguiente sucesión, en los meses si-guientes, del número de parejas de conejos

0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, . . .

que admite la representación gráfica mostrada en la Figura 5.1.Matemáticamente la sucesión se puede describir como sigue:

�����x0 = 0, x1 = 1

xn+1 = xn + xn−1, n = 1, 2, . . . ,(5.1)

Este tipo de expresiones se conocen como fórmulas recursivas: se puedecalcular cualquier término de la sucesión, si antes se han calculado todos losanteriores. Es decir, x100 necesita x99 y x98 que a su vez requieren x97 y x96,. . .

Nos preguntamos si hay alguna forma de dar con una fórmula explícita,no recursiva, que devuelva directamente el número de parejas. Dado quela fórmula (5.1) tal y como aparece ofrece pocas posibilidades de estudio,reescribiremos la relación en diversas formas.

Por ejemplo, podemos ver que (5.1) es equivalente a�x1x0

�=

�10

�,

�xn+1

xn

�=

�1 11 0

� �� �A

�xn

xn−1

�.

Page 3: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 283 — #299

CAPÍTULO 5. Valores y vectores propios 283

� �� � �� �

��� �

��

Figura 5.1: Representación esquemática del número de parejas según lasucesión de Fibonacci: tenemos un árbol, con un nodo inicial. Cuando des-cendemos de nivel en el árbol, cada nodo ya existente del nivel anteriorgenera un nuevo nodo. Por tanto, el número de parejas en un nivel n son lasexistentes en el nivel anterior n − 1 más las que han podido procrear, queson las que estaban activas en el nivel n − 2.

Por tanto, si escribimos, en la misma línea,

xn =�xn

xn−1

entoncesxn+1 = Axn = A2xn−1 = . . . = Anx1 = An

�10

�. (5.2)

En consecuencia, resolveríamos el ejercicio si somos capaces de dar con unaexpresión analítica que nos proporcione el valor de An para cualquier n.Desgraciadamente, este nuevo problema es, al menos, tan difícil como elproblema original.

Propondremos una aproximación distinta. En vez de poner el foco deatención en An, lo haremos en los productos matriz-vector:

Anx1 = A(A(A · · · A(Ax1) · · · )).

Así pues, ¿existe algún vector u, distinto de x1, para el que producto Ausea sencillo? Evidentemente nos distanciamos del problema original donde

Page 4: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 284 — #300

284 5.1 Valores y vectores propios. Diagonalización de matrices

el vector semilla es x1 = (1, 0) para buscar mejores vectores de arranque.Veremos, no obstante, que una vez respondida esta pregunta, sí es posibleresolver la cuestión inicial.

Si buscamos vectores u que interaccionen de forma sencilla con A, es muyposible que una de las formas más simples que consideremos sea la siguiente

Au = λu,

con λ ∈ R algún valor adecuado. Esto es, trabajar con vectores para los queel producto por la matriz es simplemente redimensionar el vector. Para talesvectores,

A2u = A(Au) = A(λu) = λAu = λ2u,

y, en general,Anu = λnu.

La nueva cuestión es cómo calcular u. La respuesta es singular en ciertosentido: debemos hallar primero λ, la constante de proporcionalidad. Enefecto

Au = λu ⇔ Au − λu = 0 ⇔ (A − λI2)u = 0.

En la expresión anterior I2 es la identidad de orden 2. Nótese que no podemostrabajar con A − λ porque la operación suma de matriz y escalar no estádefinida1.

El sistema(A − λI2)u = 0

es un sistema homogéneo que admite, en consecuencia, la solución u = 0,pero es una solución trivial que no aporta nada. Si buscamos soluciones notriviales de este sistema concluimos que:

(a) Sólo son válidos aquellos valores de λ para los que rang(A−λI2) < 2 deforma que el sistema sea compatible indeterminado. Esto es obviamenteequivalente a que

|A − λI2| = 0.

(b) Una vez encontrado un valor λ válido, el vector u no puede ser único.Existen infinitos vectores, de hecho todos los vectores en N(A − λI2).

1Y si la defines en la forma natural, la operación resultante no es distributiva res-peto al producto matricial. Sin embargo muchos procesadores numéricos y lenguajes deprogramación la tienen definida.

Page 5: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 285 — #301

CAPÍTULO 5. Valores y vectores propios 285

Concentrémonos en el primer punto. Así λ es tal que

0 = |A − λI2| =�����1 − λ 1

1 −λ

����� = λ2 − λ − 1, (5.3)

que es una ecuación polinómica de grado 2. Las raíces del polinomio corres-pondiente son

λ1 = 1 +√

52 , λ2 = 1 −

√5

2 . (5.4)

Recapitulando, existen vectores u1 y u2, todavía por calcular, tales que

Au1 = λ1u1, Au2 = λ2u2.

Para encontrar estos vectores, tal y como se apunta en (a), debemos calcularN(A − λ1I2) y N(A − λ2I2).

En el primer caso,�

1 − 1+√

52 1 0

1 −1+√

52 0

�=

�1−

√5

2 1 01 −1+

√5

2 0

F2 ∼ F2 − 21 −

√5

F1

1−√

52 1 0

0 −1+√

52 − 2

1−√

5 0

.

La segunda fila de esta última matriz es nula dado que

−1 +√

52 − 2

1 −√

5= −1 +

√5

2 − 2(1 +√

5)(1 −

√5)(1 +

√5)

= −1 +√

52 − 2(1 +

√5)

1 − 5 = 0.

Era algo esperable puesto que A − λ1I2 no tiene rango 2 y claramente elrango de la matriz no puede ser 0. El espacio nulo viene generado por elvector

u1 =�

− 21 −

√5

, 1�

=�1 +

√5

2 , 1�. (5.5)

Se puede tomar un alto en el camino y comprobar que efectivamente

Au1 =�1 11 0

1+√

52

1

=

3+√

52

1+√

52

= 1 +

√5

2

1+√

52

1

= λ1u1.

De hecho, e insistimos de nuevo, cualquier vector proporcional a u1 nos seríaigualmente válido.

Page 6: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 286 — #302

286 5.1 Valores y vectores propios. Diagonalización de matrices

Si repetimos las operaciones con λ2, obtenemos que con

u2 =�

− 21 +

√5

, 1�

=�1 −

√5

2 , 1�

(5.6)

(o cualquier vector proporcional) se verifica

Au2 =�1 11 0

1−√

52

1

= 1 −

√5

2

1−√

52

1

= λ2u2.

Omitimos las operaciones por brevedad.Recopilando, tenemos que para n = 0, 1, . . . ,

Anu1 = λ1nu1, Anu2 = λ2

nu2.

Si ahora nos remitimos a (5.2) podríamos concluir estas reflexiones conque es una lástima que el número de parejas de conejos inicial no fuera pro-porcional a

�1+

√5

2 , 1�

o�

1−√

52 , 1

�(signifique lo que signifique esto), porque

tendríamos resuelto el problema.Sin embargo todo este trabajo no ha sido en balde. Los vectores {u1, u2}

son linealmente independientes, y por tanto base de R2. Esto es, existenα1, α2, coordenadas de x1 en esta base, tales que

x1 =�10

�= α1u1 + α2u2.

Por la propiedad distributiva del producto matricial,

xn+1 = Anx1 = An(α1u1 + α2u2) = α1Anu1 + α2Anu2 = α1λ1nu1 + α2λ2

nu2.

En resumen, el problema, a falta de calcular las coordenadas α1 y α2, resultaestar resuelto.

El cálculo {α1, α2} pasa por resolver el sistema

1+√

52

1−√

52

1 1

� �� �=:P

�α1α2

�=

�10

�⇒

�α1

α2

�= 1√

5

1 −1−

√5

2

−1 1+√

52

� �� �=P −1

�10

�= 1√

5

�1

−1

(5.7)Hemos optado por invertir la matriz P por dos razones: en primer lugar, esuna matriz 2 × 2, y el cálculo de la inversa es extraordinariamente simple;esto simplifica la resolución del sistema (recordemos que para matrices de

Page 7: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 287 — #303

CAPÍTULO 5. Valores y vectores propios 287

un tamaño mayor a 3 × 3 esta forma de proceder no es muy recomendable).La segunda razón habrá de esperar un poco más.

Resumiendo, considerando el valor de λ1, λ2 (5.4), de los vectores u1 yu2 (5.5-5.6) y de las coordenadas α1, α2 en (5.7), tenemos que

xn+1 =�xn+1

xn

�= 1√

5λ1

nu1 − 1√5

λ2nu2 = 1√

5

�1+

√5

2�n+1 − �1−

√5

2�n+1

�1+√

52

�n − �1−√

52

�n

.

Por tanto el número de parejas de conejos en el mes n sigue la fórmula

xn = 1√5

�1 +√

52

�n− 1√

5

�1 −√

52

�n.

Es inmediato comprobar que tal fórmula es correcta para los primeros n.No es una sorpresa que no hayamos dado con ella con cálculos sencillos ouna aproximación directa: la expresión es ciertamente complicada con untérmino como

√5 que aparece profusamente en una fórmula que devuelve,

sin embargo, números enteros para cualquier n igualmente entero.Para finalizar, vamos a volver sobre la matriz A de trabajo y aparcar el

problema original que nos llevó a su introducción.Hemos visto que

Au1 = λ1u1, Au2 = λ2u2

que puede reescribirse

A�

u1 u2�

� �� �P

=�

λ1u1 λ2u2�

=�

u1 u2�

� �� �P

�λ1

λ2

� �� �=:Λ

.

De esta forma,

P −1AP = Λ, o equivalentemente A = PΛP −1. (5.8)

En este ejemplo hemos visto la importancia de poder realizar múltiples pro-ductos por An. No es un caso aislado, ni mucho menos. Si disponemos de ladescomposición (5.8), este proceso es extremadamente simple:

An = P −1Λ PP −1� �� �

I

Λ PP −1� �� �

I

Λ · · · Λ PP −1� �� �

I

Λ = P −1ΛnP.

El hecho relevante en esta descomposición es que Λ es una matriz diagonal.Por tanto, Λn es de nuevo diagonal y sus entradas son el resultado de elevar

Page 8: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 288 — #304

288 5.1 Valores y vectores propios. Diagonalización de matrices

a la nésima potencia los elementos correspondientes de la diagonal de Λ.Con una matriz 2 × 2 esta diferencia no es todavía muy importante, pero ladiferencia es dramática con matrices de mayores dimensiones, una aportaciónnada baladí incluso con la potencia de cálculo actual.

En el caso que nos ocupa, y sustituyendo las expresiones de λ1, λ2, losvectores u1, y u2 y la matriz P y su inversa P −1 (ver (5.7)), llegamos a lafactorización

�1 11 0

�=

1+√

52

1−√

52

1 1

1+√

52

1−√

52

1√5 −1−

√5

2√

5

− 1√5

1+√

52√

5

.

Para finalizar, dado que tenemos una expresión manejable de An, es fácilplantear problemas similares como el mismo patrón de crecimiento y condi-ciones iniciales distintas. Por ejemplo, la expresión explícita de la sucesión

�����z0 = 2, z1 = 4,

zn+1 = zn + zn−1, n = 1, 2, . . . ,(5.9)

viene dada por

�zn+1zn

�=

1+√

52

1−√

52

1 1

�1+

√5

2�n

�1−√

52 )n

1√5 −1−

√5

2√

5

− 1√5

1+√

52√

5

4

2

de la que obtenemos, tras las simplificaciones oportunas,

zn =23−2n

�1 +

√5�n−1

��√5 − 2

� �√5 − 3

�n−1+

�2 +

√5�

2n−1�

√5

para n = 0, 1, . . . .

Nota 5.1.1: A modo de resumen de este capítulo

Nuevamente hemos presentado una parte apreciable de los contenidosde un capítulo vía un problema ejemplo. En efecto,

(a) Los valores λ1, λ2 reciben el nombre de valores propios de lamatriz A. Quedan determinados por ser solución de la ecuación|A−xI| = 0, ecuación que recibe el nombre de ecuación carac-terística. Esta ecuación es polinómica, y grado del polinomio ytamaño de la matriz (cuadrada) A coinciden. A este polinomiose le conoce como polinomio característico de A.

Page 9: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 289 — #305

CAPÍTULO 5. Valores y vectores propios 289

(b) Para cada valor propio λ encontramos un conjunto infinito devectores propios u asociados, vectores que cumplen Au = λu.Este conjunto de hecho tiene estructura de subespacio vectorial.Se suele tomar una base de estos subespacios, de forma que bastacon un solo vector si el subespacio es unidimensional, como hasido en este caso.

(c) En el caso que hemos tratado ha sido posible ensamblar una basede R2 formada por vectores propios de A. Si se puede construiruna matriz P cuadrada invertible cuyas columnas son vectorespropios de A, y una matriz diagonal Λ con los valores propios deA, desplegados en el mismo orden en el que los vectores propioseran utilizados en P , se tiene que

AP = PΛ, o equivalentemente, A = PΛP −1.

Este proceso es conocido como diagonalización de una matriz.No siempre es posible y pasa ineludiblemente, por disponer deuna base de vectores propios de Rn.

Nota Historica: Fibonacci

Figura 5.2: Leonardo dePisa, Fibonacci. Imagende la wikipedia

Leonardo de Pisa, más conocido por suapodo Fibonacci, nació sobre 1170 en Pisa,Italia. Trabajó en su juventud como comer-cial en Bugia, en la actual Argelia. Viajó dejoven por el norte de África donde apren-dió primero y se familiarizó después conlos números mal llamados arábigos, la no-tación posicional que utilizamos en la ac-tualidad para representar los números. De-cimos “mal llamados” porque el origen deesta notación hay que buscarlo en la Indiadonde los árabes lo aprendieron primero,adaptaron y extendieron después.

En su libro más famoso Liber Abaci,nos han llegado hasta la época modernados libros mása, dejaría escrito la siguientereflexión personal:

Cuando mi padre, que había sido nombrado por su país notario

Page 10: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 290 — #306

290 5.1 Valores y vectores propios. Diagonalización de matrices

público en Bugia para trabajar para los comerciantes de Pisa que allíiban, ocupaba su cargo, me llamó siendo todavía un niño para ir conél, y al tener yo un buen ojo para la utilidad y la conveniencia futura,quiso que me quedara y recibiera instrucción en la escuela de conta-bilidad. Ahí fui introducido en el arte de los nueve símbolos de losindios a través de la valiosa enseñanza, el conocimiento de este artemuy pronto me complació más que cualquier otra cosa y logré com-prenderlo para todo aquello que era estudiado por este arte en Egipto,Siria, Grecia, Sicilia y Provenza, en todas sus variantes.

De vuelta a Pisa, sobre el año 1200, su trabajo llamaría la aten-ción del emperador Federico II del Sacro Imperio Romano Germánico,importante mecenas cultural de la época que impulsaría la notaciónarábiga a lo largo de Europa en los ambientes culturales de finales dela Edad Media. Eventualmente, sus ventajas operaciones frente a lanotación de números romanos, sólo hay que detenerse un momento eimaginar lo complicado que resulta una simple suma o producto connúmeros escritos en notación romana, supondrían que estos últimosquedaran relegados a aspectos testimoniales.

La sucesión de Fibonacci se presenta en su libro más o menos comola hemos desarrollado en esta sección. La sucesión esconde no obstantealgunas sorpresas. En primer lugar, admite una representación muyelegante en forma de espiral tal y como se muestra en la Figura 5.3.Esta espiral es una buena aproximación de la espiral áurea, que apa-rece en el patrón de crecimiento de diversos organismos biológicos,como por ejemplo en las conchas de algunos moluscos.

Por otro lado, si xn denota el término n−esimo de la serie deFibonacci, tenemos que

xn+1xn

=

�1+

√5

2

�n+1−

�1−

√5

2

�n+1

�1+

√5

2

�n−

�1−

√5

2

�n → 1 +√

52 ≈ 1.618, cuando n → ∞.

(Dado que 12(1 −

√5) ≈ −0.618). Este número es especial, recibe el

nombre de número, o proporción, áurea o de oro y es conocidodesde la antigüedad. Está relacionado con proporciones que por razo-nes todavía no muy claras el cerebro humano determina equilibradas.Por ejemplo, si deseamos dividir una barra de longitud 1 en dos partesde longitudes �, 1 − � de forma que la mayor sea a la barra original loque la menor a la mayor, esto es, �

1−� = 1� , obtenemos que el segmento

Page 11: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 291 — #307

CAPÍTULO 5. Valores y vectores propios 291

mayor tiene longitud 21+

√5 (o dicho de otra manera, 1

� = 12(1 +

√5)):

1+√5

21−

√5

2

Existen multitud de artículos y discusiones, una simple búsqueda eninternet o la wikipedia así lo puede atestiguar, sobre este número y suutilización sistemática en arquitectura, pintura e incluso en música.Muy posiblemente muchos de estos supuestos usos y apariciones sonsimplemente reconocimiento de patrones dónde no los hay, una delas consecuencias de la forma con que el cerebro humano procesa lainformación. Véase, con animus iocandi, la Figura 5.4.

atitulados Practica geometriae y Liber quadratorum aunque se tiene constanciade que escribió más textos

5.1.2. Valores y vectores propios

Definición 5.1.2: Valores y vectores propios.Espectro de una matriz

Dada una matriz A cuadrada n × n, el escalar λ se dice valor propiode vector propio v �= 0 si

Av = λv.

El conjunto de todos los valores propios recibe el nombre de espectrode A.

Nota 5.1.3Los términos “autovalor” y “autovector” aparecen también utilizadosen la literatura, así como el de “autofunción” cuando se habla delequivalente de un vector propio en espacios de funciones.

En inglés se utiliza profusamente eigenvalue y eigenvector. El tér-mino eigen es alemán (significa “propio de”) y ha desplazado comple-tamente al original proper value and vector. Esto es resultado de lainfluencia del probablemente último matemático universal, el alemánDavid Hilbert (principios del siglo XX).

Page 12: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 292 — #308

292 5.1 Valores y vectores propios. Diagonalización de matrices

Figura 5.3: Espiral de Fibonnaci, construida a base de adjuntar ar-cos de circunferencia de radios 1, 1, 2, 3, 5 y 8. Esta espirales una buena aproximación de la espiral áurea. Esta figura ha si-do obtenida modificando mínimamente el código de Andrew Mertz enhttp://www.texample.net/tikz/examples/fibonacci-spiral/

Figura 5.4: El patrón de Fibonacci parece surgir profusamente en la na-turaleza. O más probablemente es el producto de cómo el cerebro hu-mano procesa la información y busca orden y patrones incluso dondeno los hay. Arriba, la espiral de Fibonacci en una imagen de DonaldTrump. Meme extraído de la página web http://lolworthy.com/funny/trump-fibonacci-spiral-golden-ratio-meme/.

Page 13: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 293 — #309

CAPÍTULO 5. Valores y vectores propios 293

Notemos que se excluyen explícitamente los vectores nulos como vectorespropios. En caso contrario, esto es, si admitiéramos los vectores nulos comoposibles vectores propios, cualquier escalar sería valor propio, una definicióndemasiado general.

Ejemplo 5.1.4

El vector (1, 2, −1) es un vector propio de la matriz

A =

1 2 −12 3 −2

−1 −2 0

porque

1 2 −12 3 −2

−1 −2 0

12

−1

=

510−5

= 5

12

−1

.

El valor propio asociado es por tanto 5.

Grosso modo, los vectores propios indican direcciones invariantes al mul-tiplicar por A. Cualquier vector en estas direcciones tras el producto por Amantendrá la dirección aunque su sentido y longitud puede ser modificado.

Proposicion 5.1.5

Sea λ valor propio de una matriz A n × n. Entonces el conjunto devectores propios asociados

{u : Au = λu}

es un subespacio vectorial.

Demostración. SiAu = λu,

entoncesA(µu) = µAu = µλu = λ(µu),

lo que muestra que µu es también vector propio con el mismo valorpropio λ.

De forma similar, si u y v son dos vectores propios del mismovalor propio λ,

A(u + v) = Au + Av = λu + λv = λ(u + v)

Page 14: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 294 — #310

294 5.1 Valores y vectores propios. Diagonalización de matrices

con lo que concluimos que u + v es también vector propio con valorpropio asociado λ.

Definición 5.1.6: Polinomio característico y ecuacióncaracterística

Para cualquier matriz A cuadrada n × n,

|A − xI|

es un polinomio de grado n en x que denominaremos polinomiocaracterístico de A. La ecuación

|A − xI| = 0

recibe el nombre de ecuación característica.

Dejamos como ejercicio probar que efectivamente el polinomio caracte-rístico de una matriz n × n es un polinomio de grado n (véase Ejercicio5.13).

Nota 5.1.7

Nada excluye que λ = 0 pueda ser valor propio. De hecho, N(A) �= {0}si y sólo si 0 es valor propio de A.

Proposicion 5.1.8

Se tiene que λ es un valor propio de A si y sólo si |A − λI| = 0, estoes, si λ es raíz del polinomio característico, o equivalentemente si esuna solución de la ecuación característica.

Además u es un vector propio asociado al valor propio λ si y sólosi u ∈ N(A − λI).

Demostración. Tenemos que

Au = λu, u �= 0

si y sólo si

0 = Au − λu = (A − λI)u ⇐⇒ u ∈ N(A − λI).

Como N(A−λI) �= {0}, dado que hemos excluido el vector nulo como

Page 15: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 295 — #311

CAPÍTULO 5. Valores y vectores propios 295

vector propio, u �= 0, entonces rang (A−λI) < n, o equivalentemente,por la Propiedad P08 en Capítulo 4, |A − λI| = 0.

El resultado queda ahora demostrado.

Nótese que la Proposición 5.1.5 es de hecho una consecuencia de la Pro-posición anterior dado que sabemos bien que el espacio de nulo de una matrizes un subespacio vectorial (Propiedades 2.1.11).

En los siguientes ejemplos veremos cómo aplicar lo anterior al cálculoanalítico de valores y vectores propios.

Ejemplo 5.1.9: Cálculo de valores y vectores propios

Consideremos la matriz

A =

−1 2 −26 −5 64 −4 5

.

Estos son los pasos que seguiremos:1. Primero hallamos los valores propios. Para ello necesitamos el

polinomio característico:

|A − xI| =

�������

−1 − x 2 −26 −5 − x 64 −4 5 − x

�������

= (−1 − x)(−5 − x)(5 − x) + 48 + 48+ 8(−5 − x) + 24(−1 − x) − 12(5 − x)

= −x3 − x2 + 5x − 3.

Resolvemos seguidamente la ecuación característica. Esto es, ha-llamos las raíces del polinomio x3 + x2 − 5x + 3. Es fácil ver quex = 1 es una raíz. Factorizando el polinomio podemos calcularlas otras dos raíces:

x3 + x2 − 5x + 3 = (x − 1)(x2 + 2x − 3) = (x − 1)2(x + 3),de donde obtenemos que los valores propios son 1 (doble) y −3.

2. Calculamos los vectores propios.Los vectores propios asociados a 1 son el espacio nulo de A − I:

−2 2 −2 06 −6 6 04 −4 4 0

F2 → F2 + 3F1

F3 → F3 + 2F1∼

−2 2 −2 00 0 0 00 0 0 0

.

Page 16: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 296 — #312

296 5.1 Valores y vectores propios. Diagonalización de matrices

Así,N(A − I) = span �(−1, 0, 1)� �� �

u1

, (1, 1, 0)� �� �u2

�.

En otras palabras, cualquier vector de este subespacio es unvector propio de valor propio 1.Para λ = −3, los vectores propios son los vectores en N(A+3I):

2 2 −2 06 −2 6 04 −4 8 0

F2 → F2 − 3F1

F3 → F3 − 2F1∼

2 2 −2 00 −8 12 00 −8 12 0

F3 → F3 − F2∼

2 2 −2 00 −8 12 00 0 0 0

.

Por tanto

N(A + 3I) = span �(− 12 , 3

2 , 1)� = span �(−1, 3, 2)� �� �u3

�.

En resumen:

λ = 1 (raíz doble), con vectores propios los vectores generadospor {(−1, 0, 1), (1, 1, 0)}.

λ = −3 (simple), con vectores propios los proporcionales a{(−1, 3, 2)}.

En este ejemplo hemos visto tres valores propios reales con tres vectorespropios, esencialmente distintos, en el sentido de que son, como es fácil decomprobar, linealmente independientes. No siempre es el caso, como veremosen los Ejemplos 5.1.10 (a continuación) y, más adelante, 5.1.17.

Ejemplo 5.1.10

Consideremos la matriz

B =

1 1 −1 11 1 1 −31 2 0 −14 5 1 −4

Page 17: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 297 — #313

CAPÍTULO 5. Valores y vectores propios 297

y procedamos a calcular valores y vectores propios. La matriz es deorden 4 × 4 por lo que el cálculo del polinomio característico entrañamayor dificultad:

|B − xI| =

���������

1 − x 1 −1 11 1 − x 1 −31 2 −x −14 5 1 −4 − x

���������F3 → F3 − F2

F4 → F4 − 4F2=

���������

1 − x 1 −1 11 1 − x 1 −30 1 + x −x − 1 20 1 + 4x −3 8 − x

���������

= (1 − x)

�������

1 − x 1 −31 + x −x − 1 2

1 + 4x −3 8 − x

�������−

�������

1 −1 11 + x −x − 1 2

1 + 4x −3 8 − x

�������

= (1 − x)(−x3 − 3x2 − 10x − 2) − (4x2 − 6x + 2)= (x − 1)(x3 + 3x2 + 10x + 2) − (x − 1)(4x − 2)= (x − 1)(x3 + 3x2 + 6x + 4)= (x − 1)(x + 1)(x2 + 2x + 4)= (x − 1)(x + 1)(x − (−1 +

√3i))(x − (−1 −

√3i)).

El espectro de la matriz, esto es, los valores propios son por tanto1, −1, −1−

√3i y −1+

√3i. . . y encontramos valores propios complejos.

Los vectores propios son los vectores pertenecientes, respectiva-mente, a N(B−I), N(B+I), N(B−(−1+

√3i)I), N(B−(−1−

√3i)I).

El resultado final, que puede obtenerse mediante pasos ciertamentetediosos, es el siguiente:

Para λ = 1, los vectores propios asociados son span�(4, −2, −1, 1)�.

Para λ = −1, span �(1, −1, 1, 0)�.

Para λ = −1 −√

3i, span �� i√3 , 1

2 −√

3i2 , 1

2 +√

3i6 , 1

��.

Finalmente, para λ = −1 +√

3i, los vectores propios son loselementos del subespacio span �� − i√

3 , 12 +

√3i

2 , 12 −

√3i

6 , 1��.

El ejemplo anterior muestra que un análisis completo de los valores yvectores propios de una matriz requiere a priori trabajar en C. Es de todas

Page 18: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 298 — #314

298 5.1 Valores y vectores propios. Diagonalización de matrices

formas una conclusión a la que podíamos haber llegado en cuanto identifica-mos los valores propios con las raíces de un polinomio. Dado que cualquierpolinomio tiene una matriz de la que es polinomio característico (véase Ejer-cicio 5.10), y puesto que el Teorema Fundamental del Álgebra afirmaque cualquier polinomio de grado n tiene n raíces, contadas según su mul-tiplicidad en C, los números complejos es el campo natural de trabajo paralos valores propios de una matriz.

Propiedades 5.1.11

Se tiene que:(a) A y A� tienen el mismo polinomio característico, y por tanto A

y A� comparten los mismos valores propios.

(b) Si λ es valor propio de A, entonces rλ es valor propio de rA yλ − s lo es de A − sI, con los mismos vectores propios.

(c) Si A es triangular, los valores propios son los elementos de ladiagonal.

(d) Si λ es valor propio de A con vector propio u y A invertible,entonces λ−1 es valor propio de A−1 con el mismo vector propiou.

(e) Para A n × n, R igualmente n × n e invertible. Entonces Ay R−1AR tienen el mismo polinomio característico y por tan-to comparten los mismos valores propios. Además u es vectorpropio de A si y sólo si R−1u lo es de R−1AR.

(f) Si λ1, . . . , λn son los valores propios contados según su multipli-cidad, esto es, donde algún valor propio puede estar repetido deacuerdo a su multiplicidad como raíz del polinomio característi-co, entonces

|A| = λ1λ2 . . . λn, Tr(A) = λ1 + λ2 + . . . + λn

donde Tr(A) es la traza de A (véase la Definición 1.4.24).

Demostración.(a) Observa que (P13, página 252)

|A − xI| = |(A − xI)�| = |A� − xI|

Page 19: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 299 — #315

CAPÍTULO 5. Valores y vectores propios 299

por lo que el polinomio característico de A y A� es el mismo.

(b) Si u es vector propio de A con valor propio λ, entonces

(rA)u = rAu = rλu = (rλ)u.

Por tanto rλ es valor propio de rA (con vector propio u). Deforma similar

(A − sI)u = Au − su = λu − su = (λ − s)u.

(c) Si A es triangular, también lo es A−xI con aii−x como elementossobre la diagonal. Por tanto (Propiedad P09, página 247 delCapítulo anterior) el polinomio característico viene dado por

p(x) = |A − xI| = (a11 − x)(a22 − x) · · · (ann − x),

de donde se sigue que los valores propios son los elementos de ladiagonal de A.

(d) Si A es invertible,

Au = λu ⇔ λ−1u = A−1u.

(e) El polinomio característico de R−1AR, por las Propiedades P11y P12 (página 252), viene dado por

|R−1AR − xI| = |R−1AR − xR−1R| = |R−1(A − xI)R|= |R−1||A − xI||R| = |R|−1|A − xI||R|= |A − xI|.

Es decir, los polinomios característicos de A y R−1AR coincideny por tanto comparten los mismos valores propios. Además, si ues vector propio, con valor propio λ de A,

(R−1AR)(R−1u) = R−1Au = R−1(λu) = λ(R−1u).

El mismo razonamiento muestra que el recíproco es cierto: si ves vector propio de R−1AR, Rv lo es de A.

Page 20: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 300 — #316

300 5.1 Valores y vectores propios. Diagonalización de matrices

(f) Denotemos de nuevo por p(x) := |A − xI| el polinomio carac-terístico de A. Si λ1, . . . , λn son los valores propios de A, y portanto, raíces de p(x), se tiene

p(x) = (λ1 − x) · · · (λn − x)= (−1)n(x − λ1) · · · (x − λn).

Entonces|A| = |A − 0 × I| = p(0) = λ1 · · · λn.

Las fórmulas de Vietaa dan una expresión de los coeficientesde un polinomio mónico en términos de sus raíces. Aplicado anuestro caso, y conocidas las raíces del polinomio {λ1, . . . , λn}nos dicen que el polinomio característico vendría dado por

p(x) = (−1)nxn+(−1)n−1(λ1+λ2+. . .+λn)xn−1+. . . + (5.10)

Por otro lado,����������

a11 − x a12 · · · a1n

a21 a22 − x · · · a2n...

... · · · ...an1 an2 · · · ann − x

����������

= (a11 − x)

����������

a22 − x a23 · · · a2n

a32 a33 − x · · · a3n...

... · · · ...an2 an3 · · · ann − x

����������� �� �

=:q1(x)

− a12

����������

a21 a23 · · · a2n

a31 a33 − x · · · a3n...

... · · · ...an1 an3 · · · ann − x

����������� �� �

=:q2(x)

· · · + (−1)na1n

����������

a21 a22 − x a23 · · · a2n−1a31 a32 a33 − x · · · a3n−1...

...... · · · ...

an1 an2 an3 · · · ann−1

����������� �� �

=:qn(x)

Page 21: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 301 — #317

CAPÍTULO 5. Valores y vectores propios 301

Es sencillo comprobar que los polinomios q2(x), q3(x),. . . qn(x)tienen grado n − 2. Por tanto los términos de grado n − 1, ygrado n, están contenidos en

(a11 − x)q1(x) = (a11 − x)

����������

a22 − x a23 · · · a2n

a32 a33 − x · · · a3n...

... · · · ...an2 an3 · · · ann − x

����������

.

Podemos repetir el argumento con este determinante más pe-queño y concluir que los términos de grado n − 1, y también n,vienen de esta expresión.

(a11 − x)(a22 − x) · · · (ann − x) =(−1)nxn + (−1)n−1(a11 + a22 + . . . + ann)xn−1 + · · ·

(5.11)

Comparando (5.10) y (5.11), la demostración de (f) queda com-pletada.

aDescubiertas por el matemático francés Franciscus Vieta.

Definición 5.1.12: Matrices semejantes

Dos matrices A y B se dicen semejantes si existe R invertible talque

A = R−1BR.

La operación que transforma B en A, se dice transformación desemejanza.

Observa que de acuerdo a la propiedad anterior, punto (e), dos matricessemejantes comparten los valores propios. El recíproco es falso: dos matricespueden tener los mismos valores propios y no ser semejantes (ver Ejemplo5.1.21).

Nota 5.1.13Notemos que compartir los valores propios no implica en modo algunoque los vectores propios hayan de coincidir. Por ejemplo, de la matrizA del Ejemplo 5.1.9 podemos comprobar que aunque efectivamente

Page 22: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 302 — #318

302 5.1 Valores y vectores propios. Diagonalización de matrices

los valores propios de

A� =

−1 6 42 −5 −4

−2 6 5

son {1, 1, −3}, los vectores propios asociados vienen dados por1. λ = 1 (doble), con N(A� − I) = span �(3, 1, 0), (2, 0, 1)�

2. λ = −3, N(A� + 3I) = span �(1, −1, 1)�

que son completamente distintos a los obtenidos en el Ejemplo 5.1.9.

Ejemplo 5.1.14

Revisemos los Ejemplos 5.1.9 y 5.1.17. Puedes ver que en el primercaso lo valores propios

1, 1, −3

apuntan a que, por (f) en Propiedades 5.1.11, el determinante de Aes −3 y su traza −1. Para la matriz B, los valores propios calculadosson

1, −1, −1 −√

3i, −1 +√

3i

nos indican que la traza de B es −2 y su determinante −4. Finalmente,para C, con valores propios

1, 1,

y vemos que efectivamente el determinante es 1 y su traza 2.

5.1.3. Diagonalización de matrices vía transformaciones or-togonales

El objetivo en lo que sigue es estudiar bajo qué condiciones es posiblecontar con una base de vectores propios de Rn para una matriz cuadrada deeste tamaño, n × n.

Proposicion 5.1.15

Si se unen familias linealmente independientes de vectores propioscorrespondientes a valores propios distintos el resultado es una familiade vectores linealmente independiente.

Page 23: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 303 — #319

CAPÍTULO 5. Valores y vectores propios 303

Demostración. Notemos antes de empezar que

(A − νI)(A − βI) = (A − βI)(A − νI), ∀ν, β ∈ C,

esto es, (A − νI) y (A − βI) conmutan.Probaremos a continuación una versión simplificada del resultado:

sean λ1, . . . , λr valores propios distintos con vectores u1,. . . ,ur. Vea-mos que la familia {u1, . . . , ur} es libre. En efecto, consideremos unacombinación lineal que nos devuelva el vector nulo

0 = ν1u1 + ν2u2 + . . . + νrur.

Como

(A − λ2I)(A − λ3I) · · · (A − λrI)u2 =(A − λ3I) · · · (A − λrI) (A − λ2I)u2� �� �

=0

= 0,

y en general

(A − λ2I)(A − λ3I) · · · (A − λrI)u3

= (A − λ2I)(A − λ3I) · · · (A − λrI)u4

= . . . = (A − λ2I)(A − λ3I) · · · (A − λrI)ur = 0,

tenemos que

0 = (A − λ2I) · · · (A − λrI)�ν1u1 + ν2u2 + . . . + νrur

= ν1(A − λ2I)(A − λ3I) · · · (A − λrI)u1

= ν1(λ1 − λr)(A − λ2I)(A − λ3I) · · · (A − λr−1I)u1

= · · ·= ν1(λ1 − λr)(λ1 − λr−1) · · · (λ1 − λ2)u1.

Hemos deducido que necesariamente ν1 = 0. Multiplicando por (λ3 −A) · · · (A−λrI) podemos comprobar que ν2 = 0. El mismo argumento,aplicada de forma secuencial permite deducir que todos los coeficientesνj han de ser nulos. Por tanto la familia de vectores {u1, . . . , ur} eslibre. La demostración está completada para este caso simplificado.

Consideremos el caso general, esto es,

F1 := {u(1)1 , . . . , u(s1)

1 } en N(A−λ1I) linealmente independiente.

Page 24: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 304 — #320

304 5.1 Valores y vectores propios. Diagonalización de matrices

F2 := {u(1)2 , . . . , u(s2)

2 } en N(A−λ2I) linealmente independiente.

· · · · · ·

Fr := {u(1)r , . . . , u(sr)

r } en N(A−λrI) linealmente independiente.

y una combinación lineal de los vectores anteriores que iguale al vectornulo:

0 = (ν(1)1 u(1)

1 + ν(2)1 u(2)

1 + · · · + ν(s1)1 u(s1)

1� �� �=:v1

)

+(ν(1)2 u(1)

2 + ν(2)2 u(2)

2 + · · · + ν(s2)2 u(s2)

2� �� �=:v2

)

· · ·+(ν(1)

r u(1)r + ν(2)

r u(2)r + · · · + ν(sr)

r u(sr)r� �� �

=:vr

)

= v1 + v2 + . . . + vr.

El mismo argumento utilizado en la primera parte de la demostración,dado que vj es un vector propio de valor propio λj , prueba que v1 =v2 = . . . = vr = 0. De aquí podemos deducir, por ejemplo, que

0 = v1 = ν(1)1 u(1)

1 + ν(2)1 u(2)

1 + · · · + ν(s1)1 u(s1)

1 .

Pero la familia {u(1)1 , . . . , u(s1)

1 } es libre luego ν(1)1 = ν

(2)1 = ν

(s1)1 =

0. Análogamente deducimos que el resto de coeficientes es cero. Elresultado queda pues demostrado.

Nota 5.1.16La proposición anterior se puede redactar de una forma más sucintaen la siguiente forma:

N(A − λ1I) ⊕ N(A − λ2I) ⊕ · · · N(A − λrI),

si λ1 �= λ2 · · · �= λr (véase Nota 2.4.11 y el Ejercicio 2.18). Véasetambién Ejercicio 5.16. Con la noción de suma directa de múltiplessubespacios, la demostración de la Proposición 5.1.15 se puede igual-mente simplificar porque bastaría con probar que

N(A − λiI)∩

Page 25: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 305 — #321

CAPÍTULO 5. Valores y vectores propios 305

(N(A − λ1I) + . . . +✭✭✭✭✭✭❤❤❤❤❤❤N(A − λiI) + . . . N(A − λrI)) = {0}.

De la Proposición anterior deducimos que los vectores propios de losEjemplos 5.1.9 y 5.1.10 pueden utilizarse para construir bases de R3 y R4.

Esto no siempre es posible, tal y como vemos en el siguiente ejemplo

Ejemplo 5.1.17

Consideremos la matrizC =

�1 20 1

El espectro de C está formado por 1, valor propio doble puesto quesu polinomio característico es (1− x)2. Los vectores propios asociadosson N(C − I2), es decir, la solución de

�0 2 00 0 0

que viene dada por span �(1, 0)�. El espacio es de dimensión 1 por loque no existe una base de R2 formada por vectores propios de A.

En particular C y la matriz identidad de orden 2 comparten valorespropios, el 1, pero no son semejantes: no existe una R invertible deforma que C = R−1IR.

En el proceso de constituir una base de vectores propios de Rn (o de Cn

llegado el caso) juega un papel esencial las dimensiones de N(A − λI) y lamultiplicidad de λ como raíz del polinomio característico, es decir, cuántasveces aparece como cero del polinomio. Ello nos lleva al siguiente par denuevos conceptos.

Definición 5.1.18: Multiplicidad algebraica y geométrica

Sea λ un valor propio. Entonces se denomina(a) multiplicidad algebraica de λ a la multiplicidad de λ como

raíz del polinomio característico;

(b) multiplicidad geométrica de λ a la dimensión del espacio devectores propios asociado.

Page 26: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 306 — #322

306 5.1 Valores y vectores propios. Diagonalización de matrices

Teorema 5.1.19: Sobre multiplicidades

Sea λ un valor propio de A n × n, r su multiplicidad algebraica y ssu multiplicidad geométrica. Entonces

1 ≤ s ≤ r ≤ n.

Demostración. Tomemos {v1, v2, . . . , vs} una base ortonormal deN(A − λI), esto es, de los vectores propios de valor propio λ. Consi-deremos a continuación V = N(A − λI)⊥, el subespacio ortogonal deN(A−λI), y tomemos una base, también ortonormal {w1, . . . , wn−s}del mismo. Recordemos que dim N(A − λI)⊥ = n − dim N(A − λI) =n − s.

Dado queAvj = λvj (5.12)

entonces (Avj) · wi = 0 para j = 1, . . . , s e i = 1, . . . , n − s.Construyamos las matrices

V :=�v1 v2 · · · vs

�, W :=

�w1 v2 · · · wn−s

�,

Q :=�

V W�

=�v1 v2 · · · vs

�� w1 w2 · · · wn−s

�.

La matriz Q es obviamente ortogonal, esto es, Q�Q = QQ� = I.Además

AQ =�

AV AW�

=�

λV AW�

.

(Hemos aplicado (5.12)). Entonces

Q−1AQ = Q��

λV AW�

=�

V �

W �

� �λV AW

=�

λV �V V �AW

λW �V W �AW

�=

�λIr V �AW

0 W �AW

(las entradas de W �V son productos escalares de la forma vi · wj , deahí que el resultado sea cero por cómo se han tomado los vectores wj).

Como Q−1AQ y A tienen el mismo polinomio característico, (e) enPropiedades 5.1.11, podemos concluir que el polinomio característicode A es

p(x) =�����

λIr − xIr V �AW

0 W �AW − xIn−r

����� = (λ − x)r |W �AW − xIn−r|� �� �q(x)

Page 27: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 307 — #323

CAPÍTULO 5. Valores y vectores propios 307

donde hemos hecho un desarrollo por menores para simplificar el de-terminante (véase también el Ejercicio 4.10). El polinomio q tiene cla-ramente grado n − r, pues corresponde a una matriz cuadrada de esetamaño. En cualquier caso, λ es un cero de multiplicidad al menos r dep, con la posibilidad, no descartable, de que tuviera una multiplicidadaún mayor si λ también fuera raíz de q(x).

El resultado queda así demostrado.

Teorema 5.1.20: Diagonalización de una matriz

Si las multiplicidades geométricas y algebraicas de los valores propiosde una matriz coinciden entonces la matriz es diagonalizable, estoes, existe P una matriz invertible tal que

A = PΛP −1, Λ =

λ1λ2

. . .λn

.

Dicho de otra manera, A se puede reducir a una forma diagonal me-diante una transformación de semejanza.

Recíprocamente, si A es diagonalizable, entonces las multiplici-dades algebraicas y geométricas de los valores propios de la matrizcoinciden. Es más, cada columna j de P es un vector propio de A convalor propio la entrada correspondiente λj de la matriz diagonal Λ.

Demostración. Si las multiplicidades algebraicas y geométricas coin-ciden, es posible construir una base de vectores propios de Rn (Pro-posición 5.1.15)

{u1, u2, . . . , un}con valores propios correspondientes λ1, λ2, . . . , λn. No excluimos laposibilidad de que algún valor propio pudiera estar repetido, hechoque no afecta a la demostración. Construyamos

P =�u1 u2 · · · un

�.

Como rang P = n, P es invertible. Además

AP =�Au1 Au2 · · · Aun

�=

�λ1u1 λ2u2 · · · λnun

Page 28: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 308 — #324

308 5.1 Valores y vectores propios. Diagonalización de matrices

= P

λ1. . .

λn

� �� �Λ

= PΛ

y por tantoA = PΛP −1. (5.13)

El razonamiento se puede recorrer en sentido contrario, es decir, em-pezando desde (5.13) y finalizar comprobando que las columnas de Pson vectores propios con los valores propios dados por los elementosde la diagonal de Λ (en el mismo orden).

Observemos que nada excluye que tanto P como Λ puedan ser matricescon números complejos como entradas.

Ejemplo 5.1.21

La matrizA =

�1 20 1

no es diagonalizable dado que el único valor propio, 1 (multiplicidadalgebraica 2) tiene multiplicidad geométrica 1 con un vector propioasociado (1, 0).

Ejemplo 5.1.22

Consideremos la matriz del Ejemplo 5.1.9

A =

−1 2 −26 −5 64 −4 5

.

Los valores y vectores propios calculados sonλ = 1 (multiplicidad algebraica 2), con los valores propios gene-rados por {(−1, 0, 1), (1, 1, 0)} (multiplicidad geométrica 2)

λ = −3, vectores propios los generados por (−1, 3, 2) (multipli-cidad algebraica y geométrica 1).

Page 29: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 309 — #325

CAPÍTULO 5. Valores y vectores propios 309

La matriz es diagonalizable. Así, si escribimos

P =

−1 1 −10 1 31 0 2

, Λ =

11

−3

y calculamos

P −1 =

1 −1 232 −1

232

−12

12 −1

2

es inmediato verificar que

A = PΛP −1.

El orden los vectores propios en P es irrelevante siempre que los valorespropios en Λ respeten este orden. Por ejemplo, también valdría lacombinación

P :=

−1 −1 10 3 11 2 0

, Λ :=

1−3

1

con la inversa de P correspondiente.

Ejemplo 5.1.23

Consideremos la matriz

A =

32

13 −1

−3 −1 134

12

34

.

Nos planteamos cuánto vale

lımn→∞ An.

Si diagonalizamos la matriz A = PΛP −1, entonces

An = PΛP −1PΛP −1 · · · PΛP −1 = PΛnP −1

y podemos abordar el problema con más garantías pues Λn es másfácil de calcular.

Page 30: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 310 — #326

310 5.1 Valores y vectores propios. Diagonalización de matrices

El polinomio característico de A viene dado por

|A − xI3| =

��������

32 − x 1

3 −1−3 −1 − x 1

34

12

34 − x

��������

F2 → F2 + F1

F3 → F3 + ( 34 − x)F1=

��������

32 − x 1

3 −1−3

2 − x −23 − x 0

x2 − 94x + 15

834 − x

3 0

��������

= −�����

−x − 32 −x − 2

3

x2 − 94x + 15

834 − x

3

�����

= −x3 + 54x2 − 1

8x − 18

= −(x3 − 54x2 + 1

8x + 18).

Las raíces del polinomio son 1, 12 y −1

4 . La matriz es por tanto dia-gonalizable. Para hallar los vectores propios procedemos como hastaahora:

Para λ = 1,

12

13 −1 0

−3 −2 1 034

12 −1

4 0

F1 → 6F1

F2 → F2 + F1

F3 → F3 − 14 F1∼

3 2 −6 00 0 −5 00 0 5

4 0

F3 → F3 + 14 F2∼

3 2 −6 00 0 −5 00 0 0 0

de donde se sigue

N(A − I) = span �(− 23 , 1, 0)�.

Para λ = 1/2,

1 13 −1 0

−3 −32 1 0

34

12

14 0

F2 → F2 + 3 F1

F3 → F3 − 34 F1∼

1 13 −1 0

0 −12 −2 0

0 14 1 0

Page 31: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 311 — #327

CAPÍTULO 5. Valores y vectores propios 311

F3 → F3 + 12 F2∼

1 13 −1 0

0 −12 −2 0

0 0 0 0

.

Así,N(A − 1

2I) = span �( 73 , −4, 1)�.

Finalmente, y ya se deja como ejercicio, para λ = − 14 ,

N(A + 14I) = span �( 4

3 , −4, 1)�.

La diagonalización de la matriz A viene dada por

A =

−23

73

43

1 −4 −40 1 1

� �� �P

112

−14

� �� �Λ

0 1 41 2

343

−1 −23 −1

3

� �� �P −1

.

Así

An = PΛnP −1 = P

11

2n � − 14�n

P −1

y por tanto

lımn→∞ An =

−23

73

43

1 −4 −40 1 1

10

0

0 1 41 2

343

−1 −23 −1

3

=

−23

10

�0 1 4

�=

0 −23 −8

3

0 1 40 0 0

.

5.2. Factorización de SchurAntes de abordar el análisis espectral de las matrices simétricas (valores

y vectores propios, diagonalización, etc) hablaremos de un resultado másdébil que muestra que toda matriz puede reducirse a una forma simple vía

Page 32: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 312 — #328

312 5.2 Factorización de Schur

los vectores propios.La exposición cuidadosa de este resultado requiere manipular números

complejos, con los que hasta ahora sólo hemos tenido ligeros escarceos. Asípues expondremos detalladamente cómo trabajar en este caso, extendiendoen primer lugar la noción de matrices traspuestas y matrices ortogonales amatrices con números complejos como entradas.

Definición 5.2.1: Matrices traspuestas conjuga-das y unitarias

Dada una matriz A, la matriz traspuesta conjugada es la matrizA∗ resultado de conjugar las entradas de A y trasponer:

A∗ := A�

Una matriz Q con entradas complejas se dice unitaria si

Q∗Q = I, o equivalentemente, Q−1 = Q∗.

Nota 5.2.2Otros nombres para A∗ son matriz traspuesta hermitiana o ma-triz adjunta. No confundir matriz adjunta con matriz de adjuntos,introducida en la Definición 4.1.16 (pág 268).

Si A y P son reales, A∗ = A� y P es ortogonal si y sólo si P es unitariadado que la conjugación deja invariante los números reales (esto es, x = xsi, y sólo si, x ∈ R).

Hay una razón muy evidente de por qué es necesario considerar la conju-gación como gran novedad respecto al caso real. Recordemos la Nota 1.3.15(página 30) donde se introdujo el producto escalar entre dos vectores en Cn:

z · w = z1w1 + z2w2 + . . . + znwn.

Esto es, el producto escalar conjuga necesariamente uno de los vectores, ennuestro caso el primero. Observemos que nuevamente podemos representarel producto escalar en Cn recurriendo al producto matricial:

z · w = z∗w

(los vectores se leen como matrices columna como hemos hecho a lo largo detodo este texto).

Page 33: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 313 — #329

CAPÍTULO 5. Valores y vectores propios 313

Ejemplo 5.2.3

Como ejemplo sencillo tenemos

A =�1 + i −2i

3 1 − 2i

�, A∗ =

�1 − i 3

2i 1 + 2i

�.

Si

P =�3

5 i −45

45

35 i

entonces

P ∗P =�−3

5 i 45

−45 −3

5 i

� �35 i −4

545

35 i

�=

�1

1

por lo que P es unitaria.

Teorema 5.2.4: Factorización de SchurPara toda matriz A existe una matriz unitaria Q tal que

Q∗AQ = T

donde T es triangular superior con los valores propios de A en ladiagonal. Si A y sus valores propios son reales, Q y T se puedentomar igualmente reales y por tanto Q es ortogonal.

Demostración. La demostración se basa en una técnica de inducción:si A es una matriz 1 × 1 no hay nada que probar. Supongamos queel resultado está demostrado para cualquier matriz de dimensiones(n − 1) × (n − 1). Veremos que también es cierto para n × n. Esteargumento permite concluir que el teorema es cierto sea cual sea eltamaño de la matriz.

Sea λ un valor propio de A con u un vector propio asociado. Po-demos suponer que �u� = 1, y por tanto ortonormal. DenotemosU = span �u�, tomemos una base ortonormal {v1, . . . , vn−1} de U⊥ yconstruyamos la matriz

P =�u v1 · · · vn−1

�.

Por construcción, P es unitaria (sus columnas son una base ortonormalde Cn). Es más, de forma similar a como procedíamos en la demos-

Page 34: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 314 — #330

314 5.2 Factorización de Schur

tración del Teorema 5.1.20,

P ∗AP = P ∗�Au Av1 · · · Avn−1

=�λP ∗u P ∗Av1 · · · P ∗Avn−1

�.

Pero

P ∗u =

u∗uv∗

1u...

v∗n−1u

=

10...0

.

Por tanto,

P ∗AP =�

λ w∗

0 An−1

�=: R

donde w es un vector determinado, de longitud n − 1, y An−1 unamatriz (n − 1) × (n − 1). Como P es una matriz unitaria, los valorespropios de A y de la matriz R son los mismos (véase (e) en Propiedades5.1.11 y modifíquese mínimamente la demostración para cubrir el casocomplejo). En consecuencia An−1 contiene de hecho el resto de valorespropios de A. Es más, sabemos que por hipótesis de partida, hemossupuesto que el resultado era cierto para todas las matrices de tamaño(n − 1) × (n − 1), existe Qn−1 igualmente unitaria tal que

Q∗n−1An−1Qn−1 = Tn−1 (5.14)

con Tn−1 triangular con los valores propios de An−1. Construyamos lamatriz

Q = P

�1 0�

0 Qn−1

� �� �=:Qn

.

(0 es el vector nulo de longitud n − 1). La matriz Qn es unitaria. Portanto, Q es también unitaria por ser el producto de matrices unitarias

Page 35: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 315 — #331

CAPÍTULO 5. Valores y vectores propios 315

(véase Propiedad 3.1.7 y Ejercicio 5.22). Además

Q∗AQ = Q∗nP ∗APQnQ = Q∗

nRQnQ

=�

1 0�

0 Q∗n−1

� �λ w∗

0 An−1

� �1 0�

0 Qn−1

=�

λ w∗

0 Q∗n−1An−1

� �1 0�

0 Qn−1

�=

�λ w∗Qn−1

0 Q∗n−1An−1Qn−1

=�

λ w∗Qn−1

0 Tn−1

�=: T

donde en el último paso hemos aplicado (5.14). La matriz T es trian-gular por construcción y Q unitaria, por lo que A y T compartenlos valores propios (véase nuevamente (e) en Propiedades 5.1.11). Enparticular los valores propios de A aparecen como los elementos de ladiagonal de T ((c) en Propiedades 5.1.11).

Si λ y A son reales, el vector propio u se puede tomar obviamentereal. Esto implica que si A y sus valores propios son reales, tambiénlo son T y P .

Nótese que la descomposición de Schur maneja una matriz triangulary no diagonal como en la sección anterior. Tiene sin embargo una ventajaevidente: la factorización se consigue vía una matriz ortogonal, que es fácilinvertir. Así, asumiendo que los valores propios de A son reales,

A = QTQ�, ⇒ An = QT Q�Q� �� �I

T · · · T Q�Q� �� �I

TQ� = QT nQ�.

La matriz T n es algo más fácil de calcular pero está lejos de la simplicidadde una matriz diagonal2.

No trataremos el cálculo de la Factorización de Schur, aunque si se repasadetenidamente la demostración del Teorema 5.2.4 se comprueba que ésta esconstructiva, así que en teoría da una forma de encontrarla.

2Si T es una matrices cuadrada triangular n×n, T 2 requiere O(n3) sumas y productos,la mitad de hecho de una matriz cuadrada llena. Por contra, si son diagonales, T 2 se puedecalcular O(n) operaciones, una diferencia importante si n es grande.

Page 36: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 316 — #332

316 5.3 Matrices normales y matrices simétricas

Ejemplo 5.2.5: Factorización de Schur

La factorización de Schur de la matriz

R = 19

−5 −22 −165 13 −22 7 19

es la siguiente

R =

−23 −2

313

23 −1

323

−13

23

23

� �� �Q

1 −1 20 1 30 0 1

� �� �T

−23

23 −1

3

−23

13

23

13

23

23

� �� �Q�

.

Observa que efectivamente la matriz Q es ortogonal. La matriz R tienecomo valor propio 1, con multiplicidad algebraica 3 y geométrica 1.En particular, la matriz R no es diagonalizable

5.3. Matrices normales y matrices simétricasLa diagonalización para matrices simétricas reales vía transformaciones

de semejanza es siempre posible, y además en R. Nos ocuparemos en estasección en probar esta importante propiedad como una consecuencia de lafactorización de Schur cuando se aplica a un tipo especial de matrices, lasmatrices normales.

Definición 5.3.1: Matrices normalesUna matriz se dice normal si conmuta con su matriz adjunta, estoes,

A∗A = AA∗.

En particular las matrices simétricas, y las antisimétricas, reales son ma-trices normales.

Teorema 5.3.2: Descomposición espectral para ma-trices normales

Si A es normal entonces la matriz es diagonalizable. Es más, la matrizde diagonalización se puede tomar unitaria, es decir, existe una base

Page 37: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 317 — #333

CAPÍTULO 5. Valores y vectores propios 317

ortonormal de vectores propios de forma que

A = QΛQ∗. (5.15)

El recíproco es cierto: si existe una descomposición como (5.15), oequivalentemente si existe una base ortonormal de Cn compuesta porvectores propios de A, entonces A es normal.

Demostración. Del Teorema 5.2.4 se sigue la existencia de una des-composición de la forma

A = QTQ∗

con Q ortogonal y T triangular. El resultado se demuestra sin másque probar que T es de hecho diagonal y es lo que mostraremos acontinuación. Observemos que

A∗ =�QTQ∗�∗ = QT ∗Q∗.

Entonces

QT ∗TQ∗ = QT ∗QQ∗TQ = A∗A

A es normal↓= AA∗ = QTQ∗QT ∗Q∗ = QTT ∗Q∗.

Por tanto, como Q es invertible,

T ∗T = TT ∗. (5.16)

Escribamos

T =

t11t21 t22...

... . . .tn1 tn2 · · · tnn

.

Entonces, la relación (5.16) queda como sigue

t11t21 t22...

... . . .tn1 tn2 · · · tnn

t11 t21 · · · tn1t22 · · · tn2

. . .tnn

= TT ∗

= T ∗T =

t11 t21 · · · tn1t22 · · · tn2

. . .tnn

t11t21 t22...

... . . .tn1 tn2 · · · tnn

.

Page 38: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 318 — #334

318 5.3 Matrices normales y matrices simétricas

Centremos nuestra atención en la posición (1, 1) de TT ∗. Esta entradaviene dada por

t11t11 = |t11|2 (5.17)La misma entrada (1, 1) de T ∗T es el resultado de

|t11|2 + |t21|2 + · · · + |tn1|2. (5.18)

Como (5.17) y (5.18) coinciden (porque TT ∗ = TT ∗), necesariamente

t21 = t31 = · · · = t3n = 0,

y la primera columna de T es nula excepto en la primera posición.Examinemos la posición (2, 2) de T ∗T = TT ∗. El mismo argumentomuestra que

t21t21 + t22t22 = |t21|2� �� �=0

+|t22|2 = |t22|2

= t22t22 + t23t23 + · · · + t2nt2n

= |t22|2 + |t32|2 + · · · + |tn2|2

de donde se sigue que

t32 = · · · = tn2 = 0.

Esto es, la segunda columna de T está compuesta de ceros excepto en lasegunda posición, el elemento de la diagonal. Repitiendo el argumentosobre cada elemento de la diagonal de T ∗T = TT ∗ se concluye que lacolumna j−ésima tiene una única entrada que puede ser no nula en laposición j. En consecuencia, T es diagonal.

Denotando Λ = T , tenemos que

A = QΛQ∗ = QΛQ−1,

con Λ diagonal de donde se concluye, por el Teorema 5.1.20, que A esdiagonalizable en C con una base de vectores propios ortonormales.

Recíprocamente, siA = QΛQ∗. (5.19)

con Q unitaria, y como Λ y Λ∗ conmutan por ser diagonales, tenemos

A∗A = QΛ∗Q∗QΛQ∗ = QΛ∗ΛQ∗ = QΛΛ∗Q∗ = QΛQ∗QΛ∗Q∗ = AA∗.

Por tanto, A es normal.

Page 39: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 319 — #335

CAPÍTULO 5. Valores y vectores propios 319

Teorema 5.3.3: Diagonalización de matrices simétricas

Una matriz A es simétrica real si y sólo si existen matrices reales Qortogonal y Λ diagonal tales que

A = QΛQ�.

Demostración. Si A es simétrica real, es normal y por el Teorema5.3.2 diagonalizable mediante una transformación ortogonal. Basta de-mostrar que los valores propios son todos reales. Para ello es suficientecon considerar que

QΛQ∗ = A = A∗ = (Q∗)∗Λ∗Q∗ = QΛ∗Q∗ ⇒ Λ = Λ∗

por lo que los valores propios de A, que son las entradas de la matrizdiagonal Λ, han de ser necesariamente números reales. Si los valorespropios son reales, la matriz T en la factorización de Schur se puede to-mar (ortogonal) real. Como Q coincide con T para matrices normales,hemos probado el primer resultado.

El recíproco es inmediato.

Nota 5.3.4Observemos que el punto delicado radica en probar que las matricessimétricas son diagonalizables, esto es, que la multiplicidad geométricay algebraica de los valores propios coincide. Justamente para probareste resultado es para lo ha sido necesario recurrir a la factorizaciónde Schur.

Sin embargo, sí es fácil ver que los valores propios de matricessimétricas son reales y los vectores vectores propios de valores propiosdistintos son ortogonales mediante un argumento directo. En efecto,si

Au = λu, Av = µv, A� = A,

entonces

λ�u�2 = (λu)∗u = (Au)∗u= u∗A�u = u∗(Au) = u∗(λu) = λ�u�2.

Por tanto, λ = λ de donde se sigue que λ es real y el vector u se puedetomar también con entradas reales.

Page 40: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 320 — #336

320 5.3 Matrices normales y matrices simétricas

Por otro lado,

µv�u = (µv)�u = (Av)�u = v�A�u= v�Au = v�(Au) = λv�u.

Por tanto(λ − µ)v�u = 0.

Si λ �= µ, necesariamente

v · u = v�u = 0.

Para finalizar, nótese que el argumento desarrollado en esta nota,así como la demostración del Teorema anterior, es extensible a ma-trices con entradas en C que cumplen A∗ = A. Este tipo de matricesse conocen como matrices autoadjuntas o matrices hermitianas(véase Ejercicio 5.23).

Ejemplo 5.3.5

Consideremos

A =

5 −1 3 1−1 5 1 3

3 1 5 −11 3 −1 5

.

La matriz A es simétrica, luego diagonalizable. Calculemos los valoresy vectores propios. El polinomio característico viene dado por

|A − xI| =

���������

5 − x −1 3 1−1 5 − x 1 3

3 1 5 − x −11 3 −1 5 − x

���������

F3 → F3 + 3F2

F4 → F4 + F2=

���������

5 − x −1 3 1−1 5 − x 1 3

0 16 − 3x 8 − x 80 8 − x 0 8 − x

���������

= (5 − x)

�������

5 − x 1 316 − 3x 8 − x 8

8 − x 0 8 − x

�������

Page 41: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 321 — #337

CAPÍTULO 5. Valores y vectores propios 321

+

�������

−1 3 116 − 3x 8 − x 8

8 − x 0 8 − x

�������

= (5 − x)(−x3 + 15x2 − 64x + 64)+(−11x2 + 128x − 320)

= x4 − 20x3 + 128x2 − 256x = x(x − 4)(x − 8)2.

Comprobamos que los valores propios son por tanto 0, 4 y 8, esteúltimo con multiplicidad algebraica 2 (recordemos que 0 se admitecomo valor propio).

Respecto a los vectores propios, éstos son, para λ = 0, el espacionulo de A

5 −1 3 1−1 5 1 3

3 1 5 −11 3 −1 5

que viene dada por

N(A) = span �(1, 1, −1, −1)� �� �u1

�.

Para λ = 4, plantearíamos el espacio nulo de la matriz

A − 4I =

1 −1 3 1−1 1 1 3

3 1 1 −11 3 −1 1

y obtendríamos

N(A − 4I) = span �(1, −1, −1, 1)� �� �u2

�,

y finalmente, para λ = 8, trabajaríamos con la matriz

A − 8I =

−3 −1 3 1−1 −3 1 3

3 1 −3 −11 3 −1 −3

Page 42: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 322 — #338

322 5.3 Matrices normales y matrices simétricas

del que, tras los cálculos oportunos, obtendríamos

N(A − 8I) = span �(1, 1, 1, 1)� �� �u3

, (1, 0, 1, 0)� �� �u4

�.

Observa que, tal y como se comenta en la Nota 5.3.4,

u1 · u2 = u1 · u3 = u1 · u4 = u2 · u3 = u2 · u4 = 0.

Para disponer de una base ortogonal, deberíamos tener u3 · u4 = 0,que no es caso. Salvar este pequeño problema es, sin embargo, muysimple: debemos escoger una base alternativa, una base ortonormalde N(A − 8I). Podemos aplicar Gram-Schmidt a {u3, u4} y obtenercomo base ortonormal

N(A − 8I) = span � 12(1, 1, 1, 1)� �� �

v3

, 12(1, −1, 1, −1)� �� �

v4

�.

Si definimos, además,

v1 = 12u1 = 1

2(1, 1, −1, −1), v2 = 12u2 = 1

2(1, −1, −1, 1),

(estamos simplemente normalizando los vectores propios obtenidos)contamos con una base de vectores propios ortonormales de R4. Enotras palabras, si

Λ :=

04

88

, Q = 1

2

1 1 1 11 −1 1 −1

−1 −1 1 1−1 1 1 −1

podemos comprobar de nuevo que Q es ortogonal y que de hecho

A = QΛQ�.

Nota 5.3.6: Matrices antisimétricas y antihermitianas

Las matrices simétricas son más comunes que las matrices antisimé-tricas de ahí el énfasis que hemos dado en este texto a este conjuntode matrices. Sin embargo, la teoría desarrollada en este sección sepuede adaptar fácilmente para probar resultados similares para estas

Page 43: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 323 — #339

CAPÍTULO 5. Valores y vectores propios 323

matrices. A saber, que toda matriz antisimétrica es diagonalizable enC y que sus valores propios son números imaginarios puros. Véase alrespecto el problema 5.24.

5.4. Matrices simétricas. Relaciones de congruen-cia

De la sección anterior hemos concluido que para cualquier matriz simé-trica A existe una matriz

Q�AQ = Λ =

λ1λ2

. . .λn

donde Q se puede tomar ortogonal y en ese caso λ1, . . . , λn son los valorespropios. En esta sección consideraremos un tipo algo más general de trans-formaciones, del tipo

P �AP = D =

d11d22

. . .dnn

con P invertible y D una matriz diagonal. Los elementos de la diagonal yano son los valores propios, salvo que P fuera ortogonal. Sin embargo sí semantienen los signos de éstos. Ésta es la conocida Ley de Sylvester

Teorema 5.4.1: Ley de Sylvester

Dada A una matriz n × n simétrica, existe P invertible, no única, tal

Page 44: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 324 — #340

324 5.4 Matrices simétricas. Relaciones de congruencia

que

P �AP =

d1. . .

dr

dr+1. . .

dr+s

0. . .

0

(5.20)

donde d1, . . . , dr > 0 > dr+1, . . . , dr+s. Además, r y s, el número deelementos en la diagonal de D que son positivos y negativos, y portanto también el número de elementos nulos, son fijos y dependientesúnicamente de A. Estos es, si P2 es cualquier otra matriz de forma quehace D2 = P �

2 AP2 diagonal, el número de elementos positivos sobrela diagonal de D2 es de nuevo r, el de negativos s y los nulos n−r −s.

En consecuencia, r es el número de valores propios positivos de A,s el número de valores propios negativos y n − r − s la multiplicidadde 0 como valor propio, si lo fuera.

Demostración. La existencia de esta factorización es consecuenciadel Teorema 5.3.3: con Q ortogonal

Q�AQ = Λ =

λ1. . .

λr�+s�

00

(5.21)

donde λ1, . . . , λr� > 0 > λr�+1, . . . λr�+s� son los valores propios nonulos de A. Así, lo único resta por probar es que si tenemos otrafactorización como en (5.20), y por tanto con P no necesariamenteortogonal, entonces r = r� y s = s�.

DefinamosV+ := span �q1, . . . , qr��, V− := span �qr�+1, . . . , qr�+s��,V0 := span �qr�+s�+1, . . . , qn�.

(5.22)

Page 45: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 325 — #341

CAPÍTULO 5. Valores y vectores propios 325

Observemos queV0 = N(A), (5.23)

puesto que corresponde al espacio de vectores propios asociados alvalor propio 0, si 0 fuera valor propio obviamente (en caso contrarioel argumento que sigue continúa siendo válido tomando V0 = ∅, elconjunto vacío). Además

q�i Aqj =

�0, si i �= j

λj , si i = j(5.24)

de donde es fácil deducir que si v± ∈ V± con v± �= 0 y v0 ∈ V0entoncesa

(v+ + v0)�A(v+ + v0) = v�+Av+

> 0 > v�−Av− = (v− + v0)�A(v− + v0).

(5.25)

Demostraremos a continuación que asociados con la factorización(5.20) existen subespacios que se comportan de forma similar a (5.21–5.25). Denotemos por pi las columnas de P y definamos los espaciosanálogos

U+ := span �p1, . . . , pr�, U− := span �pr+1, . . . , pr+s�,U0 := span �pr+s+1, . . . , pn�.

Notemos que la entrada (i, j) de P �AP viene dado por

p�i Apj =

�0, si i �= j,

di, si i = j.(5.26)

Además, dado que P es invertible,

{p1, . . . , pn} (5.27)

es base de Rn. Expresado de diferente forma, se tiene

U+ ⊕ U− ⊕ U0 = Rn (5.28)

(Nota 2.4.11 y el Ejercicio 2.18). La demostración utiliza una serie depasos, resultados auxiliares, que desarrollaremos de forma indepen-diente:

Page 46: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 326 — #342

326 5.4 Matrices simétricas. Relaciones de congruencia

P1 Probamos en este paso que U0 = N(A). En efecto, dado quepara j = r + s + 1, . . . , n, se tiene por (5.26)

p�i Apj = 0, i = 1, . . . , n.

deducimos que Apj = 0 por lo que

U0 ⊂ N(A).

Por último, como

rang A = rang(P �AP ) = rang D = r + s

(P es invertible; véase Corolario 2.3.12) se deduce que necesa-riamente dim N(A) = n − r − s, que coincide con la dimensiónde U0. Por tanto, U0 = N(A). Como V0 = U0, hemos probadoque

r� + s� = r + s. (5.29)

P2 Demostraremos que si u± ∈ U± con u± �= 0 y u0 ∈ U0 entonces

(u+ + u0)�A(u+ + u0) = u�+Au+ > 0 (5.30)

(u− + u0)�A(u− + u0) = u�−Au− < 0. (5.31)

En efecto, como A es simétrica,

(u+ + u0)�A(u+ + u0)= u�

+Au+ + u�0 A� �� �=0

u+ + u�+ Au0����

=0

+u�0 Au0����

=0

. (5.32)

Dado que u+ ∈ U+ podemos escribir

u+ = α1p1 + . . . + αrpr

o equivalentemente

u+ = P

α1...

αr

0...

� �� �=α

.

Page 47: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 327 — #343

CAPÍTULO 5. Valores y vectores propios 327

Así

u�+Au+ = α�P �APα = α�Dα = d1α2

1 + . . . + drα2r > 0

y (5.30) queda demostrado. Análogamente se prueba (5.31).

P3 Mostramos que se tienen las sumas directas

U+ ⊕V− ⊕V0 = U+ ⊕(V− ⊕V0), U− ⊕V+ ⊕V0 = U− ⊕(V+ ⊕V0).(5.33)

Notemos que la suma directa V+ ⊕ V− ⊕ V0, de la que se deducede forma inmediata las sumas V+ ⊕ V0 y V− ⊕ V0, dado que lafamilia de vectores {q1, . . . , qn} es una base ortonormal de Rn.Sea por tanto un vector

0 �= u ∈ U+ ∩ (V− ⊕ V0).

Entonces por (5.25)u�Au ≤ 0,

mientras que debido a P2,

u�Au > 0

lo que obviamente es imposible.Mostrar que la segunda suma en (5.33) es directa se deduce deforma similar: si existe un vector 0 �= v ∈ U−,

v�Av < 0.

Si además, v ∈ V+ ⊕ V0, debe satisfacer

v�Av ≥ 0

que de nuevo nos lleva a concluir que U− ∩ (V+ ⊕ V0) = {0}.

P4 Estamos listos para cerrar la demostración del resultado. Obser-vemos que

{p1, . . . pr, qr�+1, . . . , qn},

{q1, . . . qr� , pr+1, . . . , pr+s, pr�+s�+1, . . . , pn}

son bases de los espacios U+ ⊕V− ⊕V0 y V− ⊕U+ ⊕U0 contenidosen Rn por P3. Además, r + s = r� + s� (véase al final de P1). En

Page 48: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 328 — #344

328 5.4 Matrices simétricas. Relaciones de congruencia

particular ambas familias de vectores son libres, luego constande un número de elementos a lo sumo igual a n. Es decir,

�r + (n − r�) ≤ n,

r� + s + (n − r − s) ≤ n⇒

�r ≤ r�,

r� ≤ r.

esto es, r = r� de donde se sigue s = s�.aEl argumento es muy simple, y es el mismo que se utiliza seguidamente en P2.

Antes de leerlo, prueba a ver si das con él.

Definición 5.4.2: Signatura de una matriz

En las hipótesis del teorema anterior, a los números r y s, correspon-dientes a los elementos de D estrictamente positivos y estrictamentenegativos, se les denomina signatura de una matriz.

Definición 5.4.3: Matrices congruentes.Transformaciones de congruencia

Dos matrices A y B se dicen congruentes si existe P una matrizinvertible tal que

P �AP = B.

La transformación anterior, que iguala A y B vía una matriz P , sedenomina transformación de congruencia.

Corolario 5.4.4Toda matriz simétrica A con signatura (r, s) es congruente a unamatriz diagonal con r “1s” y s “−1s” en la diagonal. Es más, dosmatrices A y B simétricas son congruentes si y solo sí tienen la mismasignatura.

Demostración. La demostración se deja como ejercicio. Véase Pro-blema 5.26.

El cálculo de la signatura se puede realizar de forma eficiente medianteuna variante del método de Gauss-Jordan. La idea es la siguiente, si realiza-mos una operación por fila y seguidamente la misma por columnas esto es

Page 49: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 329 — #345

CAPÍTULO 5. Valores y vectores propios 329

equivalente a multiplicar a izquierda y derecha por una matriz elemental ysu traspuesta:

A � E1AE�1

Si tras m pasos llegamos a una matriz diagonal, y es fácil ver que siemprees posible, tendremos

EM · · · E1� �� �P �

A E�1 · · · E�

1� �� �=P

= D.

y por tantoP �AP = D.

Veámoslo con un ejemplo

Nota 5.4.5: Cálculo de la signatura

Sea

A =

1 2 1 02 4 −1 61 −1 2 10 6 1 0

. (5.34)

En primer lugar adosaremos la matriz identidad de una forma similara como procedíamos para el cálculo de la inversa:

1 2 1 0 1 0 0 02 4 −1 6 0 1 0 01 −1 2 1 0 0 1 00 6 1 0 0 0 0 1

A continuación vamos a hacer ceros utilizando operaciones por filasque aplicaremos inmediatamente por columnas:

1 2 1 0 1 0 0 02 4 −1 6 0 1 0 01 −1 2 1 0 0 1 00 6 1 0 0 0 0 1

F2 → F2 − 2 × F1

F3 → F3 − F1∼

1 2 1 0 1 0 0 00 0 −3 6 −2 1 0 00 −3 1 1 −1 0 1 00 6 1 0 0 0 0 1

C2 → C2 − 2 × C1

C3 → C3 − C1∼

1 0 0 0 1 0 0 00 0 −3 6 −2 1 0 00 −3 1 1 −1 0 1 00 6 1 0 0 0 0 1

Page 50: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 330 — #346

330 5.4 Matrices simétricas. Relaciones de congruencia

F2 ↔ F3∼

1 0 0 0 1 0 0 00 −3 1 1 −1 0 1 00 0 −3 6 −2 1 0 00 6 1 0 0 0 0 1

C2 ↔ C3∼

1 0 0 0 1 0 0 00 1 −3 1 −1 0 1 00 −3 0 6 −2 1 0 00 1 6 0 0 0 0 1

F3 → F3 + 3 × F2

F4 → F4 − F2∼

1 0 0 0 1 0 0 00 1 −3 1 −1 0 1 00 0 −9 9 −5 1 3 00 0 9 −1 1 0 −1 1

C3 → C3 + 3 × C2

C4 → C4 − C2∼

1 0 0 0 1 0 0 00 1 0 0 −1 0 1 00 0 −9 9 −5 1 3 00 0 9 −1 1 0 −1 1

F4 → F4 + F3∼

1 0 0 0 1 0 0 00 1 0 0 −1 0 1 00 0 −9 9 −5 1 3 00 0 0 8 −4 1 2 1

C4 → C4 + C3∼

1 0 0 0 1 0 0 00 1 0 0 −1 0 1 00 0 −9 0 −5 1 3 00 0 0 8 −4 1 2 1

F3 ↔ F4∼

1 0 0 0 1 0 0 00 1 0 0 −1 0 1 00 0 0 8 −4 1 2 10 0 −9 0 −5 1 3 0

C3 ↔ C4∼

1 0 0 0 1 0 0 00 1 0 0 −1 0 1 00 0 8 0 −4 1 2 10 0 0 −9 −5 1 3 0

F3 ↔ 1√8

F3

F4 ↔ 13

F4∼

1 0 0 0 1 0 0 00 1 0 0 −1 0 1 00 0

√8 0 − 4√

81√8

2√8

1√8

0 0 0 −3 − 53

13 1 0

Page 51: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 331 — #347

CAPÍTULO 5. Valores y vectores propios 331

C3 ↔ 1√8

C3

C4 ↔ 13

C4∼

1 0 0 0 1 0 0 00 1 0 0 −1 0 1 00 0 1 0 − 4√

81√8

2√8

1√8

0 0 0 −1 − 53

13 1 0

.

Es fácil comprobar que si definimos

P � :=

1 0 0 0−1 0 1 0

− 4√8

1√8

2√8

1√8

− 53

13 1 0

, D =

1 0 0 00 1 0 00 0 1 00 0 0 −1

entoncesP �AP = D

y por tanto la signatura de A es (3, 1). De hecho la signatura se podía conocerantes de acabar el proceso, una vez reducida la matriz a su forma diagonal.

Por otro lado, los valores propios de A son

{−4.9439, 0.6376, 2.6337, 8.6727}

calculados con cuatro cifras decimales correctas lo que confirma, numérica-mente, el resultado: tres son positivos y uno, negativo.

En los Ejemplos 5.5.15 y 5.5.27 mostramos esta técnica con dos nuevosejemplos.

Explicar por qué funciona el método bosquejado en el ejemplo anteriordebería ser un ejercicio muy simple a estas alturas de este texto. Este métodotiene ventajas evidentes sobre el basado en valores y vectores propios: elcálculo de valores propios es un proceso muy no-lineal puesto que requierehallar previamente las raíces de un polinomio, tarea ardua más allá del casoacadémico 2 × 2. Sin embargo, el algoritmo basado en matrices elementaleses simple, rápido y lineal. Además la matriz utilizada para la transformadade congruencia es una matriz triangular o una matriz resultado de permutarlas filas de una matriz triangular3, luego también es fácil, aunque no tansencillo como el caso ortogoanl, de invertir si hiciera falta.

3¿Por qué?

Page 52: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 332 — #348

332 5.5 Aplicaciones: formas cuadráticas

5.5. Aplicaciones: formas cuadráticas

Veremos a continuación la aplicación del análisis espectral de matricessimétricas en el marco de las formas cuadráticas.

5.5.1. Polinomios de grado dos y matrices

Un polinomio de grado 1 es fácilmente representable recurriendo a vec-tores y producto matricial (o escalar):

1 + x + 2y = 1 +�1 2

� �xy

�.

Los términos de grado 2 se pueden incorporar utilizando matrices. Esto nosconduce a hablar de formas cuadráticas.

Definición 5.5.1: Forma cuadráticaUna forma cuadrática en Rn es un polinomio en n variables com-puesto únicamente por monomios de grado 2:

p(x) =n�

i,j=1αijxixj .

Ejemplo 5.5.2

Son formas cuadráticas

p1(x, y) = 2x2 + 6xy, p2(x, y) = x2 + 4y2 + 8xy,

p3(x, y, z) = x2 + 4y2 − z2 + 6xy + 3xz + 8yz.

Observemos que

�x1 x2 · · · xn

α11 α12 · · · α1n

α21 α22 · · · α2n

. . . . . . . . . . . . . . . . . . .αn1 αn2 · · · αnn

x1x2...

xn

=n�

i,j=1αijxixj

y podemos identificar una forma cuadrática con una operación matricial.

Page 53: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 333 — #349

CAPÍTULO 5. Valores y vectores propios 333

Ejemplo 5.5.3

Las formas cuadráticas expuestas en el Ejemplo 5.5.2 pueden ser ex-presadas como sigue

p1(x, y) =�x y

� �2 60 0

� �xy

�=

�x y

� �2 42 0

� �xy

�.

p2(x, y) =�x y

� �1 53 2

� �xy

�=

�x y

� � 1 −412 2

� �xy

�.

p3(x, y) =�x y z

2 6 00 4 83 0 −1

xyz

=

�x y z

2 2 24 4 41 4 −1

xyz

.

No existe por tanto una única matriz asociada a una forma cuadrática.Sin embargo, si nos restringimos a las matrices simétricas, esta identificaciónsí es posible: para cada forma cuadrática existe una única matriz simétricaque la representa. Es un resultado sencillo de demostrar que se deja comoejercicio.

Ejemplo 5.5.4

Las formas cuadráticas del Ejemplo 5.5.3 se pueden expresar de formaúnica con las siguiente matrices simétricas:

p1(x, y) =�x y

� �2 33 0

� �xy

�,

p2(x, y) =�x y

� �1 44 2

� �xy

�.

p3(x, y, z) =�x y z

2 3 32

3 4 432 4 −1

xyz

.

El uso combinado de matrices y vectores dan un aspecto más compactoa cualquier polinomio de grado 2:

Page 54: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 334 — #350

334 5.5 Aplicaciones: formas cuadráticas

Ejemplo 5.5.5

Claramente

3 + x + 2y + 4xy + x2 − 3y2 = 3 +�1 2

� �xy

�+

�x y

� �1 22 −3

� �xy

= 5 +�9 −6

� �x − 1y − 2

�+

�x − 1 y − 2

� �1 22 −3

� �x − 1y − 2

Ésta es la forma en la que se escribe el polinomio de Taylor de grado2 en Cálculo Multivariado, y que es la clave que permite categorizarextremos en función de ceros de gradiente y el signo de la matrizHessiana (véase subsección 5.5.3).

5.5.2. Ceros de polinomios cuadráticosNos planteamos contestar a la siguiente cuestión:

¿qué figura geométrica forman en R2 los ceros de un polino-mio en x, y de grado 2?

Utilizaremos con fines ilustrativos un, otro más, problema juguete.

Problema juguete

Vamos a analizar el siguiente conjunto:

G =�(x, y) ∈ R2 : −3x2 + y2 + 4

√3xy

+(6 + 8√

3)x + 4(1 −√

3)y − 8√

3 = 0�.

(5.35)

Esto es, ¿qué figura geométrica describe? Antes de empezar, una pequeñaaclaración. Los coeficientes que aparecen en la definición de G son tan apa-ratosos para que, paradójicamente, los cálculos intermedios y el resultadofinal, impliquen números más sencillos. Respecto a la cuestión en sí, a priories difícil de contestar. No parece ninguno de los conjuntos habituales.

Lo primero que haremos es reescribir lo anterior como una forma cua-drática. Los términos de grado 1 se puede eliminar mediante un cambiociertamente simple:

x = y1 − a, y = y2 − b (5.36)

Page 55: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 335 — #351

CAPÍTULO 5. Valores y vectores propios 335

con a y b adecuados. Con este cambio, que preserva los términos de grado2, obtenemos

0 = − 3(y1 − a)2 + (y2 − b)2 + 4√

3(y1 − a)(y2 − b) + (6 + 8√

3)(y1 − a)+ 4(1 −

√3)(y2 − b) − 8

√3

= − 3y21 + y2

2 + 4√

3y1y2

+ (6a − 4√

3b + 6 + 8√

3)y1 + (−4√

3a − 2b + 4 − 4√

3)y2

+ (−3a2 + b2 + 4√

3ab − (6 + 8√

3)a − (−4√

3 + 4)b − 8√

3)

Si tomamos a = −1 y b = 2 los términos en grado 1 se cancelan para obtenerel polinomio en y1 y y2 siguiente

1 = −3y21 + y2

2 + 4√

3y1y2 =�y1 y2

� � −3 2√

32√

3 1

� �� �=:A

�y1y2

�, (5.37)

una forma cuadrática. Antes de continuar, señalaremos que el cambio devariable (5.36) supone desplazar el sistema de coordenadas según el vector(1, −2) de forma que x = 1 e y = −2 son los nuevos ejes coordenados. Comotraslación, esto no supone modificación alguna en la geometría del conjuntoG.

Prosigamos diagonalizando A. El polinomio característico de A es�����−3 − x 2

√3

2√

3 1 − x

����� = x2 + 2x − 15 = (x − 3)(x + 5).

Vemos que los valores propios son 3 y −5 con vectores propios asociados,tomados ya ortonormales,

�12 ,

√3

2�,

� −√

32 , 1

2�.

Dicho de otra manera,

A =

12 −

√3

2√3

212

� �� �Q

�−3

5

� �� �Λ

12

√3

2

−√

32

12

� �� �Q�

y por tanto (5.37) queda

1 =�

Q��y1y2

��� �3

−5

��Q�

�y1y2

��.

Page 56: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 336 — #352

336 5.5 Aplicaciones: formas cuadráticas

Si hacemos, nuevo cambio de variable,�z1z2

�= Q�

�y1y2

�(5.38)

concluimos que el conjunto G está formado por

�(z1, z1) :

�z1 z2

� �3−5

� �z1z2

�= 1

�=

�(z1, z1) : 3z2

1 − 5z22 = 1

o lo que es lo mismo113

z21 − 1

15

z22 = 1.

Esto es, G, en las coordenadas z1, z2 es una hipérbola de asíntotas

z2 = ±�

35z1

centro (0, 0) y que pasa por los puntos (± 1√3 , 0).

Resta por ver qué efecto supone el cambio de las coordenadas de (y1, y2)a (z1, z2). Si revisamos (5.38) comprobamos que

�z1z2

�=

12

√3

2

−√

32

12

�y1y2

�=

�cos π

3 sen π3

− sen π3 cos π

3

� �y1y2

La matriz P rota los puntos del plano π/3 radianes, es decir, 60o, con centroel origen (0, 0) en la dirección de las agujas del reloj.

Así pues, la relación entre (z1, z2) y las coordenadas originales es primerouna traslación según el vector (1, −2) y una rotación de π/3 radianes ensentido horario. Ambas trasformaciones preservan la forma del conjunto G(véase la Figura 5.5).

Caso general

No desarrollaremos el tema con la profundidad que éste merece aunqueun análisis detallado del ejemplo anterior permite concluir que toda expresióngeométrica de la forma

H := {(x, y) : ax2 + by2 + dxy + ex + gy + h = 0}

se puede escribir primero�x y

� �a d2

d2 b

� �� �A

�xy

�+

�e f

� �� �a�

�xy

�+ h = 0. (5.39)

Page 57: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 337 — #353

CAPÍTULO 5. Valores y vectores propios 337

Figura 5.5: El conjunto G trabajado en (5.35) en las coordenadas (z1, z2) yen las coordenadas originales (x, y).

Si A es invertible, y tomamos

y =�y1y2

�=

�x + x0y + y0

�= x + x0

llegamos a que en las nuevas coordenadas y = (y1, y2), el polinomio en (5.39)queda como sigue

y�Ay + (a� − 2x�0 A)y + h + x�

0 A�x0.

Basta por tanto con tomar x0 = (x0, y0) tal que

Ax0 = 12a

para cancelar los términos de grado 1 y obtener la forma reducida

y�Ay + �h = 0,

Una rotación, una transformación ortogonal permite reducir en unas nuevasvariables (y1, y2) a una expresión de la forma

λ1y21 + λ2y2

2 + �h = 0.

Tenemos en este momento esencialmente dos casos posibles:

C1 Si λ1λ2 > 0 y �h < 0 H es una elipse, de hecho un círculo si λ1 = λ2.

Page 58: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 338 — #354

338 5.5 Aplicaciones: formas cuadráticas

C2 Si λ1λ2 < 0, H es una hipérbola.

Si A tiene rango 1, el análisis es ligeramente distinto. En primer lugar A tienea 0 como valor propio. Rotando adecuadamente, vía de nuevo el cambio decoordenadas impuesto por los valores y vectores propios, llegaremos a

λ1y21 +

�e g

� �y1y2

�+ �h = 0.

Es fácil concluir a continuación que

C3 Si A tiene a 0 como valor propio, H corresponde a una parábola.

Nos hemos dejado en el tintero algún caso límites, casos degenerados. Porejemplo para una hipérbola, si �h = 0 aparecen dos rectas. Si estamos conuna elipse, y �h = 0 el conjunto H colapsa en un punto mientras que si �h < 0el conjunto geométrico es vacío (no hay raíces del polinomio de grado 2). Encualquier caso son los valores propios de la parte cuadrática las que dibujanla forma esencial del conjunto geométrico.

Nota 5.5.6Hemos comprobado que los ceros de un polinomio de grado 2 en x, ydibujan elipses, parábolas, hipérbolas o figuras límites de éstas. Estascurvas son conocidas desde la antigüedad, estudiadas por primera vezpor Menecmo, y en profundidad por Apolonio (262AC-192AC) comocónicas o secciones de cónicas. Isaac Newton demostró, matemá-ticamente, en sus Principia Philosophiae que la órbita de un cuerpoalrededor de un objeto masivo seguía necesariamente un curva cóni-ca: elíptica, parabólica o hiperbólica, dependiendo de la energía delmóvil. Este hecho había sido observado por primera vez por Johan-nes Kepler cuando trabajaba en su proyecto de ajustar la órbita deMarte, utilizando las observaciones de Tycho Brahe, a un círculo taly como postulada por la teoría heliocéntrica. La teoría heliocéntrica,propuesta por Nicolás Copérnico y defendida por Galileo Galilei, seencontraba en plena confrontación con teoría geocéntrica en aquellosmomentos. Para sorpresa de Kepler, las observaciones se ajustabanmás bien a una elipse con el Sol en uno de sus focos lo que dio lugar alo que se denominó primera ley de Kepler. Precisamente que la teoríade Gravitación de Newton demostrara este hecho observado fue uno delos primeros éxitos de ésta. Curiosamente Galileo fue el primero queobservó que el movimiento de un objeto lanzado sobre la superficiede la tierra seguía una trayectoria parabólica lo que puede entenderse

Page 59: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 339 — #355

CAPÍTULO 5. Valores y vectores propios 339

como una prueba indirecta de que el origen último que hace orbitarlos planetas y caer una piedra en la Tierra es el mismo, la gravedad.

Nota 5.5.7En el análisis desarrollado en esta sección estamos viendo las trans-formaciones impuestas por los vectores propios como rotaciones en elplano. El resultado es incompleto aunque apunta en la buena direc-ción. De hecho, cualquier matriz ortogonal real en R2 se puede escribircomo producto de matrices del tipo

G(θ) :=�

cos θ sen θ− sen θ cos θ

(rotaciones de θ radianes en la dirección de las agujas del reloj respectoal origen) con matrices de la forma

H =�1

−1

que son simetrías o reflexiones respecto al eje OX. Observa que |G(θ)| =1 mientras que |H| = −1.

Nota 5.5.8: Cuádricas en R3

Un análisis similar se puede llevar a cabo en R3, con los ceros de lospolinomios de grado 2 en x, y, z:

�x y z

�A

xyz

+ a�

xyz

+ a

Aparecen entonces superficies en R3 bien conocidas: elipsoides (queincluye a la esfera), hiperboloides (de una o dos hojas), paraboloidesy cilindros de sección elíptica, hiperbólica o parabólica.

Page 60: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 340 — #356

340 5.5 Aplicaciones: formas cuadráticas

5.5.3. Clasificación de formas cuadráticas

En lo que resta de esta sección, escribiremos una forma cuadrática utili-zando la matriz subyacente

F (x) = x�Ax

donde A es una matriz simétrica.Nuestro interés es estudiar el signo de la expresión anterior para vectores

x ∈ Rn.

Definición 5.5.9Diremos de una forma cuadrática F que es:

(a) Definida positiva: si F (x) > 0 para cualquier vector x �= 0.

(b) Definida negativa: si F (x) < 0 para cualquier vector x �= 0.

(c) Semidefinida positiva: si F (x) ≥ 0 para cualquier vector x �=0 y existe algún vector 0 �= y tal que F (y) = 0.

(d) Semidefinida negativa: si F (x) ≤ 0 para cualquier vectorx �= 0 y existe algún vector 0 �= y tal que F (y) = 0.

(e) Indefinida: si existen x, y tal que F (x) > 0 > F (y).

Equivalentemente se dice que una matriz A es respectivamente defi-nida positiva, negativa, semidefinida,.... si la forma bilineal asociadaasí lo es.

Nota 5.5.10

Algunos autores incluyen las formas definidas positivas/negativas co-mo semidefinidas. Es decir, dan la siguiente definición:

F es semidefinida�

positivanegativa

�si F (x)

�≥≤

�0.

No es nuestro caso. Así, para nosotros, en este texto, semidefinida esestrictamente semidefinida.

Page 61: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 341 — #357

CAPÍTULO 5. Valores y vectores propios 341

Ejemplo 5.5.11

Consideremos

A =�4 22 3

�, B =

−4 2 02 −2 00 0 −1

,

C =

1 1 01 1 00 0 2

, D =

1 3 03 2 00 0 2

.

Es fácil ver que A es definida positiva. En efecto, si denotamos porFA la forma bilineal asociada,

FA(x, y) =�x y

� �4 22 3

� �xy

�= 4x2 + 4xy + 3y2 = (2x + y)2 + 2y2.

La expresión anterior es un número positivo salvo si x = y = 0. ParaFB, tenemos

FB(x, y, z) = −4x2 + 4xy − 2y2 − z2 = −(2x − y)2 − y2 − z2

que claramente es definida negativa.Por otro lado

FC(x, y, z) = x2 + y2 + 2xy + 2z2 = (x + y)2 + 2z2

que es un cantidad no negativa pero que se cancela para algunos vec-tores no nulos. Por ejemplo

FC(1, −1, 0) = 0.

Por tanto FC es semidefinida positiva.La última forma cuadrática FD es indefinida:

FD(1, −1, 0) = −3 < 0 < 1 = FD(1, 0, 0).

El problema que nos ocupa en esta sección es catalogar una matriz y/osu forma cuadrática asociada como alguno de los tipos anteriores. Algunaspropiedades evidentes en esta primera aproximación son las siguientes

Page 62: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 342 — #358

342 5.5 Aplicaciones: formas cuadráticas

Propiedades 5.5.12

Sea A = (aij) una matriz simétrica. Entonces:(a) A es definida positiva/negativa si y sólo si −A es respectivamen-

te definida negativa/positiva.

(b) A es semidefinida positiva/negativa si y sólo si −A es semidefi-nida negativa/positiva.

(c) A es indefinida y sólo si −A es indefinida.

(d) Si A es definida positiva, entonces aii > 0.

(e) Si A es definida negativa, entonces aii < 0.

(f) Si A es semidefinida positiva, entonces aii ≥ 0.

(g) Si A es semidefinida negativa, entonces aii ≤ 0.

(h) Si para algún i, j, aii > 0 > ajj , A es indefinida.

Demostración. Las tres primeras propiedades (a)-(c) son inmediatas.En efecto, basta observa que

x�Ax > 0 ⇐⇒ x�(−A)x < 0.

Por otro lado

�0 · · · 1����

i

· · · �A

0...1...0

= aii.

Por tanto, si la matriz es definida positiva, necesariamente aii > 0. Conargumentos similares se puede probar el resto de propiedades (d)–(h).

Señalaremos, no obstante, que los recíprocos de las implicaciones (d)–(h)en Propiedades 5.5.12 no son ciertas. Por ejemplo, que los elementos dela diagonal de una matriz sean positivos no quiere decir que la matriz sea,necesariamente, definida positiva (véase por ejemplo la matriz D en Ejemplo5.5.11).

Page 63: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 343 — #359

CAPÍTULO 5. Valores y vectores propios 343

Propiedades 5.5.13

Sea A una matriz simétrica con valores propios λ1, λ2, . . . , λn sin ex-cluir que algún valor propio esté repetido. Entonces

(a) A es definida positiva si y sólo si λ1, . . . , λn > 0.

(b) A es definida negativa si y sólo si λ1, . . . , λn < 0.

(c) A es semidefinida positiva si y sólo si λ1, . . . , λn ≥ 0 y paraalgún j, λj = 0.

(d) A es semidefinida negativa si y sólo si λ1, . . . , λn ≤ 0 y paraalgún j, λj = 0.

(e) A es indefinida si y sólo si λi < 0 < λj para algún i y j.

Demostración. A es simétrica luego diagonalizable con una matrizortogonal (Teorema 5.3.3). Es decir, existe Q tal que

Q�AQ =

λ1λ2

. . .λn

.

Entonces,x�Ax = (Q�x)�

� �� �=:y�

Q�AQ(Q�x� �� �=y

) = λ1y21 + λ2y2

2 + . . . + λny2n.

Por tanto, si λi > 0, respectivamente λi < 0, para i = 1, . . . , n tene-mos una matriz definida positiva, respectivamente definida negativa.Si existe λi < 0 < λj es indefinida. Si todos los valores propios sonmayores o iguales que cero, respectivamente menores o iguales concero, y 0 es también valor propio, tenemos una matriz semidefinidapositiva, respectivamente semidefinida negativa.

Recíprocamente, si la matriz es definida positiva todos los valorespropios λj han de ser positivos pues en caso contrario, pongamos porejemplo que λ1 < 0, podríamos tomar x = u1, donde u1 es el vectorpropio asociado a λ1, y obtener

u�1 Au1 = λ1u�

1 u1 = λ1�u1�2 < 0lo que supondría una clara contradicción. De forma similar se trata elresto de casos.

Page 64: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 344 — #360

344 5.5 Aplicaciones: formas cuadráticas

Tenemos por tanto una primera forma de dilucidar el carácter de unamatriz: calculando los valores propios y examinando su signo. Es sin embargoun proceso costoso, el cálculo de valores propios es como hemos visto muy nolineal. Exploraremos maneras distintas de categorizar la matriz. Una primeraforma es consecuencia del resultado anterior.

Proposicion 5.5.14

Sea (r, s) la signatura de una matriz simétrica A n × n. Entonces:(a) Si (r, s) = (n, 0), la matriz es definida positiva.

(b) Si (r, s) = (0, n), la matriz es definida negativa.

(c) Si 0 < r < n y s = 0, la matriz es semidefinida positiva.

(d) Si 0 < s < n y r = 0, la matriz es semidefinida negativa.

(e) Si r, s > 0, la matriz es indefinida.

Éstos son, además, todos los casos posibles.

Ejemplo 5.5.15: Signatura y clasificación de una for-ma cuadrática

Consideremos el Ejemplo (5.34) en la Nota 5.4.5. Hemos visto que lamatriz

A =

1 2 1 02 4 −1 61 −1 2 10 6 1 0

.

tiene como signatura (3, 1) luego podemos concluir que es indefinida.Veamos otro ejemplo con la matriz

B =

3 1 −21 1 −3

−2 −3 11

.

Calcularemos la signatura como procedíamos en (5.34).

3 1 −2 1 0 01 1 −3 0 1 0

−2 −3 11 0 0 1

F1 ↔ F2∼

1 1 −3 0 1 03 1 −2 1 0 0

−2 −3 11 0 0 1

Page 65: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 345 — #361

CAPÍTULO 5. Valores y vectores propios 345

C1 ↔ C2∼

1 1 −3 0 1 01 3 −2 1 0 0

−3 −2 11 0 0 1

F2 → F2 − F1

F3 → F3 + 3F1∼

1 1 −3 0 1 00 2 1 1 −1 00 1 2 0 3 1

C2 → C2 − C1

C3 → C3 + 3C1∼

1 0 0 0 1 00 2 1 1 −1 00 1 2 0 3 1

F3 → 2F3∼

1 0 0 0 1 00 2 1 1 −1 00 2 4 0 6 2

C3 → 2C3∼

1 0 0 0 1 00 2 2 1 −1 00 2 8 0 6 2

F3 → F3 − F2∼

1 0 0 0 1 00 2 2 1 −1 00 0 6 −1 7 2

C3 → C3 − C2∼

1 0 0 0 1 00 2 0 1 −1 00 0 6 −1 7 2

No hace falta continuar: la signatura de B es (3, 0) por lo que podemosconcluir que la matriz es definida positiva. De hecho,

0 1 01 −1 0

−1 7 2

3 1 −21 1 −3

−2 −3 11

0 1 −11 −1 70 0 2

=

1 0 00 2 00 0 6

Observa que hay operaciones no necesarias (intercambio de las filas ycolumnas primera y segunda al principio, o multiplicar la tercera fila,y columna, por 2 hacia el final del cálculo). Hemos procedido de estaforma para mostrar que el cálculo con números enteros es igualmenteposible en casos como éste siempre que se ejecuten las operaciones enel orden correcto: cualquier operación por fila ha de tener su reflejoen una operación por columnas.

Page 66: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 346 — #362

346 5.5 Aplicaciones: formas cuadráticas

Para matrices definidas positivas o negativas existe un tercero criteriodistinto que hace uso de los menores principales (ver Definición 4.1.6).

Teorema 5.5.16: Criterio de Sylvester o de los menores

Una matriz simétrica A n × n es definida positiva si y sólo si susmenores principales son estrictamente positivos:

A1, A2, . . . , An > 0.

De forma similar, una matriz es definida negativa si los menoresprincipales de orden par son estrictamente positivos y los de ordenimpar, estrictamente negativos:

A1, A3, A5 . . . < 0 < A2, A4, . . . .

Finalmente, si una matriz tiene un menor principal director de ordenpar negativo, entonces A es indefinida.

Demostración. Notemos en primer lugar que si tomamos las r pri-meras filas y columnas de una matriz definida positiva, obtendremostambién una matriz definida positiva (véase Ejercicio 5.15). Los meno-res principales A1, A2,. . . An, son el producto de los valores propios delas matrices que quedan al tomar la primera fila y columna de A, lasdos primeras filas y columnas de A,... y las n primeras filas y colum-nas de A. Como en todos los casos estas (sub)matrices son definidaspositivas, su determinante es positivo al ser el producto de valorespropios positivos (punto (f) en Propiedades 5.1.11) de las matricescorrespondientes .

El recíproco hace uso de una variante de la descomposición LUque introducimos en la sección 1.7. Tal y como vimos en la Propo-sición 4.1.12, los menores principales son distintos de cero, entoncesla factorización A = LU es posible, con L triangular inferior y 1s enla diagonal y U triangular superior. Es más, como los productos delos pivotes uii devuelven los menores principales directores (PropiedadP17 en página 259), uii > 0. El Ejercicio 1.37 (página 99) se proponíaprobar que para matrices simétricas, la descomposición LU se podíaescribir, de forma única, como

A = �LD�L� (5.40)

con �L una matriz triangular inferior con 1s en la diagonal y D una

Page 67: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 347 — #363

CAPÍTULO 5. Valores y vectores propios 347

matriz diagonal con uii, los pivotes de A, en la diagonal. Por tanto lasignatura de A es (n, 0) y por tanto definida positiva.

Por último, si A es definida negativa, entonces −A es definidapositiva. Basta observar ahora que los menores principales directoresde −A coinciden con los de A si son de orden par y tienen signo opuestosi son de orden impar.

De hecho en la demostración del resultado anterior hemos probado unapropiedad adicional:

Proposicion 5.5.17: Factorización de Cholesky

Una matriz A es definida positiva si y sólo si existe una matriz Rtriangular superior con diagonal positiva tal que

A = R�R.

Esta descomposición se conoce como factorización de Cholesky.

Demostración. Partimos de la descomposición �LD�L� enunciada en(5.40). Denotemos

D =

d11d22

· · ·dnn

, D1/2 :=

d1/211

d1/222

· · ·d

1/2nn

(necesitamos que dii ≥ 0 para seguir operando con números reales,como es el caso que nos ocupa). Basta tomar

R = D1/2 �L�

en (5.40) para obtener

A = �LD�L� = �LD1/2D1/2 �L� = (D1/2 �L�)�(D1/2 �L�) = R�R.

La factorización es única porque así es la factorización �LD�L� de laque proviene.

Page 68: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 348 — #364

348 5.5 Aplicaciones: formas cuadráticas

Ejemplo 5.5.18: Factorización LU , �LD�L� y de Cholesky

Sea

A =

1 2 −12 8 −4

−1 −4 11

Entonces, la descomposición LU , su cálculo se deja como ejercicio, es

1 2 −12 8 −4

−1 −4 11

=

12 1

−1 −12 1

1 2 −14 −2

9

.

La descomposición �LD�L� viene dada por

1 2 −12 8 −4

−1 −4 11

=

12 1

−1 −12 1

14

9

1 2 −11 −1

21

.

mientras que la descomposición de Cholesky (que se puede deducir dela factorización anterior) es

1 2 −12 8 −4

−1 −4 11

=

12 2

−1 −1 3

1 2 −12 −1

3

.

El siguiente resultado es una versión diferente de Criterio de Sylvester queutiliza todos los menores principales, no sólo los directores (ver Definición4.1.6).

Teorema 5.5.19: Segunda versión del criteriode Sylvester

Una matriz A simétrica es definida positiva si y sólo si todos susmenores principales son positivos.

Una matriz A simétrica es definida negativa si y sólo si todos susmenores principales de orden par son positivos y los de orden imparnegativos.

Demostración. Empezaremos con el primer resultado. Si todos losmenores principales son positivos, en particular todos los menores

Page 69: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 349 — #365

CAPÍTULO 5. Valores y vectores propios 349

principales directores son positivos luego la matriz es definida posi-tiva.

Por otro lado, si una matriz es definida positiva y elegimos la ma-triz conformada por las filas y columnas J = {i1, i2, . . . , ir} tenemosuna matriz AJ que es definida positiva (véase de nuevo el Ejercicio5.15). Por tanto, sus valores propios son positivos, y su producto, quecoincide con |AJ |, es decir, el menor principal correspondiente, es tam-bién positivo.

La segunda afirmación es inmediata, sin más que hacer uso de queen este caso −A es definida positiva.

Corolario 5.5.20Si una matriz es semidefinida positiva entonces sus menores principa-les directores son mayores o iguales que cero:

A1, A2, . . . , An ≥ 0.

Recíprocamente, si una matriz es semidefinida negativa sus menoresprincipales de orden par son mayores e iguales que cero y los de ordenimpar, menores o iguales que cero:

A1, A3, A5 . . . ≤ 0 ≤ A2, A4, . . . .

Demostración. La demostración sigue las líneas del Teorema del Cri-terio de Sylvester (Teorema 5.5.16). Si A es semidefinida positiva, lasmatrices que quedan al tomar las r primeras filas y columnas son, obien definidas o semidefinidas positivas (nuevamente, Problema 5.15).Por tanto, los menores correspondientes, que son el producto de los va-lores propios de estas submatrices y que son no negativos, son mayoreso iguales que cero.

Si A es semidefinida negativa, −A es semidefinida positiva y po-demos proceder como en el Teorema 5.5.16.

En este caso, el de matrices semidefinidas, el recíproco del Corolario5.5.20 es falso. Esto es, que los menores principales directores de una matrizsean no negativos no implica, necesariamente, que la matriz sea semidefinidapositiva.

Page 70: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 350 — #366

350 5.5 Aplicaciones: formas cuadráticas

Ejemplo 5.5.21

Consideremos las matrices A–D del Ejemplo 5.5.11:

A =�4 22 3

�, B =

−4 2 02 −2 00 0 −2

,

C =

1 1 01 1 00 0 2

, D =

1 3 03 2 00 0 2

.

En el primer caso, los menores principales directores de A vienen dadopor

A1 = 4, A2 = 8

lo que indica que la matriz A es definida positiva.En el segundo caso,

B1 = −4, B2 = 4, B3 = −8.

Los de orden impar son negativos (estrictamente), las de orden par,positivos. La matriz B ha de ser por tanto definida negativa, tal ycomo se puede confirmar sin más que calcular sus valores propios.

La matriz C tiene como valores propios 0 y 2, con multiplicidadalgebraica dos. Por tanto, C es semidefinida positiva. Sus menoresprincipales directores vienen dados por

C1 = 1, C2 = 0, C3 = 0,

que efectivamente, son no negativos.Los menores principales directores de D son

D1 = 1, D2 = −7, D3 = −14

No puede ser semidefinida positiva, porque en tal caso todos los meno-res sería positivos. Tampoco semidefinida negativa, pues D2 es positi-vo. La única posibilidad, por descarte, es que la matriz sea indefinida.

Por otro lado, si tomamos las matrices

E1 =

10

1

, E2 =

10

−1

Page 71: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 351 — #367

CAPÍTULO 5. Valores y vectores propios 351

es inmediato comprobar que E1 es semidefinida positiva mientras queE2 es indefinida (basta revisar sus valores propios) y sin embargo susmenores principales directores, en ambos casos, son

1, 0, 0.

Vemos con este ejemplo que el hecho de que los menores principalesdirectores sean mayores o iguales que 0, no implica que la matriz seasemidefinida positiva.

De forma similar, para

E3 =

−10

1

, E4 =

−10

−1

los menores principales directores son en ambos casos

−1, 0, 0

y sin embargo E3 es indefinida mientras que E4 es semidefinida nega-tiva.

Para dilucidar el carácter de semidefinida positiva/negativa y/o indefini-da hemos de examinar todos los menores principales tal y como veremos enel resultado con que cerraremos el capítulo. La demostración de este últimoresultado necesita el siguiente lema técnico

Lema 5.5.22Sea A una matriz n×n simétrica no nula. Entonces si A es semidefinidanegativa, definida negativa o indefinida, existe un menor principalnegativo, esto es, existe un conjunto de índices J = {i1, i2, . . . , ir} talque AJ , la matriz definida por las filas y columnas de J , cumple que|AJ | < 0.

Demostración. La demostración utiliza un argumento original quesigue las líneas de la propuesta en [13]. Para matrices A 2 × 2 elresultado es fácil de probar:(C1) Si A es definida negativa, tanto a11 como a22 son negativos.

(C2) Si A es semidefinida negativa, la traza, por (f) en Propiedades

Page 72: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 352 — #368

352 5.5 Aplicaciones: formas cuadráticas

5.1.11, ha de satisfacer

a11 + a22 = λ1 + λ2 < 0

(λ1 y λ2 son los valores propios; nótese que uno es negativo y elotro nulo) luego uno de los elementos de la diagonal tiene queser menor o igual que cero.

(C3) Si A es indefinida con λ1 > 0 > λ2 sus valores propios,

|A| = λ1λ2 < 0

por lo que el menor principal de orden 2 es negativo.

Supongamos a continuación que A es n × n con n ≥ 3 y que ademáses definida negativa, semidefinida negativa o indefinida. Si |A| < 0 yahabríamos acabado: basta tomar como menor principal el determinan-te de la propia matriz. En caso contrario, como |A| ≥ 0 existen dosvalores propiosa λ < µ ≤ 0 con dos vectores propios u, v asociadostales que

Au = µu, Av = λv, con λ < 0.

Tomemos α de forma que w := αu + v tengan alguna entrada nula.Observemos que tal α existe necesariamente (podría ser, de hecho, queα = 0 si alguna entrada del vector v es ya nula; no es relevante para loque sigue). Sea i la (una) entrada de w nula, tomemos J1 = {1, . . . , i−1, i + 1, . . . , n} y consideremos la submatriz AJ1 . Es decir, AJ1 es lamatriz resultante de eliminar la fila y columna i de A. Análogamente,construyamos el vector wJ1 , resultado de eliminar la entrada i−ésimade w. Entonces

w�J1AJ1wJ1 = w�Aw

= α2u�Au + αv�Au + α(Au)�v + v�Av= α2u�Au + αµ v�u� �� �

=0+αλ u�v� �� �

=0+λv�v

= α2µu�u + λv�v < 0

(utilizamos que u y v son ortogonales por ser vectores propios de valo-res propios distintos). Por tanto, la matriz AJ1 , que es (n−1)×(n−1)no puede ser ni definida positiva ni semidefinida positiva. Examinemosel determinante |AJ1 |. Puede pasar lo siguiente:

Page 73: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 353 — #369

CAPÍTULO 5. Valores y vectores propios 353

(i) |AJ1 | < 0. En tal caso tenemos un menor de A que es negativo.El resultado está probado.

(ii) |AJ1 | ≥ 0. En tal caso, y como w�J1AJ1wJ1 < 0, tenemos que

la matriz AJ1 no puede ser ni semidefinida positiva ni definidapositiva. Esto es, AJ1 ha de ser definida negativa, semidefinidanegativa o indefinida.

Si estamos en el caso (ii), podemos nuevamente aplicar el razonamientoy obtener un segundo conjunto J2 de J1, y volver a plantearnos siestamos en el caso (i)-(ii). El razonamiento acaba bien porque hayamosdado con un conjunto J tal que |AJ | < 0, por lo que habríamos dadocon un menor principal en A negativo, o bien porque J conste de doselementos que haga AJ ser una matriz 2 × 2 que no es ni definida nisemidefinida positiva. Estamos en el caso con que hemos arrancado lademostración, y por (C1)-(C3) podríamos obtener un menor principalde AJ , que sería un menor principal de A, negativo.

a¿Por qué?

Ejemplo 5.5.23

Veamos un ejemplo de cómo funciona el argumento utilizado en lademostración anterior y comprobemos que es más sencillo de lo queparece a primera vista.

Consideremos la matriz

A =

−5 −4 −42 16−4 −41 −66 56

−42 −66 −72 −6016 56 −60 73

.

La matriz A es indefinida porque sus valores propios son −135, −45,0 y 135.

Escogemos los dos primeros valores propios y consideramos susvectores propios asociados:

v := (−2, 11, −6, −8), u := (−4, −8, −12, −1).

Esto esAu = −45u, Av = −135v.

Tomemosw := u − 8v = (30, 75, 90, 0)

Page 74: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 354 — #370

354 5.5 Aplicaciones: formas cuadráticas

de forma que el cuarto elemento de w es nulo. Entonces

w�Aw = −45�u�2 − 135�v�2 − 45 u · v� �� �=0

−135 u · v� �� �=0

< 0,

(u, v son ortogonales) y además

0 > w�Aw =�30 75 90 0

−5 −4 −42 16−4 −41 −66 56

−42 −66 −72 −6016 56 −60 73

3075900

=�30 75 90

−5 −4 −42−4 −41 −66

−42 −66 −72

307590

.

Nos encontramos así con que la submatriz AJ , con J = {1, 2, 3}, esuna matriz indefinida, definida o semidefinida negativa. Hagamos

A1 :=

−5 −4 −42−4 −41 −66

−42 −66 −72

.

Observemos que |A1| ≥ 0 (58 320 para ser exactos). Por tanto, A1tiene dos valores propios negativos.

A partir de este momento las operaciones se van a realizar en arit-mética aproximada con cuatro cifras decimales correctas. Así, efectiva-mente, los valores propios son −134.2705, −14.2373 y 30.5078. Toma-mos los vectores propios de los dos primeros valores propios propios:

u1 := (−0.2709, −0.5637, −0.7802), v1 := (0.7233, −0.6541, 0.2214)

y definimos

w1 := u1 + 0.3746 · v1 = (0, −0.8087, −0.6973)

que cumple

w�1 A1w1 = −134.2705 · �u1�2 − 14.2373�v1�2 < 0.

Además,

0 > w�1 A1w1 =

�0 −0.8087 −0.6973

−5 −4 −42−4 −41 −66

−42 −66 −72

0−0.8087−0.6973

=�−0.8087 −0.6973

� �−41 −66−66 −72

� �−0.8087−0.6973

�.

Page 75: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 355 — #371

CAPÍTULO 5. Valores y vectores propios 355

De esta formaA2 :=

�−41 −66−66 −72

es, nuevamente, indefinida, definida negativa o semidefinida negativa.Ya hemos visto que en matrices 2 × 2 estas condiciones implican quehay un menor principal de A2, y por herencia, menor principal de A1 yde A, que es negativo. Efectivamente, las entradas de la diagonal de A2son negativas que ciertamente es algo que podríamos haber observadoal principio. No era nuestro objetivo considerar este caso en particular,sino como funciona el argumento esbozado en el teorema anterior.Dicho argumento permite ir reduciendo el tamaño de la matriz hastallegar bien a una matriz con el determinante negativo o, en el casomás pesimista, obtener una matriz de orden 2 × 2 que no es definidani semidefinida positiva y para la que sabemos ya de la existencia deun menor principal negativo.

Estamos listos para probar el criterio de Sylvester para matrices semide-finidas positivas o negativas.

Teorema 5.5.24: Segunda versión del criterio de Syl-vester

Una matriz A simétrica es semidefinida positiva si y sólo si todos susmenores principales son no negativos y |A| = 0.

Una matriz A simétrica es semidefinida negativa si y sólo si todossus menores principales de orden par son no negativos, los de ordenimpar no positivos y |A| = 0.

Demostración. De nuevo basta probar el primer caso, el caso desemidefinida negativa se deduce del anterior trabajando, como antes,con −A (véase (b) en Propiedades 5.5.12).

Si una matriz es semidefinida positiva y elegimos la matriz confor-mada por las filas y columnas J = {i1, i2, . . . , ir} tenemos una matrizAJ que es o bien definida o semidefinida positiva. Por tanto, sus valorespropios son no negativos que implica que |AJ | ≥ 0, es decir, el menorprincipal correspondiente, es no negativo. Además, |A| = 0 porque 0es un valor propio de A.

Para demostrar la implicación contraria, probaremos su negacióna,esto es, que si A no es semidefinida positiva o bien existe algún menor

Page 76: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 356 — #372

356 5.5 Aplicaciones: formas cuadráticas

principal negativo o |A| �= 0.Si A es definida positiva, en particular |A| > 0, luego ya estaría.

Supongamos que A es indefinida, definida o semidefinida negativa.Entonces estamos en las condiciones del Lema 5.5.22 y existe un menorprincipal negativo, con lo que el resultado estaría también probado.

aconsideremos estas dos afirmaciones: p=“Todos los menores directores son nonegativos y |A| = 0”, q =“A es semidefinida positiva”. En lugar de demostrar quep ⇒ q, probaremos que no q ⇒ no p

Teorema 5.5.25: Tercera versión del criterio deSylvester

Una matriz A simétrica es indefinida si y sólo si existe al menos unmenor principal de orden par negativo.

Demostración. Hemos probado (Teoremas 5.5.16 y 5.5.24) que(1) todos los menores principales son mayores o iguales que 0 si y

sólo si A es definida o semidefinida positiva;

(2) todos los menores principales de orden par son no negativos ylos de orden impar no positivos si y sólo si A es definida o semi-definida positiva.

Así pues, el caso que resta es precisamente el enunciado del teorema.

Ejemplo 5.5.26

Veamos el método anterior aplicado a la matriz

A :=

2 −2 −1−2 2 1−1 1 1

.

Los menores principales de orden 1 son

2, 2, 1

todos no negativos. Los de orden dos vienen dados por�����

2 −2−2 2

����� = 0,

�����2 −1

−1 1

����� = 1,

�����2 11 1

����� = 1,

Page 77: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 357 — #373

CAPÍTULO 5. Valores y vectores propios 357

de nuevo no negativos. Finalmente, |A| = 0. Podemos concluir con quela matriz es semidefinida positiva. Los valores propios son de hecho

{0, 12(5 −

√17, 1

2(5 +√

17)} ≈ {0, 0.4384, 4.5616},

no negativos, que corroboran la solución de nuestro problema.

Hagamos notar, no obstante, que el criterio de Sylvester, en cualquiera desus versiones, es desde un punto de vista práctico poco útil: en caso extremo,y para una matriz 4 × 4, habría que calcular cuatro determinantes 1 × 1, seis2 × 2, cuatro 3 × 3 y uno 4 × 4. Incluso para una matriz 3 × 3 puede ser pococompetitivo respecto al cálculo de la signatura basado en transformadas decongruencia (Nota 5.4.5 y Ejemplo 5.5.15).

Ejemplo 5.5.27

Tomamos la matriz A del ejemplo anterior y construimos la matrizampliada

A =

2 −2 −1 1 0 0−2 2 1 0 1 0−1 1 1 0 0 1

Entonces

2 −2 −1 1 0 0−2 2 1 0 1 0−1 1 1 0 0 1

F2 → F2 + F1

F3 → F3 + 12 F1∼

2 −2 −1 1 0 00 0 0 1 1 00 0 1

212 0 1

C2 → C2 + C1

C3 → C3 + 12 C1∼

2 0 0 1 0 00 0 0 1 1 00 0 1

212 0 1

F2 ↔ F3∼

2 0 0 1 0 00 0 1

212 0 1

0 0 0 1 1 0

C2 ↔ C3∼

2 0 0 1 0 00 1

2 0 12 0 1

0 0 0 1 1 0

Ahora es inmediato verificar que con

P � :=

1 0 012 0 11 1 0

, D :=

2 0 00 1

2 00 0 0

se tieneP �AP = D.

Page 78: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 358 — #374

358 5.5 Aplicaciones: formas cuadráticas

En particular A tiene signatura (2, 0) luego es semidefinida positiva,con 0 valor propio de multiplicidad algebraica y geométrica 1.

Obsérvese que el carácter de A se podía saber ya tras el primerpaso del algoritmo.

Page 79: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 359 — #375

CAPÍTULO 5. Valores y vectores propios 359

5.6. Ejercicios

Figura 5.6: Extraído de http://xkcd.com/872/

5.1 Calcula los valores y vectores propios de las matrices siguientes. Escribela descomposición P −1AP = Λ, con Λ diagonal. Si A es simétrica, tomaP ortogonal.

(a)�5 −62 −2

�.

(b)�0 11 0

�.

(c)�1 22 1

�.

(d)�1 20 1

�.

(e)

11 3 −214 0 −78 2 −15

.

(f)

−1 10 2−1 7 1

4 −27 −3

.

(Trabaja con cuidado este pro-blema)

(g)

−5 −4 −34 4 28 5 5

.

(h)

1 0 11 2 −12 2 0

.

Page 80: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 360 — #376

360 5.6 Ejercicios

(i)

4 −8 48 −16 8

14 −28 14

.

(j)

1/3 −√

2/3√

6/3−

√2/3 2/3

√3/3√

6/3√

3/3 0

(k)

4 4 −24 13 −2

−2 −2 1

.

(l)

1 −2 0−2 0 2

0 2 −1

(m)

−3 6 20 1 0

−6 9 4

.

(n)

5 −2 −2 012 −5 −6 00 0 1 0

20 −10 −10 1

.

(ñ)

10 −2 4 −14−12 6 −10 14−10 3 −5 14

4 −1 2 −5

.

5.2 Para los problemas (b) y (l) del ejercicio anterior calcula la factori-zación P �AP = D con D diagonal y P no necesariamente ortogonal(una transformación de congruencia). Haz lo mismo con las matrices

(a)

1 −1 2−1 3 −1

2 −1 4

.

(b)

1 2 3 42 4 6 83 6 8 124 8 12 12

.

(c)

1 −1 0 1−1 9 −4 3

0 −4 2 −21 3 −2 2

.

(d)

1 −1 0 1−1 9 −4 3

0 −4 3 −51 3 −5 14

.

5.3 Sea A una matriz no necesariamente cuadrada. Probad que A�A essiempre una matriz simétrica y semidefinida positiva. ¿Cuándo es de-finida positiva?(Ayuda. Consultad el Lema 3.3.2.)

5.4 Probad que si λ es un valor propio de una matriz ortogonal, entonces|λ| = 1 (λ podría ser complejo).

5.5 Escribe las siguientes formas cuadráticas utilizando una matriz simé-trica. Clasifica, de la forma que prefieras, las formas cuadráticas endefinidas positivas o negativas, semidefinidas e indefinidas.

Page 81: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 361 — #377

CAPÍTULO 5. Valores y vectores propios 361

(a) x2 + 2xy + y2

(b) x2 − y2 − 2z2 + 4xz + 4yz

(c) −4x2 + z2 − 4xz + 3yz

(d) 2xy + 5xz + yz

(e) x2+5y2+2z2−4xy−2xz+yz

(f) 4x21+4x1x2+2x1x3+4x1x4+

2x22−2x2x3−4x2x4+4x2

3+x24

5.6 Sea la matriz

A =

12

13

14

14

16

14

14

12

12

.

Diagonaliza A y utilízalo para calcular A2, A10, A20. ¿Cuál crees quees el límite An cuando n → ∞? Probad que para cualquier vector

x = (x1, x2, x3) que cumple que x1, x2, x3 ≥ 0 y x1 + x2 + x3 = 1

entonces

lımn→∞ Anx =

14393131639

.

Es decir, tomes el vector x que tomes, mientras esté normalizado, elproducto por A te lleva al mismo vector: (14/39, 3/13, 16/39)

5.7 El esquema subyacente anterior se puede aplicar a cualquier matrizcon un mínimo retoque para el cálculo, aproximado, del mayor valorpropio en valor absoluto y su vector propio asociado. Por ejemplo,consideremos

A =

1 −1 1−2 2 2−1 1 3

.

Podemos proceder como sigue: escoge un vector cualquiera x0 y pro-cede a calcular

xm = Axm−1, m = 1, 2, . . . ,

¿Qué observas?Considera esta mínima variación: x0 con �x0� = 1:

ym = Axm−1, αm = ymAym

�ym�2 , xm = 1αm

ym m = 1, 2, . . . ,

(5.41)¿Se estabilizan el vector xm y la constante αm? ¿A qué valores creesque se acercan?

Page 82: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 362 — #378

362 5.6 Ejercicios

5.8 Prueba que si A es diagonalizable, tiene un valor propio dominante,|λ1| > |λ2| ≥ · · · |λn| y u1 es el vector propio asociado con norma 1, lasucesión (5.41) cumple que

αm → λ1, xm → ±u1, cuando m → ∞

siempre que el vector de arranque, x0 tenga coordenada en la basede vectores propios de A diferente de cero para u1. ¿De qué creesque dependerá que esta convergencia sea más o menos rápida? (Nota.El esquema anterior da lugar al método de potencias, probablemente elmétodo más simple para calcular el mayor valor propio en valor absoluto, elvalor propio dominante, de una matriz)

5.9 Sea A una matriz simétrica, λ1 un valor propio con u1 el vector propiocon �u1� = 1 correspondiente. Probad que los valores propios de

A1 := A − λ1u1u�1 (5.42)

tiene como valores propios λ2, λ3, . . . , λn (el resto de valores propios deA) y 0(Nota. . Este proceso de construir una matriz, eliminando un valor propio yreteniendo el resto se conoce como deflación4. Ésta en particular, que sólofunciona para matrices simétricas, se conoce como Deflación de Hotelling.

La combinación de (5.41) y (5.42) permite, en teoría, calcular todos los valorespropios de una matriz simétrica. Desgraciadamente el método sólo es aplicablea unos pocos valores propios dado que la deflación se torna rápidamenteinestable.)

5.10 Calcula el polinomio característico de las matrices

�0 −c01 −c1

�,

0 0 −c01 0 −c10 1 −c2

,

0 0 0 −c01 0 0 −c10 1 0 −c20 0 1 −c3

,

Comprueba que el polinomio característico de

0 0 · · · 0 −c01 0 · · · 0 −c10 1 · · · 0 −c2. . . . . . . . . . . . . . . . . . . .0 0 · · · 1 −cn−1

4“Deflación”, como “inflación”, es con una única “c”.

Page 83: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 363 — #379

CAPÍTULO 5. Valores y vectores propios 363

viene dado por

pn(x) = (−1)n(xn + cn−1xn−1 + cn−2xn−2 + · · · + c0).

Deduce en consecuencia que si cualquier matriz tiene asignado un po-linomio, su polinomio característico, el recíproco es cierto: a cualquierpolinomio se le puede asignar una matriz para la cual es su polino-mio característico. A esta matriz se le llama matriz compañera delpolinomio pn(x)5.

Problemas teóricos

5.11 Prueba que si A es una matriz simétrica n × n y r = rang A < n,entonces A tiene a cero como valor propio con multiplidad algebraican − r (esto es, 0 es un valor propio repetido n − r veces). Prueba queesta afirmación es falsa si A no es simétrica. Es decir, encuentra unejemplo de una matriz para la que la multiplicidad algebraica de 0difiera de n − rang A.

5.12 Dilucidad si las siguientes afirmaciones son ciertas/falsas y aclarad porqué:

(a) Toda matriz A cuadrada tiene n valores propios reales distintos.(b) Toda matriz A cuadrada tiene n valores propios, puede que alguno

complejo, distintos.(c) Toda matriz A cuadrada con n valores propios distintos es diago-

nalizable (en R o en C).(d) 0 nunca puede ser un valor propio.(e) Si u es vector propio de A con valor propio λ y v lo es de A�

con valor propio ν �= λ, entonces v · u = 0 (esto es, u y v sonortogonales).

(f) Si λ2 es valor propio de A2, λ o −λ es valor propio de A.5Lo anterior tiene una consecuencia curiosa. Cuando se empezó a estudiar métodos

numéricos para calcular los valores propios de una matriz, la idea original era procedercomo hemos hecho en estas notas: matriz → polinomio característico → valores propios →vectores propios. Sin embargo pronto se descubrió que este método es propenso a ser muyinestable. El cálculo de los valores propios se realiza en la actualidad de una forma muydiferente. A parte del método de potencias, el algoritmo QR (basada en esta factorización)es el más popular hoy (2018) en día. De hecho, en las escasas ocasiones que en la actualidadse plantea el problema de calcular numéricamente las raíces de un polinomio, a menudo serecurre a calcular los valores propios de la matriz compañera por estos nuevos métodos.

Page 84: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 364 — #380

364 5.6 Ejercicios

(g) Si el único valor propio de A es el cero entonces A es la matriznula.

(h) Si u y v son vectores propios del mismo valor propio λ, entoncesu y v son proporcionales.

(i) Si u y v son vectores propios del mismo valor propio λ y éste tienemultiplicidad algebraica 1, entonces u y v son proporcionales.

5.13 Probad que el polinomio característico de una matriz A de grado n esun polinomio de grado n cuyo coeficiente director, el coeficiente queacompaña a xn, es (−1)n.(Ayuda. Utiliza la expresión para el determinante (4.3). Alternativamente,se puede probar desarrollando por menores como en la demostración de (f)en Propiedades 5.1.11 )

5.14 Sea A una matriz n × n real, λ un valor propio complejo no real.Demuestra que λ es también valor propio de A. ¿Qué relación hayentre los vectores propios asociados de λ y λ?

5.15 Sea A una matriz simétrica n × n, y sea

I = {i1, i2, . . . , ik}, 1 ≤ i1 < i2 < . . . < ik ≤ n.

Definamos

AI =

ai1,i1 ai1,i2 · · · ai1,ik

ai2,i1 ai2,i2 · · · ai2,ik

. . . . . . . . . . . . . . . . . . . . . . .aik,i1 aik,i2 · · · aik,ik

Probad:

(a) AI es simétrica(b) A es definida positiva si y sólo si AI es definida positiva para

cualquier lista de índices I

(c) A es semidefinida positiva si y sólo si AI es definida o semidefinidapositiva para cualquier vector de índices posible I.

Para las afirmaciones anteriroes, ¿es necesario la condición 1 ≤ i1 <i2 < . . . , ik ≤ n? (Ayuda: Sea A n×n, y tomemos, por simplicidad que I ={2, 3, 5}. Si x = [x1 x2 x3] ∈ R3 y definimos xI := [0 x1 x2 0 x3 0 · · · 0] ∈Rn, ¿Qué relación hay entre x�AIx y x�

I AxI?)

Page 85: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 365 — #381

CAPÍTULO 5. Valores y vectores propios 365

5.16 Sea λ1, λ2, . . . , λr valores propios distintos de A. Probad que

N(A − λ1I) ⊕ N(A − λ2I) ⊕ · · · N(A − λrI).

(Véase Ejercicio 2.18). Deducid en consecuencia la Proposición 5.1.15.

5.17 Sea H una matriz de Householder n × n (véase Problema 1.41)

H = In − 2uu�

donde u ∈ Rn con u�u = �u�2 = 1. Probad que H tiene dos valorespropios, 1 y −1, con multiplicidades algebraica y geométrica n − 1 y 1respectivamente. Deducid que

|H| = −1,

independientemente de cómo se halla tomado u. ¿Cuánto vale su traza?(Ayuda. Considera dos espacios: U = span �u� y U ⊥. Comprueba que ambosson subespacios de vectores propios. ¿Qué dimensión tienen estos subespa-cios?)

5.18 Demuestra que una matriz es nilpotente si y sólo si todos sus valorespropios son nulos. Deduce, en consecuencia, que no existen matricesnilpotentes simétricas aparte de la matriz nula.(Ayuda: Si λ es un valor propio de la matriz nilpotente A de índice m y ues su valor propio, ¿cuánto vale Amu?)

5.19 Demuestra que la traza de una matriz nilpotente es siempre cero.

5.20 Demuestra que el índice de una matriz nilpotente n × n es menor quen.(Ayuda: Considera la descomposición de Schur A = QTQ�. ¿cuál es ladiagonal de T? ¿Qué forma tiene T 2? ¿y T 3? Muestra que T n = 0, y que nose puede descartar que alguna potencia menor de T sea ya cero. Deduce elresultado.)

5.21 Sea p(x) el polinomio característico de A. Entonces

p(x) = c0 + c1x + c2x2 + . . . + cn−1xn−1 + (−1)nxn.

Entonces

p(A) = c0In + c1A + c2A2 + . . . , +cn−1An−1 + (−1)nAn = 0.

(In es la identidad de orden n, 0 es la matriz nula n × n) un resultadoconocido como el teorema de Cayley-Hamilton. Se pide:

Page 86: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 366 — #382

366 5.6 Ejercicios

(1) Probad el resultado para A diagonalizable.(2) Probad que, como consecuencia, si A es invertible, entonces A−1

se puede escribir como una combinación lineal de potencias de A.

(Ayuda Si D es la matriz diagonal con los valores propios de A, compruebaque p(D) = 0. ¿Cuál es la relación entre p(D) y p(PDP −1)?

Nota. El Teorema de Cayley-Hamilton es cierto para matrices no diagonali-zables. La demostración utiliza la forma canónica de Jordan, véase ApéndiceB, pero ésa es otra historia y debe ser contada en otra ocasión.)

5.22 Demuestra que una matriz es unitaria si y sólo si sus columnas formanuna base ortonormal (con el producto escalar complejo). Prueba quelas matrices unitarias satisfacen las Propiedades 3.1.7 con los cambiosen el enunciado oportunos:

(a) Si Q es unitaria, también lo es Q∗.(b) Si Q1 y Q2 son unitarias, también lo es Q1Q2.

5.23 Una matriz se dice autoadjunta si A∗ = A. Probad que en este casolos valores propios son todos reales. Demostrad que esto no es ciertopara matrices complejas simétricas.

5.24 Una matriz se dice antihermitiana si A∗ = −A. Probad que toda matrizantihermitiana es diagonalizable con valores propios imaginarios puros.Deducid en consecuencia la Nota 5.3.6.

5.25 Sea A una matriz hermitiana definida positiva. Probad que

u∗Av

define un producto escalar, en sentido en que la operación anteriorcumple las tres propiedades siguientes (equivalentes a las enunciadasen Propiedades 1.3.12):

(E1) Simetría hermitiana o conjugada: u∗Av = v∗Au.(E2) Linealidad: u∗A(v + w) = u∗Av + u∗Aw.(E3) Definida positiva: u∗Au ≥ 0 y u∗Au = 0 si y sólo si u = 0.

Uno puede definir una norma a partir de A mediante la siguiente ex-presión:

�u�A :=√

u∗Au.

Page 87: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 367 — #383

CAPÍTULO 5. Valores y vectores propios 367

Mostrar que se cumplen las propiedades siguientes (véase Propiedades1.3.7)

(N1) Positividad: �u�A ≥ 0 y �u�A = 0 si y sólo si u = (0, . . . , 0).(N2) Homogeneidad: �λu�A = |λ|�u�A.(N3) Desigualdad triangular �u + v�A ≤ �u�A + �v�A.

(Ayuda. Las dos primeras propiedades son fáciles de demostrar. Para la ter-cera probad primero que se satisface la Desigualdad de Cauchy-Schwarz, véaseProposición 1.3.13, y deducid la desigualdad triangular como en el Corolario1.3.14.)

5.26 Prueba que toda matriz diagonal D es congruente con una matrizcompuesta por r “1” y s “−1”, donde (r, s) es la signatura de D. Estoes, que existe P tal que

P �DP =

1. . .

1−1

. . .−1

0. . .

.

Prueba que de hecho P se puede tomar diagonal. Extiende el resultadoa cualquier matriz simétrica utilizando el Teorema 5.5.16. Prueba elCorolario 5.4.4.(Ayuda. Observa, por ejemplo

�4

−9

�=

�2

3

� �1

−1

� �2

3

�.)

5.27 Prueba que si

A =�

u1 u2 · · · un

d1. . .

dn

v1 v2 · · · vn

��

entoncesA = d1u1v�

1 + d2u2v�2 + . . . + dnunv�

n .

Page 88: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 368 — #384

368 5.6 Ejercicios

5.28 Sea A una matriz con la siguiente descomposición

A =�

u1 u2 · · · un

d1. . .

dn−10

�v1 v2 · · · vn

��.

Probad, utilizando el ejercicio anterior, que

A =�

u1 u2 · · · un−1�

d1. . .

dn−1

v1 v2 · · · vn−1��

.

Proyecto: el algoritmo PagerankEl objeto del presente proyecto es describir el algoritmo Pagerank, ta-

rea ambiciosa y exigente, por lo que animamos al lector que no capituleante las dificultades que pueda encontrar. Son necesarios unos mínimos co-nocimientos de probabilidad, nociones básicas y probabilidad condicionadaesencialmente. Información algo más detallada de este algoritmo se puedeencontrar en las [3, 14] de la Bibliografía al final de este libro.

Un grafo en un objeto geométrico formado por nodos y aristas que losconectan. Si las aristas tiene un sentido (del nodo i al nodo j) se dice grafodirigido. Sus aplicaciones son múltiples: desde modelos de tráfico, relacionesde producción, o como el caso que nos ocupa, un mapa web de ordenado-res/páginas conectadas.

En la Figura 5.7 puedes ver un ejemplo. La forma matemática de re-presentar el gráfico es la siguiente. Si un grafo consiste en n elementos, seconstruye una matriz G n × n tal que

gij =�

1, si al nodo i se llega desde el nodo j,0, en caso contrario.

En el ejemplo señalado en la Figura 5.7 la matriz sería

G =

0 1 1 0 0 01 0 0 0 0 00 1 0 1 0 01 0 1 0 0 10 0 0 1 0 01 0 0 0 1 0

Page 89: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 369 — #385

CAPÍTULO 5. Valores y vectores propios 369

1

24

5

6

3

Figura 5.7: Grafo 1

La matriz G recibe el nombre de matriz de conectividad. En algunasocasiones se trabaja con la matriz transpuesta, es decir, gij = 1 si al nodoj se llega desde i. En aplicaciones prácticas las matrices son enormes, elorden de la matriz coincide con el número de nodos (que pueden ser miles,millones o incluso miles de millones) pero esencialmente vacías, esto es, llenasde ceros, pues sólo la presencia de un enlace hace surgir un 1 en la matriz.Son, por tanto, matrices sparse tal y como vimos brevemente en el Capítulo1 (véase Nota 1.6.17).

1

2

3

4

5

Figura 5.8: Grafo 2

Una vez introducida estas nociones básicas, se trata de contestar a lassiguientes cuestiones sobre la matriz que representa el Grafo 5.8. En cualquiercaso se observa fáclmente que para responder a estas preguntas no se necesitasaber cómo es grafo sino que basta con utilizar que la matriz de trabajorepresenta un Grafo. Son, por tanto, propiedades generales.

1. Escribe la matriz de conectividad G para el grafo de la Figura 5.8.

2. ¿Qué grafo representa G�?

Page 90: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 370 — #386

370 5.6 Ejercicios

3. Define, para el grafo y la matriz de conectividad asociada, la matrizM 5 × 5 cuyos elementos son

mij = gij/cj , donde cj =5�

i=1gij .

Es decir, los elementos de la columna j se dividen por el número deelementos que esa columna tiene diferentes de cero.Observa que si examinamos la columna j informa de a qué nodos po-demos llegar desde el nodo j y qué probabilidades tenemos de llegarsi elegimos aleatoriamente: 0 si no hay conexión, y si la hubiera, 1/cj

donde cj es precisamente el número de nodos a los que conecta el nodoj.

4. Comprueba que�1 1 1 1 1

�M =

�1 1 1 1 1

�(5.43)

para la matriz de trabajo. Deduce que 1 es un valor propio de M(Ayuda ¿Es 1 valor propio de M �? ¿Por qué?)

Acepta en lo que sigue el siguiente hecho, que no debes demostrar6:todos los restantes valores propios de G son, en valor absoluto (o enmódulo si son complejos) menores que 1.Las matrices que cumplen estas condiciones, a saber, todas las entradasson positivas y las filas de la matriz suman 1 (es decir [1 1 · · · 1]�M =[1 1 · · · 1]� reciben el nombre de matrices de Markov o matricesestocásticas.

5. Sea x = (x1, x2, x3, x4, x5) tales que todos son mayores e iguales quecero y además x1 + x2 + x3 + x4 + x5 = 1. Comprueba entonces que elvector

Mxcumple de nuevo la misma propiedades: todas sus entradas son nonegativas y suman 1.(Ayuda Dado un vector y =

�y1 y1 y3 y4 y5

��, entonces

y1 + y2 + y3 + y5 + y5 =�1 1 1 1 1

�y.

Utiliza este propiedad junto con (5.43) para deducir el resultado.)6La demostración no es complicada aunque sí algo engorrosa

Page 91: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 371 — #387

CAPÍTULO 5. Valores y vectores propios 371

6. Demuestra que M2, M3, . . . son también matrices de Markov.

7. Supongamos que x = (x1, x2, · · · xn) es un vector como antes, esdecir, todas las entradas positivas y con suma igual a 1. Entonces, xj

se puede interpretar como una probabilidad, esto es, la probabilidadde que estemos en el nodo j.En tal caso, ¿qué probabilidad indicaría Mx? ¿Y M 2x? ¿Y Mnx?(Ayuda. Si yi es la entrada i−ésima de y = Mx, su valor es la suma de laprobabilidad de estar en un nodo cualquiera (xj) multiplicada por la proba-bilidad de saltar del nodo j al nodo i. Esto es claramente una probabilidadcondicionada.)

8. Volvamos a M y sean {v1, v2, v3, v4, v5} los vectores propios asociadosa los valores propios {1, λ2, λ3, λ4, λ5} (el valor propio 1 es el mayor detodos). Tomaremos v1 de forma que sus componentes sumen7 1Sea x un vector como siempre. Entonces

x = ν1v1 + ν2v2 + ν3v3 + ν4v4 + ν5v5

(νi son las coordenadas de x en la base de los vectores propios).¿Cuánto vale Mx? ¿Y M2x? ¿Y Mnx? Prueba entonces que

lımn→∞ Mnx = ν1v1. (5.44)

Deduce que ν1 = 1 y por tanto, empecemos por el vector que empece-mos, multiplicar por M nos lleva al mismo vector, esto es, v1(Ayuda. Dos detalles has de considerar. En primer lugar, si |z| < 1, ¿Cuántovale lımn→∞ zn. En segundo lugar, Mnx es, para todo n, un vector con com-ponentes no negativas y que suman 1. Si v y λv son tales que sus componentessuman 1, entonces λ = 1. )

9. En el ejemplo que estás trabajando, es decir, en la matriz M para elgrafo 2 toma un par de vectores iniciales x que cumpla las condicioneshabituales: sus componentes son todos positivos y suman 1. Calculaunos pocos productos Mnx hasta que se estabilice (n = 4, 5 deberíanse suficientes). Comprueba que llegas al mismo vector8 Para esta ta-rea puedes utilizar algún programa de ordenador o calculadora que tesimplifique la tarea. Con unos pocos decimales es más que suficiente.

7En realidad no podemos suponer que la matriz sea diagonalizable, pero nos tomamosesta licencia para simplificar un poco el problema.

8De hecho que no llegues a ese vector si empiezas con vectores muy particulares. Engeneral, la probabilidad es 1 de que llegues al vector v1.

Page 92: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 372 — #388

372 5.6 Ejercicios

Tomémonos un respiro. Hasta ahora hemos trabajado con la matriz par-ticular asociado al Grafo 2, pero habrás comprobado que para resolver lospuntos anteriores pocas veces se hace uso de la forma en particular de lamatriz, sino que más bien sus propiedades: todos los elementos son positi-vos, y sus columnas suman 1, de donde se deducen los resultados enunciadossobre los valores y vectores propios. En particular, el hecho de que 1 sea elmayor valor propio en valor absoluto, esto es, que domina al resto. Es decir,las propiedades anteriormente señaladas son ciertas para cualquier matrizasociada a un grafo

8. Identifiquemos el grafo con el que estamos trabajando con Internet9:los nodos son páginas webs, y la presencia o no de una arista quevaya del nodo i al j, indica si la página web i contiene un enlace con lapágina web j. En este caso, un vector x como el paso anterior marcaríala probabilidad de que estemos en cada una de las páginas. Según estainterpretación, ¿Que indicaría entonces

lımn→∞ Mnx ?

Un par de tipos, Larry Page y Sergei Brin, se les ocurrió a mediados de los90 del siglo pasado aplicar esta idea como una forma de evaluar automá-ticamente la importancia de cada web en la red. Así, cada página web senumera, se construye el grafo y matrices asociadas, y se aplica el algorithmoanterior. La nota de la página i es el componente i del vector v1, donde v1es el vector propio asociado a 1 (véase también (5.44)).

9. Si una página tiene una nota alta, ¿qué te parece que indica?, esto es,¿qué debe tener una página para disfrutar de una calificación buena?En el ejemplo que trabajamos, y en vista de los resultados del punto 9,¿en qué orden listas las páginas, de más a menos importante, del grafo2?

10. El modelo anterior tiene una pequeña deficiencia en su diseño. En lainterpretación actual sólo contempla que a una página web se llega víaotra página web. Es decir, no considera la posibilidad de que vayamosdirectamente tecleando su dirección o con un enlace enviado de formaexterna (correo, mensajería, facebook, twitter,. . . ) .Este fallo es fácilmente subsanable: se considera que a una web i lle-garemos con, digamos, en un 85 % de las veces desde otra página web,

9Quizás en sus inicios, cuando conectaba unos pocos centras militares y universidadesamericanas.

Page 93: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 373 — #389

CAPÍTULO 5. Valores y vectores propios 373

y con el 15 % restante directamente. Esto esto nos lleva a lo siguiente:si estamos en el nodo (página web) j la probabilidad de que acabemosen i es

0.85mij� �� �Mediante un enlace

+ 0.15����Directamente

× 15����

Hay 5 webs donde escoger

.

Ello nos lleva a trabajar con una nueva matriz

A = 0.85M + 0.15 × 15

1 1 1 1 11 1 1 1 11 1 1 1 11 1 1 1 11 1 1 1 1

Construye A y comprueba que A es como M : todas las entradas sonpositivas, y además sus columnas suman 1, luego los puntos anterioresson nuevamente aplicables a A.Repite el punto 9 con esta nueva matriz y compara los resultados.

Nota Historica: Pagerank

El algoritmo anterior recibe el nombre de ©Pagerank y es, a nivel muybásico, el método que utiliza Google para categorizar y ordenar laspáginas web en cada búsqueda. La forma de proceder es la siguiente:cuando se busca una palabra se crea un lista de webs con dicha palabray se procede a ordenar de acuerdo a este algoritmo. Por tanto elalgoritmo determina en qué orden se presentan los resultados en cadabúsqueda. Evidentemente hay más añadidos que persiguen filtrar lainformación, penalizar subidas artificiales de la nota, contar desdequé país y en qué lengua se hace la búsqueda, etc, etc. El problemaque en cada búsqueda ha de resolverse es enorme, en muchas ocasionestrabaja con un subconjunto de la web que puede tener miles o decenasde miles de millones de páginas.

Las matrices anteriores se llaman matrices de Markov y son típicasen el modelado de procesos de transición como el que hemos trabajado.La estrategia de tomar límite en M nx cuando n tiene a infinito esesencialmente un método numérico para calcular el mayor valor propioque se conoce como método de potencias (véase Problema 5.7). Encualquier caso, Pagerank se preocupa únicamente de buscar el vectorpropio (las notas de la web) asociado al valor propio dominante, y que

Page 94: Valores y vectores propios · En este último capítulo trataremos los valores y vectores propios de una matriz. Abriremos la primera sección con un ejemplo simple, un problema modelo,

“MatI” — 2018/3/6 — 17:00 — page 374 — #390

374 5.6 Ejercicios

por tanto cualquier método que lo calcule es válido. Esto es, Pagerankno multiplica cientos o miles de veces por la matriz de conectividadsino que recurre a métodos más elaborados para realizar este cálculo.Se persigue minimizar costos, tarea muy importante en un buscadorque tramita miles de millones de búsqueda por día. Se calcula que cadabúsqueda implica una emisión de 7 gramos de CO2. Basta multiplicarpor los 5 000 millones de búsquedas que procesa cada día para hacerseuna idea de lo que supone esto.

Pagereank fue diseñado e implementado por Sergey Brin y LarryPage sobre 1995, los dos estudiantes de doctorado en la Universidadde Stanford. Brin es matemático y Page es ingeniero informático. Elproyecto fue presentado a Andy Bechtolsheim, co-fundador de SunMicrosystem a quién la idea le pareció tan interesante como paraextender un cheque a nombre de Google por valor 100.000$ para quela desarrollaran. Lo curioso es que en ese momento ni siquiera estabaregistrada la empresa Google, así que el cheque hubo de esperarun par de días a que ésta se constituyera para poder cobrarlo. Elnombre original iba a ser googol, un nombre informal para la (enorme)cantidada 10100.

En 1999 la compañía se traslada a Palo Alto y en 2004 sale abolsa, cuando emite una participación de la compañía por valor totalde 2 718 281 828$b. Actualmente (2018) el valor en bolsa de una com-pañía, rebautizada como Alphabet y que hace apenas veinte añosempezaba a andar, ronda los 780 000 000 000$ aproximadamente el65 % del PIB de España.

aEn inglés existe también la palabra goggle que denomina a unas gafas de bucear,o de protección.

bEl número e con 10 cifras decimales. A muchos periodistas se les escapó esteguiño que ilustra bien a las claras el ambiente desenfadado de la compañía. Tambiénhizo palpable el analfabetismo científico, lo que el profesor John Allen Paulosdefinía como anumerismo (=analfabetismo numérico), de buena parte de la prensaen particular y de la sociedad en general