Apuntes de Algebra Linel

75
Historia de los Números Complejos La primera referencia conocida a raíces cuadradas de números negativos proviene del trabajo de los matemáticos griegos, como Herón de Alejandría en el siglo I antes de Cristo, como resultado de una imposible sección de una pirámide. Los complejos se hicieron más patentes en el Siglo XVI, cuando la búsqueda de fórmulas que dieran las raíces exactas de los polinomios de grados 2 y 3 fueron encontradas por matemáticos italianos como Tartaglia, Cardano. Aunque sólo estaban interesados en las raíces reales de este tipo de ecuaciones, se encontraban con la necesidad de lidiar con raíces de números negativos. El término imaginario para estas cantidades fue acuñado por Descartes en el Siglo XVII y está en desuso. La existencia de números complejos no fue completamente aceptada hasta la más abajo mencionada interpretación geométrica que fue descrita por Wessel en 1799, redescubierta algunos años después y popularizada por Gauss. La implementación más formal, con pares de números reales fue dada en el Siglo XIX. Definición de número complejo Los números complejos z se pueden definir como pares ordenados z = (x, y) [1] de números reales x e y, con las operaciones de suma y producto que especificaremos más adelante. Se suelen identificar los pares (x, 0) con los números reales x. El conjunto de los números complejos contiene, por tanto, a los números reales como subconjunto. los números complejos de la forma (0, y) se llaman números imaginarios puros.Los números reales x e y en la expresion [1] se conocen, respectivamente, como parte real y parte imaginaria de z. Escribiremos: Re z = x, Im z = y [2] Dos números complejos (x 1 , y 1 ) y (x 2 , y 2 ) se dicen iguales si tienen iguales las partes real y imaginaria. Es decir:

description

apuntes de algebra lineal

Transcript of Apuntes de Algebra Linel

Historia de los Nmeros ComplejosLa primera referencia conocida a races cuadradas de nmeros negativos proviene del trabajo de los matemticos griegos, como Hern de Alejandra en el siglo I antes de Cristo, como resultado de una imposible seccin de una pirmide. Los complejos se hicieron ms patentes en el Siglo XVI, cuando la bsqueda de frmulas que dieran las races exactas de los polinomios de grados 2 y 3 fueron encontradas por matemticos italianos como Tartaglia, Cardano.Aunque slo estaban interesados en las races reales de este tipo de ecuaciones, se encontraban con la necesidad de lidiar con races de nmeros negativos. El trmino imaginario para estas cantidades fue acuado por Descartes en el Siglo XVII y est en desuso. La existencia de nmeros complejos no fue completamente aceptada hasta la ms abajo mencionada interpretacin geomtrica que fue descrita por Wessel en 1799, redescubierta algunos aos despus y popularizada por Gauss. La implementacin ms formal, con pares de nmeros reales fue dada en el Siglo XIX.Definicin de nmero complejoLosnmeros complejoszse pueden definir como pares ordenadosz = (x, y)[1]de nmeros realesxey,con las operaciones de suma y producto que especificaremos ms adelante. Se suelen identificar los pares(x, 0)con los nmeros realesx.El conjunto de los nmeros complejos contiene, por tanto, a los nmeros reales como subconjunto. los nmeros complejos de la forma(0,y)se llamannmeros imaginarios puros.Los nmeros realesxeyen la expresion [1] se conocen, respectivamente, comoparte real y parte imaginariadez.Escribiremos:Rez = x,Imz = y[2]Dos nmeros complejos(x1,y1)y(x2,y2)se dicenigualessi tienen iguales las partes real y imaginaria. Es decir:(x1,y1) = (x2,y2) si y slo six1=x2ey1=y2[3]La sumaz1+z2y el productoz1z2de dos nmeros complejosz1= (x1,y1) yz2= (x2,y2)se definen por las ecuaciones:(x1,y1) + (x2,y2) = (x1+x2,y1+ y2)[4](x1,y1) (x2,y2) = (x1x2-y1y2+x1,y2)[5]En particular,(x, 0) + (0, y) = (x, y)y(0, 1)(y, 0) = (0, y); luego(x, y) = (x, 0) + (0, 1)(y, 0). [6]Ntese que las operaciones definidas por las ecuaciones [4] y [5] son las usuales cuando se restringen a los nmeros reales:(x1, 0) + (x2, 0) = (x1+x2, 0),(x1, 0)(x2, 0) = (x1x2,0).El sistema de los nmeros complejos es, en consecuencia, una extensin natural del de los nmeros reales.Pensando en un nmero real comoxo como(x, 0),ydenotando por i el nmero imaginario puro(0, 1), podemos reescribir la Ecuacion [6] asi*(x,y) =x+iy.[7]Asimismo, con el convenioz2=zz, z3=zz2, etc., hallamos quei2= (0,1)(0,1) = (-1, 0);es decir,i2= -1A la vista de la expresion [7], las Ecuaciones [6] y [7] se convierten en(x1+iy1) + (x2+iy2) = (x1+x2) +i(y1+y2),[8](x1+iy1)(x2+iy2) = (x1x2-y1y2) +i(y1x2+x1y2),[9]Obsrvece que los miembros de la derecha en esas ecuaciones se pueden obtener formalmente manipulando los trminos de la izquierda como si slo contuvieran nmeros reales, y sustituyendoi2por -1 cuando aparezca.1.2.- Operaciones fundamentales con nmeros complejos.

Propiedades de los nmeros complejosVarias propiedades de la suma y del producto de nmeros complejos coinciden con las de los nmeros reales. Recogeremos aqu las ms bsicas y verificamos algunas de ellas.Las leyes conmutativasz1+ z2= z2+ z1, z1z2= z2z1; [1]y las asociativas(z1+ z2) + z3= z1+ (z2+ z3), (z1z2) z3= z1 (z2z3) [2]Se siguen fcilmente de las definiciones de la suma y el producto de nmeros complejos, y del hecho de que los nmeros reales las satisfacen. Por ejemplo, siz1= (x1, y1) y z2= (x2, y2),entoncesz1+ z2= (x1, y1) + (x2, y2) = (x1+ x2, y1+ y2) = (x2+ x1, y2+ y1) = (x2, y2) + (x1, y1) = z2+ z1La verificacin de las restantes, as como de la ley distributivaz(z1+ z2) = zz1+ zz2, [3] es similar.De acuerdo con la ley conmutativa del producto,iy=yi;luego est permitido escribirz = x +iy o z = x +yiAdems, por las leyes asociativas, una sumaz1+ z2+ z3o un productoz1z2z3estn bien definidos sin parntesis, igual que ocurra con los nmeros reales.La identidad aditiva0 = (0, 0)y la identidad multiplicativa1 = (1, 0)de los nmeros reales se transfieren al sistema de los nmeros complejos. O sea,z + 0 = z y z * 1 = z [4]para todo nmero complejo z. Ms an, 0 y 1 son los nicos nmeros complejos con tales propiedades. Para establecer la unicidad de 0, supongamos que(u, v)es una identidad aditiva, y escribamos(x, y) + (u, v) = (x, y),donde(x, y)es cualquier nmero complejo. Se deduce quex +u= x e y + v = y;o sea,u= 0yv= 0. El nmero complejo0 = (0, 0)es, por tanto, la nica identidad aditiva.Cada nmero complejoz = (x, y)tiene asociado un inverso aditivo-z = (-x, -y)[5]que satisface la ecuacinz + (-z) = 0.Adems, hay un slo inverso aditivo para cada z, pues la ecuacin(x, y) + (u, v) = (0,0)implica queu = -xyv = -y.Los inversos aditivos se usan para definir la resta:z1- z2= z1+ (-z2).Luego siz1= (x1, y1) y z2= (x2, y2),entoncesz1- z2= (x1- x2, y1- y2) = (x1- x2) +i(y1- y2).Anlogamente, para todo nmero complejoz = (x, y)no nulo, existe un nmero complejoz-1tal quezz-1= 1. Este inverso multiplicativo es menos obvio que el aditivo. Para hallarlo, buscamos nmeros realesu, vexpresados en trminos de x e y, tales que(x, y)(u, v) = (1,0).

Operatoria con nmeros complejosAdicin de nmeros complejosDados dos nmeros complejosz1= (a, b)yz2= (c,d), se define la adicin como:z1+ z2= (a + c, b + d)Para la resta entre nmeros complejos se debe recordar que:z1- z2= z1z+(-z2)Conjugado de un nmero complejoDado un nmero complejo z, escrito como par ordenado, se define el complejo conjugado de z, como sigue:Siz = (a, b)entonces el conjugado dezesz = (a, -b)Multiplicacin de nmeros complejosDados los nmeros complejos z1 = (a, b) y z2 = (c, d) se define la multiplicacin entre ellos como:z1 * z2 = (ac - bd, ad + bc)Divisin de nmeros complejosSe define paraz = (a, b)yw = (c, d)la divisin entre ellos como:z / w = z * w-1, donde w-1es el nmero complejo inverso multiplicativo de w1.3.- Potencias de "i", mdulo o valor absoluto de un nmero complejo.

Conjugado de un nmero complejoDos binomios se llaman conjugados si solo difieren en su signo central, por ejemplo, los dos binomios: 3m - 1 y 3m + 1 son conjugados.Elconjugadode un complejoz(denotado como z z*) es un nuevo nmero complejo, definido as:z = x -iy z = x +iySe observa que ambos difieren en el signo de la parte imaginaria.

Valor absoluto de un nmero complejoEl valor absoluto,mduloomagnitudde un nmero complejozviene dado por la siguiente expresin:

Si pensamos enzcomo algn punto en el plano; podemos ver, por el teorema de Pitgoras, que el valor absoluto de un nmero complejo coincide con la distancia eucldea desde el origen del plano.Si el complejo est escrito en forma exponencialz=r ei, entonces |z| =r. Se puede expresar en forma polar comoz=r (cos + isen), donde cos + isen =eies la conocida frmula de Euler.Podemos comprobar con facilidad estas cuatro importantes propiedades del valor absoluto

Para cualquier complejozyw.Por definicin, la funcin distancia queda como sigued(z,w) = |z-w|y nos provee de un espacio mtrico con los complejos gracias al que se puede hablar de lmites y continuidad. La suma, la resta, la multiplicacin y la divisin de complejos son operaciones continuas. Si no se dice lo contrario, se asume que sta es la mtrica usada en los nmeros complejos.

1.4.- Forma polar y Exponencial de un nmero complejo.

Forma PolarSean r y coordenadas polares del punto (x, y) que corresponde a un nmero complejo no nuloz = x + iy. Comox = r cos ey = r sen z puede ser expresado en forma polar comoz = r(cos + i sen).En anlisis complejo, no se admitenrnegativos; sin embargo, como en el Clculo,tiene infinitos valores posibles, incluyendo valores negativos.Forma exponencialLa ecuacinei= cos+isenque define el simboloei, o exp (i), para todo valor real de, se conoce como frmula de Euler. Si escribimos un nmero complejo no nulo en forma polarz = r(cos+ i sen),la frmula de Euler permite expresar z ms compactamente en forma exponencial:z = rei1.5.- Teorema de Moivre, potencias y extraccin de races de un nmero complejo.

Potencias de nmeros complejosLas potencias enteras de un nmero complejo no nuloz =reivienen dadas porz =rnein(n = 0, +1, -1, +2, -2 ...)Como zn+1= zzncuando n=1,2,..., esto se comprueba fcilmente para valores positivos denpor induccin, para el producto de nmeros complejos en forma exponencial. La ecuacin es vlida tambin para n = 0 con el convenio de que z0= 1. Si n = -1, -2..., por otro lado, definimos znen trminos del inverso multiplicativo de z escribiendozn= (z-1)m, donde m = -n = 1, 2, ... Entonces, como la ecuacinz =rneines vlida para potencias enteras positivas, se sigue de la forma exponencial de z-1quezn= [1/rei(-)]m= (1/r)meim(-) =rneinPor tanto, la ecuacinz =rneines vlida para toda potencia entera.Ntese que si r = 1,z =rneinse convierte en(ei)n=ein (n = 0, 1, 2 ...)Cuando se expresa en la forma(cos+isen)n= cos n+isen nque se le conoce como lafrmula de De MoivreEjemplo 1.Resolvamos la ecuacinzn= 1,donde n tiene uno de los valores n = 2, 3, ..., hallando as las racesn-simas de la unidad. Puesto que z 0, podemos escribir z =rei0y buscar valores derytales que(rei)n= 1,o searnein= 1ei0.Ahora bienrn= 1 yn= 0 + 2k,donde k es cualquier entero (k = 0, 1, 2,...). Por tanto,r = 1y = 2k/n; y se deduce que los nmeros complejosz = exp(i[2k/ n]) (k = 0, 1, 2,...)son racesn-simas de la unidad. Tal como aparecen aqu, en forma exponencial, se ve inmediatamente que estn en el crculo unidad centrado en el origen y estn uniformemente espaciados sobre l cada 2/ n radianes. Evidentemente, pues, todas las racesn-simas de la unidaddistintasentre s se obtienen escribiendoz = exp(i[2k/ n]) = cos 2k/ n + i sen 2k/ n(k = 0, 1, 2,..., n-1)y no se obtienen ya nuevas races con otros valores dek.As que el nmero de races n-simas de la unidad es n. Cuando n = 2, esas races son, claro est, 1. Cuando n>= 3, corresponden a puntos situados en los vrtices de un polgono regular de n lados. Este polgono est inscrito en el crculo unidad centrado en el origen y tiene un vrtice en el punto correspondiente a la razz = 1 (k = 0). Si escribimosn= exp(i[2k/ n])y entonces observamos que, de acuerdo con la propiedad(ei)n=ein (n = 0, 1, 2 ...),kn= exp(i[2k/ n]) (k = 0, 1, 2,..., n-1),vemos que las distintas races n-simas de la unidad son simplemente1,n, 2n, ..., n-1n.Ntese quenn= 1.Vase Figura 1 para la interpretacin de las tres races cbicas de la unidad como vrtices de un tringulo equiltero. La Figura 2 ilustra el caso n = 6.

El mtodo anterior puede usarse para hallar las races n-simas de cualquier nmero complejo no nuloz0= r0exp (i0). Tales races, que se obtienen resolviendo la ecuacinzn= z0en z, son los nmerosck=nr0exp[i(0/ n + 2k/ n)] (k = 0, 1, ..., n -1)dondenr0denota la razn-sima positiva der0. El nmeronr0es la longitud de cada radio vector representante de lasnraces. Un argumento de la primera razc0es0/ n, y los de las otras races se obtienen sumando mltiplos enteros de2/n. Por consiguiente, al igual que ocurra con las racesn-simas de la unidad, las races paran= 2 estn siempre en extremos opuestos de un dimetro de un crculo, siendo una de ellas la negativa de la otra; y cuando n >= 3, estn en los vrtices de un polgono regular denlados inscrito en el crculo de radior0centrado en el origen.Si c es cualquier raz n-sima particular dez0, el conjunto de todas las races n-simas se puede expresarc, cn, c2n, ..., cn-1ndonden= exp (i2k/ n). Esto es as porque el producto de cualquier nmero complejo no nulo porncorresponde a aumentar su argumento en2 / n.Denotaremos porz1/n0el conjunto de racesn-simas de un nmero complejo no nuloz0. En particular, siz0es un nmero real positivor0, el smbolor1/n0denota un conjunto de races, y el smbolonr0se reserva para la raz positiva. Cuando el valor de0que se usa enck=nr0exp[i(0/ n + 2k/ n)] (k = 0, 1, ..., n -1)es el valor principal de argz0(- < 0m.Demostracin. Seanv1,v2, ...,vnn vectores en my tratemos de evaluar constantes c1, c2, ..., cn, no todas nulas, tales quec1v1+ c2v2+...+cnvn= 0 (1)Sean. Entonces, la Ecuacin (1) se convierte en(2)Corolario. Un conjunto linealmente independiente de vectores en ncontiene, a lo sumo,nvectores.Nota. Podemos expresar el corolario como sigue: Si se tienennvectores-nlinealmente independientes, no es posible agregar ms vectores sin hacer que el conjunto obtenido sea linealmente dependiente.Teorema 3. Sea

Entonces las columnas deA, consideradas como vectores, son linealmente dependientes si y slo si el sistema(2), que puede ser expresado comoAc = 0, posee un nmero infinito de soluciones. Aqu,Teorema 4. Seanv1,v2, ...,vn,nvectores en n, y sea A una matriz denxncuyas columnas sonv1,v2, ...,vn. Entoncesv1,v2, ...,vn, son linealmente independientes si y slo si la nica solucin al sistema homogneo Ax = 0 es la solucin trivial x = 0.Demostracin. Esto es el Teorema 3 en el caso en quem=n.Teorema 5.SeaAuna matriz denxn. EntoncesA 0 si y solamente si las columnas deAson linealmente independientes.Teorema 6. SeaAuna matriz denxn. Entonces cada uno de los siguientes siete enunciados implica a los otros seis (esto es, si uno se verifica, todos son ciertos).i.Aes invertible.ii. La nica solucin al sistema homogneoAx= 0 es la solucin trivial (x= 0).iii. El sistemaAx=bposee una solucin nica para todon-vectorb.iv.Aes equivalente por filas a la matriz identidadInv.Apuede ser escrita como el producto de matrices elementales.vi. detA 0.vii. Las columnas (y los renglones) deAson linealmente independientes.Combinacin lineal.Seanv1,v2,...,vnvectores en un espacio vectorial V. Entonces, toda expresin de la forma a1v1+ av22+...+anvnEndonde a1,a2, ..., anson escalares, se llamacombinacin linealdev1,v2, ...,vn4.4.- Base y dimensin de un espacio vectorial.

BaseUn conjunto de vectores {v1,v2,...,vn} forma una base paraVsii. {v1,v2,...,vn} es linealmente independiente.ii.{v1,v2, ...,vn} generaV.As pues,Todo conjunto de n vectores linealmente independientes ennes una base en nEnndefinimos

Como los trminos eison las columnas de la matriz identidad (cuyo determinante es 1), entonces {e1, e2, ..., en} es linealmente independiente y, por tanto, constituye una base enn. Esta entidad especial se llama base cannica enn.Teorema 1. Si {v1,v2,...,vn} es una base deVy sivV, entonces existe un conjunto nico de escalares c1, c2, ..., cntales quev= c1v1, c2v2, ..., cnvn.Teorema 2. Si {u1,u2,...,un} y {v1,v2,...,vn} son bases del espacio vectorialV, entoncesm=n; esto es, cualesquiera dos bases en un espacio vectorialVposeen el mismo nmero de vectores.DimensinSi el espacio vectorialVposee una base finita, la dimensin deVes el nmero de vectores en la base, yVse llama espacio vectorial de dimensin finita. De otra manera,Vse denomina espacio vectorial de dimensin infinita. SiV= {0}, entonces V se dice que es de dimensin cero.Notacin.Se simboliza la dimensin deVcomo dimV.Teorema 3. Supngase que dimV=n. Siu1,u2,...,umes un conjunto de m vectores linealmente independientes enV, entoncesmn.Teorema 4.SeaHun subespacio del espacio vectorialVde dimensin finito. EntoncesHes finito-dimensional ydimH dimVDemostracin. Sea dimV=n. Cualquier conjunto de vectores en H linealmente independiente, lo es tambien enV. Por el Teorema 3, cualquier conjunto linealmente independiente enH, cuando ms, contiene n vectores. As pues,Hes de dimensin finita. Ms an, como una base enHes un conjunto linealmente independiente, se ve que dimHn.Teorema 5. Cualesquieranvectores linealmente independientes en un espacio vectorialVde dimensinn, constituyen una base.4.5.- Espacio vectorial con producto interno y sus propiedades.

Espacio con producto escalar.Definicin.El espacio vectorial complejoVse conoce como un espacio con producto interior si para cualquier par de vectoresuyvenV, existe un nico nmero complejo (u,v), llamado el producto interior deuyv, tal que siu,vy w estn enVy si C, entoncesi. (v, v) 0ii. (v,v) = 0 si y slo siv= 0.iii, (u, v+w) = (u, v)+ (u, w)iv. (u+v, w) = (u, w)+(v, w)v. (u, v) = (v, u)vi. (u, v) = (u, v)vii. (u,v) = (u, v)La barra en las condiciones (v) y (vii) denota el conjugado complejo.4.6.- Cambio de base, base orto normal, proceso de orto normalizacin Gram-Schmidt.

Cambio de baseSea x un vector que en base B1(de vectores unitarios u1, u2, ...) ser igual a m1u1+ m2u2+ m3u3+ ... El mismo vector, utilizando otra base B2(de vectores unitarios v1, v2, ...) ser n1v1+ n2v2+ n3v3+ ...Supongamos que u1, u2, ... se representan en la base B2de esta forma:u1= a11v1+ a21v2+ ... + an1vnu2= a12v1+ a22v2+ ... + an2vn.............................................................un= a1nv1+ a2nv2+ ... + annvnPor lo tanto, sustituyendo estas ecuaciones en la frmula original nos queda:x = m1(a11v1+ a21v2+ ... + an1vn) + m2(a12v1+ a22v2+ ... + an2vn) + ...Reordenando queda:x = (m1a11+ m2a12+ ... + mna1n)v1+ ... + (m1an1+ m2an2+ ... + mnann)vnComparando con la frmula x = n1v1+ n2v2+ n3v3+... deducimos que:n1= m1a11+ m2a12+ ... + mna1nn2= m1a21+ m2a22+ ... + mna2n.................................................................nn= m1ann+ m2an2+ ... + mnannEsto se puede expresar de forma matricial:n1 a11+ a12+ ... + a1n m1n2= a21+ a22+ ... + a2n m2..... ........................................nn a2n+ an2+ ... + ann mnLlamando A a la matriz de coeficientes, X' al vector en la base B2y X al vector en la base B1nos queda:X' = AXDespejando X nos queda:X = A-1X'Proceso de ortonormalizacin Gram-Schmidt.Elproceso de ortogonalizacin de GramSchmidtde lgebra lineal es un proceso utilizado en matemtica y anlisis numrico, paraortogonalizarun conjunto de vectores en un espacio prehilbertiano, ms comnmente el espacio eucldeoRn.Ortogonalizacin en este contexto significa lo siguiente: comenzamos con vectoresv1,,vklos cuales son linealmente independientes y queremos encontrar mutuamente vectores ortogonalesu1, ,uklos cuales generan el mismo subespacio que los vectoresv1, ,vk.Este proceso lleva el nombre en honor aJorgen Pedersen Gram y Erhard Schmidt.Definimos el operador proyeccin con

donde los corchetes angulares representan el producto interior, proyecta el vectorvortogonalmente en el vectoru.Antes de ver el proceso, debemos comprender el porqu de la definicin de proyeccin. Si recordamos la definicin de producto escalar, tenemos para el caso del numerador, mdulo de u por mdulo de v por el coseno del ngulo que forman. En el denominador tenemos mdulo de u por mdulo de u, ya que el coseno sera 1. Si separamos los dos mdulos de u en el denominador, vemos que a la izquierda tenemos nicamente "mdulo de v * cos (ngulo que forman)", lo que nos da claramente el mdulo del vector proyeccin. Teniendo el mdulo del vector proyeccin lo nico que debemos hacer es asignarle una direccin, cosa que hacemos multiplicndolo por u/mdulo (u), lo que es el vector de mdulo 1 con direccin u (el vector unitario).El proceso de GramSchmidt entonces funciona como sigue:

Los dos primeros pasos del proceso de Gram-Schmidt

5.1.- Definicin de transformacin lineal y sus propiedades.

Transformacin lineal.Definicin. Sean V y W espacios vectoriales. Una transformacin lineal T de V en W es una funcin que asigna a cada vector v V un nico vector Tv W y que satisface para cada u y v en V y cada escalar ,T (u+v) = Tu+ Tv(1)T (v) = Tv(2)Notacin. EscribimosT:VWpara indicar que T transformaVenW.Terminologa. Las transformaciones lineales se llaman, con frecuencia, operadores lineales. Tambin, las funciones que satisfacen (1) y (2) se denominan funciones lineales.Propiedades bsicas de las transformaciones lineales.Teorema 1. SeaT:VWuna transformacin lineal. Entonces para todos los vectoresu, v, v1,v2, ...,vnenVy todos los escalares 1, 2, ..., n:i. T (0) =0ii.T (u - v)=Tu -Tviii.T (1v1, 2v2...nvn) = 1Tv1+ 2Tv2+ ... + nTvnNota. En la parte (i) el 0 de la izquierda, es el vector cero enVmientras que el 0 del lado derecho, es el vector cero enW.Teorema 2. Sea V un espacio vectorial de dimensin finita con base B={v1,v2, ...,vn}. Seanw1,w2, ...,wnn vectores en W. Suponga que T1y T2son dos transformaciones lineales de V en W tales que T1vi=T2vi=wipara i = 1, 2, ..., n.Entonces para cualquier vectorvV, T1v=T2v. Es decirT1=T2.Teorema 3. SeaVun espacio vectorial de dimensin finita con baseB= {v1,v2,...,vn}. Sea tambinWun espacio vectorial que contiene a losnvectoresw1,w2,..., wn. Entonces existe una nica transformacin linealT:VWtal que Tvi=wipara i = 1, 2,..., n.5.2.- Ejemplos de transformaciones lineales (reflexin, dilatacin, contraccin, rotacin).

RotacinSea 0 < 2 un ngulo medido en radianes. La Transformacin de T : R2 R2 que gira sobre un vector = (u1, u2) es un ngulo , para obtener un vector T () = (v1, v2).Usando las funciones trigonomtricas, tenemos que:v1 = ||T ()|| cos ( + ) = |||| (cos cos - sen sen )v2 = ||T ()|| sen ( + ) = |||| (sen cos + cos sen )Como u1 = |||| = cos y u2 = |||| = sen se obtiene:v1 = u1 cos u2 sen v2 = u2 cos u1 sen Por lo tanto la Transformacin T: R2 R2 debe estar definida tal que:T (u1, u2) = (u1 cos u2 sen , u2 cos u1 sen ).Esta transformacin se llama la rotacin por un ngulo y es lineal, ya que:T [(u1, u2) + (v1, v2)] = T (u1 + v1, u2 + v2)= ((u1 + v1) cos (u2 + v2) sen , (u2 + v2) cos + (u1 + v1) sen )=(u1 cos - u2 sen , u2 cos + u1 sen )+(v1 cos - v2 sen , v2 cos + v1 sen )= T (u1, u2) + T (v1, v2)Transformacin de Reflexin:La Transformacin de T: R2 R2 que a cada vector = (u1, u2) lo refleja sobre el eje x, para obtener un vector T () = (v1, v2).En este caso, la situacin es ms sencilla ya que claramente tenemos dos tringulos rectngulos que son congruentes, de donde T queda definida como sigue:T (u1, u2) = (u1, -u2)Esta transformacin se llama la reflexin sobre el eje x, y es lineal, ya que:T [(u1, u2) + (v1, v2)] = T (u1 + v1, u2 + v2) = (u1 + v1, -u2 -v2)= (u1, -u2) + (v1, -v2) = T (u1, u2) + T (v1, v2)5.3.- Definicin de ncleo o kernel, e imagen de una transformacin lineal.

KernelDefinicin.SeanVyWespacios vectoriales y seaT:VWuna transformacin lineal. Entonces:El kernel (o ncleo) deT, denotado como kerT, est dado porker T = {vV:Tv= 0}Obervacin.Note que kerTes no vaco ya que por el Teorema 1 de las Transformaciones lineales,T(0) = 0 de manera que 0 kerTpara toda transformacin linealT. Ser interesante encontrar otros vectores enVque sean "mapeados al cero". De nuevo, ntese que cuando escribimosT(0) = 0, el 0 de la izquierda est enV, y el 0 de la derecha est enW.Imagen de una transformacin lineal.Definicin.SeanVyWespacios vectoriales y seaT:VWuna transformacin lineal. Entonces:imagV= {wW:w=Tvpara algunavV}Observacin.El concepto imagTes simplemente el conjunto de "imgenes" de vectores enVbajo la transformacinT. De hecho, siw=Tv, diremos quewes tambin la imagen devbajoT.Teorema. SiT:VWes una transformacin lineal, entonces:i. kerTes un subespacio deV.ii. imagTes un subespacio deW.Demostracin.i. Seanuyven kerT; entoncesT(u+v) =Tu+Tv= 0 + 0 = 0 yT(u) = Tu = 0 = 0 de modo queu+vy uestn en kerT.ii. Seanwyxen imagT. Entoncesw=Tu yx=Tvpara dos vectoresuyvenV. Esto significa queT(u+v) =Tu+Tv=w+xyT(u) = Tu= w. De esta maneraw+xy westn en imagT.Ejemplo.SeaTv= 0 para todovV. (Tes la transformacin cero.) Entonces kerT=Ve imagT= {0}5.4.- La matriz de una transformacin lineal y representacin matricial de una transformacin lineal.

Estamos en condiciones de mostrar que cualquier transformacin lineal de na mpuede ser introducida mediante la multiplicacin por una matriz adecuada.

Teorema 1. Sea T: n muna transformacin lineal, entonces existe una matriz A M ( m,n, ) tal que T (v)= A v, vnDemostracin. Antes de efectuar la demostracin,es conveniente sealar que podemos identicar lan-upla(x1, x2,...,xn)ncon la matriz columna

esto se realizar con un isomorsmo que presentaremos posteriormente.Sea E = {E1, E2,..., En} labasecanonicade ny E* = {E*1,E*2,...,E*m} base cannica dem.Sea v =(x1, x2,..., xn) n, entonces v se escribe como combinacin de los vectores de E como v = x1E1, x2E2,..., xnEn, as, aplicando la transformacin lineal T obtenemosT(v)=x1T (E1) +x2T (E2) + +xnT(En).(1)Por otro lado, cada vector T(Ej) mse escribe como combinacin lineal de la base cannica E* como T(Ej) = a1jE*1+ a2jE*2+ amjE*m.Reemplazando esto ltimo en (1) obtenemos

de aqu deducimos que lai-sima componente deT(v) es ai1x1+ ai2x2+ ai3x3+ ... + ainxnSi definimos A = (aij) M (m, n, ) entonces, dado que lai-sima componente de

es ai1x1+ ai2x2+ ai3x3+ ... + ainxn, concluimos que T(v) = A * v.Ejemplo. Sea T : 3 2una transformacin lineal tal que T(x, y, z) = (2x + y, x + y +z). Determine A = [T]E*Ey verifique.Solucin.Sean E = {E1= (1,0,0), E2= (0, 1, 0), E3= (0, 0, 1)}, E*= {E*1= (1,0), E*2= (0, 1)} bases cannicas de 2respectivamente, entonces:

Entonces

Verificacin:

5.5.- Transformaciones lineales y sistemas de ecuaciones lineales.

Las transformaciones lineales junto con los conceptos de ncleo y rango desempean un papel importante en el anlisis de sistemas de ecuaciones lineales. Se ver que estos sistemas permitenvisualizarlos conjuntos de soluciones.Un sistema demecuaciones lineales connvariables se puede expresar en forma matricial de la siguiente manera:Ax=yAes una matriz demxn; sta es la matriz de coeficientes del sistema. El conjunto de soluciones es el conjunto dexque satisface esta ecuacin. Ahora cuenta con una forma elegante de visualizar este conjunto solucin. SeaT:RnRmla transformacin lineal definida porA. El sistema de ecuaciones se puede escribir de la siguiente manera:T(x) = yEl conjunto de soluciones es el conjunto de vectores enRntransformado porTen el vectory. Siyno pertenece al rango deT. Entonces el sistema no tiene solucin. Vase la siguiente figura:

Ecuaciones homogneasEsta forma de ver los sistemas de ecuaciones lineales nos lleva al siguiente resultado.Teorema 1.El conjunto de soluciones de un sistema homogneo demecuaciones lineales connvariables,Ax= 0, es un subespacio deRn.Demostracin. SeaTla transformacin lineal deRnenR, definida porA. El conjunto de soluciones es el conjunto de vectores enRntransformado porTen el vector cero. El conjunto de soluciones es el ncleo de la transformacin y por consiguiente, un subespacio.Ecuaciones no homogneasAhora ver que el conjunto de soluciones de un sistema de ecuaciones lineales no homogneas no forma un subespacio.SeaAx=y(y 0) un sistema de ecuaciones lineales no homogneo. Seax1yx2soluciones. Por lo tanto,Ax1=yyAx2=ySi se suman estas ecuaciones, se obtieneAx1+Ax2=2yA(x1+x2)=2yPor lo tanto,x1+x2no satisfacen aAx=y.No se trata de una solucin. El conjunto de soluciones no es cerrado bajo la adicin; por consiguiente, no es un subespacio.Sin embargo, No todo est perdido! Aunque el conjunto de soluciones de un sistema no homogneo no es un subespacio, el conjunto se puede obtener trasladando cierto subespacio. Este resultado permitir representar el conjunto de soluciones.Teorema 2. SeaAx=yun sistema no homogneo demecuaciones lineales connvariables. Seax1una solucin particular. Cada solucin se puede escribir de la siguiente forma:x = z + x1, dondezes un elemento del ncleo de la transformacinTdefinida porA.La solucin es nica si el kernel consta slo del vector cero.Demostracin.x1es una solucin. Por consiguiente,Ax1=y.Seaxcualquier solucin. As, Ax=y. Si se igualanAx1yAx, se tiene queAx1=AxAx-Ax1= 0A(x-x1) = 0T(x-x1) = 0Por lo tanto,x-x1es un elemento del ncleo deT; llmenloz.x-x1=zSe puede escribir:x=z +x1Note que la solucin es nica si el nico valor dezes 0; es decir, si el kernel es el vector cero.Este resultado implica que el conjunto de soluciones de un sistema de ecuaciones lineales no homogneoAx=yse puede obtener a partir del kernel de la transformacin definida por la matriz de coeficientes y una solucin particularx1. Si se toma cualquier vectorzdel kernel y le sumax1, se obtiene una solucin. Desde el punto de vista geomtrico, esto significa que el conjunto de soluciones se obtiene trasladando el ncleo a una distancia y en una direccin definidas por el vectorx1. Vase la siguiente figura:

5.6.- lgebra de las transformaciones lineales.

DefinicinUn lgebra A sobre un campo F es un espacio vectorial sobre F en el que se tiene definida una operacin producto que satisface para todos los elementos T1, T2, T3 A y FT1 (T2 + T3) = T1T2 + T1T3(T2 + T3)T1 = T2T1 + T3 T1(T1T2) = (T1)T2 = T1(T2)Si adems se cumple que(T1T2)T3 = T1 (T2T3)EntoncesAes un lgebra asociativa.DefinicinSean V, U y W espacios vectoriales sobre el mismo campo F. Sean T1: V U y T2: U W dos transformaciones lineales.Se define la composicin de T2 seguida de T1 T2T1 como la funcin de V a W (T2T1) : V W tal que (T2T1)(v) = T2(T1(v)).Proposicin. Si u, v V y , F, entonces:(T2T1)(v+u)=T2 (T1 (v+u))=T2 (T1 (v)+T1 (u)) = (T2T1)(v) + (T2T1(u)(T2T1) es Transformacin Lineal6.1.- Definicin de valores y vectores caractersticos de una matriz cuadrada.

SeaT: V Vuna transformacin lineal. En una gran variedad de aplicaciones, resulta til encontrar un vectorvenVtal queTvyvsean paralelos. Esto es, buscamos un vectorvy un escalar tal queTv=v(1)Siv 0 y satisface (1) entonces se denominavalor caractersticodeT yvse llamavector caractersticodeTcorrespondiente al valor caracterstico de . SiVes de dimensin finita, entoncesTpuede representarse por una matrizAT. Por esta razn discutiremos valores y vectores caractersticos de matrices de n x n.Definicin.Valor caracterstico y vector caracterstico.SeaAuna matriz den x ncon componentes reales. El nmero (real o complejo) se llamavalor caractersticodeAsi hay un vectorvdistinto de cero enCntal queAv=v(2)El vectorv 0 se llamavector caractersticodeAcorrespondiente al valor caracterstico .NotaLa palabraeigensignifica "propio" o "apropiado" en alemn. Los valores caractersticos se llaman tambinvalores propios o autovalores, y los vectores caractersticos,vectores propios o autovectores.Teorema 1.SeaAuna matriz den x n. Entonces es un valor caracterstico deAsi y slo sip() = det (A -I) = 06.2.- Polinomio y ecuacin caracterstica

Definicin. Ecuacin caracterstica y polinimo caracterstico.La ecuacinp() = det (A -I) = 0se conoce como la ecuacin caracterstica deA;p()se conoce como elpolinomio caractersticodeA.p()es un polinomio de gradonen .Por elteorema fundamental del lgebra, todo polinomio de gradoncon coeficientes reales o complejos tienenraces exactamente (contando multiplicidades). Con esto queremos decir que, por ejemplo el polinomio ( -1)5tiene cinco races, todas iguales al nmero 1. Puesto que todo valor caracterstico deAes una raz de la ecuacin caracterstica deA,concluimos que:Si se consideran multiplicidades, cada matriz de n x n tiene exactamente n valores caractersticos.Teorema1Sea un valor caracterstico de la matriz deAden x ny seaE= {v:Av= v}. EntoncesEes un subespacio deCnTeorema 2SeaAuna matriz den x ny sean 1, 2,..., mvalores caractersticos diferentes deAcon sus correspondientes vectores caractersticos dev1,v2,...,vm. Entoncesv1,v2,...,vmson linealmente independientes. Esto es:los vectores caractersticos correspondientes a valores caractersticos diferentes son linealmente independientes.6.3.- Determinacin de los valores y vectores caractersticos de una matriz cuadrada.

Procedimiento para calcular propios y vectores propiosi. Hallep () = det (A- I).ii. Halle las races 1, 2,..., mdep() = 0.iii. Resuelva el sistema homogneo (A-iI)v= 0 correspondiente a cada valor caracterstico de i.Ejemplo.

De esta manera los valores caractersticos deAson 1= 1, 2= -2 y 3= 3.Para 1= 1 tenemos

Si resolvemos reduciendo por renglones, obtenemos, sucesivamente,

6.4.- Diagonalizacin de matrices, potencias y races de matrices.

Diagonalizacin de matricesQu es diagonalizar una matriz?Para estudiar una matriz suele ser conveniente expresarla de forma lo ms sencilla posible. Diagonalizar una matriz A es precisamente eso: escribirla de manera simple encontrando una matriz invertible P y una diagonal D (si se puede) tales queA = P D P-1La matriz P se llamamatriz de paso.Puede que esto, al principio, no parezca ms simple de lo que ya era A directamente. Sin embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para representar aplicaciones lineales, la expresin anterior puede verse como uncambio de basede la aplicacin representada por A; entonces, esta forma de escribirlo dice: hay una base en la que la aplicacin lineal A tiene una forma muy simple (diagonal). Esto es til, por ejemplo, para clasificar una aplicacin lineal y estudiar sus propiedades. Las matrices se usan para representar otras cosas como cnicas, cudricas o formas bilineales, y en estos casos tambin resulta til esta forma de expresarlas.La relacin anterior entre las matrices A y D es importante y aparece en muchos contextos, as que tiene nombre propio:Cuando dos matrices cuadradas A y B verifican que A = P B P-1para cierta matriz cuadrada P (invertible, claro) decimos que A y B son semejantes.Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos encontrar una matriz diagonal y una invertible de forma que la matriz se escriba como dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando es semejante a una matriz diagonal.Entonces, ms exactamente: una matriz es diagonalizable cuando es semejante a una matriz diagonal real.Cundo y cmo podemos diagonalizar una matriz?Si conseguimos escribir una matriz A como A = P D P-1, entonces podemos poner tambinA P = P D. Si D es diagonal y nos fijamos en la columna i de esta ltima igualdad lo que tenemos es que A xi= ixi(donde xies la columna i de A y i es el nmero en el lugar i de la diagonal de D). Esto nos dice que para diagonalizar una matriz nos hace falta conocer los vectores a los que les pase algo as. Estos vectores tambin tienen nombre:Si un nmero y un vector no nulo x verifican la relacin Ax= xdiremos que es un valor propio o autovalor de la matriz A y quexes un vector propio o autovector de A asociado al valor propio .Es fcil ver que diagonalizar una matriz A de tamao nn es lo mismo que encontrar n vectores propios linealmente independientesasociados a valores propios reales, ya que entonces podemos ponerlos por columnas y conseguir as la matriz P (puedes comprobar que entonces se cumple la relacin que buscamos). Entonces,para diagonalizar una matriz lo que tenemos que hacer es buscar n vectores propios suyos linealmente independientes asociados a valores propios reales.Cmo encontrar valores y vectores propios de una matriz?Es fundamental, pues, hallar los valores propios de A y los vectores propios asociados. Como un vector propio l hace que el sistema Ax= xtenga solucinxdistinta de cero, la matriz de coeficientes A I(dondeIdenota la matriz identidad de orden n) debe tener determinante no nulo. Este determinante det(AI) es un polinomio en de grado n y se denominapolinomio caracterstico de A. Por lo tanto, los valores propios de A sern los ceros del polinomio caracterstico de A.Observa que una matriz puede perfectamente tener valores propios imaginarios.Por otro lado, el conjunto de vectores propios de A asociados a un mismo valor propio forman un subespacio vectorial de Rnque se llamasubespacio propio asociado al valor propio , y es el nclea de la matriz A I. Para concluir si una matriz A es o no diagonalizable bastar pues averiguar si hay "suficientes" valores propios reales para construir D y si hay"suficientes" vectores propios linealmente independientes asociados; esta informacin nos la dar la dimensin de los subespacios propios y queda recogida en el siguiente resultado:Una matriz real cuadrada de orden n es diagonalizable si y slo si tiene n vectores propios linealmente independientes asociados a valores propios reales.Adems, el teorema espectral nos confirma un caso en el que siempre es posible diagonalizar:Toda matriz real simtrica es diagonalizable.En este caso,se puede conseguir adems que las columnas de la matriz de paso P sean una base ortonormal y por lo tanto que P sea una matriz ortogonal.6.5.- Diagonalizacin de matrices simtricas, Diagonalizacin ortogonal.

Teorema 1.SeaAuna matriz simtrica real de n x n. Entonces los valores caractersticos deAson reales.Teorema 2. SeaAuna matriz simtrica real de n x n. Si 1y 2son valores caractersticos distintos con correspondientes vectores caractersticos realesv1yv2, entoncesv1yv2son ortogonales.Teorema 3.SeaAuna matriz simtrica real de n x n. Resulta entonces queAtienenvectores caractersticos reales ortonormales.Obervacin.Se concluye de este teorema que la multiplicidad geomtrica de cada valor caracterstico deAes igual a su multiplicidad algebraica.El Teorema 3 nos dice que siAes simtrica entonces Rntiene una baseB= {u1,u2, ...un} que consiste de vectores caractersticos ortonormales deA. SeaQla matriz cuyas columnasu1,u2, ...un. EntoncesQes una matriz ortogonal. Esto nos conduce hacia la siguiente definicin.Definicion. Matriz ortogonalmente diagonizable.Una matrizAden x nse dice que esdiagonalizable ortogonalmentesi existe una matriz ortogonalQtal queQ'AQ = D(1)donde D = diag(1, 2, ..., n) y 1, 2, ..., nson los valores caractersticos deA.Nota. Recuerde queQes ortogonal siQ' = Q-1; por lo tanto (1) podra ser escrita comoQ-1AQ = D.Teorema 4. SeaAuna matriz real den x n. EntoncesAes diagonalizable ortogonalmente si y slo siAes simtrica.Procedimiento para encontrar una matriz diagonalizante Q:i. Encuentre una base para cada espacio caracterstico deA.ii. Encuentre una base ortonormal para cada espacio caracterstico deA, usando el procedimiento Gram-Schmidt.iii. Establezca aQcomo la matriz cuyas columnas son los vectores caractersticos ortonormales obtenidos en el paso (ii).Ejemplo

6.6.- Formas cuadrticas.

La expresin algebraicaax2+ bxy + cy2en donde a, b y c son constantes esuna formacuadrtica.Las formas cuadrticas juegan un papel importante en la geometra. Mediante la multiplicacin de las matrices siguientes, esta forma cuadrtica se escribe como

A la matriz simtrica A asociada a esta forma cuadrtica se le llamamatriz de la forma cuadrtica.EjemploEscriba la siguiente forma cuadrtica en trminos de matrices.5x2+ 6xy - 4y2Solucin. Por comparacin con la forma estndar ax2+ bxy + cy2, se tienea = 5, b = 6, c = -4Entonces, la forma matricial de la forma cuadrtica es

6.7.- Teorema de Cayley-Hamilton.

En lgebra lineal, elteorema de Cayley-Hamilton(que lleva los nombres de los matemticos Arthur Cayley y William Hamilton) asegura que todo endomorfismo de un espacio vectorial de dimensin finita sobre un cuerpo cualquiera anula su propio polinomio caracterstico.En trminos matriciales, eso significa que:siAes una matriz cuadrada de ordenny si

es su polinomio caracterstico (polinomio de indeterminadaX), entonces al sustituir formalmenteXpor la matrizAen el polinomio, el resultado es la matriz nula:

El teorema de Cayley-Hamilton se aplica tambin a matrices cuadradas de coeficientes en un anillo conmutativo cualquiera.Un corolario importante del teorema de Cayley-Hamilton afirma que el polinomio mnimo de una matriz dada es un divisor de su polinomio caracterstico, y no solo eso, el polinomio mnimo tiene los mismos factores irreducibles que el polinomio caracterstico.Demostracin.Efectuamos la demostracin sobre la matrizA. Definamos la matrizB(X) =tcom(XIA). Sabemos que

Podemos interpretar los miembros y factores de esta igualdad como polinomios en X con coeficientes en el anillo de las matrices cuadradas nxn con coeficientes en K y esa igualdad implica queP(X).Iesdivisible por la izquierda porXIA. Esto implica entonces queel valor a la derecha(igual en realidad aqu tambin a su valor a la izquierda, ya que se obtieneB(X).(XIA) = det(XIA).I) del polinomioP(X).IparaX=Aes nula. Este valor slo esP(A), lo que termina la demostracin.EjemploConsideremos por ejemplo la matriz

El polinomio caracterstico se escribe

El teorema de Cayley-Hamilton afirma queA2 5A 2I2= 0y esta relacin puede verificarse inmediatamente en ese caso. Adems el teorema de Cayley-Hamilton permite calcular las potencias de una matriz de modo ms sencillo que por un clculo directo. Tomemos la relacin anteriorA2 5A 2I2= 0A2= 5A+ 2I2As, por ejemplo, para calcularA4, podemos escribirA3= (5A+ 2I2)A= 5A2+ 2A= 5(5A+ 2I2) + 2A= 27A+ 10I2y llegamos aA4=A3A= (27A+ 10I2)A= 27A2+ 10A= 27(5A+ 2I2) + 10AA4= 145A+ 54I2.Podemos utilizar tambin la relacin polinomial inicialA2 5A 2I2= 0 para probar la inversibilidad deAy calcular su inverso. En efecto, basta con factorizar una potencia deAdonde sea posible yA(A 5I) = 2I2lo que demuestra queAadmite como inverso

6.8.- Aplicaciones.

En este captulo se mostrar cmo se pueden usar la teora de los valores y vectores caractersticos para analizar ciertos modelos de crecimiento de poblacin.Supngase que para cierta especie, la poblacin en un periodo (que puede ser de una hora, una semana, un ao, etc.) es un mltiplo constante de la poblacin en el periodo anterior. Esto podra suceder, por ejemplo, si las generaciones son distintas y cada organismo producedescendientes y despus muere.Un ejemplo son las bacterias, que se dividen en dos a intervalos regulares. Entonces= 2. Seapnla poblacin al final del periodon-simo. Entonces, bajo las suposiciones anteriores, tenemos quepn=pn-1.As, sip0denota la poblacin inicial, se tiene quep1=p0,p2=p1=(p0) =2p0, etctera, por lo quepn=np0.(1)Si= 1, la poblacin permanece constante. Si< 1, la poblacin disminuye, y si> 1, aumenta.Este modelo es obviamente demasiado simplista para que sea de mucha utilidad. El nmero de descendientes producidos no es slo funcin del nmero de adultos sino tambin de la edad de los adultos. Por ejemplo, una poblacin humana en la que todas las mujeres tuvieran ms de 50 aos de edad, tendra una tasa de multiplicacin muy distinta que otra poblacin en la que las mujeres tuvieran todas edades entre 20 y 30 aos. Para desarrollar una descripcin ms exacta de la realidad, usamos un modelo matricial que permite aplicar distintas tasas de multiplicacin a los grupos de distintas edades.Observamos ahora un modelo de crecimiento de la poblacin para una cierta especie de aves. En esta poblacin de aves, suponemos que el nmero de hembras es igual al nmero de machos. Seapj,n-1la poblacin de hembras jvenes (inmaduras) en el ao n -1, y seapa,n-1el nmero de hembras adultas en el ao n-1. Algunos de los pjaros jvenes sobreviven para llegar a ser adultos en la primavera del aon. Cada pjaro hembra sobreviviente produce huevos ms tarde en la primavera, que empollados, producen en promedio,khembras jvenes en la siguiente estacin primaveral. Los adultos tambin mueren, y la proporcin de adultos que sobreviven de una primavera a la otra es .Es un hecho interesante y notable que no resulta demasiado simplista suponer que la proporcin de los animales que sobreviven es constante. Esto se observa como el caso ms natural en las poblaciones naturales de las aves que han sido estudiadas. La tasa de supervivencia de los adultos de muchas especies de aves es independiente de la edad. Tal vez pocos pjaros en libertad sobrevivan lo suficiente como para exhibir los efectos de la vejez. Adems, para muchas de las especies, el nmero de descendientes parece que no recibe la influencia de la edad de la madre.En la notacin introducida anteriormente,pj,n-1ypa,n-1representan, respectivamente, las poblaciones de hembras jvenes y adultas en el aon. Juntando toda la informacin dada, llegamos al siguiente sistema 2 x 2:pj,n=kpa,n-1(2)pa,n= pj,n-1+ pa,n-1Opn=Apn-1(3)Donde

Est claro de (3) quep1=Ap0,p2=Ap1=A(Ap0) =A2p0, ...,y as sucesivamente, por lo quepn= Anp0(4)Dondep0es el vector de las poblaciones iniciales de hembras jvenes y adultasLa Ecuacin (4) es como la Ecuacin (1), excepto que se ha podido distinguir entre las tasas de supervivencia de los pjaros jvenes y adultos.