AUTOVALORES Y AUTOVECTORES CALCULO DE AUTOVALORES Y AUTOVECTORES Concluimos que si x 0, es un autovector y λ su correspondiente correspondiente autovalor, entonces el sistema homogéneo ( A - λ I ) x = 0, donde I es la matriz matriz idénti idéntica, ca, tiene tiene al men menos os esa soluci solución ón no trivial trivial autovector x 0).
(el
Esta situación se da si y sólo si, la matriz A-λI es singular, lo cual es equivalente a que A - λ I = 0.
(2.3)
La ecua ecuaci ción ón (2.3 (2.3)) se de deno nomi mina na la ecua ecuaci ción ón cara caract cter erís ísti tica ca de A y al determinante A - λ I , el polinomio característico de A. A. Todo autovalor de A es una raíz o cero de su polinomio polinomio característico. característico. En el caso de la matriz
1 2
(2.4)
A=
2 -2
asociada a la forma cuadrática, que se estudió en el capítulo 6, el polinomio característico es: 1-λ
(2.5) A - λ I = 2
2
= ( λ + 2 ) ( λ - 1 ) – 4 = λ2 + λ - 6
-2-λ
Para calcular (2.5), (2.5), hemos multiplicado multiplicado por (-1), (-1), simultáneamente simultáneamente a 1 - λ y a - 2 - λ, truco no importante importante que emplearem emplearemos os continuam continuamente ente para para agilizar nuestros cálculos por medio de un bien conocida producto notable. Algunos autores definen el polinomio característico como que a la larga es equivalente ya que en tal caso 2 2 λ-1 λ-1 λ I - A = 2
λ- ( -2 )
2
λ I - A , definición
λ=+ 2 ) = ( λ - 1 ) ( λ + 2 ) – 2 = λ2 + λ - 6
Sin embargo, por razones también poco importantes, hemos optado por la expresión A - λ I para el polinomio característico. Las raíces del polinomio característico o ceros de la ecuación característica λ2 + λ - 6 = 0
(2.6)
λ 1 = 2 y son precisamente los autovalores diagonalización de la matriz A, en el capítulo 6.
λ
2
= - 3, calculados por
La relación entre el problema de diagonalización de matrices y el cálculo de los valores y vectores propios, expuesta en el capítulo 6 , la explicaremos de nuevo para el caso de matrices cuadradas de orden n. En general, el problema de la diagonalización se expresa como, hallar una matriz B, regular, no necesariamente ortogonal, tal que: (2.7)
B
–1
A B = D,
En donde D es una matriz diagonal ( con ceros fuera de la diagonal principal ). En tal caso se dice que A ha sido diagonalizada por una transformación semejante. La importancia de la diagonalización de matrices por medio de transformaciones semejantes, para la solución del problema del valor propio ( calculo del autovalor ), radica en la siguiente proposición. Proposición: Si las matrices A y C, son semejantes, es decir, están relacionadas por una transformación semejante. (2.9)
B
–1
A B = C,
Entonces El espectro de A o conjunto de sus autovalores es precisamente el espectro de C, o sea que ambas matrices tienen los mismos autovalores. Ello se debe a que si λ es un autovalor de la matriz A, tendremos que: A x = λ x, para algún vector x ≠ 0. Por lo tanto, de 2.9 C (B
-1
x) = (C B
–1
) x = (B
–1
A) x = B
–1
(Ax) = B
–1
(λ x) = λ B
–1
(x)
de donde se concluye que λ es un autovalor de C con autovector B
–1
( x ).
Vemos así, que las transformaciones semejantes conservan los autovalores, mas no los autovectores. Si λ es un autovalor de A con autovector x, entonces λ es también un autovalor de B –1 A B = C, con autovector B –1 x ( asumimos por supuesto que A C. Por supuesto, que con un razonamiento similar, aplicado ahora a A = B C B concluimos que todo autovalor de C es un autovalor de A.
–1
,
Es decir, como se propuso, A y C tienen los mismos autovalores. Se puede probar que los autovalores de una matriz diagonal D, son precisamente los elementos de la diagonal principal. Por lo tanto, si las matrices cumplen la relación 2.7 B –1 A B = D, En donde D es una matriz diagonal, los autovalores de la matriz A, son precisamente los elementos de la diagonal de la matriz D. La matriz 2
A= -2
fue diagonalizada como D=
0 0 -3
De donde se concluye que sus autovalores son λ1 = 2 y λ2 = -3. De paso, en el mismo capítulo, los autovectores calculados fueron -√5 / 5
2√5 / 5
v1 =
y √5 / 5
v2 =
2√5/5
PROPIEDADES Teorema 1. Una matriz A, nxn, es singular ssi det A = 0 . Av = λ v Teorema 2 y definición previa D2. Donde λ es un autovalor de A y v es un autovector derecho de A correspondiente a ese λ . (λ I − A)v = 0
Como v ≠ 0 , λ I − A debe ser singular. Entonces, por Teor1 debe ser que det(λ I − A) = 0 Teorema 3. A tieC:\WINDOWS\hinhem.scrne n autovalores. n n −1 Dem: (λ I − A) = λ + a1λ + ... + a n = 0 tiene n raíces, por teorema fundamental del álgebra. Se supondrá que todos los λ k son distintos, reales y/o complejos conjugados. n× n
Teorema 4. Sea A , cualquiera. Entonces, existe (se puede encontrar) otra matriz B , con autovalores distintos y tal que A − B ≤ , donde ε es un número positivo pequeño arbitrariamente preasignado. n× n
n× n
El teorema 4 (de Bellman) nos permite trabajar con A de autovalores distintos. Esa matriz se puede diagonalizar, o sea, representar por una matriz Λ = diag (λ 1 ,..., λ n ) mediante una transformación de similaridad −1 A = M ΛM Donde M es una matriz nxn, invertible (no singular). Se obtiene de AM = M Λ , donde A y Λ son conocidos. n× n
Así, muchos teoremas se pueden demostrar, o ilustrar, diagonales, con Λ, en vez de A. Se mantiene la similaridad.
con sistemas
Teorema 5. λ (Λ) = λ ( A) . Dem: 0 = det(λ I − A) = det(λ I − M Λ M −1 ) = det(λ MIM −1 − M ΛM −1 ) = det[ M (λ I − Λ) M −1 ] = det( M ) det(λ I − Λ) det( M −1 ) = det(λ I − Λ)
Nota:
det( M −1 ) =
1 det( M )
, general. det( M ) ≠ 0 .
Teorema 6. B, nxn, det B T = det B Dem: El determinante se puede desarrollar por col de B (o B T ) o por filas de B (o B T ). Teorema 7. λ ( AT ) = λ ( A) Dem: det( µ I − AT ) = det( µ I T − AT ) = det[( µ I − A)]T = det( µ I − A), por Teor6. Así µ ( A T ) = λ ( A) . Teorema 8. λ ( A ∗ ) = λ ( A) Dem: Basta considerar el caso diagonal, por el Teor4. Si todos los λ k , k 1,..., n son reales, A∗ = A , y no hay nada que demostrar. =
Si hay un par de ejemplo: a + jb 0
λ k ( A)
complejos conjugados, en la diagonal de A aparece, por
∗ λ k = (a + jb) λ k = (a − jb) a, b ∈ R. En la diagonal de A ∗ , estos , para a − jb 0 a − jb ∗ λ k ( A ∗ ) serían λ k , λ k = ( a ± jb) , en otro orden. , a + jb 0 0
Teorema 9. λ ( A H ) = λ ( A) Dem: H = *T = T*. Rigen Teor7 y Teor8 copulativamente (uno tras otro, o viceversa). Ejemplo: Parte de
a − jb
A =
, a + jb 0
λ 1 , λ 2
0 0 a + jb H Parte de A = 0 , a − jb
= a ± jb a, b ∈R.
λ 1 , λ 2 = a ± jb
(en orden cambiado)
Teorema 10. Si v es un autovector derecho (o izquierdo) de λ i ( A) , entonces α v i , α ∈ R ó C , también es un autovector. i
Dem: H
wi
(λ i I − A)vi = 0 ⇒ (λ i I − A)(α vi ) = 0 H w H i (λ i I − A) = 0 ⇒ (α wi )(λ i I − A) = 0
es el autovector izquierdo de λ i ( A) .
H Así v se puede normalizar, de modo que vi v i = 1 , largo 1. i
H Pero solo uno de los conjuntos { v i } , {wi } , puede ser normalizado a la vez, ya H que se demostrará que wi v i =1, i =1,..., n.
Teorema 11. Sea A, nxn, con todos sus λ i ( A) distintos. Entonces: Existe a lo menos un autovector, v , asociado con λ i (i Si A y λ i son reales, v puede ser tomado como real.
(1) (2)
i
1,..., n).
=
i
det(λ i I − A) = 0.
Por ende, λ i I − A es singular, por el Teor1, y existe un vi ≠ 0 tal que (λ i I − A)v i = 0 . Si vi = α + jβ , con α , , λ i y A reales: Dem:
A ⋅ (α + jβ ) = λ i ⋅ (α + jβ )
O sea, Aα = λ i α , Aβ = λ i β . Como al menos uno de α , β debe ser ≠ 0 , se puede elegir v como real. Una matriz puede tener diversos v linealmente independientes entre sí para ' cada λ i . Un múltiplo de v , no se considera como un v i independiente. i
i
i
Ejemplo:
a 0 0 b
A =
λ 1 = a, λ 2 = b. Av i = λ i v i :
a 0 α α = a ; aα = aα ; b β β α 1 −1 Así v1 = β = 0 , ó 0 , ó
1) 0
bβ = aβ .
Entonces, α cualquiera; se elige α =1 , β
wi A = λ i wi H
a [α 1 β 1 ] 0
H
a A = 0
λ 1=
a, λ 2 = 0,
0
b
0
= a[α 1 β 1 ] ⇒[α 1 a β 1b] = [aα 1 aβ 1 ]; w1H = [ 1 0 ] b a 0 H 2) [γ 1 δ 1 ] 0 b = a[γ 1 δ 1 ] ⇒[γ 1 a δ 1b] = [bγ 1 bδ 1 ]; w2 = [ 0 1 ] 1 1 0 −1 Nota: Para uso posterior. Sea P = [ v1 v 2 ] = 0 1 . Entonces, P = 0 H H filas, son w1 y w 2 .
1)
0.
20 0 , ó ...
a 0 γ γ 2) 0 b δ = b δ aγ = bγ ; bδ = bδ . 1 γ 1 Así v 2 = δ = 0 , o un múltiplo de 0 . Nota: si b = 0, 1 1 v1 = , v1 = 0 0
Ejemplo:
=
0 . 1
Sus
Teorema 12. Si f(A) es un polinomio en A y v es un autovector asociado con un autovalor λ , entonces f ( A)v = f (λ )v. Así, f (λ ) es un autovalor de f(A) y v es el correspondiente autovector. Dem: Sea f ( A) = aA + bA 2 + cA3 + ... f ( A)v = aAv + bAAv + cA Av + ... = aλ v + bAλ v + cA λ v + ... = aλ v + bλ Av + cAλ Av + ... 2
2
= aλ v + bλ 2 v + cλ 2 Av + ... = (aλ + bλ 2 + cλ 3 + ...) v = f (λ )v.
Teorema 13. Sea A, nxn, con sus n autovalores distintos y sus n autovectores asociados linealmente independientes entre sí, { v i } Sea P = [ v1 ,..., v 2 ] se calcula P −1 , que existe por la independencia de los v , y i
T H sus filas se denotan por {wi } . (o {wi } , en casos reales)
Entonces w j H vi = δ ij
1,
(Delta de Kronecker) = 0,
Dem: Basta un caso 2 × 2 :
P =
a
c
b
d
∆
j = i j ≠ i
a P = [v1 v 2 ] = b
c d − w1 H ; ∆ = ( ad − bc ) w1 H = = H ∆ ∆ w2
a c v1 = , v 2 = . , donde d b d c
b H w2 = − ∆
a
∆
w1 H w1 H v1 w1 H v 2 1 0 Entonces: P P = H [ v1 v 2 ] = H = H 0 1 w w v w v 2 2 2 2 1 H H Así: w1 H v1 = 1, w H 2 v 2 = 1, w1 v 2 = 0, w2 v1 = 0 −1
En general, para nxn , j = i
1 w H v δ = = j i ij 0
, i ≠ j
;
j , i
1,..., n
=
Teorema 14. Con las mismas hipótesis del Teor13, demostrar n
∑v w
H i
i
= I
i =1
Dem: Basta el caso 2 × 2 :
w1 H H H I = PP = [ v1 v2 ] H ⇒ v1 w1 + v 2 w2 = I w2 −1
n
∑v w
En general:
H i
i
i =1
= I
Teorema 15. wi A = λ i wi H H H (λ i I − A)v i = 0 ⇔ v H i ( λ i I − A ) = 0 ⇔ v i ( λ i I − A ) wi = 0 Dem: H
H
Por Teor 9
Pero
vi ≠ 0, vi ≠ 0 , H
y: [Los
(λ i I − A ) wi = 0 H
wi
son autovalores derechos de A H o A T ]
O bien: wi (λ i I − A ) = 0 w H A = λ i w H Así: i i H Los wi son autovectores izquierdos de A H
H
n
H Teorema 16. A = ∑ λ i vi wi , suma diádica. i =1
n
n
H Dem: Avi = λ i vi ⇔ Avi w = λ i vi w ⇔ ∑ Avi w = ∑ λ i vi w j H j
H j
H j
i =1
n
∑
A
i =1
AI = A =
n
∑λ v w
v i w j H =
i =1
i
i
H j
; Por Teor13.
i =1
n
∑ λ v w i
i
H j
; Por Teor14.
i =1
1 Teorema 17. A = P Λ P − , Λ = diag (λ 1 ,..., λ 2 ) Dem1: Basta 2 × 2 0 w1 H λ 1 0 w1 H v1λ 1
A = [ v1
H = 0 0 λ 2 w2
v2 ]
2
= ∑ λ i vi wi v 2 λ 2 w H i =1 2
Esto satisface el Teor16 y rige para nxn.
H
Dem2:
[ Av1
Av 2 ] = A[ v1
v 2 ] = [ λ 1 v1
λ 1
λ 2 v 2 ] = [ v1
P
2 0 λ 0
v2 ]
P
Ω
A = [ v1
v 2 ] Λ [ v1
v2 ]
−1
= P ΛP −1 ; rige para nxn.
n
−1 H 2 Teorema 18. A = ∑ λ i vi wi = P Λ P 2
2
i =1
−1
−1
−1
−1
Dem: A = P Λ P , A = AA = [ P Λ P ][ P Λ P ] = P Λ P = [ v1 2
2
2
λ 1 2 v2 ] 0
H 0 w1
λ 2
2
H w2
= ∑λ i vi w H ; En general, nxn. i 2
i =1
Teorema 19. Si f ( A) es un polinomio en A, entonces f ( A) =
n
∑ f (λ )v w i
i
H i
= Pf (Λ) P −1
i =1
Dem: Similar a Dem. de Teor12 y usando Teor17, Teor18 y sus extensiones a mayores potencias. Ejemplo:
− 1
A =
3
1 v1 = , w1 H = [1 3
0
; λ 1 = −1 , λ 2 = −2 − 2
0 0] , v 2 = , w2H = [ − 3 1
1 v1 w1 H + v 2 w H 2 = 3
1]
0
0 0 1 0 + = 0 − 3 1 0 1
H H v1 w1 H = 1, v 2 w H =0 2 = 1 , v1 w2 = 0 , v 2 w1
H
λ 1v1 w1
1 + λ 2 v 2 w2H = ( −1) 3
0
0 + (−2) 0 − 3
0 −1 = = A 1 3 − 2 0